Jij ziet. Ben blij dat je het zelf ziet... want je probeerde toch echt woorden in mijn mond te stoppen (getuige het eerdere:
je zegt dus eigenlijk dat AMD een serieus probleem), terwijl je voor jezelf spreekt. Maar het blijft een feit dat je geen PhysX nodig hebt om de game te spelen zonder dat de gameplay er onder leidt. Maar gezien je verdere reactie lijkt me dat je dat niet helemaal snapt?
Dat de game slecht verkoopt ligt niet aan PhysX, elke PC game verkoopt slecht. De console versie van Mirror's Edge verkoopt wel goed.
Hey.... huppa... ben blij dat je het zelf zegt...
Console versie. Xbox360 heeft geen PPU aan boord. PS3 heeft geen PPU aan boord. Deze crossplatform game wordt dus gemaakt met de grootste gemene deler in gedachten en die mensen hebben geen beschikking tot een apparaat die GPU physics kan. Daarom... heeft PhysX geen impact op de gameplay... Daarom zal er nooit een crossplatformgame komen in bv de Battlefield, Splinter Cell, Call of Duty serie waar de verschillen te groot zijn door iets als PhysX wat maar ondersteunt wordt door 1 GPU fabrikant. Het zijn allemaal determinatoren die bepalend kunnen zijn voor het succes van iets als GPU Physics.
Zie ook uit de conclusie van het
Tech Report artikel over Mirror's Edge en GPU PhysX. Die zeggen het heel treffend:
PhysX's future is looking better every day, but it seems doubtful that a blockbuster title will ever require the technology. Not only do AMD graphics cards still lack PhysX support, but cross-platform development is par for the course nowadays, and not all current-gen consoles will be able to handle PhysX effects designed to run on desktop GPUs.
Of een andere Tech Report editor die er
dit over zegt:
Before I sign off, I'd like to say a word about PhysX. Nvidia showcases Mirror's Edge like an example of PhysX integration done right, but it didn't take me long to turn that feature off. Simply put, it induces a significant frame rate hit, and most of the PhysX additions are barely noticeable—more realistic broken glass after shattering a window, fancier smoke effects, random debris, etc. DICE also added destructible pieces of cloth, tarp, and translucent plastic sheeting throughout the game, but those often look out of place. In one instance, I found a small crawlspace where a pristine plastic sheet was separating a ventilation fan and the switch controlling it. Is that really the best PhysX has to offer?
Zo lang crossplatform-development boventoon voert zal GPU PhysX nooit echt een groot succes kunnen worden, ongeacht hoeveel geld nV er tegen aan smijt. Het zal blijven bij effects physics om de boel er mooier uit te laten zien en niet bij datgene wat ook echt een meerwaarde aan de gameplay kan toevoegen.
VGA kaarten zijn tegenwoordig te snel om nog toegevoegde waarde te geven aan 90% van de gamers. Zij kunnen de meeste spelen nagenoeg voluit spelen op de resoluties die hun TFT toelaat. De kwaliteit van de graphics tussen AMD en NV is ook minimaal. Dus om toegevoegde waarde in games te bieden en de beleving van games te verhogen moet er iets anders gebeuren... en dat zijn physics in games.
Mee eens. Maar alleen wanneer het ook echt een toegevoegde waarde heeft. Effects physics hebben dat niet. Gameplay physics wel. Tot nu toe is PhysX niet meer dan effects physics.
PhysX maakt het mooier, meer details, rijker. Dit voegt hetzelfde toe als DX functies die beeld / games kwaliteit verhogen zoals bump map shading dus de toevoeging is niet verwaarloosbaar als je het mij vraagt.
Lees je eens in in de verschillende vormen van physics.
Korte versie... Je kan physics op dit moment in twee soorten opdelen:
1 - Effects Physics
2 - Gameplay Physics
Het eerste is wat je nu ziet in games als Mirror's Edge. De GPU wordt gebruikt om collision detection, fluid dynamics, hair simulation, cloth simulation te doen... kortom allemaal effecten die de gameplay niet beinvloeden. Ja, het ziet er mooier uit... maar het is niet noodzakelijk voor de gameplay.
Het tweede beinvloed hoe je de game van moment naar moment speelt. Normaal gesproken wordt dit door de CPU gedaan. Denk aan fysieke veranderingen.. zoals in het voorbeeld van die tunneldoorgang in mijn vorige post. Hierdoor zal gameplay physics ook gelijk gekoppeld worden aan de AI... wat in mijn ogen veel interessanter is...
Ik kan me voorstellen dat je het een enorme verrijking vindt voor je spelervaring, maar ik hoop ook dat je je kan voorstellen dat er ook erg veel mensen zijn die 'not impressed' zijn met de manier zoals GPU physics zich op dit moment ontwikkelen.
Gaat AMD nu wel of geen problemen krijgen door PhysX? Ik denk dat je nVidia genoeg kent om te weten dat er meer software zal komen en dat er ook grote titels tussen zullen zitten.
Problemen? Nee... En ja... er komt meer software aan... net zo veel software als dat ze zeiden dat er 1 jaar terug aan zou komen... het aantal AAA PhysX titels die gebruik maakt van de GPU (want onthoudt dat PhysX van huis uit altijd op de CPU draait en veel games die de PhysX SDK gebruiken dus gewoon netjes de software CPU variant gebruiken) wat het afgelopen half jaar is uitgekomen... is op 1 hand te tellen... oh wacht... 1 vinger zelfs?
Overigens is het hele PhysX verhaal een 'moot point' wanneer Windows 7 er is. Mochten mensen met een Radeon echt willen genieten van de effects physics die een aparte PhysX GPU levert dan is er alsnog de optie om een goedkope 9600GT te kopen waarvan gebleken is dat dit de meest efficiente physics GPU is. Ja, meer verkopen voor nV, maar ik denk niet dat dit verder zo'n impact zal hebben wegens gebrek aan grote AAA titels ondersteuning... en ik verwacht dat er voor die tijd nog wel een andere aankondiging is gedaan door een bepaalde IHV.
De vraag is of Havok gaat werken op een AMD GPU. Als dat niet zo is, is het dan ook ineens slecht?
De vraag is niet of het slecht is of niet. De vraag is of het een open standaard is of niet. PhysX is dat niet. Havok ook niet, maar Havok staat wel open voor anderen. Zoals het er op dit moment voor staat is AMD al in staat om Havok physics calls te onderscheppen en dit naar de GPU te leiden wanneer ze dit efficienter lijkt... ze activeren dit pas wanneer het ook echt zinvol is in games... of misschien houden ze wel een bepaalde troef achter de hand voor de toekomst...
Zorgt Intel er straks voor dat Havok ineens niet meer zo onafhankelijk is... en gaan ze nV praktijken uitvoeren... ja... dat is slecht. Maar dat maakt de engine niet per definitie slecht, net zoals de PhysX SDK per definitie niet slecht is.... Het gaat dus meer om het bedrijf er achter... en de manier waarop iets aan de man wordt gebracht.
Enerzijds zeg je dat PhysX niets toevoegd en te verwaarlozen is maar daarna loop je wel te zeggen dat Havok beter is? PhysX is er nog lang niet en dat is direct het probleem voor AMD want die lopen nu een stap achter. Dus het is wachten tot Intel zegt, kom AMD we geven onze technology waardoor wij (Intel) een groot Unique Selling Point missen en geen market share kunnen afpakken van jullie.
Nou doe je het weer... woorden in andermans mond stoppen... Slechte gewoonte.
Ik zeg niet dat Havok beter is. Ik zeg dat Havok wijder verspreid is, het is meer common technology. Het wordt gebruikt in grote films, de afgelopen jaren zijn er honderd keer zo veel games uit gekomen die gebruik maken van een Havok physics-engine dan van PhysX, het wint Emmy awards... dat is allemaal niet voor niets. Dat wil in ieder geval zeggen dat je een grote achterban hebt. In hoeverre heeft nVidia de middelen om er voor te zorgen dat ze net zo'n grote push achter PhysX kan zetten? De afgelopen 2 jaar sinds de overname heb ik daar nog bar weinig van gezien.
AMD loopt niet achter. AMD hoeft geen GPU physics in huis te hebben om mee te kunnen. Dat weet jij net zo goed als ik. AMD heeft een GPU in huis die twee keer zo klein is als het beste wat NV heeft en die in enkele recente GPGPU toepassingen een stuk sneller is gebleken dan nV. Ik durf te wedden dat zich dat straks ook gaat vertalen richting performance in OpenCL/ComputeShaders. Ze ondersteunen Havok, ze ondersteunen OpenCL, ze ondersteunen ComputeShaders in DX11... Alle grote (en open) standaarden worden ondersteunt... dus ook de standaarden waarmee op andere manieren physics naar de GPU kan worden geoffload.
PhysX is geen open standaard. Het is proprietary software waarvoor je eerst nog een andere proprietary standaard moet ondersteunen (CUDA). Het is gewoonweg niet leuk om afhankelijk te zijn van een standaard die gedicteerd wordt door je grote concurrent die zo maar met de komst van één enkele driverupdate er voor kan zorgen dat je Radeon GPUs 20% langzamer draaien dan op hun eigen GeForces. En je kent nVidia goed genoeg om te weten dat ze dit zullen flikken wanneer AMD PhysX zou ondersteunen puur en alleen om hun GPUs beter uit tests te laten komen.
GPU Physics is de next big thing... of dat is het eigenlijk al 2 jaar lang... Maar met de komst van OpenCL en ComputeShaders zal het eindelijk de grote vlucht kunnen nemen die het nodig heeft... en dat werkt op alle GPUs en niet op die van een enkele IHV... (Havok werkt trouwens ook op alle GPUs!).
Los daarvan ben ik op dit moment eigenlijk helemaal niet zo impressed van GPU Physics... tenminste niet in de Effects Physics toestand waar het zich nu bevindt. Give me Gameplay Physics! En wat ik veel interessanter vind is de mogelijkheid om de AI te laten berekenen op de GPU a la de AMD demo Froblins. Met OpenCL en ComputeShaders zal je dit ook vaker gaan zien. Denk aan veel realistischere en vooral slimmere vijanden in RTS games of shooters. Elke unit met een unieke eigen AI zodat elke game die je speelt nooit hetzelfde zal zijn.
Speel de Froblins demo eens voor de gein... en plant ergens een monster of stofwolk en zie de units (met elk hun eigen AI) proberen een vluchtweg te vinden zonder elkaar in de weg te lopen... elke beweging.. elke AI van elke unit... wordt door de GPU berekend... en nooit doet een unit exact hetzelfde wat een andere unit doet... Dat is pas impressive!
Oh om dan maar niet te spreken over het feit dat tegelijkertijd ook nog eens de Tesselator gebruikt wordt om elke unit er realistischer te laten uit zien.
Ik neem aan dat je gezien hebt dat Intel en nVidia een dispuut over de chipset licentie hebben? Dat doet Intel al jaren en zo hebben ze Sis en Via ook de markt uitgewerkt. Waarom zou het na al deze bedrijven anders zijn bij AMD op de VGA markt?
Yep. Gezien.
Intel roept nVidia op het matje.. En ongetwijfeld zullen ze het proberen op de VGA markt, maar dan moet LRB wel erg goed zijn. En voor zover ik weet heeft LRB alleen een programmeervoordeel... het performancevoordeel zit nog steevast bij nVidia en AMD. Intel zou zoiets alleen kunnen proberen wanneer hun eigen product dus ook dusdanig presteert om een goed alternatief te vormen. Als hun huidige GMA GPU, waar ze nu een groot marktaandeel mee hebben, competitief was met de huidige HD4800 en GTX serie... reken maar dat ze dit al geflikt hadden.
Maar tot op dit moment is LRB niet meer dan een show van PPT-slides geweest.. tot GDC 09.
[
Voor 15% gewijzigd door
CJ op 19-02-2009 03:38
]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.