Nee, geen ATI optimalisaties, maar
DX10 optimalisaties. Een wereld van verschil. De CoJ DX10 engine maakt gebruik van
standaard DX10 functies.
Mensen betichtten ATI er ook van dat Valve de Source engine vol met ATI optimalisaties hadden gestopt, de Source engine draaide immers veel beter op de R300 dan de NV3x en men moest een speciaal DX8.1 path inbouwen om een beetje snelheid te krijgen op de NV3x serie.
Achteraf bleek dat de engine gewoon een pure DX9 engine was zonder specifieke optimalisaties voor ATI hardware. Dit bleek vooral toen de NV40 serie uit kwam waar nV DX9 wel goed had gedaan (op Dynamic Branching na dan) en deze gewoon wel op volle snelheid de Source Engine aan kon zonder aan IQ te hoeven in te boeten.
Dat zelfs nVidia in ziet dat Shader AA "the way to go" is voor de toekomst, zegt zelfs David Kirk in 2005:
"It would be expensive for us to try and do it in hardware, and it wouldn't really make sense - it doesn't make sense, going into the future, for us to keep applying AA at the hardware level. What will happen is that as games are created for HDR, AA will be done in-engine according to the specification of the developer.
DX10 biedt developers meer flexibiliteit wanneer het aankomt op HDR + AA. Dus waarom die functionaliteit niet gebruiken? Ik snap niet dat sommige mensen graag zo vast willen houden aan oude methodes? Als het aan hen lag, zaten we nu waarschijnlijk nog met DX7.
Ik ken eigenlijk geen enkel geval waar NV dit zou gedaan hebben, weet iemand er zo 1?
Doom3 engine? En natuurlijk Lost Planet niet te vergeten. nVidia had Lost Planet onder zijn hoede genomen en bracht meteen na de release van de HD2900XT deze benchmark uit waar ze al flink voor geoptimaliseerd hadden. AMD was zo netjes om zich niet te verschuilen achter excusen van "foute shaders" en "expres verkeerd gebruikte hogere instellingen om onze hardware in een verkeerd licht te stellen", maar zei netjes dat ze verwachten dat met nieuwere drivers de game goed zou moeten lopen.
Nogmaals Call of Juarez is niet geoptimaliseerd voor AMD, maar voor DX10. Shader Resolve AA en intensief gebruik van Geometry shaders zijn nu eenmaal nieuwe dingen binnen DX10, die je gebruikt om beeldkwaliteit te verbeteren dan wel performance omhoog te schroeven (of beide tegelijk). Daarnaast is de trend in games altijd geweest om gebruik te gaan maken van langere shaders. AMD en nVidia gebruiken twee verschillende architecturen DX10 aan te pakken. De voor- en nadelen heb ik in de first post omschreven. Games zullen uitwijzen welke van de twee architecturen het meest efficient is.
nero355 schreef op dinsdag 19 juni 2007 @ 09:52:
Als ik het allemaal eens zo zie dan lijkt het wel alsof ATI weer een 8500 heeft gebouwd wat betreft performance en compatibiliteit met de aller nieuwste DirectX of zit ik ernaast ??
Vooral dat gedeelte met Shaders en AA enz... ruikt echt naar het verhaal met DirectX 8.0 en 8.1 en die laatste kon de 8500 wel volledig en de Ti4x00 reeks niet

Leuke analogie. Was de 8500 uiteindelijk ook niet sneller dan de GF4 Ti4200 in veel games dankzij betere drivers ondanks de slome start waar hij trager was dan een GF3 Ti500?
AMD is gewoon bezig zoals ze altijd bezig zijn geweest. Zo bevatte de Radeon9700Pro ook al geometry instancing, kan ook adaptive AA en gaat in bepaalde gevallen zoals de grootte van de registers ook al over de SM2.0 standaard heen. Zo is de R600 puur met het oog op DX10 gebouwd. Performance in DX9 was een stuk minder belangrijk.
[
Voor 9% gewijzigd door
CJ op 19-06-2007 12:35
]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.