FirefoxAG schreef op donderdag 19 januari 2006 @ 14:11:
[...]
Was i.m.o. wel een foute keus, gezien gamedev's dit duidelijk wel gebruiken en het zodoende op ATi hardware geemuleerd moet worden. Dit kost nodeloos veel performance, en is iets dat ATi van tevoren had kunnen weten. In dat opzicht een foute keuze dus, en dat blijkt gezien de HDR performance van X1800 tot nu toe. Dat argument van de 6200 slaat natuurlijk nergens op, en je geeft zelf al aan waarom niet

En wat betreft gebrek aan SM3.0 ondersteuning in de X800 serie: met het oog op toekomstige - zelfs huidige - games was SM3.0 ondersteuning in mijn optiek inderdaad een betere keus geweest.
Hoezo foute keuze? Hoeveel games vereisen er nu FP16 Filtering bij HDR? Woohoo, 1 game en 1 benchmark maken er nu gebruik van. Het gebrek aan hardwarematige FP Filtering doet bijna niets af aan de HDR performance zeker wanneer de shaders snel genoeg zijn. Tegen de tijd dat er games zijn die er heel erg veel gebruik van maken zijn de R600/G80 er al weer die hier veel beter voor geoptimaliseerd zijn. ATi maakt een tradeoff tussen het moment dat er software beschikbaar komt die een bepaalde functionaliteit ondersteunt, die-size en kosten. Net zoals ze dat gedaan hebben met SM3.0. En ik vind dat ze dat vanaf de R300 steeds goed gedaan hebben.
Datzelfde gold toendertijd met SM3.0. Hoeveel games hadden er nu SM3.0? Eentje. En de huidige games ondersteunen zowel het SM3.0 als SM2.0 pad, en nu blijkt dat de GF6 serie vaak net zo snel is als de X800 serie. Dus van een 'foute' beslissing kan je hier in mijn ogen niet spreken. ATi had gelijk toen ze zeiden dat SM3.0 ondersteuning in 2004 te vroeg was en dat tegen de tijd dat SM3.0 echt ingeburgerd zou zijn, die hardware te traag zou zijn wanneer er wel volop gebruik werd gemaakt van SM3.0.
Iedere omzetting kost performance, in het ene geval meer dan in het andere geval. R2VB is geen DX9 standaard, VTF wel. Unified shaden is ook geen DX9 standaard trouwens, dus geen reden om een eigen - in principe overbodig - proprity formaat te pushen...
Het zelfde geldt voor 3Dc: geen DX9 standaard, dus optioneel. Niemand kan FM verplichten het te gebruiken omdat dit ATi voordeel oplevert.
Niet iedere omzetting kost performance. Zo heeft nV kosteloze omzetting van DX8.1 calls naar DX9. En zo renderde de R3x0 serie alles intern op 32-bits, ook al kwam er 16-bits data binnen (16-bit -> data intern omgezet naar 32-bits voor bewerking -> data intern omgezet naar 24-bits voor output) en dit kostte niets. Het gebruik van R2VB zorgt helemaal niet voor een performancedrop en als die er al is, dan is het verwaarloosbaar.
Oh ja, en het leuke is dat NV40/G7x ook R2VB kunnen en dat ook deze kaarten waarschijnlijk sneller zijn met R2VB dan met hun hardwarematige Vertex Texture Fetch die niet zo snel is. Imo dus een hele rare beslissing van FutureMark om nu nog op het laatste moment voor DX10 gebruik te maken van de oude manier van VTF, terwijl R2VB meer een stap is richting de toekomst van unified shading. En 3DM was toch altijd een benchmark die ook de performance in toekomstige games moest kunnen voorspellen?
Hetzelfde geldt voor 3Dc. Open standaard, geintegreerd in Windows Graphics Foundation/DX10. Al gebruikt op de Xbox360. Eigenlijk zeer vergelijkbaar met het gebruik van FP Filtering in de test. FP Filtering is verplicht voor OpenEXR HDR, maar niet voor alle vormen van HDR. 3Dc kan gebruikt worden bij HDR maar is niet verplicht. Toch gebruikt FM FP Filtering in een test en geen 3Dc.
Dat is 't nu eenmaal met eigen proprity formaten: je loopt het risico dat dev's besluiten het niet te gebruiken en een andere oplossing kiezen... en als dat gebeurd moet je niet klagen, je hebt er immers zelf voor gekozen je eigen optionele formaat neer te zetten.
En DST24 is geen priopriatary formaat? DST is NOG geen officiele DX feature. Daar gaat je hele groene verhaal dus over het risico van het gebruiken van zelfgemaakte formaten... Feit blijft dus gewoon dat Futuremark hier 1 fabrikant bevooroordeelt boven anderen die geen DST hebben. Slechte zaak voor een gamingbenchmark. Hetzelfde geldt voor PCF.
Ter vergelijking, hardware die DST/PCF ondersteunt doet er 2 clockcycles over om iets te renderen. Hardware zonder DST/PCF kan het doen in 14 clockcycles (terwijl 1 fabrikant (ik geloof ATi) heeft aangegeven dat ze het in 7-8 clock cycles kunnen. DST/PCF heeft als voordeel dat het snel is, maar als nadeel dat schaduwen er niet soft uit kunnen zien maar harde randen hebben (zie ook Far Cry).
Ik vond de verklaring dat 16bits precisie onvoldoende was voor het door Futuremark beoogde kwaliteitsnuveau vrij plausibel. 24bits is dan ook een minimale vereiste. Kaarten die dat niet ondersteunen moeten dus de volgende stap - ofwel 32 bits - pakken. Ik zie het ook helemaal niet als onrealistisch dat dev's binnenkort hogere kwaliteit shadows dan 16bits gaan gebruiken. Dat houdt automatisch in dat de X1800 32bits in schiet, omdat die de 24bits tussenstap niet kan maken.
Foute keus dus i.m.o. omdat je dan OF nodeloos performance verliest OF lagere kwaliteit shadows aan moet zetten op een X1800.
En ook hier weer kiest FM een formaat van een bepaalde hardwareboer, terwijl ze hiermee dus 50% van de gamersmarkt weer negeren. Ze kiezen meer groene opties dan rode. Dat moet jij nu toch zelfs zien?
Het zou me niet verbazen als het trouwens ook deze "issue" is die bij FEAR SoftShadows speelt.
"Optioneel" betekent dat het door dev's gebruikt KAN en MAG worden, en ik vind dat je als IHF hierop moet anticiperen.
En niet moet huilen als het vervolgens wel gebruikt wordt en dat jou performance kost. Net als nV niet moet huilen wanneer DB gebruikt wordt... dat zijn de keuzes die je maakt.
Als je eens wist wat er allemaal wel niet optioneel is in DX, dan hebben hardware fabrikanten hier nog een flinke kluif aan om alles te integreren in hun GPUs. Die zouden dan veel te groot worden. Je moet keuzes maken en ATi heeft op safe gespeeld door in de eerste plaats alleen de verplichte opties te integreren. Dit zou ook de manier moeten zijn waarop FM hun benchmark in elkaar zou moeten zetten en zoals ze dat vroeger altijd deden, namelijk door het volgen van de D3D eisen.
Oh trouwens, FP Blending + AA is ook optioneel in DX. Staat zelfs omschreven in MS documenten. Maar toch kiest FM er voor om dit niet standaard aan te zetten, wat ze wel doen met bepaalde andere functies die alleen door NV hardware ondersteunt wordt.
Toen ongeveer een jaar geleden de Geforce FX serie definitief af ging in 3DMark05 was dat een prachtige indicatie van de toekomst - ook volgens de ATi cracks. Nu de ATi X1800 serie de 7800 serie - volkomen terecht i.m.o. - niet domineert in 3DMark06 wordt Futuremark plotseling afgeschilderd als de evil rechterhand van nVidia die met opzet nV bevoordeeld in de benchmark.
Vind je dat zelf niet - op zijn zachtst gezecht - ronduit hypocriet? Met name als je de - t.o.v. de 7800 - bedroevende X1800 HDR performance in het plaatje meeneemt? Als FM echt nV had willen bevoordelen hadden ze dit gemakkelijk kunnen doen met een zwaarder gewicht aan HDR. En gezien de performance die ik tot nu toe heb gezien van ATi in FP16 HDR games mag ATi zich misschien zelfs in zijn handjes knijpen met dit resultaat i.p.v. op Futurmark te bitchen.
Het enige wat hypocriet is is dat nVidia toendertijd met veel bombarie uit de BDP is gestapt en met rechtelijke stappen dreigde tegen FM, maar nu de grootste vriendjes is en zelfs mailtjes rondstuurt naar mensen waarin ze 3DM aanprijzen als de heilige graal van benchmarking.
En er is een heel verschil tussen toendertijd met de FX en 3DM05 en nu met 3DM06 en de huidige series. De FX was gewoon brak, maar veel nVidiots wilden toen maar niet geloven dat dit ook echt zo was "want ik kan alle games nu nog lekker snel spelen". Op zich natuurlijk prima als je het niet erg vind om om de zoveel tijd een nieuwe kaart te kopen. Het merendeel van de gamers doet het echter niet. 3DM05 gaf gewoon mooi aan wat er zou gebeuren bij veel shadergebruik (en zoveel shaders zaten er eigenlijk nog helemaal niet in). Maar ondanks dat geloofden velen het niet en toonden de games die toen uitkwamen aan dat de FX daadwerkelijk brak was (zie bv Rollercoaster Tycoon 3, Tribes Vengeance (UT2 engine met veel shaders)).
Nu heb je het geval dat FM alleen maar nV only features implementeert en geen ATi only features. Op z'n minst toch heel hypocriet. En omgekeerd zie je nu dat er nu shaderintensieve games uit komen (en nog gaan komen) die sneller zijn op ATi hardware dan op NV hardware, terwijl 3DM06 weer anders aanduidt. Laat staan dat het de CPU heel erg belangrijk is geworden.
Maar goed, zoals gezecht verbaast deze reactie me niet. Het geeft - om mij niet verrassende redenen - niet het resultaat weer dat ATi cracks verwacht hadden, dus zoekt men maar een stok om FM mee te slaan i.p.v. dat ATi de hand in eigen boezem steekt.
Het is misschien moeilijk te geloven door die groene waas van je, maar sommige mensen kunnen echt door dat verschil tussen groen en rood heen kijken en objectief kijken naar een instelling als FM en hun benchmarks.
Als de avg framerate van de X1800XT 18fps is waar de GTX TOP 38fps doet: lijkt me wel ja

Dat doet er verder helemaal niet toe. Ik vroeg je indirect of het erg is dat een patch een probleem verhelpt zonder dat de IQ en performance naar beneden gaat. Ik denk namelijk niet dat dit iets is om over te klagen (ongeacht hoeveel fps er over het algemeen op het scherm wordt getoverd). Er om heen lullen kan je goed.

Extremetech gaat toch wel erg ver in het verkondigen van ATi's (PR) visie op het geheel.
Ze stellen zelfs voor om de 6800/7800 in de HDR+AA tests de SM2.0 score te laten genereren, wat echt totaal nergens op slaat. Het hele idee van een benchmark is dat dergelijke scores vergelijkbaar moeten zijn, en door 2 totaal verschillende scores te baseren op 2 totaal verschillende renderpaden maak je dit scheer onmogelijk en je benchmark tot een farce. Uiteraard zou dit ATi wel goed uitkomen, omdat de 7800 serie vanwege de ontbrekende SM3.0 HDR+AA tests veel lager zou scoren dan de X1800.
"Prima" zegt Extremetech, "doen"! Ook al genereren we daarmee een volslagen bogus score die kant nog wal raakt omdat die niet vergelijkbaar is met zowel ATi's HDR+AA score, en ook niet met nV's eerdere HDR/noAA score. Met zo'n volslagen non-score voor de Gf6/7 serie lijkt ATi namelijk veel beter uit de bus te komen!
Ok, even wat dingen vetgemaakt. Komen we weer uit bij DST/PCF/FP16 Filtering. Totaal verschillende renderpaden dus voor hardware die niet de nV specifieke functies ondersteunen, scores zijn dus niet vergelijkbaar (want ene kaart doet -tig keer meer werk) en de benchmark is een farce.
Ik hoop trouwens dat het iedereen hier om bovenstaande reden ook duidelijk is dat de 3DMark06 scores van SM3.0 (+FP16 HDR) compliant kaarten totaal niet te vergelijken zijn met die van SM2.0(b) compliant kaarten?

De enige vergelijking die kan worden gemaakt is SM2.0 vs SM2.0 en SM3.0 vs SM3.0, tenzij de individuele game framerates bekeken worden. De X1600 score bijv. kan niet worden vergeleken met die van de X800XT etc.
Ook heel grappig dat opeens de GF6800U in de SM2.0 tests net zo snel of zelfs sneller is dan een X850XT PE. Of dat zelfs een 6600GT sneller is dan een X800GTO. Ik heb dit al gelezen op meerdere sites, maar de nieuwe shaders zijn heel erg geoptimaliseerd voor groene hardware. ATi gaf toe dat ze dit eigenlijk min of meer aan zichzelf te danken hadden doordat de R520 zo laat was, maar FM maakt zichzelf hier wel heel erg belachelijk door nu eigenlijk 3DM05 overbodig te maken en andere resultaten te laten genereren.
Tja, ik weet niet precies wat het exacte verschil in performance is, maar dat het zwaarder is is niet zo moeilijk te bedenken. Onderzoeken zullen moeten uitwijzen wat het exacte verschil is. Feit blijft dat volgens FM 16bits precisie onvoldoende bleek voor de in 06 gebruikte shadowmaps. Zodoende hebben ze (i.m.o. terecht) 24bits als minimumvereiste gesteld voor een bepaalde door hun gewenste kwaliteit shadows. De X1800XT ondersteund dit niet, dus springt naar 32 bits... lijkt me niet dat je FM daarvan de schuld moet geven.
Je hebt het nu steeds over onderzoek en aantonen dat er verschil is... Nou, laat ze dan maar eerst aantonen dat 16-bits inderdaad niet voldoende was. En zelfs al was dat zo, dan is dat geen reden om een propriatary format te gebruiken. Dat de X1600XT en X1300Pro er van profiteren is duidelijk, gezien het feit dat de X1600XT met maar 4 pipelines (en 12 pixelshader processors) de GF6800GS verslaat en de X1300Pro in de buurt komt van de 6600GT. Maar dat wil nog niet zeggen dat de benchmark die bedoelt is om een eerlijke vergelijking te geven dit ook doet.
Even in de herhaling:
1. De GTX is zonder AA/AF over het algemeen sneller dan de X1800XT
2. De GTX is met HDR
veel sneller dan de X1800XT
Echter, in een test zonder AA/AF en met HDR trekt de X1800XT nu gelijk met de GTX... volgens jouw theorie zou je bijna zeggen dat ATi bevoordeeld wordt, vergeleken met real life games

1. Mensen die een GTX / XT kopen spelen over het algemeen met AA/AF aan. Sommige reviews gebruiken nu alleen al die instellingen om kaarten te testen. Call of Duty, FEAR, Battlefield 2. Allemaal recente DX9 games waarin ATi sneller is. Sign on the wall?
2. Niet met alle vormen van HDR is een GTX veel sneller hoor. Je pint je te veel vast in OpenEXR HDR terwijl er al vaak genoeg gewezen is op andere vormen van HDR waar ATi prima mee kan. Zie bv (zoals al zo vaak genoemd, maar blijkbaar door jou over het hoofd gezien) Splinter Cell: Chaos Theory waar ATi gewoon veel sneller is, ondanks dat het bijna een identieke vorm van HDR is als wat gebruikt is in Far Cry. Veel hangt dus af van de developers. We zien nu games waarin ATi de boventoon voert en games waarin nV de boventoon voert. Een benchmark zou dit moeten reflecteren en ook duidelijk moeten specificeren wat voor type HDR er gebruikt wordt, zodat je met gemak kan voorspellen welke hardware ergens voordeel bij heeft. Meerdere HDR opties zou wat dat betreft een stuk beter passen bij 3DM.
]
* Parallax: Inderdaad een gebrek, maar geen ramp, want geen van beide kaarten hoeft het dus te renderen.
* DB: Waarom had er "uitvoerig" DB gebruikt moeten worden? Om ATi te bevoordelen misschien, want het is in geen enkele game te bekennen?
* Depth stencils: De test vereist 24 bits of hoger. Niets IHF specifiek dus, dat ATi's X1800 geen 24 bits ondersteunt ligt aan niemand anders dan henzelf. Volgens jou zelf ondersteunen de X1300 en X1600 het trouwens ook, dus daarmee kan het "minimaal 24bit = IHF specifiek" argument al helemaal van tafel.
* Parallax (Occlusion) Mapping: Het gaat er niet om dat beide fabrikanten het niet hoeven te renderen. Het gaat er om dat Parallax Mapping een SM3.0 optie is die in veel nieuwere games gebruikt wordt of gaat worden. 3DM als gamersbenchmark dient dit te reflecteren.
* DB: Zie ook Parallax Occlusion Mapping
* 24 bits is IHV specifiek en niet standaard DX. Dat ATi er voor kiest om dit al wel te integreren in de X1300 en X1600 doet niets af aan het feit dat FM hier nu weer een fabrikant voor trekt. ATi integreert DST24 dus mag FM het integreren van jou. NV integreert 3Dc in de drivers via een hack, dus mag het niet van jou gebruikt worden?
Dit staat dus helemaal los van het feit dat DST eventueel in de toekomst wel of niet in DX geintegreerd wordt (wat ik wel verwacht anders gaat ATi het niet ondersteunen). Als dat wel het geval was, dan had FM ook 3Dc en R2VB moeten integreren volgens dezelfde denkwijze.
Het grappige hieraan is dat iedereen hier roept dat FM wel proprity ATi formaten moet hanteren, maar tegelijk geen optionele DX9 formaten (waarvan ATi er zelf voor heeft gekozen die niet te ondersteunen) mag gebruiken. Make up your mind, en wees een beetje consequent plz...
En al met al bekeken denk ik dat dit plaatje met het oog op HDR er voor ATi een heeeeel stuk slechter uit had kunnen zien als FM werkelijk nV had willen bevoordelen.
R2VB is een officiele goedgekeurde extensie van DX9 die nV kaarten ook kunnen. Eigenlijk dus gewoon een optioneel DX9 formaat. Beide fabrikanten kunnen het aan en dat kan je niet zeggen van DST/PCF.
Wat dat betreft ben ik vrij consequent geweest, maar ben jij degene die niet consequent is. Eerst roepen dat een benchmark vergelijkbare scores moet geven en dat dit niet kan als er verschillende renderpaden gebruikt wordt. Maar blijkbaar vind je het niet erg dat dit dus wel gebeurt en geeft 3DM06 dus een goed beeld van de realiteit. Make up your mind pls.

[Voor 4% gewijzigd door CJ op 19-01-2006 16:31]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.