Verwijderd schreef op 15 July 2003 @ 12:02:
[...]
Ik vroeg hoe je aan het feit komt dat de
cpu minder een bottleneck vormt bij ATI tegenhangers. Allemaal wel leuk en aardig die linkjes met grafiekjes waar nvidia kaarten in hoge resoluties slechter presteren, maar dat is geen antwoord op mijn vraag.
Waarom dat precies zo is, zul je aan ATI en nvidia moeten vragen, dat hangt namenlijk van hun keuzes bij het GPU-ontwerp en de drivers af. Aan de resultaten uit de praktijk kun je echter zien dat dit een gegeven is. Mag ik je er even fijntjes op wijzen dat jij degene was die dit meende te moeten ontkennen zonder ook maar enige argumentie of praktijkgegevens? Toon mij maar eens waarom jij dit als 'feit' meende te moeten brandmerken, terwijl wij in diverse benchmarks het resultaat van dit gegeven keer op keer weer kunnen zien.
[...]
1. Splintercell is geoptimaliseerd voor geforce4 kaarten. Daarom doet de ti4200 het zo goed. Heeft niets te maken dat de geforce kaarten meer halen uit je systeem.
De Xbox versie van Splinter Cell is de versie welke speciaal en alleen voor een op Geforce-basis GPU variant geoptimaliseerd is. Laten wij eens een kijkje nemen hoe dat met de PC-versie zit. Hiervoor kijken naar de resultaten van een aantal verschillende GPU's uit het middensegment bij een aantal moderne games:
Bron:
http://firingsquad.gamers...-vtdr128_review/page5.asp
Van elke test geef ik de score bij 1024*768 en 1280*1024(960)
UT2003 Flyby
9500pro 167 114.2
9600pro 148.3 100.1
TI 4200 143.3 95.5
FX 5600 121 81.9
9500 107.1 70.7
UT2003 Botmatch
9500pro 86.4 76
9600pro 84.4 72.7
TI 4200 81.6 66.2
FX 5600 73.6 55.8
9500 77.1 55.8
Comanche 4 (leunt zwaar op CPU recources)
TI 4200 54.3 48.1
9600pro 53.9 50.6
9500pro 53.6 50.6
9500 53.5 49.3
FX 5600 43.4 34.9
Splinter Cell
9600Pro 33.9 27.3
TI4200 32.5 25.6
9500pro 30.0 24.5
9500 28.4 21.7
FX 5600 23.5 19.0
Wij zien dat de Geforce 4 in alle testen goed presteerd en bij de top 3 zit, bij Comanche met 1024*768 zelfs de snelste kaart is (al is het verschil minimaal). Bij Splinter Cell scoort de GF 4 als 2e, doet het daarmee zeer goed maar niet signifikant beter dan de andere kaarten.
Sterker, wij zien dat de grote winnaar in Splinter Cell is niet zozeer de TI 4200, maar juist de Radeon 9600pro, hij wint met beide reoluties, iets wat hem in de andere games niet lukt. Dus als de PC-versie een bepaalde GPU bovengemiddeld goed voor de dag laat komen, dan is dit eerder de
Radeon 9600PRO. Maar een dergelijke stelling zou eveneens onzin zijn.
Leg mij nu eens uit hoe jij in vredesnaam tot de conclusie bent gekomen dat de PC-versie van Splinter Cell een pro Geforce game zou zijn en deze dus bovenmatig sterk zou moeten bevoordelen? Gaarne toelichten!
2. Je moet 3dmark2003 als een gehele test zien. Niet test 2 en 3 eruit halen en dan conclusies trekken.
???
Het punt waar 3Dmark2003 als test compleet de plank misslaat en voor gameperformance irrelevante resultaten laat zien, dat zijn met name test 2 en 3. Dus logisch dat ik deze naar voren haal. Bovendien maken deze testen gebruik van een DX8.0 en DX8.1 code en kunnen wij hier i.t.t. test 4 al wel met echte games vergelijken. Want het eerder genoemde Splinter Cell zet bij de instalatie automatisch DX9.0 op je PC (waaronder 3Dmark2003 ook loopt) en maakt net als test 2 en 3 gebruik van DX8 functies. Tevens is dit qua grafische effecten een bijzonder moderne en aantrekkelijke game (ik vind hem zeker mooier dan 3Dmark2003) en is hiermee een goede indicatie voor vele toekomstige games.
[...]
Lekker krom "sarcastisch" voorbeeld. Onnodig geflame.
Naar mijn mening is er één groot verschil tussen mijn en jouw geflame. Ik probeer met argumenten en gegevens te onderbouwen waarom ik iets verkondig. Jij gaat jammer genoeg niet op een zinvolle wijze in op mijn argumentatie, laat staan dat je zelf met een goed voorbeeld en/of argumentatie komt waaruit zou kunnen blijken dat ik het met mijn constateringen mis zou hebben en dat jou "niettes-Pfff-onzin" geflame wel ergens op gestoeld zou zijn. Want zeg nou zelf, je bij dit punt gemelde schijnargumentatie was, om het voorzichtig te zeggen, nou niet echt een toonbeeld was van een inteligente en goed onderbouwde argument. Niettemin moet ik toegeven dat ik achteraf vind dat ik dit, van mijn kant overigens ironisch bedoelde (en niet sarcastisch, dan zou ik mijzelf niet als Meneer_Eigenwijs erin gezet hebben, nietwaar?) Jip en Janneke verhaal beter had kunnen weglaten.
Bij deze een welgemeend excuus hiervoor!
[...]
Ja en? 3DMark2003 is geen benchmark voor DirectX 7 of 8 games, maar voor DirectX 9 games…..
Denk nou eens na: als game 1/2/3 (DirectX 7/8) 80% van de score uitmaakt, waarom presteren alle GF4 Ti kaarten dan zo laag? Ze zouden hoogstens 20% minder punten moeten halen dan bijv een 9500Pro….
Lees nou eindelijk eens wat ik schrijf, doe eventueel literatuur onderzoek (of gebruik google) en denk zelf eens goed over deze materie na. Dan zul jij eveneens tot de conclusie komen dat de testmethodiek van 3Dmark2003 aan vele kanten rammelt.
En mocht je het toch niet met mij eens zijn, kom dan eens met
feiten en
argumenten opdat er een serieuze discussie over te voeren valt. Wel graag in een ander topic (zie ook hieronder). Bij voorbaat dank!
’03 is geen benchmark voor games met DirectX 7 en DirectX 8 games, maar zoals gezegd DirectX9 games. Dat DirectX 7 en 8 erin zitten, is om te laten zien hoe kaarten die niet DirectX 9 ondersteunen (ie GF4 TI’s) zullen presteren in toekomstige directx9 games (t.o.v. bijvoorbeeld de 9500Pro) aangezien die kaarten toch ook die games kunnen draaien.
Als ze alleen DirectX 9 in de 3DMark2003 hadden gedaan, dan was het geen echte benchmark geweest aangezien je dan niet kan testen hoe bijvoorbeeld de TI4600 presteert in toekomstige games.
Als Futuremark op een
methodisch juiste manier het performanceverschil tussen een DX8 en een DX9 kaart bij een DX9-game had willen meten, dan hadden zij dit op de volgende wijze kunnen (moeten) doen:
-je neemt testen welke op dusdanige DX9-routines en overige functies gebaseerd zijn als toekomstige games waarschijnlijk zullen zijn (en net als menig DX8 game van nu ook nog veelvuldig van DX7, lagere DX functies, CPU-recoures e.d. gebruik maakt zal dat ook voor de toekomstige DX9 game en test gelden).
- Je laat de DX9 kaarten in deze testen ook de DX9 codec uitvoeren en de DX8 kaarten dezelfde test emuleren die met DX8 functies & CPU-routines welke het zelfde resultaat zullen geven dan de oorspronkelijke DX9 routines. Dat meet je en vergelijk je.
Wat gebeurd er echter bij 3Dmark2003 in b.v. test 2 en test 3?
Hier zitten de DX9 kaarten dus ook DX8.1 functies als PS1.4 uit te voeren i.p.v. het veel eenvoudiger te programmeren PS2.0, denkt er nou één iemand dat een producent van een DX9-game voor de DX9 GPU's i.p.v. een eenvoudig te programmeren PS2.0 shaders een speciale DX8.1 code gaat schrijven die gebruik maakt van PS1.4?
En dat de CPU-recources, welke sowieso in games gebruikt worden en zeker als een DX8-GPU bepaalde DX9-routines niet hardwarematig kan ondersteunen zelfs
massaal een rol zullen spelen, net als in 3Dmark2003 geheel onbenut worden gelaten?
Natuurlijk niet! De DX9 kaarten zullen in een echte DX9 game ook deze DX9 functies uitvoeren terwijl de DX8 kaarten die deze routines niet ondersteunen dit met hun DX8 functies aangevuld met de CPU-functies emuleren.
Edit: voor alle Geforce FX dudes: sorry voor de wat offtopic geraakte discussie!
Tja, daar had je m.i. eerder aan mogen denken toen je meende mijn oorspronkelijke on-topic post met onbeargumenteerde drogredeneringen te moeten flamen. Maar goed, wat mij betreft zand er over en mocht jij of iemand anders om welke reden dan ook vinden dat ik het met mijn argumentatie helemaal mis heb, maak dat dan gerust kenbaar maakt, maar dan wel graag met argumenten in een ander en hiervoor beter geschikt topic en a.u.b. niet met opmerkingen als "Pfff', "wat een onzin" en meer van dit soort fraais. Nogmaals dank!
Ik hoop dat het nu eindelijk duidelijk is geworden waarom 3Dmark2003 dusdanig veel van de game-werkelijkheid afwijkt dat het geen goede maatstaf is voor de gameperformance.
offtopic:
Voor de mensen die mij persoonlijk kennen en van mijn achtergrond als vroegere medeontwerper en adviseur bij een enkele PC-benchmark rond '91-92 weten en zich daarom wellicht afvragen of mijn aversie tegen 3Dmark2003 daarmee te maken zou kunnen hebben: Deze tijd en functie zijn reeds lang verleden tijd en waren eerder als hobby dan beroep te betittelen en hoewel ik ook bij mijn huidige werk vaak genoeg met benchmarking en de hiervoor noodzakelijke criteria te maken heb, ligt dit op een dusdanig ander vlak dat ik zonder meer kan stellen dat ik dan ook geen enkel commercieel, nog welk ander belang heb om 3Dmark2003 zwart te maken.
Integendeel, ik weet uit mijn eigen ervaring hoe lastig het is om een goede en betrouwbare benchmark te schrijven. Zelf heb ik in het verleden ook vaak genoeg de plank mis geslagen en mij aan enige ontwerpzonden schuldig gemaakt. Ik wens van ganser harte dat Futuremark met hun volgende 3Dmark-versie wel zal lukken om een goede benchmark neer te zetten waar PC-liefhebbers iets aan zullen hebben om de (toekomstige) gameperformance van hun PC te meten en aan de testresultaten van de andere mensen kunnen zien wat b.v. zinvolle updates zijn. Met 3Dmark2001 lukte dat heel redelijk, met de huidige 3Dmark2003 is dit jammer genoeg niet meer goed mogelijk.
@Deorgere:
Het prijsverschil tussen die FX 5600 en de Club 3D Radeon 9700 die ik jou adviseerde was anders niet zo vreselijk groot hoor. En dan had je een flink stuk extra performance gehad en een videokaart die minder snel verouderd.
[
Voor 12% gewijzigd door
Verwijderd op 16-07-2003 01:52
]