Is 3DMark 2003 representatief?

Pagina: 1 2 3 Laatste
Acties:
  • 908 views sinds 30-01-2008
  • Reageer

Acties:
  • 0 Henk 'm!

  • Schaapje_BlaaT
  • Registratie: September 2001
  • Laatst online: 10-09 20:41
Astennu schreef op 14 February 2003 @ 19:05:
Nu haat ik NVidia echt:


[...]


Wat een kut lui zeg nu wiilen ze ineens wel weer :( echt ik koop nooit meer een NVidia kaart omdat ze gewoon niet sportief zijn ik :r op ze :(
huh? en dit gedeelte dan

In this case, NVIDIA is right in saying that 3D Mark is unrealistic - for one thing, because it was developed without NVIDIA's input, and for another thing, because it's difficult to imagine that actual "neutral" code would be useful for performance evaluation.

volgens mij staat daar dat NVIDIA gelijk heeft met zeggen dat de benchmark niet realistisch is. Er wordt ook uitgelegd waarom.
bovendien presteert de geforceFX best goed, dus daar heeft NVIDIA geen reden tot klagen

en dan missen er nog essentiele tests

"3D Mark was already controversial with version 2001 and earlier, but in the individual tests, you could always reach some conclusions about a graphics card. In version 2003, however, Futuremark has reduced these tests further. What's missing, for example, are the Polygon Count and Light tests. Even the CPU scores are questionable, because the results depend on the graphics card. The Image Quality tests are only restricted to screen shots, instead of showing special scenes that could demonstrate advantages and disadvantages of a card's specific FSAA implementation."

lees gewoon eens dat hele artikel door, dat maakt veel duidelijk

ASUS ROG Strix B650-A | AMD 7600X | Kingston 32GB DDR5 6000 CL36 | Kingston KC3000 1TB | Powercolor hellhound RX9070 16GB


Acties:
  • 0 Henk 'm!

  • nare man
  • Registratie: Juli 2000
  • Laatst online: 26-07-2020
Verwijderd schreef op 14 February 2003 @ 19:17:
[...]


ja oke reclame, maar nvidia die speelde het wel mooi zo dat in het begin hij eerst niet deed op een radeon, pas naar een patch kon je pas fatsoenlijk spelen, he that's the way het is ja, volgens nvidia, nee masera heeft gelijk dat was een k*tstreek.
Doe toch niet zo simpel, toen Unreal Tournament 2003 gedeveloped werd waren er nauwelijks bruikbare Radeonkaarten, de enige was de Radeon 7000/VE die qua performance nog lager lag dan een GF2 GTS. Dan kun je het Digital Extremes en de andere developers van UT2k3 niet kwalijk nemen dat ze inzetten op NVidia, omdat die op dat moment de enige bruikbare kaarten leverde. Toen Unreal uitkwam, draaide dat ook alleen goed op een 3Dfx Voodoo omdat de toenmalige NVidia-chip, de Riva128, gewoon te traag was. Dat hebben ze later goedgemaakt door patches, net zoals UT2k3 nu ook dmv een patch goed draait op een Radeon.

En bovendien, is het verboden om een NVidia-logo en dito campagne te beginnen, gericht op developers? Ik denk het niet. Het is de bedoeling van elke videokaartfabrikant om winst te maken. Ze produceren heus geen GPU's omdat ze het zo leuk vinden dat gamers in hoog detail kunnen spelen, maar voor eigenbelang. Dan is het ook logisch dat ze campagne voeren aan het developersfront. In de manual van UT2k3 staat ook een paginagrote reclame voor de Pentium-4 afgedrukt. Is dat onsportief van Intel tegenover AMD? Kom op zeg.

After all, you can't see a figure's panties unless it's the real thing.


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Verwijderd schreef op 14 February 2003 @ 18:31:
[...]


Dit is niet helemaal waar.
De GF4Ti is niet DX9-compliant, en kan game test 4 niet draaien, en scoort daar dus altijd 0 fps. Je kunt de kaarten simpelweg niet vergelijken, want de GF4 is een generatie ouder.
Je kunt de 3dmark03-score niet letterlijk vertalen naar "hij is trager". Probeer maar eens een R9700Pro te testen zonder game 4. Dan is het vergelijkbaar...
Simpele rekensom leert dat dit dan 3200 punten is zoals een paar posts eerder is aangegeven. 20% afhalen van 4000. :7 En zelfs 3200 punten is nog flink meer dan de gemiddelde GF4Ti4600 haalt.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Bij Tomshardware staat er ook weer onzin:
It's unfortunate that 3DMark03 does not truly emulate Doom or any other game by skinning each object only once per frame, caching the skinned result, and using that cached result in the multiple passes required for shadows
Je kunt de geskinde meshes niet cachen met vertexshaders. Doom3 doet het anders, die skint op de CPU. Maar Doom3 is ook niet gericht op DX9-hardware. De polycount bij Doom3 is lager, dus is het een minder groot probleem om te skinnen op de CPU, en ieder frame de meshes over de AGP-bus te pompen.
Verder is Doom3 gericht op DX7/8 hardware, waarbij je 0-2 vertexshaders aan boord hebt. Bij een DX9-kaart heb je minimaal 4 shaders, dus is het verhaal heel anders.
Hoogstwaarschijnlijk kan de snelste CPU niet tegen deze 4 shaders op skinnen/uploaden. En als ie het al kan, is het de vraag hoeveel CPU-kracht je nog overhoudt voor de rest van je spel.
Verschillende situaties, verschillende problemen, verschillende oplossingen. Niet vergelijken.
What's missing, for example, are the Polygon Count and Light tests.
Polygon count is niet interessant meer. Kaarten zijn toch al snel genoeg om miljoenen polys per seconde te renderen (een acceptabele framerate met een hele scene vol polys van < 1 pixel is geen probleem). Verder hangt de polycount af van de complexiteit van de gebruikte vertexshader, dus is een synthetische test nogal lastig... Hoe complex moet de geteste shader dan zijn?
Light count is al helemaal onzin. Was leuk met een fixed pipeline, maar dat is verleden tijd. Alle verlichting wordt nu in shaders gedaan, en je krijgt ongeveer dezelfde situatie als met polycount. Hoeveel lichten je aankunt, hangt af van de complexiteit van je shaders. Is dus ook niet meer relevant om dit te testen.
Even the CPU scores are questionable, because the results depend on the graphics card.
Dit is altijd al zo geweest. Tijdens de CPU-test werden altijd al plaatjes gerenderd, en heeft de grafische kaart dus altijd al een beetje invloed op de resultaten gehad.

Acties:
  • 0 Henk 'm!

Verwijderd

idletoad, waar heb jij al die kennis opgedaan :? :P. Jij komt net op GoT en dan zet je allemaal sterke beweringen neer. Ik kan er iig nog veel van leren :P

Acties:
  • 0 Henk 'm!

  • Tmaster
  • Registratie: November 2000
  • Laatst online: 07-09 20:22
De CPU maakt bijna geen zak uit kan jullie vertellen.
Vanmiddag op mn werk een testje gedaan
Ik had de beschikking over een Celeron 1.2Ghz en een XP 2100+
De kaart die ik voor beide systemen gebruikt heb was een Geforce 4 TI4200 8x AGP 128mb DDR. Zeker geen slecht kaartje

Resultaat 1182 punten met de celeron
1203 met de xp 2100

En dan te bedenken dat je dus ook nog met pc133 geheugen werkt in dat celeron systeempje

en het snellere ddr geheugen in het andere systeem
Maakt dus geen ruk uit!

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 06:59
Robin001 schreef op 14 February 2003 @ 17:14:
[...]


nee, en daarom noemt futuremark het ook een dx9 benchmark...
Maar futuremark suggereert dat het OOK een nuttige dx8 test is, omdat als er dx8 hardware wordt gedetecteerd 3 van de 4 test toch rustig gedaan kunnen worden.
en dat ps 1.4 probleem bestaat dus niet voor dx9 kaarten zoals Idletoad al de hele tijd probeert uit te leggen,
Uhm ik was de 1e die in deze threath die dat duidelijk maakte hoor, waar heb je het over ?
en DAAROM is het ook best een aardige dx9 benchmark (waarom ps 2.0 gebruiken als het ook met 1.4 kan?), en DAAROM (onder andere) doen dx9 kaarten het gewoon veel beter...
Dat snap ik ook wel. Ik zeg alleen dat de dx8 kaarten (ook die van ati) belachelijk naar de achtergrond worden verdreven.
wacht maar rustig tot Nvidia de markt overspoeld met dx9 kaarten en dat hele gezeur over ps 1.4 en 3dmark2003 is wel of niet representatief als een dx9 benchmark is voorbij!
Wederom ik heb hier als eerste gezegd dat 3dmark een heel geschikte benchmark is voor dx9 kaarten, lees maar na.

Acties:
  • 0 Henk 'm!

Verwijderd

Tmaster schreef op 14 February 2003 @ 20:11:
De CPU maakt bijna geen zak uit kan jullie vertellen.
Vanmiddag op mn werk een testje gedaan
Ik had de beschikking over een Celeron 1.2Ghz en een XP 2100+
De kaart die ik voor beide systemen gebruikt heb was een Geforce 4 TI4200 8x AGP 128mb DDR. Zeker geen slecht kaartje

Resultaat 1182 punten met de celeron
1203 met de xp 2100

En dan te bedenken dat je dus ook nog met pc133 geheugen werkt in dat celeron systeempje

en het snellere ddr geheugen in het andere systeem
Maakt dus geen ruk uit!
Maakt altijd wat uit. A.p.versteeg heeft niet voor niets de hoogste score, dat komt doordat hij een Pentium 4 op meer dan 4 ghz heeft lopen.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op 14 februari 2003 @ 20:12:
[...]


Maakt altijd wat uit. A.p.versteeg heeft niet voor niets de hoogste score, dat komt doordat hij een Pentium 4 op meer dan 4 ghz heeft lopen.
Bij hem bottleneckt de videokaart dan ook iets minder...

Acties:
  • 0 Henk 'm!

Verwijderd

je kan onderhand ook wel afvragen of de reacties in dit topic wel representatief zijn...
iedereen met een GF4 boort futuremark de grond in en de ATI gebruikers vinden 3Dmark fantastisch.

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 06:59
Nee dat vind ik wel meevallen. Ik vind deze discussie van een behoorlijk hoog niveau, een verademing op GoT _/-\o_

Acties:
  • 0 Henk 'm!

Verwijderd

idletoad, waar heb jij al die kennis opgedaan . Jij komt net op GoT en dan zet je allemaal sterke beweringen neer. Ik kan er iig nog veel van leren
Ik werk zelf al tijden met DX8.1 en DX9, en ben dus wel behoorlijk bekend in het woud van schaduwen en shaders en dergelijke. Ik ken de API (en de specs) redelijk goed. Ik heb ook de nVidia- en ATi-tech docs gelezen over hoe Doom3 ongeveer in elkaar steekt en hoe je nou de hardware zo snel mogelijk aanstuurt.
Verder is Mikko Kallinen een oude vriend van mij (allebei Amiga-coders geweest in een vorig leven :)), en ik spreek hem vaak online... De laatste dagen hebben we het vooral over 3dmark03 gehad, en al de valse info die naar buiten komt (voornamelijk dus door de laster van nVidia). Ik vond het wel eens tijd om FutureMark een beetje te verdedigen, vooral omdat ze eigenlijk grotendeels gelijk hebben, en nVidia niet, maar nVidia weet het leuk te brengen, zodat de nietswetende journalisten erin trappen, en het overal op het net neergooien.
Ik hoop voor FutureMark dat er meer game-developers komen die 3dmark03 gaan verdedigen, en zich tegen nVidia gaan keren... Degenen die ik heb gesproken, waren het over het algemeen niet met nVidia eens. John Carmack heeft trouwens ook al bepaalde dingen gezegd... Al gebruikt hij OpenGL, kwam hij tot ongeveer dezelfde conclusies... Namelijk dat hij 'ps1.4' gebruikt waar het kan, en verder 'ps1.1'. Ook hij kan niets met de 'ps1.3' shaders van de GF4. Verder heeft hij verklaard dat de standaard-OpenGL shader-extensies (ARB2_fragment_program) veel trager op een GF FX uitgevoerd werden dan op een R9700Pro. Dit komt dus overeen met wat we in de pixelshader tests van 3dmark03 zien.
Met specifieke NV30-extensies kon hij de kaart wel beter laten presteren, maar aangezien die niet bestaan in DX9, is het nog maar de vraag of de GF FX veel beter zou kunnen presteren, als 3dmark03 specifiek geoptimaliseerd zou worden.

Ik hoop dat mensen een beetje gaan begrijpen wat voor een vies marketing-spelletje nVidia hier eigenlijk aan het spelen is nu.
iedereen met een GF4 boort futuremark de grond in en de ATI gebruikers vinden 3Dmark fantastisch.
Ik ben een nVidia-gebruiker op het moment, by the way :)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op 14 February 2003 @ 19:11:
[...]


Wat ik ook erg zwak vond van Nvidia was dat ze afspraken hadden met sommige game developers, en dan zag je bij een demo de tekst "nvidia, the way its meant to be played".
Jah maar nu die GF FX met de nieuwe drivers ineens sneller is willen ze wel weer mee doen dat zit mij dus dwars :( eerst zeggen ze het is een kut prog en toe haalde ze de eerste plaats weer binnen en gaan ze van jah toch wel goed progje jah :r slijmballen zolang ze er zelf maar beter van worden :(

En op een ATI draaide het spel ook nog eens beter ook dus grote bullshit :(

[ Voor 8% gewijzigd door Astennu op 14-02-2003 21:13 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 08:45
Sjah schreef op 14 February 2003 @ 20:12:
[...]


Uhm ik was de 1e die in deze threath die dat duidelijk maakte hoor, waar heb je het over ?
okee! sorry hoor!
idletoad maakte schreef er nogal veel over, was je waarschijnlijk wat ondergesneeuwd... :Y)

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


Acties:
  • 0 Henk 'm!

  • Christoph
  • Registratie: Februari 2000
  • Niet online
Nice info, erg veel dingen die nu eens echt interessant zijn en ze zeer begrijpelijk gebracht voor iedereen, bedankt daarvoor :)

Acties:
  • 0 Henk 'm!

  • DarkShadow
  • Registratie: Juli 2000
  • Laatst online: 08:37
Het valt met trouwens op dat veel 3d programmers het voor futuremark opnemen, maarja die werken per slot van rekening ook vooruit en ze hebben er al meer mee te maken dan wij, en ten slotte zijn zij degenen met de meeste kennis...

Acties:
  • 0 Henk 'm!

  • Schaapje_BlaaT
  • Registratie: September 2001
  • Laatst online: 10-09 20:41
Verwijderd schreef op 14 februari 2003 @ 20:29:
je kan onderhand ook wel afvragen of de reacties in dit topic wel representatief zijn...
iedereen met een GF4 boort futuremark de grond in en de ATI gebruikers vinden 3Dmark fantastisch.
ja, da's balen
had ik maar een Radeon, dan zou ik misschien de andere Radeon eigenaars kunnen overtuigen van het feit dat er toch echt grote verschillen zitten tussen deze test en real-life game performance (ook in toekomstige games)

maar ja, mensen die te veel geld uitgeven voor een videokaart willen natuurlijk alles horen dat hun uitgave rechtvaardigt, da's misschien ook wel de reden van bestaan voor die benchmarks ;)

ASUS ROG Strix B650-A | AMD 7600X | Kingston 32GB DDR5 6000 CL36 | Kingston KC3000 1TB | Powercolor hellhound RX9070 16GB


Acties:
  • 0 Henk 'm!

Verwijderd

maar ja, mensen die te veel geld uitgeven voor een videokaart willen natuurlijk alles horen dat hun uitgave rechtvaardigt
Is het niet andersom? Die GF4s waren de laaste tijd amper goedkoper dan de Radeons, en met die Radeons krijg je meer waar voor je geld, want DX9-hardware.
Mensen die dus voor een GF4 hebben gekozen vanwege de naam/reputatie van nVidia, of vanwege "die extra features heb je toch niks aan", of iets dergelijks, die voelen zich nu dus toch wel een beetje belazerd.
En mensen die een GeForce FX hebben besteld, vinden waarschijnlijk ook niet dat ze waar voor hun geld krijgen, want het verschil in prestatie is miniem... Het verschil in prijs daarentegen...
Tegen de tijd dat we met z'n allen DX9-software draaien, lachen we natuurlijk om die GF4s, Radeon9700s en GF FX-kaartjes, want dan zijn we al weer een generatie of 2 verder met de GPUs. Maar raad eens waarmee we die nieuwe GPUs benchmarken? Juist, nog steeds 3dmark03! Daar is ie voor, om de toekomstige hardware te kunnen vergelijken, aan de hand van eisen van toekomstige games. Deze benchmark zal namelijk gedurende de hele DX9-generatie blijven, en pas met DX10 zal hij een opvolger krijgen.

Het probleem zit hem erin dat de meeste mensen niet vooruit kunnen kijken, en nog heel erg in termen van DX8 denken. Dat tijdperk is nu afgesloten.

Acties:
  • 0 Henk 'm!

Verwijderd

nare man schreef op 14 februari 2003 @ 19:33:
[...]


Doe toch niet zo simpel, toen Unreal Tournament 2003 gedeveloped werd waren er nauwelijks bruikbare Radeonkaarten, de enige was de Radeon 7000/VE die qua performance nog lager lag dan een GF2 GTS. Dan kun je het Digital Extremes en de andere developers van UT2k3 niet kwalijk nemen dat ze inzetten op NVidia, omdat die op dat moment de enige bruikbare kaarten leverde. Toen Unreal uitkwam, draaide dat ook alleen goed op een 3Dfx Voodoo omdat de toenmalige NVidia-chip, de Riva128, gewoon te traag was. Dat hebben ze later goedgemaakt door patches, net zoals UT2k3 nu ook dmv een patch goed draait op een Radeon.

En bovendien, is het verboden om een NVidia-logo en dito campagne te beginnen, gericht op developers? Ik denk het niet. Het is de bedoeling van elke videokaartfabrikant om winst te maken. Ze produceren heus geen GPU's omdat ze het zo leuk vinden dat gamers in hoog detail kunnen spelen, maar voor eigenbelang. Dan is het ook logisch dat ze campagne voeren aan het developersfront. In de manual van UT2k3 staat ook een paginagrote reclame voor de Pentium-4 afgedrukt. Is dat onsportief van Intel tegenover AMD? Kom op zeg.
nou, dat zeg je nou wel dat ik simpel denk, maar nvidia heeft wel van die truukjes, kijk alleen maar naar de demo waar ik het eerder over had gun -metal, en die is ook nog dx 9, nou probeer iemand maar met een radeon, deze demo te spelen, lukt je niet, leg me dat dan maar eens uit. :?

op deze link staat die : http://www.nvidia.com/view.asp?IO=game_gunmetal

edit

en voor de duidelijkheid, reclame vindt ik niet erg, maar ik heb het over bewust een spel slechter te laten lopen of helemaal niet op een ati kaart. ;)

en respect voor idletoad, want daar kan ik zelf nog wat van leren. :)

[ Voor 9% gewijzigd door Verwijderd op 15-02-2003 08:34 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ja zo :)

Je bent iig een aanwinst voor GoT imo :)

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 06:59
Verwijderd schreef op 15 februari 2003 @ 08:26:
[...]


nou, dat zeg je nou wel dat ik simpel denk, maar nvidia heeft wel van die truukjes, kijk alleen maar naar de demo waar ik het eerder over had gun -metal, en die is ook nog dx 9, nou probeer iemand maar met een radeon, deze demo te spelen, lukt je niet, leg me dat dan maar eens uit. :?
Ik weet het niet zeker, maar dat zal wel liggen aan het gebruik maken (uiteraard) van de ps 2.0+ en vs 2.0+ (let op de plus) die op de Gf Fx aanwezig is. De Ati's hebben deze nvidia-specifieke uitbreiding niet aan boord.

[edit] Ik heb die demo ff geprobeerd, maar hij loopt ook op gf4, dus t was geen Fx demo. Maar die demo zegt dat het spel nog in ontwikkeling is dus zal eerst de nvdiai's wel aan de praat zijn gekregen, de ati's pas later. Weet ik veel, wat maakt t ook uit. Wat wel interessant was, is dat t spel Cg gebruikt.

[ Voor 28% gewijzigd door Sjah op 15-02-2003 11:23 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Maar die demo zegt dat het spel nog in ontwikkeling is dus zal eerst de nvdiai's wel aan de praat zijn gekregen, de ati's pas later.
Dat is raar, want als het op een GF4 loopt, moet het zeker op een R300 lopen.
Voorzover ik weet, kan een GF4 (onder DX8/9) niets wat een R300 niet kan, dus moet DX9-code die op een GF4 werkt, automatisch op een R300 werken.
Maar daar zal nVidia vast wel wat op verzonnen hebben...

edit:
Even voor wat uitleg over wat Direct3D nou precies is... En waarom je niet direct specifiek voor een kaart kan programmeren (wat met OpenGL wel kan, dmv extensions in de driver dus).
Direct3D is een HAL: Hardware Abstraction Layer.
Dit houdt in dat de hardware op een laag niveau geabstraheerd wordt, en de programmeur een virtueel 'standaard'-hardware-device gebruikt.
Bij Direct3D heb je totaal niet te maken met wat voor type of merk hardware je gebruikt, dat maakt helemaal niets uit in dit model.
Het enige wat uit maakt zijn de caps (capabilities) van de hardware. Je hoeft als programmeur alleen maar te checken of een bepaalde feature bestaat, en zo ja, dan gebruik je die, zo nee, dan probeer je een simpelere oplossing.
(Het kan natuurlijk wel eens voorkomen dat er maar 1 merk/type is dat een bepaalde feature ondersteunt... Maar dat komt niet zo gek vaak voor... Bovendien zullen andere fabrikanten meestal volgen met support in hun volgende generatie, en zal deze automatisch ook werken onder Direct3D).

Bij OpenGL moet je dus WEL kijken wat voor hardware je hebt... Om precies te zijn, je moet kijken welke extensions er zijn. En hier kun je wel voor een specifiek merk of type programmeren, omdat dezelfde feature door verschillende fabrikanten met verschillende extensions ondersteund wordt. Dus ondanks dat jouw kaart alle features ondersteunt, kan het toch voorkomen dat een spel deze niet gebruikt, omdat ie jouw extensions niet ondersteunt. Ben je lekker mee.
Dat is ook de reden waarom John Carmack al jaren aan het knoeien is met verschillende backends voor Doom3...
En het is de reden waarom de meeste programmeurs Direct3D gebruiken. De ondersteuning is gewoon beter.

[ Voor 71% gewijzigd door Verwijderd op 15-02-2003 12:06 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op 15 februari 2003 @ 11:55:
[...]


Dat is raar, want als het op een GF4 loopt, moet het zeker op een R300 lopen.
Voorzover ik weet, kan een GF4 (onder DX8/9) niets wat een R300 niet kan, dus moet DX9-code die op een GF4 werkt, automatisch op een R300 werken.
Maar daar zal nVidia vast wel wat op verzonnen hebben...

edit:
Even voor wat uitleg over wat Direct3D nou precies is... En waarom je niet direct specifiek voor een kaart kan programmeren (wat met OpenGL wel kan, dmv extensions in de driver dus).
Direct3D is een HAL: Hardware Abstraction Layer.
Dit houdt in dat de hardware op een laag niveau geabstraheerd wordt, en de programmeur een virtueel 'standaard'-hardware-device gebruikt.
Bij Direct3D heb je totaal niet te maken met wat voor type of merk hardware je gebruikt, dat maakt helemaal niets uit in dit model.
Het enige wat uit maakt zijn de caps (capabilities) van de hardware. Je hoeft als programmeur alleen maar te checken of een bepaalde feature bestaat, en zo ja, dan gebruik je die, zo nee, dan probeer je een simpelere oplossing.
(Het kan natuurlijk wel eens voorkomen dat er maar 1 merk/type is dat een bepaalde feature ondersteunt... Maar dat komt niet zo gek vaak voor... Bovendien zullen andere fabrikanten meestal volgen met support in hun volgende generatie, en zal deze automatisch ook werken onder Direct3D).

Bij OpenGL moet je dus WEL kijken wat voor hardware je hebt... Om precies te zijn, je moet kijken welke extensions er zijn. En hier kun je wel voor een specifiek merk of type programmeren, omdat dezelfde feature door verschillende fabrikanten met verschillende extensions ondersteund wordt. Dus ondanks dat jouw kaart alle features ondersteunt, kan het toch voorkomen dat een spel deze niet gebruikt, omdat ie jouw extensions niet ondersteunt. Ben je lekker mee.
Dat is ook de reden waarom John Carmack al jaren aan het knoeien is met verschillende backends voor Doom3...
En het is de reden waarom de meeste programmeurs Direct3D gebruiken. De ondersteuning is gewoon beter.
dat bedoel ik nou, heb ik weer wat geleerd.
keep on with the good work.

_/-\o_ idletoad _/-\o_

Acties:
  • 0 Henk 'm!

Verwijderd

FutureMark heeft nu ook officieel gereageerd op de kritiek: http://www.futuremark.com...o_3DMark03_discussion.pdf

Misschien leuk om eens door te nemen...

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op 15 februari 2003 @ 12:24:
FutureMark heeft nu ook officieel gereageerd op de kritiek: http://www.futuremark.com...o_3DMark03_discussion.pdf

Misschien leuk om eens door te nemen...
ik heb dat door gelezen, en even over dx 9 nog, de eerste dx 9 spellen komen over 6 maanden, staat erin. dat is dus sneller dan verwacht, als ik sommige hoor zeggen dat het nog wel ander half tot twee jaar kan duren.

edit

en behalve dat is het een heel interresant stuk, ze gaan ook op het 1.1 en 1.4 in.

[ Voor 9% gewijzigd door Verwijderd op 15-02-2003 12:49 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Verwijderd schreef op 15 February 2003 @ 12:23:
[...]


dat bedoel ik nou, heb ik weer wat geleerd.
keep on with the good work.

_/-\o_ idletoad _/-\o_
* CJ eens is. 8)

Idletoad is echt een frisse wind door dit forum. Afbeeldingslocatie: http://forum.fok.nl/i/s/yes.gif

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 06:59
Interessant stuk van Fututemark. Humor, ze hebben het over first generation dx8 hardware dat t niet aankan, welk merk of welke kaarten zouden ze bedoelen? ;) Maar ze bevestigen waar we in deze threath al over eens waren, dat het een dx9 benchmark is.
Ze maken wel 1 slipper; ze zeggen dat alleen dx9 hardware de performance in huis heeft. Haha, laat de R9500 non-pro nou ook dx9 zijn. Nou die heeft echt niet veel performance in huis hoor. De enige reden dat die toch nog 2500 scoort is dat die gametest 4 kan doen, niet omdat die zo een spierballen heeft.

Acties:
  • 0 Henk 'm!

Verwijderd

ze zeggen dat alleen dx9 hardware de performance in huis heeft. Haha, laat de R9500 non-pro nou ook dx9 zijn.
Ze zeggen niet dat ALLE DX9-hardware de performance in huis heeft (die Trident zal vast ook niet best scoren)... Ze zeggen alleen dat alles wat niet DX9 is, per definitie de performance NIET heeft... Hoewel, het gaat niet om performance op zich, maar meer om features. Geen features, geen gt4, 0 fps, geen hoge totaalscore.
niet omdat die zo een spierballen heeft.
Ligt er aan hoe je het bekijkt... met Intel vs. AMD was het ook zo dat sommige mensen 'spierballen == MHz' zeiden, en anderen vonden dat er meer achter stak.
Die R9500 non-pro heeft niet zo veel fillrate misschien... Maar daarentegen kost AA/AF niet veel extra fillrate, dus dat maakt het alweer goed. Verder heeft ie ook ps1.4/2.0 wat single-pass rendering mogelijk maakt in veel gevallen, maakt nog veel meer goed... dan hebben we ook nog HyperZ III, wat overdraw goedkoper maakt...
In de praktijk kun je dus een hoop uit dat kaartje toveren, veel meer dan uit een bruut fillrate monster zoals een GF4 (dit wordt alleen met de huidige games nog niet gedaan, want die zijn nog gericht op hardware die die features niet had, en het van de fillrate moest hebben)... Het is maar wat je spierballen noemt.
Oh, en dan ondersteunt ie ook nog n-patches, displacement mapping, high-dynamic range textures/floating point rendertargets... om maar wat te noemen...
Dus je kunt het op een R9500 nog mooier eruit laten zien dan op een GF4 ook. Wat wil je nog meer? :)

[ Voor 10% gewijzigd door Verwijderd op 15-02-2003 14:07 ]


Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 06:59
Verwijderd schreef op 15 February 2003 @ 14:04:
[...]


Ze zeggen niet dat ALLE DX9-hardware de performance in huis heeft (die Trident zal vast ook niet best scoren)... Ze zeggen alleen dat alles wat niet DX9 is, per definitie de performance NIET heeft... Hoewel, het gaat niet om performance op zich, maar meer om features. Geen features, geen gt4, 0 fps, geen hoge totaalscore.
Ze zeggen het letterlijk, en zolang ze geen voetnoot maken dat ze het niet zo letterlijk bedoelen, lees ik wat daar staat als alle hardware. Ja als zij scherp gaan slijpen, doe ik het ook :)


[...]
Ligt er aan hoe je het bekijkt... met Intel vs. AMD was het ook zo dat sommige mensen 'spierballen == MHz' zeiden, en anderen vonden dat er meer achter stak.
Die R9500 non-pro heeft niet zo veel fillrate misschien... Maar daarentegen kost AA/AF niet veel extra fillrate, dus dat maakt het alweer goed. Verder heeft ie ook ps1.4/2.0 wat single-pass rendering mogelijk maakt in veel gevallen, maakt nog veel meer goed... dan hebben we ook nog HyperZ III, wat overdraw goedkoper maakt...
In de praktijk kun je dus een hoop uit dat kaartje toveren, veel meer dan uit een bruut fillrate monster zoals een GF4 (dit wordt alleen met de huidige games nog niet gedaan, want die zijn nog gericht op hardware die die features niet had, en het van de fillrate moest hebben)... Het is maar wat je spierballen noemt.
Oh, en dan ondersteunt ie ook nog n-patches, displacement mapping, high-dynamic range textures/floating point rendertargets... om maar wat te noemen...
Dus je kunt het op een R9500 nog mooier eruit laten zien dan op een GF4 ook. Wat wil je nog meer? :)
Dus omdat 3dmark een benchmark heeft uitgebracht moet ik mijn hele beleving over wat performance is maar gaan omgooien? Nou nee bedankt, maar als de games benches duidelijk maken dat een GF4 waardeloos is, DAN zal ik mijn mening bijstellen.

Acties:
  • 0 Henk 'm!

Verwijderd

Dus omdat 3dmark een benchmark heeft uitgebracht moet ik mijn hele beleving over wat performance is maar gaan omgooien?
Nee, omdat performance meer is dan alleen maar zo snel mogelijk pixeltjes op een beeld tekenen, moet je je beleving omgooien.
Nou nee bedankt, maar als de games benches duidelijk maken dat een GF4 waardeloos is, DAN zal ik mijn mening bijstellen.
Games van nu zijn nog gemaakt op een GF4, en maken geen gebruik van de extra kracht van DX9-hardware. Je merkt dus nog niet wat je mist. Dat wil niet zeggen dat je niks mist, want dat doe je zeer zeker. En je zult zien dat op den duur een R9500 het er beter van af brengt dan de snelste GF4, evenals de GF2Ultra het uiteindelijk moest afleggen tegen een GF3Ti200.
Een GF4 is niet waardeloos, maar je moet niet vergeten dat een R9500 een veel geavanceerdere architectuur is, die, mits goed benut, een hoop voordelen kan hebben. Ze zijn niet vergelijkbaar, want in feite kan een GF4 helemaal niks, vergeleken met een R9500. Het enige waar ie wel goed in is, is snel veel pixels tekenen, en simpele shader-programmaatjes draaien. Naarmate de graphics realistischer worden, zul je meer hebben aan de extra features van de R9500 dan aan de brute kracht van de GF4.
Zo is het ook met Voodoo destijds gegaan... Die kaarten konden eigenlijk helemaal niks. Maar qua fillrate stonden ze ver bovenaan. Naarmate er meer features gebruikt werden, kwamen de Voodoo-kaarten steeds minder goed mee, en 3dfx is zelfs failliet gegaan op den duur... Verkijk je er niet op, de technologische ontwikkelingen gaan heel snel.
En een GF4 was technisch al verouderd toen ie uitkwam (opgelapte GF3 tegenover de ps1.4, n-patches, HyperZ II en dergelijke van de R8500).

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op 15 February 2003 @ 14:46:
[...]


Nee, omdat performance meer is dan alleen maar zo snel mogelijk pixeltjes op een beeld tekenen, moet je je beleving omgooien.


[...]


Games van nu zijn nog gemaakt op een GF4, en maken geen gebruik van de extra kracht van DX9-hardware. Je merkt dus nog niet wat je mist. Dat wil niet zeggen dat je niks mist, want dat doe je zeer zeker. En je zult zien dat op den duur een R9500 het er beter van af brengt dan de snelste GF4, evenals de GF2Ultra het uiteindelijk moest afleggen tegen een GF3Ti200.
Een GF4 is niet waardeloos, maar je moet niet vergeten dat een R9500 een veel geavanceerdere architectuur is, die, mits goed benut, een hoop voordelen kan hebben. Ze zijn niet vergelijkbaar, want in feite kan een GF4 helemaal niks, vergeleken met een R9500. Het enige waar ie wel goed in is, is snel veel pixels tekenen, en simpele shader-programmaatjes draaien. Naarmate de graphics realistischer worden, zul je meer hebben aan de extra features van de R9500 dan aan de brute kracht van de GF4.
Zo is het ook met Voodoo destijds gegaan... Die kaarten konden eigenlijk helemaal niks. Maar qua fillrate stonden ze ver bovenaan. Naarmate er meer features gebruikt werden, kwamen de Voodoo-kaarten steeds minder goed mee, en 3dfx is zelfs failliet gegaan op den duur... Verkijk je er niet op, de technologische ontwikkelingen gaan heel snel.
En een GF4 was technisch al verouderd toen ie uitkwam (opgelapte GF3 tegenover de ps1.4, n-patches, HyperZ II en dergelijke van de R8500).
dat bedoel ik nou ook, met betrekking op dat de ontwikkelingen snel gaan, iedereen denkt (nou bijna iedereen) dat directx 9 over ander half tot twee jaar het pas gebruikt gaat worden, maar ik denk dat dat een excuus is, omdat ze zelf geen dx 9 nog hebben, en dan wordt dat soort dingen snel gezegd, maar ook in de game industrie gaan de ontwikkelingen sneller dan je denkt.

Acties:
  • 0 Henk 'm!

  • Schaapje_BlaaT
  • Registratie: September 2001
  • Laatst online: 10-09 20:41
nou, ik ben benieuwd wanneer het eerste spel uitkomt dat 3 keer zo snel draait op een 9700pro als op een ti4600.
en zijn er al spellen die alle features van de geforce4 gebruiken? ik betwijfel het ten zeerste.
eer een spel alle features van een videokaart gebruikt kan die het doorgaans al lang niet meer bijhouden.

ASUS ROG Strix B650-A | AMD 7600X | Kingston 32GB DDR5 6000 CL36 | Kingston KC3000 1TB | Powercolor hellhound RX9070 16GB


Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 06:59
Verwijderd schreef op 15 February 2003 @ 14:46:
[...]


Nee, omdat performance meer is dan alleen maar zo snel mogelijk pixeltjes op een beeld tekenen, moet je je beleving omgooien.
Dat is mijn beleving niet helemaal. Als ik de naturetest in 3dmark 2001 zie....de 1e game moet nog komen die zo mooi is. Dus de heeren gamedevelopers moeten eerst maar eens uit de (nu breed) beschikbare hardware het sap gaan persen. En als je 8.1 games ziet (ook Doom3 straks) doet de GF4 (en de R8500 ook denk ik) het best ok. En ik ben dat gezeik zat dat we nu maar snel dx9 hardware moeten kopen omdat de gamedevelopers dan veel efficienter en mooier kunnen programmeren. Ik neem aan dat je het verhaal kent van de gameconsoles: daar worden na 4 jaar de schitterendste spellen voor gemaakt, gewoon omdat de gamedevelopers het onderste uit de kan halen van de hardware met al zijn beperkingen. Waarom kan dat met de pc niet?


[...]
Games van nu zijn nog gemaakt op een GF4
Dat begint pas het laatste half jaar goed op gang te komen hoor. Ik noem Unreal2, en UT2003, meer weet ik er er niet, jij?
, en maken geen gebruik van de extra kracht van DX9-hardware. Je merkt dus nog niet wat je mist. Dat wil niet zeggen dat je niks mist, want dat doe je zeer zeker. En je zult zien dat op den duur een R9500 het er beter van af brengt dan de snelste GF4, evenals de GF2Ultra het uiteindelijk moest afleggen tegen een GF3Ti200.
Dat is waar, maar hoelang moesten we niet wachten voordat er een killer-game kwam die dat uitbuitte (en nee , Comanche vondik geen killer-game). Als we gaan weten wat we missen zijn we al ruim een jaar verder, en is de r9500 een gepasseerd station. Maar ik mis idd wat, want 3dmark loopt klote ;)
Een GF4 is niet waardeloos, maar je moet niet vergeten dat een R9500 een veel geavanceerdere architectuur is, die, mits goed benut, een hoop voordelen kan hebben. Ze zijn niet vergelijkbaar, want in feite kan een GF4 helemaal niks, vergeleken met een R9500.
Dat weiger ik te geloven. Maar ik snap het wel, jij als programmeur wil het nieuwste van het nieuwste, en vind dx8.0 zeer beperkt. Ik niet, wil jij beweren dat de overgang van dx8 naar dx9 een stuk grotere was, dan de overgang dx7 naar dx8?
Het enige waar ie wel goed in is, is snel veel pixels tekenen, en simpele shader-programmaatjes draaien.
Wat een minachting van dx8 zeg.
is het ook met Voodoo destijds gegaan... Die kaarten konden eigenlijk helemaal niks. Maar qua fillrate stonden ze ver bovenaan.
De Voodoo graphics is de grooste vooruitgang ooit geweest, de enigste waarbij mij bek openviel toen ik het zag. Vergeleken bij wat nu kan is 't uiteraard stront ja, hehe.
een GF4 was technisch al verouderd toen ie uitkwam (opgelapte GF3 tegenover de ps1.4, n-patches, HyperZ II en dergelijke van de R8500).
tja de GF3 was zijn tijd behoorlijk vooruit, dus dat geeft niet.

Acties:
  • 0 Henk 'm!

Verwijderd

En ik ben dat gezeik zat dat we nu maar snel dx9 hardware moeten kopen
Dat zeg ik helemaal niet... Maar ik probeer even duidelijk te maken dat er wel degelijk een groot verschil is tussen een GF4 en een R9500, ook al snapt de leek dat niet.
Ik neem aan dat je het verhaal kent van de gameconsoles: daar worden na 4 jaar de schitterendste spellen voor gemaakt, gewoon omdat de gamedevelopers het onderste uit de kan halen van de hardware met al zijn beperkingen. Waarom kan dat met de pc niet?
Ten eerste heb je met consoles geen legacy-problemen... Iedereen die een Xbox heeft, heeft DX8 en shaders, en genoeg fillrate om het te gebruiken. Je hoeft dus niet moeilijk te gaan doen, gewoon coden voor 1 target.
Ten tweede is een console heel anders ontworpen dan een PC (sleutelwoord is UMA: Unified Memory Architecture), en kun je via een console-ontwerp veel meer rendement halen uit componenten dan met een PC.
Dat begint pas het laatste half jaar goed op gang te komen hoor. Ik noem Unreal2, en UT2003, meer weet ik er er niet, jij?
Okee wijsneus, GF4 en lager bedoelde ik. Niet hoger iig.
Als we gaan weten wat we missen zijn we al ruim een jaar verder, en is de r9500 een gepasseerd station
Over een jaar is een R9500 nog goed bruikbaar hoor, en kun je gaan profiteren van de extra features. De GF4 begint dan echt achterhaald te worden, omdat je de spellen niet meer op het hoogste detail kunt spelen, omdat de hardware-support simpelweg ontbreekt (kijk nu bv maar eens naar het verschil van RalliSport op een DX7-kaart en een DX8-kaart... Op DX7-hardware is het best te spelen, maar geen mooi spiegelend ijs etc... Is ook niks aan he?).
Ik niet, wil jij beweren dat de overgang van dx8 naar dx9 een stuk grotere was, dan de overgang dx7 naar dx8?
Ligt eraan hoe je het bekijkt. Het programmeermodel is bijna niet veranderd... Het aantal nieuwe features daarentegen is enorm toegenomen. En daarmee dus ook de grafische mogelijkheden.
Het enige boeiende verschil tussen DX7 en DX8 waren de shaders... En zo geweldig zijn ps1.x shaders niet... Zeker < ps1.4... Daar kun je niet veel mee in 1 pass. Hooguit was per-pixel reflectie/licht... soort veredelde bumpmapping.

Verder is het grote verschil tussen DX8 en DX9 dat je voor DX9 NU al goed betaalbare hardware kunt kopen, terwijl DX8 alleen door dure high-end kaarten ondersteund werd. DX8 begint nu net een beetje mainstream te worden... Maar DX9 zal veel sneller z'n intree doen, omdat nu DX9-hardware amper nog duurder is dan DX8-hardware... En ik zie niet in waarom iemand nu uberhaupt nog een GF4 zou kopen, daar zijn Radeons gewoon te goedkoop voor. Dat is gewoon dom, sorry hoor.
Wat een minachting van dx8 zeg.
Ja, na een paar simpele ps1.1 shaderprogrammaatjes is de lol er gauw vanaf. Moet je alsnog multipass gaan renderen. Vergeleken met DX9 stelt het echt niet zoveel voor hoor.
Vergeleken bij wat nu kan is 't uiteraard stront ja, hehe.
Datzelfde gaat dus ook op voor GF3/4 vs DX9-hardware... Dat verschil is behoorlijk groot.
tja de GF3 was zijn tijd behoorlijk vooruit, dus dat geeft niet.
Helemaal niet. Op een GF1 (dat was een kaart die z'n tijd vooruit was) zaten al simpele 'shaders' (werden register-combiners genoemd), die per-pixel operaties konden doen. Op de originele Radeon zaten al meer geavanceerde shaders, die op een haar na niet de DX8-standaard haalden. GF3 haalde dat net wel... Maar binnen een paar maanden was daar R8500 met ps1.4, die een stuk krachtiger was, en waarmee de GF3 eigenlijk al achterhaald was.
De GF4 was mosterd na de maaltijd.

[ Voor 3% gewijzigd door Verwijderd op 15-02-2003 16:13 ]


Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 06:59
Robin001 schreef op 14 February 2003 @ 21:13:
[...]


okee! sorry hoor!
idletoad maakte schreef er nogal veel over, was je waarschijnlijk wat ondergesneeuwd... :Y)
Maakt niet uit man, relax :>

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 06:59
Verwijderd schreef op 15 February 2003 @ 16:08:
[...]


Dat zeg ik helemaal niet... Maar ik probeer even duidelijk te maken dat er wel degelijk een groot verschil is tussen een GF4 en een R9500, ook al snapt de leek dat niet.
Jij weet alles beter he?
Ja, na een paar simpele ps1.1 shaderprogrammaatjes is de lol er gauw vanaf. Moet je alsnog multipass gaan renderen. Vergeleken met DX9 stelt het echt niet zoveel voor hoor.
Misschien moet je eens leren goed en efficient te programmeren. Je zal t voorlopig nog moeten doen met dx8 hardware, als je tenminste een breed publiek wilt bereiken.
Datzelfde gaat dus ook op voor GF3/4 vs DX9-hardware...
lol
Helemaal niet. Op een GF1 (dat was een kaart die z'n tijd vooruit was) zaten al simpele 'shaders' (werden register-combiners genoemd), die per-pixel operaties konden doen. Op de originele Radeon zaten al meer geavanceerde shaders, die op een haar na niet de DX8-standaard haalden. GF3 haalde dat net wel... Maar binnen een paar maanden was daar R8500 met ps1.4, die een stuk krachtiger was, en waarmee de GF3 eigenlijk al achterhaald was.
De GF4 was mosterd na de maaltijd.
Oh en waarom kennen we dan pas shaders sinds de GF3? De GF1 was zeer snel ingeburgerd, de gf3 veel minder, dus was die zijn tijd vooruit.

Acties:
  • 0 Henk 'm!

Verwijderd

Jij weet alles beter he?
Als je mij niet gelooft, download voor de grap eens de DX9-SDK en draai de capsviewer op een GF4, een R8500 en een R9500...
Je zult zien dat een GF4 verreweg het minste kan. R8500 kan al meer, en R9500, laten we daar niet eens over beginnen (feature-wise is ie identiek aan een R9700Pro, en dus scheelt ie ook met een GF FX niet veel).
Misschien moet je eens leren goed en efficient te programmeren. Je zal t voorlopig nog moeten doen met dx8 hardware, als je tenminste een breed publiek wilt bereiken.
DX8-hardware? Was het maar waar... Ik programmeer nu nog voor GF2. Verder hebben de beperkingen van de ps1.1-shaders weinig te maken met goed en efficient programmeren. Ze zijn gewoon heel beperkt. Je hoeft mij niet te geloven hoor. Geloof je John Carmack wel? Die zegt het ook. En Futuremark uiteraard.
Oh en waarom kennen we dan pas shaders sinds de GF3?
Waarom ken JIJ pas shaders sinds de GF3, zul je bedoelen. Zoals ik al zei, bestaan ze al sinds GF1. Waarschijnlijk ken jij ze pas sinds ze door 3dmark2001 gebruikt werden. Dat wil niet zeggen dat ze er nog niet waren... Er zijn demo's van nVidia en ATi te vinden die de pre-GF3 shaders gebruiken... In 2000 is er zelfs een demo op Bizarre gereleased die de GF1-shaders gebruikte: http://www.pouet.net/prod.php?which=669
Natuurlijk werden shaders wat bekender toen ze gestandaardiseerd waren in DX8, maar dat wil niet zeggen dat ze nog niet bestonden.
De GF1 was zeer snel ingeburgerd, de gf3 veel minder, dus was die zijn tijd vooruit.
De GF3 was verschrikkelijk duur, zul je bedoelen :)
GF1 was goed betaalbaar.
Gelukkig zijn de Radeons nu ook goed betaalbaar, dus zal DX9-hardware wat sneller ingeburgerd zijn. Er zijn al een hoop mensen met een nieuwe ATi.

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 06:59
Yup , Carmack geloof ik wel. Heeft die trouwens nog iets gezegd over die hele 3dmark discussie?

Acties:
  • 0 Henk 'm!

  • sewer
  • Registratie: November 2000
  • Laatst online: 08:17
Mooi verhaal :), maar
Verwijderd schreef op 13 februari 2003 @ 19:49:
edit:
Oh, nog een dingetje wat ik kwijt wou over de scores...
Ik vind het niet meer dan logisch dat DX7-kaarten per definitie lager scoren dan DX8-kaarten, en evenzo DX8- vs DX9-kaarten.
Zo blijven ze allemaal in hun eigen klasse.
Het huidige puntensysteem zorgt er net wel voor dat kaarten met verschillende directX ondersteuning vergeleken worden, er komt namelijk altijd een cijfer uit de benchmark. Zo lijkt het net alsof een dx8 kaart een heel stuk slechter is dan een dx9 kaart (omdat ie amper de helft van de punten haalt), terwijl je appels met peren vergelijkt. Maar uit de bench komt helemaal niet duidelijk naar voren dat je de cijfer voor je geforce 4600 niet kan vergelijken met een dx9 kaart.

Ze hadden veel beter per onderdeel (dx7, 8 en 9) aparte punten kunnen geven, zo kun je tenminste nog op een nuttige manier kaart 1 met dx8 vergelijken met kaart 2 die dx9 ondersteunt.

Acties:
  • 0 Henk 'm!

Verwijderd

Maar uit de bench komt helemaal niet duidelijk naar voren dat je de cijfer voor je geforce 4600 niet kan vergelijken met een dx9 kaart.
Misschien dachten ze dat dat onderhand al bekend was... Met 3dmark2001 was het ook het geval met DX7 vs DX8... Ze hebben het publiek onderschat, denk ik.
Ze hadden veel beter per onderdeel (dx7, 8 en 9) aparte punten kunnen geven, zo kun je tenminste nog op een nuttige manier kaart 1 met dx8 vergelijken met kaart 2 die dx9 ondersteunt.
Maar dat kan ook... Iedere test krijgt een aparte score, en je kunt zelfs online vergelijken met de ORB-functie. En dat kan per test, hoeft niet op totaalscore. En dat zou ook bekend moeten zijn, want dat kon met de eerdere 3dmarks ook al, en als je 1 keer getest hebt, en de ORB bekeken, had je het ook wel gezien :)

Acties:
  • 0 Henk 'm!

  • sewer
  • Registratie: November 2000
  • Laatst online: 08:17
Ik ben nog niet helemaal wakker, ik dacht dat er maar 1 pagina was, dus heb gereageerd op de laatste post van pagina 1 (post 99), terwijl er nog zo'n 200 na kwamen. |:(

Excuus.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op 14 February 2003 @ 19:01:
[...]


4008 - (38x30) = 2868...

2868 is de score zonder game 4 :)

p.s.
Ik zou het wel op prijs stellen, als een radeon9500pro bezitter hier zijn 'detail-scores' met eindresultaat (met pixelshader 1.4 uit) neer zet :P. (btw ik heb zelf 1892 met een ti-4200)
bedankt trouwens nog, voor het rekenen. :)

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Verwijderd schreef op 16 februari 2003 @ 10:16:
[...]


bedankt trouwens nog, voor het rekenen. :)
Die score klopt trouwens niet helemaal. ;)

Nature Test telt 20% mee van de eindscore. Als er dus 4008 gehaald wordt dan doe je dus gewoon 4008*0.8=3206,4

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

CJ schreef op 16 February 2003 @ 10:21:
[...]


Die score klopt trouwens niet helemaal. ;)

Nature Test telt 20% mee van de eindscore. Als er dus 4008 gehaald wordt dan doe je dus gewoon 4008*0.8=3206,4
oke, weet ik dat ook even weer, bedankt cj. :)

trouwens ik zie in je specs dat je ook een hercules 3d prophet 9700 pro hebt.
altijd goed. ;)

[ Voor 14% gewijzigd door Verwijderd op 16-02-2003 12:23 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Nature Test telt 20% mee van de eindscore. Als er dus 4008 gehaald wordt dan doe je dus gewoon 4008*0.8=3206,4
Dat kun je zo niet terugrekenen. Die 20% is hun ijk-regel.
De uiteindelijke score in gt4 is afhankelijk van het aantal fps dat de kaart daar scoort, en dat is niet per definitie 20% van de totaalscore.
De andere methode is de juiste... Gewicht van gt4 is 38.7. Dus je moet 38.7*(fps in gt4) van de totaalscore aftrekken om de bijdrage van gt4 eraf te halen.

Nog even een rekenvoorbeeld... Ik heb een R9500 (non-pro, 128mb) uit de ORB gehaald...
Deze had een score van 2790. En een framerate van 19.8 in gt4.
Dus de 'gecorrigeerde' score wordt dan:

2790 - (19.8*38.7) = 2023,74 (En dat is dus niet hetzelfde als 2790*0.8! Want dat zou zijn 2232)

edit:
Hier de compare-url voor het R9500-systeem: http://service.futuremark.com/compare?2k3=70747

[ Voor 10% gewijzigd door Verwijderd op 16-02-2003 14:24 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op 16 February 2003 @ 14:12:
[...]


Dat kun je zo niet terugrekenen. Die 20% is hun ijk-regel.
De uiteindelijke score in gt4 is afhankelijk van het aantal fps dat de kaart daar scoort, en dat is niet per definitie 20% van de totaalscore.
De andere methode is de juiste... Gewicht van gt4 is 38.7. Dus je moet 38.7*(fps in gt4) van de totaalscore aftrekken om de bijdrage van gt4 eraf te halen.

Nog even een rekenvoorbeeld... Ik heb een R9500 (non-pro, 128mb) uit de ORB gehaald...
Deze had een score van 2790. En een framerate van 19.8 in gt4.
Dus de 'gecorrigeerde' score wordt dan:

2790 - (19.8*38.7) = 2023,74 (En dat is dus niet hetzelfde als 2790*0.8! Want dat zou zijn 2232)

edit:
Hier de compare-url voor het R9500-systeem: http://service.futuremark.com/compare?2k3=70747
:? 8)7 ben nou helemaal in de war.

Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Dit is trouwens ook nog eens een OC-9500 op 300/300.

Hier de reactie van ATi op 3DMark2003:
ATI fully supports this new graphics benchmark, 3Dmark03. We feel it is a valuable diagnostic tool for estimating the performance of current and future graphics products when running future game titles (to be released over the next 1-2 years). We believe that using synthetic benchmarks such as 3DMark03 in combination with real applications and game benchmarks provides the most complete picture of the overall performance and value of graphics hardware.

It takes significant development time for developers to incorporate new DX features into their games and engines. So, it is virtually impossible to predict the performance of future games using only existing games. From a business perspective, game developers generally wait for a minimum install-base of a certain generation of graphics products before they incorporate features that rely on those products. Synthetic benchmarks aren't necessarily subject to these limitations, and therefore can be designed to stress the limits of even the most powerful and leading-edge graphics hardware available.

Every game uses different features and techniques, and places emphasis on different aspects of the PC. Some stress pixel fill rate, or vertex processing, or memory bandwidth, or CPU performance, or some combination. It is not often clear in such benchmarks what aspects of the hardware are being tested most strongly. Synthetic benchmarks, on the other hand, can run a diverse set of tests that are specifically designed to stress all aspects of the hardware, and pinpoint specific strengths or deficiencies much more conclusively.

We feel that benchmarks of all kinds are very important tools in our ongoing efforts to improve the performance and quality of our products. Every benchmark or diagnostic that we run provides us with feedback on what things we are doing well and what things need more work. It is often the case that optimizations we come up with for one application end up benefiting other applications as well.

Synthetic benchmarks provide us with valuable feedback because they often stress features and paths that are not yet used in shipping game titles. They may help us find bugs and inefficiencies before game developers encounter them. By evaluating our performance in these benchmarks, we can often improve the performance of future game titles long before they are released, and improve the overall robustness of our drivers.

Synthetic benchmarks also offer us a lot of help in designing future hardware. Relying solely on existing game benchmarks in this case would leave us in danger of producing new products that run old games well, but run new games poorly.


Patti Mikula
Public Relations Manager
Desktop Products
ATI Technologies Inc.
Bron: http://www.hardocp.com/article.html?art=NDMx

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

CJ schreef op 16 februari 2003 @ 16:16:
[...]


Dit is trouwens ook nog eens een OC-9500 op 300/300.

Hier de reactie van ATi op 3DMark2003:


[...]


Bron: http://www.hardocp.com/article.html?art=NDMx
ati ondersteund het tenminste wel, en wat ze daar verder zeggen, vind ik een hele realistiche beeld hoe je de benchmarkt moet zien, en waar die voor bedoeld is. :)

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Laatst online: 06:59
Weet iemand of er een site is die een lijst bijhoudt van welke dx8 en dx9 features games gebruiken (of ogl-extensies natuurlijk)?

Acties:
  • 0 Henk 'm!

  • SlowikPL
  • Registratie: December 2001
  • Laatst online: 13-09 19:33

* Intel Core i7-6700K @ 4.8Ghz * Asus MAXIMUS VIII EXTREME* nVidia Asus Poseidon 1080Ti * Mushkin 16 GB * SSD Samsung M.2 2280 256GB + 3x Samsung 256GB 850Pro* Enermax Revolution85+ 1250W * CM Stacker 832 SE * Waretcooling CPU, NB ,VGA 3x Mora


Acties:
  • 0 Henk 'm!

Verwijderd

ja een zeer goede link, ik denk alleen dat hij er niks aan heeft. :?

Acties:
  • 0 Henk 'm!

Verwijderd

Hele leuke link... alleen werkt hij (helaas) niet...

Acties:
  • 0 Henk 'm!

  • Shaidar
  • Registratie: September 2001
  • Laatst online: 19-07 16:30

Shaidar

idletoad:

Ik heb ooit eens ergens gelezen dat 'n Nvidia kaart helemaal anders werkt dan 'n Ati kaart ... Ben helaas de bron kwijt, en weet niet meer precies hoe dat 't zit ...

't ging over het feit dat Nvidia z'n kaarten aanspreekt door middel van 'n soort "compiler" in z'n drivers .. dat die "compiler" de code die naar de videokaart moest gestuurd worden, vertaald in code die de nvidiakaart screaming fast kan uitvoeren...

Ati daarintegen z'n hardware zit beter in elkaar, en halen de performance uit de snelheid van de kaart zelf.. Ati spreekt z'n kaarten op 'n meer "generic" manier aan...

Dat verklaart ook waarom Nvidia zo veel met driver updates komt (die "compiler" wordt steeds beter, en er is een performancewinst) en Ati niet (per hogere versie van de Ati drivers is minder performance winst te boeken dan bij de Nvidia's)

Dit is zo ongeveer wat ik me er van herinner ... weet jij er iets over?

 iPhone 12 Pro 128GB  MacBook Pro (13-inch, 2020, i7, 16GB, 1TB)

Pagina: 1 2 3 Laatste