hmmmmm..... lijkt erop dat er een heleboel mensen zijn hier die gewoon een specifieke kant kiezen (ATI of NVIDIA, ik zelf ook
) Maar het punt is wel dat nu gewoon naar boven komt dat NVIDIA een beetje is achter gebleven ten opzichte van ATI.. Mij maakt het verder niet uit welke Fabrikant er lijdt, zolang de videokaarten maar snel en goedkoop zijn.. Ik vind het gewoon oom jammer dat NVIDIA gewoon de DX9 functionaliteit niet goed ondersteund...
Verwijderd
Ik wilde nog even iets kwijt over de scores die gehaald worden met 03 en volgens mij is dit wel het goede topic ervoor.
Met 3DMark03 gaan er ongeveer 9000 punten vanaf (als je het vergelijkt met 2001).
Voorbeeld: ik heb een score van 1349 met mijn Aeolus Ti4200 in 03, ik tel er 9000 bij op en ik de score in 2001, dus 10349. Volgens mij klopt dit wel aardig want als je de scores bekijkt van mensen met een 9700 Pro, die hebben meestal een score van 4300. dus 9000 erbij is 13300. De hoogste score die ik zo'n beetje heb gezien was iemand met een pro met maarliefst bijna 5000 punten, 9000 erbij optellen en je hebt 14000 punten in 2001.
Je kan dus met deze formule natuurlijk (Duh!) ook terugrekenen. Mijn hoogste score die ik ooit heb gehaald in 2001 was 11600, 9000 eraf en ik heb 2600 punten in 03.
Wat ik denk is dat de puntentelling in 03 precies hetzelfde werkt als bij 2001 alleen is in 03 het referentiepunt drastisch gedaald.
Dus wat ik denk is dat ATI niet wordt voorgetrokken.
Met 3DMark03 gaan er ongeveer 9000 punten vanaf (als je het vergelijkt met 2001).
Voorbeeld: ik heb een score van 1349 met mijn Aeolus Ti4200 in 03, ik tel er 9000 bij op en ik de score in 2001, dus 10349. Volgens mij klopt dit wel aardig want als je de scores bekijkt van mensen met een 9700 Pro, die hebben meestal een score van 4300. dus 9000 erbij is 13300. De hoogste score die ik zo'n beetje heb gezien was iemand met een pro met maarliefst bijna 5000 punten, 9000 erbij optellen en je hebt 14000 punten in 2001.
Je kan dus met deze formule natuurlijk (Duh!) ook terugrekenen. Mijn hoogste score die ik ooit heb gehaald in 2001 was 11600, 9000 eraf en ik heb 2600 punten in 03.
Wat ik denk is dat de puntentelling in 03 precies hetzelfde werkt als bij 2001 alleen is in 03 het referentiepunt drastisch gedaald.
Dus wat ik denk is dat ATI niet wordt voorgetrokken.
[ Voor 43% gewijzigd door Verwijderd op 14-02-2003 10:26 ]
Tja, er waren toch echt kaarten die in 2001 de 20.000 doorbraken, die zouden dus volgens jou 11.000 punten hebben in 20003.....Verwijderd schreef op 14 February 2003 @ 10:08:
Ik wilde nog even iets kwijt over de scores die gehaald worden met 03 en volgens mij is dit wel het goede topic ervoor.
Met 3DMark03 gaan er ongeveer 9000 punten vanaf (als je het vergelijkt met 2001).
Voorbeeld: ik heb een score van 1349 met mijn Aeolus Ti4200 in 03, ik tel er 9000 bij op en ik de score in 2001, dus 10349. Volgens mij klopt dit wel aardig want als je de scores bekijkt van mensen met een 9700 Pro, die hebben meestal een score van 4300. dus 9000 erbij is 13300. De hoogste score die ik zo'n beetje heb gezien was iemand met een pro met maarliefst bijna 5000 punten, 9000 erbij optellen en je hebt 14000 punten in 2001.
Je kan dus met deze formule natuurlijk (Duh!) ook terugrekenen. Mijn hoogste score die ik ooit heb gehaald in 2001 was 11600, 9000 eraf en ik heb 2600 punten in 03.
Wat ik denk is dat de puntentelling in 03 precies hetzelfde werkt als bij 2001 alleen is in 03 het referentiepunt drastisch gedaald.
Dus wat ik denk is dat ATI niet wordt voorgetrokken.
Verwijderd
lol 20.000 heeft haast nog nooit iemand gehaald dat weet je zelf ook wel. Dat zijn uitzonderingen...
Jer moet wel heel sterk inje schoenen staan om dat te zeggen. Welke hardwaresites respecteer je wel? Ik vind Aces en Anand bijv. goed.Verwijderd schreef op 14 February 2003 @ 09:45:
Ik kwam met hardocp.com omdat daar resultaten van GeForce FX vs Radeon 9700 Pro op staan. Zodat je kunt zien dat de GeForce FX wel degelijk de snelste is, en de benchmark dus niet pro-ATi kan zijn.
Wat hardocp verder schrijft, zal me worst wezen. Die lui weten niet waar ze over praten.
Dat is Nvidia niet met je eens, er zal geen 1 game zijn die daar profijt van trekt, simpelweg omdat game anders opgebouwd zijn (of werken) dan 3dmark. Het kost alleen maar manuren aan engineers.ATi kan vast ook nog wel wat aan de drivers verbeteren. Er is ook best een kans dat nVidia wat geknoeid heeft met de drivers (herinneren jullie quack3.exe nog? Misschien zo'n gevalletje)...
Het is ook zeer waarschijnlijk dat nVidia 3dmark03 goed bestudeerd heeft om de drivers vooral daar op te optimaliseren...
Maar wie zegt dat ATi dat niet gedaan heeft? En wat dan nog? Zolang andere software er niet slechter van gaat draaien, is er niets aan de hand. Sterker nog, ik denk dat een hoop andere software ook profijt zal hebben van optimalisaties aan de hand van 3dmark.
Nee superieur is idd wat te veel gezegd, zeker sinds nvidia nu die stuk betere driver heeft released. Maat Ati heeft betere bandwidth, betere laagste FPS in games. En die features die de Fx idd heeft zijn vlees nog vis, ze gaan verder dan dx9.0 vraagt, maar niet ver genoeg voor dx9.1. tIs mijn inziens de vraag of ze niet redelijk werkeloos op de kast zullen blijven liggen. Tenslotte is Ati stiller en goedkoper, dus vandaar dat 't mijn keus zou zijn (alhoewel ik lekker op de R400 wachtHeeft ATi de superieure hardware? Ben ik het niet mee eens.
De GeForce FX is echt wel beter. Meer features (vooral als je PSM wilt toepassen heb je veel voordeel met een GeForce, ook met GF3/4 trouwens), hogere snelheid...
Maar dat mag ook wel, want hij is een stuk nieuwer en een stuk duurder.
ATi is wel veel aantrekkelijker, want het verschil in features is niet zo groot, en het verschil in snelheid is al helemaal nihil... maar de ATi's zijn wel veel goedkoper.
Het verschil is zo klein dat ik geen van beide 'superieur' zou willen noemen...
Hoewel... de AA/AF van ATi is wel superieur aan die van nVidia
Dat is idd zeker, alhoewel we nog niks weten van de actual features van de chipcore.nee, ATi heeft niet de superieure hardware, en dat mag je ook niet eens verwachten van een kaart die een half jaar ouder is.
ATi gaat zeer binnenkort wel superieure hardware hebben, te weten de R350.
Weetik, alhoewel ik blijf vinden dat Nvidia's argumenten wel enigszins hout snijden.der gaat het hier helemaal niet om ATi vs nVidia, als je dat misschien dacht. Het gaat er juist om dat de kritiek van nVidia (en een hoop nVidia-aanhangers) nogal eens ongegrond is... Lees mijn eerdere posts hier maar eens na over de technische achtergronden bij de claims van nVidia.
[ Voor 5% gewijzigd door Sjah op 14-02-2003 11:17 ]
Het klopt zoiezo niet helemaal, dan zou ik met mijn gf2 ook 9222 punten moeten halen in 2001 (oke ik weet het hij 's niet helemaal directx 8.1 compatible) terwijl ik helemaal standaard 4950 punten haalde... Bovendien kun je met een GF2 TI behoorlijk wat games nog wel redelijk normaal spelen... Dus echt super representatief vind ik het niet
Het lijkt namelijk net alsof een GF2 een kaartje is vergelijkbaar met een TNT2 kaartje waar je niets meer mee kunt. Dus ik vind het maar een apart verhaal.
Daar komt bij dat mensen met een GF4 4600 maar weinig punten halen tov een 9700 Pro. Ik vind het allemaal erg tegenvallen als ik eerlijk ben... Ik vind het wel erg pro Ati als ik eerlijk ben
Het lijkt namelijk net alsof een GF2 een kaartje is vergelijkbaar met een TNT2 kaartje waar je niets meer mee kunt. Dus ik vind het maar een apart verhaal.
Daar komt bij dat mensen met een GF4 4600 maar weinig punten halen tov een 9700 Pro. Ik vind het allemaal erg tegenvallen als ik eerlijk ben... Ik vind het wel erg pro Ati als ik eerlijk ben
Verwijderd
ik vind persoonlijk dat 03 erg saai is om naar te kijken, die demo bijvoorbeeld met die orcs die aan het rollenbollen zijn....die demo ziet er echt niet uit, die orcs zijn niet eens mooi afgewerkt en je hebt een fps van gemiddeld 7/15. Dat vind ik wel een vaag, net alsof er een prop in de uitlaat van je videokaart word gedaan, zo lelijke demo met zo'n lage fps. Dan kun je weer zeggen dat er bepaalde render technieken worden gebruikt..maar toch, ik vind het wel vreemd.
BTW, de 4600 haalde altijd een iets lagere score dan de pro. Ik ben eingenlijk altijd realistisch met ati en Nvidia, Ati heeft gewoon tot nu toe de beste/snelste kaart (en ja, ik zelf heb een Ti4200
)
BTW, de 4600 haalde altijd een iets lagere score dan de pro. Ik ben eingenlijk altijd realistisch met ati en Nvidia, Ati heeft gewoon tot nu toe de beste/snelste kaart (en ja, ik zelf heb een Ti4200
[ Voor 20% gewijzigd door Verwijderd op 14-02-2003 11:15 ]
Dat klopt maar de verschillen worden nu wel heel erg groot valt mij op...
Niet helemaal. Ik heb het even opgezocht en de berekening is ook aangepast.Verwijderd schreef op 14 February 2003 @ 10:08:
Wat ik denk is dat de puntentelling in 03 precies hetzelfde werkt als bij 2001 alleen is in 03 het referentiepunt drastisch gedaald.
Dus wat ik denk is dat ATI niet wordt voorgetrokken.
GT1: DX7 = FPS x 7,3
GT2: DX8 = FPS x 37
GT3: DX8 = FPS x 47,1
GT4: DX9 = FPS x 38,7
GT4 telt maar 20% mee, en de overige drie tests vullen de andere 80%. GT4 in 3DMark2001 telde volgens mij nog minder mee.
Er gebeurt nu niets anders dan wat ook in 3DMark2001 gebeurde. Die test was voornamelijk DX7 met een vleugje DX8. 3DMark2003 is voornamelijk DX8.1 met een vleugje DX9. Maar om toch beter op de toekomst te zijn voorbereid is er meer gewicht gegeven aan DX9.
nVidia kaarten zijn nou eenmaal niet zo goed in DX8.1 (want het zijn in feite maar DX8.05-kaarten door het ontbreken van PS1.4 wat een vereiste is van DX8.1). Dus een lagere score is het gevolg.
Ook de CPU test is naar mijn mening goed doordacht. Een 9700Pro zal op een 1700+ bijna dezelfde score halen als op een 2700+. Maar de CPU score zal lager zijn op de 1700+, omdat-ie de data minder snel naar de VPU voert dan op een 2700+ (wat dus resulteert in een hogere score). Op deze manier is 3dMark2003 minder CPU afhankelijk en dus meer VPU afhankelijk. En dat is ook een reden waarom GF4Ti-kaartjes nu ineens een stukje minder presteren. 3dMark2001 werd door velen eigenlijk ook een CPU-test genoemd, de prestaties schaalden mee naar mate je een snellere processor had. En nu is dit gewoon voorkomen.
Toen 3DMark2001 uit kwam, hoorde je mensen zeggen dat de Nature test er zo mooi uit zag, maar dat je er toch niets aan had in games, omdat er geen games waren die er gebruik van maakten en dat 3DMark een vertekend beeld zou geven. Nou, die games zijn er nu. En er komen alleen maar meer games die steeds intensiever gebruik van Pixelshaders zullen maken. Nu zie je dat mensen hetzelfde doen, namelijk zeuren dat er toch nog geen DX9-games zijn dus dat 3DMark geen goed beeld schetst. Guess what? Over een tijdje zijn die games er wel, en dan is die test toch helemaal niet zo nutteloos als sommige mensen nu verklaren.
[ Voor 1% gewijzigd door CJ op 14-02-2003 12:52 . Reden: domme typvouten ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Maar killer, als je die bereking van mij bij een paar scores uitvoerd klopt het volgens mij wel degelijk, want de pro had altijd een hoge score in 2001. En volgens mij speelt het gevoel ook een beetje mee, 1349 als score zier er een beetje gaar uit als er iemand met zo'n pro een score van 5000 haald.
CJ, ik denk dat je wel gelijk hebt, maar die orcs zien er toch niet uit? ze hebben gewoon stompjes...
CJ, ik denk dat je wel gelijk hebt, maar die orcs zien er toch niet uit? ze hebben gewoon stompjes...
[ Voor 54% gewijzigd door Verwijderd op 14-02-2003 11:26 ]
Verwijderd
maar niemand zegt ook dat als je 1500/2000 punten haalt in 3d mark03, dat je dan je spellen niet meer goed kan spelen, jongens kijk eens naar de ati 8500, die scoort ook niet meer dan 1500 punten, alleen de directx9 kaarten omdat die game 4 kunnen draaien, maar het is heus niet zo dat als je een lage score hebt dat je dan geen spel meer kunt draaien, een geforce 4 ti is heus wel een goeie kaart waar je nog makkelijk alle games op kunt spelen, daar gaat het niet om, en dat zegt ook niemand.killer1979 schreef op 14 februari 2003 @ 11:02:
Het klopt zoiezo niet helemaal, dan zou ik met mijn gf2 ook 9222 punten moeten halen in 2001 (oke ik weet het hij 's niet helemaal directx 8.1 compatible) terwijl ik helemaal standaard 4950 punten haalde... Bovendien kun je met een GF2 TI behoorlijk wat games nog wel redelijk normaal spelen... Dus echt super representatief vind ik het niet
Het lijkt namelijk net alsof een GF2 een kaartje is vergelijkbaar met een TNT2 kaartje waar je niets meer mee kunt. Dus ik vind het maar een apart verhaal.
Daar komt bij dat mensen met een GF4 4600 maar weinig punten halen tov een 9700 Pro. Ik vind het allemaal erg tegenvallen als ik eerlijk ben... Ik vind het wel erg pro Ati als ik eerlijk ben
edit
oh ja cj, je legt het helemaal precies goed uit.
[ Voor 3% gewijzigd door Verwijderd op 14-02-2003 11:56 ]
Dan nog even over de drivers. 3DMark2003 is nu natuurlijk heel erg afhankelijk van drivers omdat de CPU minder (tot niet) mee telt. Wat dat betreft heeft de 9700P nu natuurlijk een streepje voor op de FX. Maar ook op oudere kaarten wordt de voorsprong steeds groter.
Kijk naar nVidia. Die bracht ten tijde van de release van de 8500, de DetonatorXP uit die boosts brachten tot zo'n 30%. Daarmee haalde de GF3 de 8500, die toen geplaagd werd door slechte drivers, helemaal in. ATi doet nu hetzelfde, maar maakt daar niet zo'n ophef over.
Kijk bijvoorbeeld naar de laatste Cat. 3.1 drivers:
Als naar realworld gaming gekeken wordt, is de GF4Ti4600 in een enkel geval gelijkwaardig aan een 9700Pro, maar dit verschil wordt steeds groter naarmate er meer drivers voor de 9700Pro uit komen. De 9700Pro zal steeds verder weg trekken van de GF4Ti, en dat verschil zie je nu ook in 3DMark2003 en dat zal je later ook in nieuwere games zien. Ik hoor namelijk veel mensen zeggen dat realworld gaming beter is om naar te kijken dan een synthetic benchmark, maar ATi staat dus ook niet stil. Met elke driverupdate gaat de performance omhoog, terwijl de GF4Ti zo'n beetje aan z'n performance limiet zit.
Kijk naar nVidia. Die bracht ten tijde van de release van de 8500, de DetonatorXP uit die boosts brachten tot zo'n 30%. Daarmee haalde de GF3 de 8500, die toen geplaagd werd door slechte drivers, helemaal in. ATi doet nu hetzelfde, maar maakt daar niet zo'n ophef over.
Kijk bijvoorbeeld naar de laatste Cat. 3.1 drivers:
Boosts van 10% tot zelfs 40% in games doen aardig denken aan de Det. XP die nVidia destijds uitbracht toen ATi met de 8500 kwam. Deze Cat 3.1 betekent dus dat bv in UT2k3 Fly By de scores dus weer met 20 - 40% hoger zijn geworden dan die van een GF4Ti.A performance improvement between 6 and 24% is noticed in Comanche4
A performance improvement of 10% is noticed in Max Payne
A performance improvement between 20 and 40% is noticed in UT2003 Flyby
A performance improvement between 30 and 40% is noticed in IL-2 Sturmovik when Aniso or Aniso and Anti-Aliasing is enabled at the display resolution of 1600x1200
A performance improvement between 17 and 24% is noticed in Jedi Knight II when Aniso or Aniso and Anti-Aliasign is enabled at the display resolution of 1600x1200
Als naar realworld gaming gekeken wordt, is de GF4Ti4600 in een enkel geval gelijkwaardig aan een 9700Pro, maar dit verschil wordt steeds groter naarmate er meer drivers voor de 9700Pro uit komen. De 9700Pro zal steeds verder weg trekken van de GF4Ti, en dat verschil zie je nu ook in 3DMark2003 en dat zal je later ook in nieuwere games zien. Ik hoor namelijk veel mensen zeggen dat realworld gaming beter is om naar te kijken dan een synthetic benchmark, maar ATi staat dus ook niet stil. Met elke driverupdate gaat de performance omhoog, terwijl de GF4Ti zo'n beetje aan z'n performance limiet zit.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Trouwens, ik had ergens gelezen (kan de bron alleen niet meer terugvinden) dat bij de default benchmark in '03 anti-aliasing op 4x en aniso-filtering ook op 4x staat. Dat verklaart dan ook waarom Game Test 1 zelfs op een 9700 Pro en Ti4600 kaarten soms flink dropt in framerate in bepaalde drukke scenes.
Kan iemand met een Pro (betaalde) versie van '03 die bij de settings kan komen dit bevestigen?
Kan iemand met een Pro (betaalde) versie van '03 die bij de settings kan komen dit bevestigen?
Verwijderd
Geen enkele als het gaat om dit soort uitlatingen 3d graphics. Die mensen hebben er gewoon niet genoeg verstand van (zoals ik al eerder zei, ik zie dat soort mensen nog niet even een 3d engine maken met shaders/effecten etc).Jer moet wel heel sterk inje schoenen staan om dat te zeggen. Welke hardwaresites respecteer je wel? Ik vind Aces en Anand bijv. goed.
Ik vind Anandtech de beste site, persoonlijk. Ze proberen altijd zo objectief mogelijk te zijn, en ze gaan dieper op de materie in dan de gemiddelde site (bv. de screenshots van AA/AF in de GF FX-review). Verder beschuldigen ze niet zomaar alles en iedereen van alles en nog wat. En als ze ergens niets vanaf weten, gaan ze er ook geen rare dingen over lopen schreeuwen.
Dat claimt nVidia ja, maar ik heb al eerder hier aangetoond dat hun verhaal op meerdere plaatsen niet klopt, dus ik zou aan hun claims niet veel geloofwaardigheid hechten.Dat is Nvidia niet met je eens, er zal geen 1 game zijn die daar profijt van trekt, simpelweg omdat game anders opgebouwd zijn (of werken) dan 3dmark. Het kost alleen maar manuren aan engineers.
Lees dan mijn eerdere posts hier nog maar eens na... Vooral het gezeur over ps1.3 is complete onzin. Dat roepen ze echt alleen maar omdat de grote massa er toch geen verstand van heeft, en dus makkelijk gelooft dat nVidia benadeeld is.Weetik, alhoewel ik blijf vinden dat Nvidia's argumenten wel enigszins hout snijden.
Als je het wel met nVidia eens bent, mag je dat wel even onderbouwen. Kun je de claims van nVidia aannemelijk maken voor mij?
Nog even over de scores: 3dmark2001 en 3dmark03 zijn niet vergelijkbaar... Dat een kaart goed presteert in 3dmark2001, hoeft helemaal geen garantie te zijn dat ie ook in 3dmark03 goed presteert. De tests van 3dmark03 zijn namelijk heel anders, veel geavanceerder vooral.
En als je ze niet met elkaar kunt vergelijken, maakt het dus ook niets uit dat je in de een 10000 punten haalt, en in de ander 2000. Dat heeft helemaal geen verband met elkaar. Net zoals 3dmark2000 en 3dmark2001. In 2001 scoorde je ook over het algemeen lager.
Is toch logisch? Nieuwere software is zwaarder. Bij Quake3 verwacht je toch ook geen hogere framerates dan bij Quake2? Of nog leuker voorbeeld: Doom3 tegen Doom2?
Dus alsjeblieft, kan iedereen hier ophouden met zeuren over 'lage' scores tov 3dmark2001 en dergelijke?
En ook stoppen met zeuren over GF4, want dat is geen DX9-kaart. Dus scoort ie in 1 van de tests 0 fps, en kan ie nooit vergeleken worden met DX9-kaarten die daar WEL een redelijke framerate scoren.
En als je dan wilt zeggen "Ja maar dan is 3dmark03 niet eerlijk, dan hadden ze die DX9-test eruit moeten laten", dan wil ik je even verwijzen naar 3dmark2001, die geen DX9-tests heeft, en waar de GF4 het prima doet. Iedereen blij nu? *zucht*
die mensen die in 2001 over de 20.000 heen gingen zoals APversteeg, die hebben nu nog maar 6400 ofzo, dus die -9000 theorie klopt nietBokkepootje schreef op:
lol 20.000 heeft haast nog nooit iemand gehaald dat weet je zelf ook wel. Dat zijn uitzonderingen...
Verwijderd
heeft iemand die alpha versie van doomIII al eens gedraaid? dat ziet er ongeveer net zo uit als test 2 en 3 alleen mooier en het draait bij mij ook nog es soepel en de score die bij mij uit m'n systeem komt rollen is echt diep triest 1369 (zie specs) tegen 13xxx in 2001se
en wat iemand ook zei over het verschil tussen 3dmark99max en 2000 en 2001 is in verhouding idd nog nooit zo groot geweest,
en idd 3dmark2001se was gewoon leuk om naar te kijken deze is een stuk minder
en wat iemand ook zei over het verschil tussen 3dmark99max en 2000 en 2001 is in verhouding idd nog nooit zo groot geweest,
en idd 3dmark2001se was gewoon leuk om naar te kijken deze is een stuk minder
NVIDIA's statement:
3DMark03 has combined some pretty artwork into a set of four nice demo scenes. But, these scenes are so distant from real game applications that 3DMark03 just doesn't make it as a benchmark. Lacking any similarity to actual games, it misrepresents the gaming experience, and doesn't arm the consumer with the right information to make a purchase decision. It also forces hardware vendors to waste valuable engineering resources focusing on artificially fabricated cases that will never benefit real games. In the end, the consumer loses.
conclusie Tom's hardware:
NVIDIA's sudden change of mind is baffling - up till now, 3D Mark was always a well regarded test among the manufacturers, including NVIDIA. Perhaps NVIDIA feared a dwindling influence on the development of 3DMark.
Ultimately, it all boils down to the fact that developers need to use special code for different chips in order to ensure good performance on all possible platforms. This explains the attention that NVIDIA devoted to developers. Is the main reason for NVIDIA's criticism at 3D Mark 2003 due to Futuremark's refusal to use optimized code? In this case, NVIDIA is right in saying that 3D Mark is unrealistic - for one thing, because it was developed without NVIDIA's input, and for another thing, because it's difficult to imagine that actual "neutral" code would be useful for performance evaluation.
lijkt er dus ook op dat NVIDIA een beetje pissed op Futuremark is omdat er geen nvidia geoptimaliseerde code is gebruikt en Nvidia niet de invloed op de benchmark heeft kunnen uitoefenen die ze hadden willen...
ooit Ati horen zeuren over het feit dat 3dmark2001 meer nvidia geoptimaliseerd was? ik niet...
hoe dan ook 3dmark03 heeft wel voor een heerlijke soap gezorgd!
3DMark03 has combined some pretty artwork into a set of four nice demo scenes. But, these scenes are so distant from real game applications that 3DMark03 just doesn't make it as a benchmark. Lacking any similarity to actual games, it misrepresents the gaming experience, and doesn't arm the consumer with the right information to make a purchase decision. It also forces hardware vendors to waste valuable engineering resources focusing on artificially fabricated cases that will never benefit real games. In the end, the consumer loses.
conclusie Tom's hardware:
NVIDIA's sudden change of mind is baffling - up till now, 3D Mark was always a well regarded test among the manufacturers, including NVIDIA. Perhaps NVIDIA feared a dwindling influence on the development of 3DMark.
Ultimately, it all boils down to the fact that developers need to use special code for different chips in order to ensure good performance on all possible platforms. This explains the attention that NVIDIA devoted to developers. Is the main reason for NVIDIA's criticism at 3D Mark 2003 due to Futuremark's refusal to use optimized code? In this case, NVIDIA is right in saying that 3D Mark is unrealistic - for one thing, because it was developed without NVIDIA's input, and for another thing, because it's difficult to imagine that actual "neutral" code would be useful for performance evaluation.
lijkt er dus ook op dat NVIDIA een beetje pissed op Futuremark is omdat er geen nvidia geoptimaliseerde code is gebruikt en Nvidia niet de invloed op de benchmark heeft kunnen uitoefenen die ze hadden willen...
ooit Ati horen zeuren over het feit dat 3dmark2001 meer nvidia geoptimaliseerd was? ik niet...
hoe dan ook 3dmark03 heeft wel voor een heerlijke soap gezorgd!
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
Je hebt helemaal gelijk op alle punten, helaas zijn er veel nvidia-fanboys die niet meer helder kunnen nadenken nu ze scores onder de 5K halenVerwijderd schreef op 14 February 2003 @ 13:22:
En als je dan wilt zeggen "Ja maar dan is 3dmark03 niet eerlijk, dan hadden ze die DX9-test eruit moeten laten", dan wil ik je even verwijzen naar 3dmark2001, die geen DX9-tests heeft, en waar de GF4 het prima doet. Iedereen blij nu? *zucht*
Verwijderd
3dmark2001 was dan ook niet voor 'nVidia geoptimaliseerd' (beweerden mensen trouwens niet het omgekeerde, omdat ATi kaarten in 3dmark2001 relatief goed presteerden in vergelijking tot de meeste spellen?), en 3dmark03 is ook niet voor 'ATi geoptimaliseerd'.ooit Ati horen zeuren over het feit dat 3dmark2001 meer nvidia geoptimaliseerd was? ik niet...
Dat de een beter presteert dan de ander, betekent niets meer of minder dan dat de hardware de functies in 3dmark sneller kan uitvoeren.
Het verhaal is eerder andersom... De meeste software is voor nVidia geoptimaliseerd (vooral OpenGL, in Direct3D ligt het wat moeilijker om voor een specifieke architectuur te optimaliseren), en 3dmark juist niet. Die proberen neutraal te zijn (vandaar dat dus ook beiden partner waren van FutureMark, tot voor kort).
3dmark03 is geoptimaliseerd voor DX9-hardware, en dan gaat het voornamelijk om vs2.0 en ps2.0 uiteraard. En die zijn door ATi nou eenmaal beter geimplementeerd dan door nVidia. nVidia wilde liever de kant van OpenGL op, en met hun extensies kun je in OpenGL meer performance halen (de standaard ARB2-extensies zijn trouwens TRAGER dan die van ATi, wederom... Zie ook .plan van John Carmack). Dat is hun keuze, maar dan niet zeuren dat DX9 niet goed draait.
Misschien dat er een paar kleine veranderingen gemaakt zouden kunnen worden, waardoor het op een FX beter loopt... maar ik denk dat dat voor R300 ook geldt. Waarschijnlijk hebben ze voor de gulden middenweg gekozen, en worden beide kaarten nergens echt bevoordeeld, en nergens echt benadeeld (wat bij spellen vaak wel anders is).
Verder vind ik de claim dat "neutrale" code niet bruikbaar is, nogal onzin. Bij CPUs is het vaak andersom, dan vinden ze het niet goed als je SSE2 in een benchmark gebruikt, omdat niet alle CPUs dat hebben, bijvoorbeeld. Wat is het nou?
DX9-code is per definitie al heel erg neutraal, omdat er op een laag level is vastgelegd hoe de hardware en de software samen moeten werken. En er is dus weinig speelruimte voor specifieke optimalisaties.
Dus dat je dan ook behoorlijk neutrale code krijgt, is eigenlijk niet meer dan logisch. En die code is heel nuttig, want dan kun je goed zien hoe efficient de implementatie is, of niet?
Als neutrale code al niet goed werkt op een chip, dan is die hele chip waarschijnlijk niet interessant. Zo gek veel beter zal het niet zijn met optimalisaties.
Nogmaals, met OpenGL is het verhaal anders... Daar heb je proprietary extensies waarmee je op een laag niveau direct de specifieke hardware aan kunt spreken, en dan kun je die optimaal gebruiken. Dus dan kun je ook heel duidelijk voor een bepaalde chip optimaliseren. Met DX9 kan dit niet, dus is het hele verhaal anders.
Nou nee, ik kan hooguit mijn mening geven. Als ik jouw argumenten lees vind ik op het kritieke punt van je argumentering aannames, meer niet. Je zegt bijv. dat binnen no-time de meeste games ps 1.4 en dx 9 zullen gebruiken. Waar staat dat geschreven? Complete onzin als je 't mij vraagt. Ik denk dat over 1.5 jaar oid het pas ingang zal gaan vinden. En om dan te zeggen dat over 'n jaar de GF4 het absolute minimum is, bennik ook niet van overtuigd.Verwijderd schreef op 14 February 2003 @ 13:22:
Lees dan mijn eerdere posts hier nog maar eens na... Vooral het gezeur over ps1.3 is complete onzin. Dat roepen ze echt alleen maar omdat de grote massa er toch geen verstand van heeft, en dus makkelijk gelooft dat nVidia benadeeld is.
Als je het wel met nVidia eens bent, mag je dat wel even onderbouwen. Kun je de claims van nVidia aannemelijk maken voor mij?
Nvidia heeft gewoon gelijk dat alle games ps 1.1 en 1.3 gebruiken, als ze al ps gebruiken he. Dankzij de ps 1.4 in alle gametest wordt de GF4 compleet afgeserveerd, waanzin. Ook je verhaal dat in de nabije toekomst shadowing via vertex shaders zal gebeuren is niet meer dan een aanname.
Kijk, 3dmark 2001 was een dx7 benchmark met wat dx8 erin. 3dmark 03 is een dx9 bench, terwijl het een dx8 met een scheut dx9 erin had moeten zijn. Is 't nu niet.
Wie wil er in 's hemelsnaam terug naar de tijd waarin spellen maar op één chip goed draaiden? Volgens mij was het rete-irritant, dat in de tijd van de TNT1 alles alleen maar geoptimaliseerd was voor 3Dfx.
Hardware wordt nooit voor software geschreven, maar software wordt altijd voor hardware geschreven. Als 80% van de gamers een GF4Ti in z'n systeem heeft hangen, dan gaat de gamesindustrie echt niet ineens alles optimaliseren voor de R300. Dan zouden ze zichzelf in de vingers snijden. Real-world-performance is altijd een afweging tussen de verschillende chips op de markt, de gebruikte API en de tijd die men in het developen van een spel wil stoppen. Optimaliseren voor één chip is er niet meer bij.
Hardware wordt nooit voor software geschreven, maar software wordt altijd voor hardware geschreven. Als 80% van de gamers een GF4Ti in z'n systeem heeft hangen, dan gaat de gamesindustrie echt niet ineens alles optimaliseren voor de R300. Dan zouden ze zichzelf in de vingers snijden. Real-world-performance is altijd een afweging tussen de verschillende chips op de markt, de gebruikte API en de tijd die men in het developen van een spel wil stoppen. Optimaliseren voor één chip is er niet meer bij.
After all, you can't see a figure's panties unless it's the real thing.
ja! dat is het ook wel maar dan een dx8.1 bench met een scheut dx9 erin...Sjah schreef op 14 February 2003 @ 15:05:
[...]
Kijk, 3dmark 2001 was een dx7 benchmark met wat dx8 erin. 3dmark 03 is een dx9 bench, terwijl het een dx8 met een scheut dx9 erin had moeten zijn. Is 't nu niet.
en dus met ps 1.4 ondersteuning, waardoor chips die dat ondersteunen een aantal dingen in 1 pass kunnen renderen ipv 2 passes, wat ook het verschil in polycount verklaard...
misschien als 3dmark2001 ook ps 1.4 had ondersteund waren de radeons ook daar nog weer sneller in. was dan 3dmark2001 ineens ook niet meer representatief???
[ Voor 26% gewijzigd door Puppetmaster op 14-02-2003 15:18 ]
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
Idd. Je kan dan niet meer goed vergelijken, omdat 70% van de verkochte kaarten ps 1.4 niet aan boord heeft. Over dat feit mag niet zomaar heen gestapt worden.
Verwijderd
zeg dat niet te snel, het gaat sneller in de game industrie dan je denkt, ik denk zelf persoonlijk dat er eerder games met dx 9 uitkomen dan wij allemaal denken.Sjah schreef op 14 februari 2003 @ 15:05:
[...]
Nou nee, ik kan hooguit mijn mening geven. Als ik jouw argumenten lees vind ik op het kritieke punt van je argumentering aannames, meer niet. Je zegt bijv. dat binnen no-time de meeste games ps 1.4 en dx 9 zullen gebruiken. Waar staat dat geschreven? Complete onzin als je 't mij vraagt. Ik denk dat over 1.5 jaar oid het pas ingang zal gaan vinden. En om dan te zeggen dat over 'n jaar de GF4 het absolute minimum is, bennik ook niet van overtuigd.
Nvidia heeft gewoon gelijk dat alle games ps 1.1 en 1.3 gebruiken, als ze al ps gebruiken he. Dankzij de ps 1.4 in alle gametest wordt de GF4 compleet afgeserveerd, waanzin. Ook je verhaal dat in de nabije toekomst shadowing via vertex shaders zal gebeuren is niet meer dan een aanname.
Kijk, 3dmark 2001 was een dx7 benchmark met wat dx8 erin. 3dmark 03 is een dx9 bench, terwijl het een dx8 met een scheut dx9 erin had moeten zijn. Is 't nu niet.
edit
trouwens er zijn er al een paar.
o.a. gun-metal is ook nog van nvidia zelf.
DX9: 'Occlusion Query' for optimised rendering and realistic flare effects
DX9: Use of 128bit floating point buffers, enabling use of high contrast colour and overflows (such as retina bleach)
[ Voor 14% gewijzigd door Verwijderd op 14-02-2003 15:34 ]
Ik zou dat alleen maar toejuichenVerwijderd schreef op 14 februari 2003 @ 15:24:
[...]
zeg dat niet te snel, het gaat sneller in de game industrie dan je denkt, ik denk zelf persoonlijk dat er eerder games met dx 9 uitkomen dan wij allemaal denken.
Verwijderd
Nog even over die journalisten...
Zie extremetech.com (http://www.extremetech.com/article2/0,3973,888060,00.asp)
Dat zou een professionele review-site moeten zijn...
Ik noem even een paar dingen...
Ze beginnen al met:
Dit geeft dus maar even aan dat het allemaal wat te hoog gegrepen is voor de journalisten tegenwoordig...
Hun conclusies zijn trouwens wel interessant... Uit hun tests blijkt bijvoorbeeld dat de shadowvolumes helemaal niet zo vertexshader-limited zijn als nVidia wil doen geloven. Bij het verhogen van de resolutie, daalt de performance aanzienlijk. Een duidelijk teken dat ook de fillrate een groot aandeel heeft in de test.
Alle DX9-hardware zal ps1.4 ondersteunen, dus in dat licht is het helemaal niet vreemd dat ps1.4 gebruikt wordt. Het probleem is gewoon dat nVidia het al op de GF4 had moeten implementeren, maar dit dus niet gedaan heeft. En daarom zijn er veel meer ps1.4-kaarten van ATi in omloop (R8500/9100, R9000, R9500, R9700) dan van nVidia (alleen GeForce FX).
Jammer maar helaas voor nVidia.
Zo, nu heb ik in ieder geval onderbouwd waarom ik geen hoge pet op heb van de meeste review-sites... Iets voor jullie om over na te denken?
Zie extremetech.com (http://www.extremetech.com/article2/0,3973,888060,00.asp)
Dat zou een professionele review-site moeten zijn...
Ik noem even een paar dingen...
Ze beginnen al met:
Mensen die ook maar iets weten van Direct3D, weten dat ten eerste ps1.4 een DX8.1-feature is, en dat de R8500 een DX8.1-GPU is, en niet zo maar DX8. En verder weten die mensen ook dat DirectX per definitie backwards-compatible is. Kortom, als je ps2.0 ondersteunt, dan eist de standaard dat je alle lagere shaders, waaronder dus ps1.4, ook ondersteunt. De GeForce FX ondersteunt dan dus ook ps1.4, en is het dus NIET alleen ATi die die shaders ondersteunt.However, the benchmark has arrived shrouded in controversy, owing to its heavy use of DirectX Pixel Shaders (PS) 1.4, a pixel shader revision supported only by ATI in its DX8/DX9 GPUs since the Radeon 8500.
Niet dus, lees de whitepaper er maar op na. Er worden cubemaps gebruikt voor belichting, nergens wordt over anisotropic lighting gesproken.The airplane models are quad-textured, and lit using "anisotropic lighting", according to FutureMark's white paper.
Nee, want 3dmark03 maakt geen gebruik meer van MAX FX.The test also makes heavy use of the MAX FX's particle engine
NEE, buiten het feit dat Havok uberhaupt niet zo geschikt is voor het animeren van bossen haar, staat er duidelijk in de whitepaper dat er gebruik wordt gemaakt van een CUSTOM physics engine.Hair physics modeling is done using the Havok physics engine and takes into account gravity, hair stiffness, and hair curl.
ATi, en alle andere fabrikanten die ps1.4 in hardware hebben... Waaronder dus nVidia, met GeForce FX.The reduction would seem to indicate that 3DM2K3 is able to do exactly half as many rendering passes using PS 1.4, compared to the number necessary using PS 1.1. This is considerable, and obviously favors ATI
Hoezo 'if available'? Als je ps2.0 hebt, heb je per definitie ps1.4. En als je ps2.0 niet hebt, werkt de hele test niet. Dus er wordt ALTIJD gebruik gemaakt van ps1.4.Clouds cast shadows on the ground below, and this effect is done using PS 1.4 (if available)
Volgens mij is dat uberhaupt niet mogelijk, denk bijvoorbeeld aan alphablending. Dat kun je niet in 2 passes doen als het in 1 pass moet met ps1.4.whether to process PS 1.4 pixel shader code using PS 1.4 (via PS 2.0), or to fall back to doing more rendering passes using PS 1.1.
Dit geeft dus maar even aan dat het allemaal wat te hoog gegrepen is voor de journalisten tegenwoordig...
Hun conclusies zijn trouwens wel interessant... Uit hun tests blijkt bijvoorbeeld dat de shadowvolumes helemaal niet zo vertexshader-limited zijn als nVidia wil doen geloven. Bij het verhogen van de resolutie, daalt de performance aanzienlijk. Een duidelijk teken dat ook de fillrate een groot aandeel heeft in de test.
Het is een DX9-benchmark, geen DX8, want die hadden we al.This benchmark does overemphasize PS 1.4, and this probably wasn't the best way to go for all three tests.
Alle DX9-hardware zal ps1.4 ondersteunen, dus in dat licht is het helemaal niet vreemd dat ps1.4 gebruikt wordt. Het probleem is gewoon dat nVidia het al op de GF4 had moeten implementeren, maar dit dus niet gedaan heeft. En daarom zijn er veel meer ps1.4-kaarten van ATi in omloop (R8500/9100, R9000, R9500, R9700) dan van nVidia (alleen GeForce FX).
Jammer maar helaas voor nVidia.
Dit is complete onzin? ps1.4 vervangen door ps2.0? Waarom zou je dat doen? Meer dan ps1.4 hebben die tests niet nodig, en als je ps2.0 hebt, heb je per definitie ook ps1.4, dus dit maakt in de praktijk niets uit.It seems like FutureMark might want to consider doing a point-release to de-emphasize the PS 1.4 code paths, and add more PS 2.0 workloads
Zo, nu heb ik in ieder geval onderbouwd waarom ik geen hoge pet op heb van de meeste review-sites... Iets voor jullie om over na te denken?
Verwijderd
Doom3 komt dit jaar uit, en maakt al gebruik van 'ps1.4' en hoger (de OpenGL-varianten ervan welteverstaan). Er zijn zat andere spellen in ontwikkeling die dit ook doen, en die binnen het jaar gaan uitkomen Bovendien zei ik niet 'binnen een jaar', maar 'met een jaar of wat'... Anderhalf jaar, twee? Iets in die geest. Wat je zelf ook zei, dus je bent het wel met me eens, maar je interpreteerde me verkeerd.Je zegt bijv. dat binnen no-time de meeste games ps 1.4 en dx 9 zullen gebruiken. Waar staat dat geschreven? Complete onzin als je 't mij vraagt. Ik denk dat over 1.5 jaar oid het pas ingang zal gaan vinden. En om dan te zeggen dat over 'n jaar de GF4 het absolute minimum is, bennik ook niet van overtuigd.
Als ik puur naar mezelf kijk is het een feit. Ik ga vertexshaders gebruiken voor shadowvolume extrusion. En ik ken een hoop coders die dat ook doen. Geen aanname hoor.Ook je verhaal dat in de nabije toekomst shadowing via vertex shaders zal gebeuren is niet meer dan een aanname.
Wat is het verschil dan? In 3dmark2001 scoorden DX7-kaarten ook belachelijk veel lager dan DX8-kaarten, terwijl ze in de games uit die tijd soms nog sneller waren (denk aan GF2Ultra). Ik zou 3dmark2001 dus ook een DX8-benchmark noemen, zo is ie ook bedoeld. En 3dmark03 is bedoeld als een DX9-benchmark (DX6, 7 en 8 benchmarks hebben ze immers al lang).Kijk, 3dmark 2001 was een dx7 benchmark met wat dx8 erin. 3dmark 03 is een dx9 bench, terwijl het een dx8 met een scheut dx9 erin had moeten zijn. Is 't nu niet.
nee, en daarom noemt futuremark het ook een dx9 benchmark...Sjah schreef op 14 februari 2003 @ 15:24:
Idd. Je kan dan niet meer goed vergelijken, omdat 70% van de verkochte kaarten ps 1.4 niet aan boord heeft. Over dat feit mag niet zomaar heen gestapt worden.
En ik denk dat zelfs wel meer dan 70% van de verkochte kaarten niet dx9 compliant is!
en dat ps 1.4 probleem bestaat dus niet voor dx9 kaarten zoals Idletoad al de hele tijd probeert uit te leggen, en DAAROM is het ook best een aardige dx9 benchmark (waarom ps 2.0 gebruiken als het ook met 1.4 kan?), en DAAROM (onder andere) doen dx9 kaarten het gewoon veel beter...
ATI heeft meer dx9 kaarten op de markt, en daarom lijkt ATI het nu een heel stuk beter te doen dan Nvidia...
wacht maar rustig tot Nvidia de markt overspoeld met dx9 kaarten en dat hele gezeur over ps 1.4 en 3dmark2003 is wel of niet representatief als een dx9 benchmark is voorbij!
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
Het is helemaal niet oneerlijk. Als nVidia zich aan de DX-afspraken hadden gehouden, dan was er nu helemaal geen gezeik van mensen die zitten te zeuren dat het niet eerlijk is. Dan ondersteunde de GeForce4 ook PS1.4, maar nee.... nVidia zei dat het onnodig was, want wat je met PS1.4 kan, dat kunnen de GF4-kaarten ook wel met PS1.1 - PS1.3. Dat waren nVidia's eigen woorden.Sjah schreef op 14 February 2003 @ 15:05:
[...]
Dankzij de ps 1.4 in alle gametest wordt de GF4 compleet afgeserveerd, waanzin. Ook je verhaal dat in de nabije toekomst shadowing via vertex shaders zal gebeuren is niet meer dan een aanname.
Het is niet de schuld van FutureMark dat GeForce4 kaarten zich niet aan de DX8.1 standaard houden door geen PS1.4 te integreren.

Ohw... wacht even. Even een oude quote er bij pakken van mezelf:Kijk, 3dmark 2001 was een dx7 benchmark met wat dx8 erin. 3dmark 03 is een dx9 bench, terwijl het een dx8 met een scheut dx9 erin had moeten zijn. Is 't nu niet.
---------
Berekening eindscore
GT1: DX7 = FPS x 7,3
GT2: DX8 = FPS x 37
GT3: DX8 = FPS x 47,1
GT4: DX9 = FPS x 38,7
GT4 telt maar 20% mee, en de overige drie tests vullen de andere 80%.
----------
U zei? Dit is toch echt een DX8 test met een scheutje DX9.
Waarom nou zo'n ophef over PS1.4??Sjah schreef op 14 February 2003 @ 15:24:
Idd. Je kan dan niet meer goed vergelijken, omdat 70% van de verkochte kaarten ps 1.4 niet aan boord heeft. Over dat feit mag niet zomaar heen gestapt worden.
De Radeon8500 heeft duidelijk geen voordeel dat hij het wel kan. En de Radeon9700Pro is maar 500 punten langzamer als het gebruik maakt van PS1.1 in plaats van PS1.4. Je kan het nu zelfs testen met de nieuwste versie van Rage3DTweaker.
Een eindscore komt dan bij mij nog altijd uit op 4000 punten ipv 4500 punten. En dat is nog altijd RUIM meer dan een GF4Ti4600 scoort op een gelijksoortig systeem.
[ Voor 1% gewijzigd door CJ op 14-02-2003 18:17 . Reden: domme typvouten ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
je hebt helemaal gelijk, ik heb het ook even getest met de nieuwste rage3D tweaker, en ik kwam ook op 4003 uit.CJ schreef op 14 February 2003 @ 17:52:
[...]
Waarom nou zo'n ophef over PS1.4??
De Radeon8500 heeft duidelijk geen voordeel dat hij het wel kan. En de Radeon9700Pro is maar 500 punten langzamer als het gebruik maakt van PS1.1 in plaats van PS1.4. Je kan het nu zelfs testen met de nieuwste versie van Rage3DTweaker.
Een eindscore komt dan bij mij nog altijd uit komen op 4000 punten ipv 4500 punten. En dat is nog altijd RUIM meer dan een GF4Ti4600 scoort op een gelijksoortig systeem.Dus wat dat betreft gaat het hele verhaaltje van 'het is niet eerlijk' helemaal niet op, want bij gelijke stand is de 9700Pro nog altijd sneller dan een GF4Ti. Dat komt gewoon doordat de R300-core beter om kan gaan met DX8 en meer brute kracht heeft.
Verwijderd
Test eens op 1.1 en met game 4 uitVerwijderd schreef op 14 February 2003 @ 18:11:
[...]
je hebt helemaal gelijk, ik heb het ook even getest met de nieuwste rage3D tweaker, en ik kwam ook op 4003 uit.
Verwijderd
hoe doe je die game 4 uit, dat lukt mij maar niet, dat wou ik ook ff proberen, maar ik krijg hem niet uit.Verwijderd schreef op 14 February 2003 @ 18:27:
[...]
Test eens op 1.1 en met game 4 uit(dan nog steeds, heb je zo'n 3200 punten denk ik, maar beter vergelijkbaar met geforce 4-serie
)
edit
ik denk als je een geregistreerde hebt, dat het dan wil.
[ Voor 10% gewijzigd door Verwijderd op 14-02-2003 18:31 ]
Verwijderd
Dit is niet helemaal waar.Dus wat dat betreft gaat het hele verhaaltje van 'het is niet eerlijk' helemaal niet op, want bij gelijke stand is de 9700Pro nog altijd sneller dan een GF4Ti. Dat komt gewoon doordat de R300-core beter om kan gaan met DX8 en meer brute kracht heeft.
De GF4Ti is niet DX9-compliant, en kan game test 4 niet draaien, en scoort daar dus altijd 0 fps. Je kunt de kaarten simpelweg niet vergelijken, want de GF4 is een generatie ouder.
Je kunt de 3dmark03-score niet letterlijk vertalen naar "hij is trager". Probeer maar eens een R9700Pro te testen zonder game 4. Dan is het vergelijkbaar...
Maar goed, dat is allemaal nutteloos, want dan kun je net zo goed 3dmark2001 gebruiken.
3dmark03 is gewoon niet relevant voor hardware van vorige generaties, gebruik het alleen om DX9-kaarten te vergelijken, en hou op met zeuren. En ja, in 3dmark2001 is die R9700Pro ook wel sneller dan de GF4, zonder ps1.4/2.0 etc.
Verwijderd
sorry mijn fout...Verwijderd schreef op 14 februari 2003 @ 18:29:
[...]
hoe doe je die game 4 uit, dat lukt mij maar niet, dat wou ik ook ff proberen, maar ik krijg hem niet uit.
Iets anders, check de resultaten van game4 en vermenigvuldig die met 38x (toch
Verwijderd
maakt niet uit, dat kon je ook niet zo snel weten.Verwijderd schreef op 14 February 2003 @ 18:32:
[...]
sorry mijn fout...
Iets anders, check de resultaten van game4 en vermenigvuldig die met 38x (toch)...haal daarna dit getal van je 3dmarkscore af en je weet, wat je zou halen, als je game4 uit zou hebben staan.
en ik heb bij mother nature 30 fps, en mijn eindscore was deze keer 4008, moet ik dan die 30 daar van aftrekken, ja sorry voor mijn domheid, maar rekenen is niet mijn sterkste kant.
Verwijderd
dat klopt, ik haalde in 2001 zon 13000 marks met mn pc, en nu maar 1500T7D_Sneezy schreef op 14 February 2003 @ 13:40:
[...]
die mensen die in 2001 over de 20.000 heen gingen zoals APversteeg, die hebben nu nog maar 6400 ofzo, dus die -9000 theorie klopt niet
Verwijderd
4008 - (38x30) = 2868...Verwijderd schreef op 14 February 2003 @ 18:44:
[...]
maakt niet uit, dat kon je ook niet zo snel weten.
en ik heb bij mother nature 30 fps, en mijn eindscore was deze keer 4008, moet ik dan die 30 daar van aftrekken, ja sorry voor mijn domheid, maar rekenen is niet mijn sterkste kant.
2868 is de score zonder game 4
p.s.
Ik zou het wel op prijs stellen, als een radeon9500pro bezitter hier zijn 'detail-scores' met eindresultaat (met pixelshader 1.4 uit) neer zet
[ Voor 19% gewijzigd door Verwijderd op 14-02-2003 19:03 ]
Verwijderd
Nog even een nieuwsbericht van T.net:
Tom's Hardware over 3DMark03
Tom's Hardware over 3DMark03
De mannen van Tom's Hardware hebben een artikel online gezet waarin wordt ingegaan op de betrouwbaarheid van de nieuwe 3DMark03 benchmark. Nog geen dag na de release kwam nVidia, voorheen nauw betrokken bij de ontwikkeling, met stevige kritiek op de benchmark. Het probleem ligt onder andere in het gebruik van de in de praktijk weinig gebruikte pixelshaders 1.4 waardoor kaarten die deze functionaliteit niet ondersteunen het moeten doen met inefficiënte versie 1.1 pixelshaders.
Initieel dachten de meeste mensen dat nVidia bang was dat de GeForce FX niet de Radeon 9700 Pro kon bijhouden, maar dat blijkt niet het geval te zijn. De nieuwe 42.68 Detonator drivers blijken bijna 50 procent sneller te zijn dan zijn voorgangers in 3DMark03 waardoor de GeForce FX ongeveer 500 punten hoger scoort dan de Radeon 9700 Pro. Waardoor nVidia van standpunt is veranderd wat betreft 3DMark zal gissen blijven, maar het zal duidelijk zijn dat de resultaten van 3DMark03 met een korreltje zout genomen moeten worden:
NVIDIA's sudden change of mind is baffling - up till now, 3D Mark was always a well regarded test among the manufacturers, including NVIDIA. What initially looked like an attempt to hide the FX's weaker test performance cannot be confirmed with the appearance of the new driver. Perhaps NVIDIA feared a dwindling influence on the development of 3DMark. Especially with the new "The way it's meant to be Played" program, NVIDIA tries to increase its influence on game developers.
Of course, gamers with NVIDIA cards benefit from NVIDIA's involvement, as they get better graphics and performance in real games. Owners of non-NVIDIA cards might have something else to say though. At the NVIDIA Developer Forum, it became clear the Pixel Shader (2.0) code doesn't run equally well on all hardware. Ultimately, it all boils down to the fact that developers need to use special code for different chips in order to ensure good performance on all possible platforms. This explains the attention that NVIDIA devoted to developers. Is the main reason for NVIDIA's criticism at 3D Mark 2003 due to Futuremark's refusal to use optimized code? In this case, NVIDIA is right in saying that 3D Mark is unrealistic - for one thing, because it was developed without NVIDIA's input, and for another thing, because it's difficult to imagine that actual "neutral" code would be useful for performance evaluation.
Verwijderd
trouwens ik test net weer op 1.4, heb ik een score van 4621, maar die mother-nature die heeft nu onder 1.4, 32 fps, dat scheelt dus weinig met 1.1 daar had ik 30 fps.
Nu haat ik NVidia echt:
de strekking was : ik vind nVidia niet liev
intens troll alert, je iets anders uitdrukken volgende keer graag.NVIDIA's sudden change of mind is baffling - up till now, 3D Mark was always a well regarded test among the manufacturers, including NVIDIA. What initially looked like an attempt to hide the FX's weaker test performance cannot be confirmed with the appearance of the new driver. Perhaps NVIDIA feared a dwindling influence on the development of 3DMark. Especially with the new "The way it's meant to be Played" program, NVIDIA tries to increase its influence on game developers.
Of course, gamers with NVIDIA cards benefit from NVIDIA's involvement, as they get better graphics and performance in real games. Owners of non-NVIDIA cards might have something else to say though. At the NVIDIA Developer Forum, it became clear the Pixel Shader (2.0) code doesn't run equally well on all hardware. Ultimately, it all boils down to the fact that developers need to use special code for different chips in order to ensure good performance on all possible platforms. This explains the attention that NVIDIA devoted to developers. Is the main reason for NVIDIA's criticism at 3D Mark 2003 due to Futuremark's refusal to use optimized code? In this case, NVIDIA is right in saying that 3D Mark is unrealistic - for one thing, because it was developed without NVIDIA's input, and for another thing, because it's difficult to imagine that actual "neutral" code would be useful for performance evaluation.
de strekking was : ik vind nVidia niet liev
[ Voor 10% gewijzigd door Verwijderd op 15-02-2003 13:20 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Verwijderd
Er staat alleen, dat ze niet tevreden zijn, omdat de software niet is geoptimaliseerd
[ Voor 22% gewijzigd door Verwijderd op 15-02-2003 13:21 ]
Verwijderd
zei ik het niet een paar post terug, nou is het wel weer goed, dat bedoel ik nou, zit het nvidia tegen, dan is het iedereen zijn schuld, behalve nvidia, zit het mee, dan steunen ze het ineens weer. zo zie je maar weer.
[ Voor 19% gewijzigd door Verwijderd op 15-02-2003 13:21 ]
Verwijderd
Wat ik ook erg zwak vond van Nvidia was dat ze afspraken hadden met sommige game developers, en dan zag je bij een demo de tekst "nvidia, the way its meant to be played".
[ Voor 22% gewijzigd door Verwijderd op 15-02-2003 13:22 ]
Verwijderd
Bij ut2003 ook, maar kopop, waar zie je tegenwoordig geen reclame meer?Verwijderd schreef op 14 February 2003 @ 19:11:
[...]
Wat ik ook erg zwak vond van Nvidia was dat ze afspraken hadden met sommige game developers, en dan zag je bij een demo de tekst "nvidia, the way its meant to be played".
Verwijderd
ja oke reclame, maar nvidia die speelde het wel mooi zo dat in het begin hij eerst niet deed op een radeon, pas naar een patch kon je pas fatsoenlijk spelen, he that's the way het is ja, volgens nvidia, nee masera heeft gelijk dat was een k*tstreek.Verwijderd schreef op 14 February 2003 @ 19:13:
[...]
Bij ut2003 ook, maar kopop, waar zie je tegenwoordig geen reclame meer?
huh? en dit gedeelte danAstennu schreef op 14 February 2003 @ 19:05:
Nu haat ik NVidia echt:
[...]
Wat een kut lui zeg nu wiilen ze ineens wel weerecht ik koop nooit meer een NVidia kaart omdat ze gewoon niet sportief zijn ik
op ze
In this case, NVIDIA is right in saying that 3D Mark is unrealistic - for one thing, because it was developed without NVIDIA's input, and for another thing, because it's difficult to imagine that actual "neutral" code would be useful for performance evaluation.
volgens mij staat daar dat NVIDIA gelijk heeft met zeggen dat de benchmark niet realistisch is. Er wordt ook uitgelegd waarom.
bovendien presteert de geforceFX best goed, dus daar heeft NVIDIA geen reden tot klagen
en dan missen er nog essentiele tests
"3D Mark was already controversial with version 2001 and earlier, but in the individual tests, you could always reach some conclusions about a graphics card. In version 2003, however, Futuremark has reduced these tests further. What's missing, for example, are the Polygon Count and Light tests. Even the CPU scores are questionable, because the results depend on the graphics card. The Image Quality tests are only restricted to screen shots, instead of showing special scenes that could demonstrate advantages and disadvantages of a card's specific FSAA implementation."
lees gewoon eens dat hele artikel door, dat maakt veel duidelijk
ASUS ROG Strix B650-A | AMD 7600X | Kingston 32GB DDR5 6000 CL36 | Kingston KC3000 1TB | Powercolor hellhound RX9070 16GB
Doe toch niet zo simpel, toen Unreal Tournament 2003 gedeveloped werd waren er nauwelijks bruikbare Radeonkaarten, de enige was de Radeon 7000/VE die qua performance nog lager lag dan een GF2 GTS. Dan kun je het Digital Extremes en de andere developers van UT2k3 niet kwalijk nemen dat ze inzetten op NVidia, omdat die op dat moment de enige bruikbare kaarten leverde. Toen Unreal uitkwam, draaide dat ook alleen goed op een 3Dfx Voodoo omdat de toenmalige NVidia-chip, de Riva128, gewoon te traag was. Dat hebben ze later goedgemaakt door patches, net zoals UT2k3 nu ook dmv een patch goed draait op een Radeon.Verwijderd schreef op 14 February 2003 @ 19:17:
[...]
ja oke reclame, maar nvidia die speelde het wel mooi zo dat in het begin hij eerst niet deed op een radeon, pas naar een patch kon je pas fatsoenlijk spelen, he that's the way het is ja, volgens nvidia, nee masera heeft gelijk dat was een k*tstreek.
En bovendien, is het verboden om een NVidia-logo en dito campagne te beginnen, gericht op developers? Ik denk het niet. Het is de bedoeling van elke videokaartfabrikant om winst te maken. Ze produceren heus geen GPU's omdat ze het zo leuk vinden dat gamers in hoog detail kunnen spelen, maar voor eigenbelang. Dan is het ook logisch dat ze campagne voeren aan het developersfront. In de manual van UT2k3 staat ook een paginagrote reclame voor de Pentium-4 afgedrukt. Is dat onsportief van Intel tegenover AMD? Kom op zeg.
After all, you can't see a figure's panties unless it's the real thing.
Simpele rekensom leert dat dit dan 3200 punten is zoals een paar posts eerder is aangegeven. 20% afhalen van 4000.Verwijderd schreef op 14 February 2003 @ 18:31:
[...]
Dit is niet helemaal waar.
De GF4Ti is niet DX9-compliant, en kan game test 4 niet draaien, en scoort daar dus altijd 0 fps. Je kunt de kaarten simpelweg niet vergelijken, want de GF4 is een generatie ouder.
Je kunt de 3dmark03-score niet letterlijk vertalen naar "hij is trager". Probeer maar eens een R9700Pro te testen zonder game 4. Dan is het vergelijkbaar...
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
Bij Tomshardware staat er ook weer onzin:
Verder is Doom3 gericht op DX7/8 hardware, waarbij je 0-2 vertexshaders aan boord hebt. Bij een DX9-kaart heb je minimaal 4 shaders, dus is het verhaal heel anders.
Hoogstwaarschijnlijk kan de snelste CPU niet tegen deze 4 shaders op skinnen/uploaden. En als ie het al kan, is het de vraag hoeveel CPU-kracht je nog overhoudt voor de rest van je spel.
Verschillende situaties, verschillende problemen, verschillende oplossingen. Niet vergelijken.
Light count is al helemaal onzin. Was leuk met een fixed pipeline, maar dat is verleden tijd. Alle verlichting wordt nu in shaders gedaan, en je krijgt ongeveer dezelfde situatie als met polycount. Hoeveel lichten je aankunt, hangt af van de complexiteit van je shaders. Is dus ook niet meer relevant om dit te testen.
Je kunt de geskinde meshes niet cachen met vertexshaders. Doom3 doet het anders, die skint op de CPU. Maar Doom3 is ook niet gericht op DX9-hardware. De polycount bij Doom3 is lager, dus is het een minder groot probleem om te skinnen op de CPU, en ieder frame de meshes over de AGP-bus te pompen.It's unfortunate that 3DMark03 does not truly emulate Doom or any other game by skinning each object only once per frame, caching the skinned result, and using that cached result in the multiple passes required for shadows
Verder is Doom3 gericht op DX7/8 hardware, waarbij je 0-2 vertexshaders aan boord hebt. Bij een DX9-kaart heb je minimaal 4 shaders, dus is het verhaal heel anders.
Hoogstwaarschijnlijk kan de snelste CPU niet tegen deze 4 shaders op skinnen/uploaden. En als ie het al kan, is het de vraag hoeveel CPU-kracht je nog overhoudt voor de rest van je spel.
Verschillende situaties, verschillende problemen, verschillende oplossingen. Niet vergelijken.
Polygon count is niet interessant meer. Kaarten zijn toch al snel genoeg om miljoenen polys per seconde te renderen (een acceptabele framerate met een hele scene vol polys van < 1 pixel is geen probleem). Verder hangt de polycount af van de complexiteit van de gebruikte vertexshader, dus is een synthetische test nogal lastig... Hoe complex moet de geteste shader dan zijn?What's missing, for example, are the Polygon Count and Light tests.
Light count is al helemaal onzin. Was leuk met een fixed pipeline, maar dat is verleden tijd. Alle verlichting wordt nu in shaders gedaan, en je krijgt ongeveer dezelfde situatie als met polycount. Hoeveel lichten je aankunt, hangt af van de complexiteit van je shaders. Is dus ook niet meer relevant om dit te testen.
Dit is altijd al zo geweest. Tijdens de CPU-test werden altijd al plaatjes gerenderd, en heeft de grafische kaart dus altijd al een beetje invloed op de resultaten gehad.Even the CPU scores are questionable, because the results depend on the graphics card.
Verwijderd
idletoad, waar heb jij al die kennis opgedaan
. Jij komt net op GoT en dan zet je allemaal sterke beweringen neer. Ik kan er iig nog veel van leren
De CPU maakt bijna geen zak uit kan jullie vertellen.
Vanmiddag op mn werk een testje gedaan
Ik had de beschikking over een Celeron 1.2Ghz en een XP 2100+
De kaart die ik voor beide systemen gebruikt heb was een Geforce 4 TI4200 8x AGP 128mb DDR. Zeker geen slecht kaartje
Resultaat 1182 punten met de celeron
1203 met de xp 2100
En dan te bedenken dat je dus ook nog met pc133 geheugen werkt in dat celeron systeempje
en het snellere ddr geheugen in het andere systeem
Maakt dus geen ruk uit!
Vanmiddag op mn werk een testje gedaan
Ik had de beschikking over een Celeron 1.2Ghz en een XP 2100+
De kaart die ik voor beide systemen gebruikt heb was een Geforce 4 TI4200 8x AGP 128mb DDR. Zeker geen slecht kaartje
Resultaat 1182 punten met de celeron
1203 met de xp 2100
En dan te bedenken dat je dus ook nog met pc133 geheugen werkt in dat celeron systeempje
en het snellere ddr geheugen in het andere systeem
Maakt dus geen ruk uit!
Maar futuremark suggereert dat het OOK een nuttige dx8 test is, omdat als er dx8 hardware wordt gedetecteerd 3 van de 4 test toch rustig gedaan kunnen worden.Robin001 schreef op 14 February 2003 @ 17:14:
[...]
nee, en daarom noemt futuremark het ook een dx9 benchmark...
Uhm ik was de 1e die in deze threath die dat duidelijk maakte hoor, waar heb je het over ?en dat ps 1.4 probleem bestaat dus niet voor dx9 kaarten zoals Idletoad al de hele tijd probeert uit te leggen,
Dat snap ik ook wel. Ik zeg alleen dat de dx8 kaarten (ook die van ati) belachelijk naar de achtergrond worden verdreven.en DAAROM is het ook best een aardige dx9 benchmark (waarom ps 2.0 gebruiken als het ook met 1.4 kan?), en DAAROM (onder andere) doen dx9 kaarten het gewoon veel beter...
Wederom ik heb hier als eerste gezegd dat 3dmark een heel geschikte benchmark is voor dx9 kaarten, lees maar na.wacht maar rustig tot Nvidia de markt overspoeld met dx9 kaarten en dat hele gezeur over ps 1.4 en 3dmark2003 is wel of niet representatief als een dx9 benchmark is voorbij!
Verwijderd
Maakt altijd wat uit. A.p.versteeg heeft niet voor niets de hoogste score, dat komt doordat hij een Pentium 4 op meer dan 4 ghz heeft lopen.Tmaster schreef op 14 February 2003 @ 20:11:
De CPU maakt bijna geen zak uit kan jullie vertellen.
Vanmiddag op mn werk een testje gedaan
Ik had de beschikking over een Celeron 1.2Ghz en een XP 2100+
De kaart die ik voor beide systemen gebruikt heb was een Geforce 4 TI4200 8x AGP 128mb DDR. Zeker geen slecht kaartje
Resultaat 1182 punten met de celeron
1203 met de xp 2100
En dan te bedenken dat je dus ook nog met pc133 geheugen werkt in dat celeron systeempje
en het snellere ddr geheugen in het andere systeem
Maakt dus geen ruk uit!
Verwijderd
Bij hem bottleneckt de videokaart dan ook iets minder...Verwijderd schreef op 14 februari 2003 @ 20:12:
[...]
Maakt altijd wat uit. A.p.versteeg heeft niet voor niets de hoogste score, dat komt doordat hij een Pentium 4 op meer dan 4 ghz heeft lopen.
Verwijderd
je kan onderhand ook wel afvragen of de reacties in dit topic wel representatief zijn...
iedereen met een GF4 boort futuremark de grond in en de ATI gebruikers vinden 3Dmark fantastisch.
iedereen met een GF4 boort futuremark de grond in en de ATI gebruikers vinden 3Dmark fantastisch.
Nee dat vind ik wel meevallen. Ik vind deze discussie van een behoorlijk hoog niveau, een verademing op GoT
Verwijderd
Ik werk zelf al tijden met DX8.1 en DX9, en ben dus wel behoorlijk bekend in het woud van schaduwen en shaders en dergelijke. Ik ken de API (en de specs) redelijk goed. Ik heb ook de nVidia- en ATi-tech docs gelezen over hoe Doom3 ongeveer in elkaar steekt en hoe je nou de hardware zo snel mogelijk aanstuurt.idletoad, waar heb jij al die kennis opgedaan . Jij komt net op GoT en dan zet je allemaal sterke beweringen neer. Ik kan er iig nog veel van leren
Verder is Mikko Kallinen een oude vriend van mij (allebei Amiga-coders geweest in een vorig leven
Ik hoop voor FutureMark dat er meer game-developers komen die 3dmark03 gaan verdedigen, en zich tegen nVidia gaan keren... Degenen die ik heb gesproken, waren het over het algemeen niet met nVidia eens. John Carmack heeft trouwens ook al bepaalde dingen gezegd... Al gebruikt hij OpenGL, kwam hij tot ongeveer dezelfde conclusies... Namelijk dat hij 'ps1.4' gebruikt waar het kan, en verder 'ps1.1'. Ook hij kan niets met de 'ps1.3' shaders van de GF4. Verder heeft hij verklaard dat de standaard-OpenGL shader-extensies (ARB2_fragment_program) veel trager op een GF FX uitgevoerd werden dan op een R9700Pro. Dit komt dus overeen met wat we in de pixelshader tests van 3dmark03 zien.
Met specifieke NV30-extensies kon hij de kaart wel beter laten presteren, maar aangezien die niet bestaan in DX9, is het nog maar de vraag of de GF FX veel beter zou kunnen presteren, als 3dmark03 specifiek geoptimaliseerd zou worden.
Ik hoop dat mensen een beetje gaan begrijpen wat voor een vies marketing-spelletje nVidia hier eigenlijk aan het spelen is nu.
Ik ben een nVidia-gebruiker op het moment, by the wayiedereen met een GF4 boort futuremark de grond in en de ATI gebruikers vinden 3Dmark fantastisch.
Jah maar nu die GF FX met de nieuwe drivers ineens sneller is willen ze wel weer mee doen dat zit mij dus dwarsVerwijderd schreef op 14 February 2003 @ 19:11:
[...]
Wat ik ook erg zwak vond van Nvidia was dat ze afspraken hadden met sommige game developers, en dan zag je bij een demo de tekst "nvidia, the way its meant to be played".

En op een ATI draaide het spel ook nog eens beter ook dus grote bullshit
[ Voor 8% gewijzigd door Astennu op 14-02-2003 21:13 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
okee! sorry hoor!Sjah schreef op 14 February 2003 @ 20:12:
[...]
Uhm ik was de 1e die in deze threath die dat duidelijk maakte hoor, waar heb je het over ?
idletoad maakte schreef er nogal veel over, was je waarschijnlijk wat ondergesneeuwd...
It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...
Nice info, erg veel dingen die nu eens echt interessant zijn en ze zeer begrijpelijk gebracht voor iedereen, bedankt daarvoor
Het valt met trouwens op dat veel 3d programmers het voor futuremark opnemen, maarja die werken per slot van rekening ook vooruit en ze hebben er al meer mee te maken dan wij, en ten slotte zijn zij degenen met de meeste kennis...
ja, da's balenVerwijderd schreef op 14 februari 2003 @ 20:29:
je kan onderhand ook wel afvragen of de reacties in dit topic wel representatief zijn...
iedereen met een GF4 boort futuremark de grond in en de ATI gebruikers vinden 3Dmark fantastisch.
had ik maar een Radeon, dan zou ik misschien de andere Radeon eigenaars kunnen overtuigen van het feit dat er toch echt grote verschillen zitten tussen deze test en real-life game performance (ook in toekomstige games)
maar ja, mensen die te veel geld uitgeven voor een videokaart willen natuurlijk alles horen dat hun uitgave rechtvaardigt, da's misschien ook wel de reden van bestaan voor die benchmarks
ASUS ROG Strix B650-A | AMD 7600X | Kingston 32GB DDR5 6000 CL36 | Kingston KC3000 1TB | Powercolor hellhound RX9070 16GB
Verwijderd
Is het niet andersom? Die GF4s waren de laaste tijd amper goedkoper dan de Radeons, en met die Radeons krijg je meer waar voor je geld, want DX9-hardware.maar ja, mensen die te veel geld uitgeven voor een videokaart willen natuurlijk alles horen dat hun uitgave rechtvaardigt
Mensen die dus voor een GF4 hebben gekozen vanwege de naam/reputatie van nVidia, of vanwege "die extra features heb je toch niks aan", of iets dergelijks, die voelen zich nu dus toch wel een beetje belazerd.
En mensen die een GeForce FX hebben besteld, vinden waarschijnlijk ook niet dat ze waar voor hun geld krijgen, want het verschil in prestatie is miniem... Het verschil in prijs daarentegen...
Tegen de tijd dat we met z'n allen DX9-software draaien, lachen we natuurlijk om die GF4s, Radeon9700s en GF FX-kaartjes, want dan zijn we al weer een generatie of 2 verder met de GPUs. Maar raad eens waarmee we die nieuwe GPUs benchmarken? Juist, nog steeds 3dmark03! Daar is ie voor, om de toekomstige hardware te kunnen vergelijken, aan de hand van eisen van toekomstige games. Deze benchmark zal namelijk gedurende de hele DX9-generatie blijven, en pas met DX10 zal hij een opvolger krijgen.
Het probleem zit hem erin dat de meeste mensen niet vooruit kunnen kijken, en nog heel erg in termen van DX8 denken. Dat tijdperk is nu afgesloten.
Verwijderd
nou, dat zeg je nou wel dat ik simpel denk, maar nvidia heeft wel van die truukjes, kijk alleen maar naar de demo waar ik het eerder over had gun -metal, en die is ook nog dx 9, nou probeer iemand maar met een radeon, deze demo te spelen, lukt je niet, leg me dat dan maar eens uit.nare man schreef op 14 februari 2003 @ 19:33:
[...]
Doe toch niet zo simpel, toen Unreal Tournament 2003 gedeveloped werd waren er nauwelijks bruikbare Radeonkaarten, de enige was de Radeon 7000/VE die qua performance nog lager lag dan een GF2 GTS. Dan kun je het Digital Extremes en de andere developers van UT2k3 niet kwalijk nemen dat ze inzetten op NVidia, omdat die op dat moment de enige bruikbare kaarten leverde. Toen Unreal uitkwam, draaide dat ook alleen goed op een 3Dfx Voodoo omdat de toenmalige NVidia-chip, de Riva128, gewoon te traag was. Dat hebben ze later goedgemaakt door patches, net zoals UT2k3 nu ook dmv een patch goed draait op een Radeon.
En bovendien, is het verboden om een NVidia-logo en dito campagne te beginnen, gericht op developers? Ik denk het niet. Het is de bedoeling van elke videokaartfabrikant om winst te maken. Ze produceren heus geen GPU's omdat ze het zo leuk vinden dat gamers in hoog detail kunnen spelen, maar voor eigenbelang. Dan is het ook logisch dat ze campagne voeren aan het developersfront. In de manual van UT2k3 staat ook een paginagrote reclame voor de Pentium-4 afgedrukt. Is dat onsportief van Intel tegenover AMD? Kom op zeg.
op deze link staat die : http://www.nvidia.com/view.asp?IO=game_gunmetal
edit
en voor de duidelijkheid, reclame vindt ik niet erg, maar ik heb het over bewust een spel slechter te laten lopen of helemaal niet op een ati kaart.
en respect voor idletoad, want daar kan ik zelf nog wat van leren.
[ Voor 9% gewijzigd door Verwijderd op 15-02-2003 08:34 ]
Ik weet het niet zeker, maar dat zal wel liggen aan het gebruik maken (uiteraard) van de ps 2.0+ en vs 2.0+ (let op de plus) die op de Gf Fx aanwezig is. De Ati's hebben deze nvidia-specifieke uitbreiding niet aan boord.Verwijderd schreef op 15 februari 2003 @ 08:26:
[...]
nou, dat zeg je nou wel dat ik simpel denk, maar nvidia heeft wel van die truukjes, kijk alleen maar naar de demo waar ik het eerder over had gun -metal, en die is ook nog dx 9, nou probeer iemand maar met een radeon, deze demo te spelen, lukt je niet, leg me dat dan maar eens uit.
[edit] Ik heb die demo ff geprobeerd, maar hij loopt ook op gf4, dus t was geen Fx demo. Maar die demo zegt dat het spel nog in ontwikkeling is dus zal eerst de nvdiai's wel aan de praat zijn gekregen, de ati's pas later. Weet ik veel, wat maakt t ook uit. Wat wel interessant was, is dat t spel Cg gebruikt.
[ Voor 28% gewijzigd door Sjah op 15-02-2003 11:23 ]
Verwijderd
Dat is raar, want als het op een GF4 loopt, moet het zeker op een R300 lopen.Maar die demo zegt dat het spel nog in ontwikkeling is dus zal eerst de nvdiai's wel aan de praat zijn gekregen, de ati's pas later.
Voorzover ik weet, kan een GF4 (onder DX8/9) niets wat een R300 niet kan, dus moet DX9-code die op een GF4 werkt, automatisch op een R300 werken.
Maar daar zal nVidia vast wel wat op verzonnen hebben...
edit:
Even voor wat uitleg over wat Direct3D nou precies is... En waarom je niet direct specifiek voor een kaart kan programmeren (wat met OpenGL wel kan, dmv extensions in de driver dus).
Direct3D is een HAL: Hardware Abstraction Layer.
Dit houdt in dat de hardware op een laag niveau geabstraheerd wordt, en de programmeur een virtueel 'standaard'-hardware-device gebruikt.
Bij Direct3D heb je totaal niet te maken met wat voor type of merk hardware je gebruikt, dat maakt helemaal niets uit in dit model.
Het enige wat uit maakt zijn de caps (capabilities) van de hardware. Je hoeft als programmeur alleen maar te checken of een bepaalde feature bestaat, en zo ja, dan gebruik je die, zo nee, dan probeer je een simpelere oplossing.
(Het kan natuurlijk wel eens voorkomen dat er maar 1 merk/type is dat een bepaalde feature ondersteunt... Maar dat komt niet zo gek vaak voor... Bovendien zullen andere fabrikanten meestal volgen met support in hun volgende generatie, en zal deze automatisch ook werken onder Direct3D).
Bij OpenGL moet je dus WEL kijken wat voor hardware je hebt... Om precies te zijn, je moet kijken welke extensions er zijn. En hier kun je wel voor een specifiek merk of type programmeren, omdat dezelfde feature door verschillende fabrikanten met verschillende extensions ondersteund wordt. Dus ondanks dat jouw kaart alle features ondersteunt, kan het toch voorkomen dat een spel deze niet gebruikt, omdat ie jouw extensions niet ondersteunt. Ben je lekker mee.
Dat is ook de reden waarom John Carmack al jaren aan het knoeien is met verschillende backends voor Doom3...
En het is de reden waarom de meeste programmeurs Direct3D gebruiken. De ondersteuning is gewoon beter.
[ Voor 71% gewijzigd door Verwijderd op 15-02-2003 12:06 ]
Verwijderd
dat bedoel ik nou, heb ik weer wat geleerd.Verwijderd schreef op 15 februari 2003 @ 11:55:
[...]
Dat is raar, want als het op een GF4 loopt, moet het zeker op een R300 lopen.
Voorzover ik weet, kan een GF4 (onder DX8/9) niets wat een R300 niet kan, dus moet DX9-code die op een GF4 werkt, automatisch op een R300 werken.
Maar daar zal nVidia vast wel wat op verzonnen hebben...
edit:
Even voor wat uitleg over wat Direct3D nou precies is... En waarom je niet direct specifiek voor een kaart kan programmeren (wat met OpenGL wel kan, dmv extensions in de driver dus).
Direct3D is een HAL: Hardware Abstraction Layer.
Dit houdt in dat de hardware op een laag niveau geabstraheerd wordt, en de programmeur een virtueel 'standaard'-hardware-device gebruikt.
Bij Direct3D heb je totaal niet te maken met wat voor type of merk hardware je gebruikt, dat maakt helemaal niets uit in dit model.
Het enige wat uit maakt zijn de caps (capabilities) van de hardware. Je hoeft als programmeur alleen maar te checken of een bepaalde feature bestaat, en zo ja, dan gebruik je die, zo nee, dan probeer je een simpelere oplossing.
(Het kan natuurlijk wel eens voorkomen dat er maar 1 merk/type is dat een bepaalde feature ondersteunt... Maar dat komt niet zo gek vaak voor... Bovendien zullen andere fabrikanten meestal volgen met support in hun volgende generatie, en zal deze automatisch ook werken onder Direct3D).
Bij OpenGL moet je dus WEL kijken wat voor hardware je hebt... Om precies te zijn, je moet kijken welke extensions er zijn. En hier kun je wel voor een specifiek merk of type programmeren, omdat dezelfde feature door verschillende fabrikanten met verschillende extensions ondersteund wordt. Dus ondanks dat jouw kaart alle features ondersteunt, kan het toch voorkomen dat een spel deze niet gebruikt, omdat ie jouw extensions niet ondersteunt. Ben je lekker mee.
Dat is ook de reden waarom John Carmack al jaren aan het knoeien is met verschillende backends voor Doom3...
En het is de reden waarom de meeste programmeurs Direct3D gebruiken. De ondersteuning is gewoon beter.
keep on with the good work.
Verwijderd
FutureMark heeft nu ook officieel gereageerd op de kritiek: http://www.futuremark.com...o_3DMark03_discussion.pdf
Misschien leuk om eens door te nemen...
Misschien leuk om eens door te nemen...
Verwijderd
ik heb dat door gelezen, en even over dx 9 nog, de eerste dx 9 spellen komen over 6 maanden, staat erin. dat is dus sneller dan verwacht, als ik sommige hoor zeggen dat het nog wel ander half tot twee jaar kan duren.Verwijderd schreef op 15 februari 2003 @ 12:24:
FutureMark heeft nu ook officieel gereageerd op de kritiek: http://www.futuremark.com...o_3DMark03_discussion.pdf
Misschien leuk om eens door te nemen...
edit
en behalve dat is het een heel interresant stuk, ze gaan ook op het 1.1 en 1.4 in.
[ Voor 9% gewijzigd door Verwijderd op 15-02-2003 12:49 ]
* CJ eens is.Verwijderd schreef op 15 February 2003 @ 12:23:
[...]
dat bedoel ik nou, heb ik weer wat geleerd.
keep on with the good work.
idletoad
Idletoad is echt een frisse wind door dit forum.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Interessant stuk van Fututemark. Humor, ze hebben het over first generation dx8 hardware dat t niet aankan, welk merk of welke kaarten zouden ze bedoelen?
Maar ze bevestigen waar we in deze threath al over eens waren, dat het een dx9 benchmark is.
Ze maken wel 1 slipper; ze zeggen dat alleen dx9 hardware de performance in huis heeft. Haha, laat de R9500 non-pro nou ook dx9 zijn. Nou die heeft echt niet veel performance in huis hoor. De enige reden dat die toch nog 2500 scoort is dat die gametest 4 kan doen, niet omdat die zo een spierballen heeft.
Ze maken wel 1 slipper; ze zeggen dat alleen dx9 hardware de performance in huis heeft. Haha, laat de R9500 non-pro nou ook dx9 zijn. Nou die heeft echt niet veel performance in huis hoor. De enige reden dat die toch nog 2500 scoort is dat die gametest 4 kan doen, niet omdat die zo een spierballen heeft.
Verwijderd
Ze zeggen niet dat ALLE DX9-hardware de performance in huis heeft (die Trident zal vast ook niet best scoren)... Ze zeggen alleen dat alles wat niet DX9 is, per definitie de performance NIET heeft... Hoewel, het gaat niet om performance op zich, maar meer om features. Geen features, geen gt4, 0 fps, geen hoge totaalscore.ze zeggen dat alleen dx9 hardware de performance in huis heeft. Haha, laat de R9500 non-pro nou ook dx9 zijn.
Ligt er aan hoe je het bekijkt... met Intel vs. AMD was het ook zo dat sommige mensen 'spierballen == MHz' zeiden, en anderen vonden dat er meer achter stak.niet omdat die zo een spierballen heeft.
Die R9500 non-pro heeft niet zo veel fillrate misschien... Maar daarentegen kost AA/AF niet veel extra fillrate, dus dat maakt het alweer goed. Verder heeft ie ook ps1.4/2.0 wat single-pass rendering mogelijk maakt in veel gevallen, maakt nog veel meer goed... dan hebben we ook nog HyperZ III, wat overdraw goedkoper maakt...
In de praktijk kun je dus een hoop uit dat kaartje toveren, veel meer dan uit een bruut fillrate monster zoals een GF4 (dit wordt alleen met de huidige games nog niet gedaan, want die zijn nog gericht op hardware die die features niet had, en het van de fillrate moest hebben)... Het is maar wat je spierballen noemt.
Oh, en dan ondersteunt ie ook nog n-patches, displacement mapping, high-dynamic range textures/floating point rendertargets... om maar wat te noemen...
Dus je kunt het op een R9500 nog mooier eruit laten zien dan op een GF4 ook. Wat wil je nog meer?
[ Voor 10% gewijzigd door Verwijderd op 15-02-2003 14:07 ]
Ze zeggen het letterlijk, en zolang ze geen voetnoot maken dat ze het niet zo letterlijk bedoelen, lees ik wat daar staat als alle hardware. Ja als zij scherp gaan slijpen, doe ik het ookVerwijderd schreef op 15 February 2003 @ 14:04:
[...]
Ze zeggen niet dat ALLE DX9-hardware de performance in huis heeft (die Trident zal vast ook niet best scoren)... Ze zeggen alleen dat alles wat niet DX9 is, per definitie de performance NIET heeft... Hoewel, het gaat niet om performance op zich, maar meer om features. Geen features, geen gt4, 0 fps, geen hoge totaalscore.
[...]
Dus omdat 3dmark een benchmark heeft uitgebracht moet ik mijn hele beleving over wat performance is maar gaan omgooien? Nou nee bedankt, maar als de games benches duidelijk maken dat een GF4 waardeloos is, DAN zal ik mijn mening bijstellen.Ligt er aan hoe je het bekijkt... met Intel vs. AMD was het ook zo dat sommige mensen 'spierballen == MHz' zeiden, en anderen vonden dat er meer achter stak.
Die R9500 non-pro heeft niet zo veel fillrate misschien... Maar daarentegen kost AA/AF niet veel extra fillrate, dus dat maakt het alweer goed. Verder heeft ie ook ps1.4/2.0 wat single-pass rendering mogelijk maakt in veel gevallen, maakt nog veel meer goed... dan hebben we ook nog HyperZ III, wat overdraw goedkoper maakt...
In de praktijk kun je dus een hoop uit dat kaartje toveren, veel meer dan uit een bruut fillrate monster zoals een GF4 (dit wordt alleen met de huidige games nog niet gedaan, want die zijn nog gericht op hardware die die features niet had, en het van de fillrate moest hebben)... Het is maar wat je spierballen noemt.
Oh, en dan ondersteunt ie ook nog n-patches, displacement mapping, high-dynamic range textures/floating point rendertargets... om maar wat te noemen...
Dus je kunt het op een R9500 nog mooier eruit laten zien dan op een GF4 ook. Wat wil je nog meer?
Verwijderd
Nee, omdat performance meer is dan alleen maar zo snel mogelijk pixeltjes op een beeld tekenen, moet je je beleving omgooien.Dus omdat 3dmark een benchmark heeft uitgebracht moet ik mijn hele beleving over wat performance is maar gaan omgooien?
Games van nu zijn nog gemaakt op een GF4, en maken geen gebruik van de extra kracht van DX9-hardware. Je merkt dus nog niet wat je mist. Dat wil niet zeggen dat je niks mist, want dat doe je zeer zeker. En je zult zien dat op den duur een R9500 het er beter van af brengt dan de snelste GF4, evenals de GF2Ultra het uiteindelijk moest afleggen tegen een GF3Ti200.Nou nee bedankt, maar als de games benches duidelijk maken dat een GF4 waardeloos is, DAN zal ik mijn mening bijstellen.
Een GF4 is niet waardeloos, maar je moet niet vergeten dat een R9500 een veel geavanceerdere architectuur is, die, mits goed benut, een hoop voordelen kan hebben. Ze zijn niet vergelijkbaar, want in feite kan een GF4 helemaal niks, vergeleken met een R9500. Het enige waar ie wel goed in is, is snel veel pixels tekenen, en simpele shader-programmaatjes draaien. Naarmate de graphics realistischer worden, zul je meer hebben aan de extra features van de R9500 dan aan de brute kracht van de GF4.
Zo is het ook met Voodoo destijds gegaan... Die kaarten konden eigenlijk helemaal niks. Maar qua fillrate stonden ze ver bovenaan. Naarmate er meer features gebruikt werden, kwamen de Voodoo-kaarten steeds minder goed mee, en 3dfx is zelfs failliet gegaan op den duur... Verkijk je er niet op, de technologische ontwikkelingen gaan heel snel.
En een GF4 was technisch al verouderd toen ie uitkwam (opgelapte GF3 tegenover de ps1.4, n-patches, HyperZ II en dergelijke van de R8500).
Verwijderd
dat bedoel ik nou ook, met betrekking op dat de ontwikkelingen snel gaan, iedereen denkt (nou bijna iedereen) dat directx 9 over ander half tot twee jaar het pas gebruikt gaat worden, maar ik denk dat dat een excuus is, omdat ze zelf geen dx 9 nog hebben, en dan wordt dat soort dingen snel gezegd, maar ook in de game industrie gaan de ontwikkelingen sneller dan je denkt.Verwijderd schreef op 15 February 2003 @ 14:46:
[...]
Nee, omdat performance meer is dan alleen maar zo snel mogelijk pixeltjes op een beeld tekenen, moet je je beleving omgooien.
[...]
Games van nu zijn nog gemaakt op een GF4, en maken geen gebruik van de extra kracht van DX9-hardware. Je merkt dus nog niet wat je mist. Dat wil niet zeggen dat je niks mist, want dat doe je zeer zeker. En je zult zien dat op den duur een R9500 het er beter van af brengt dan de snelste GF4, evenals de GF2Ultra het uiteindelijk moest afleggen tegen een GF3Ti200.
Een GF4 is niet waardeloos, maar je moet niet vergeten dat een R9500 een veel geavanceerdere architectuur is, die, mits goed benut, een hoop voordelen kan hebben. Ze zijn niet vergelijkbaar, want in feite kan een GF4 helemaal niks, vergeleken met een R9500. Het enige waar ie wel goed in is, is snel veel pixels tekenen, en simpele shader-programmaatjes draaien. Naarmate de graphics realistischer worden, zul je meer hebben aan de extra features van de R9500 dan aan de brute kracht van de GF4.
Zo is het ook met Voodoo destijds gegaan... Die kaarten konden eigenlijk helemaal niks. Maar qua fillrate stonden ze ver bovenaan. Naarmate er meer features gebruikt werden, kwamen de Voodoo-kaarten steeds minder goed mee, en 3dfx is zelfs failliet gegaan op den duur... Verkijk je er niet op, de technologische ontwikkelingen gaan heel snel.
En een GF4 was technisch al verouderd toen ie uitkwam (opgelapte GF3 tegenover de ps1.4, n-patches, HyperZ II en dergelijke van de R8500).
nou, ik ben benieuwd wanneer het eerste spel uitkomt dat 3 keer zo snel draait op een 9700pro als op een ti4600.
en zijn er al spellen die alle features van de geforce4 gebruiken? ik betwijfel het ten zeerste.
eer een spel alle features van een videokaart gebruikt kan die het doorgaans al lang niet meer bijhouden.
en zijn er al spellen die alle features van de geforce4 gebruiken? ik betwijfel het ten zeerste.
eer een spel alle features van een videokaart gebruikt kan die het doorgaans al lang niet meer bijhouden.
ASUS ROG Strix B650-A | AMD 7600X | Kingston 32GB DDR5 6000 CL36 | Kingston KC3000 1TB | Powercolor hellhound RX9070 16GB
Dat is mijn beleving niet helemaal. Als ik de naturetest in 3dmark 2001 zie....de 1e game moet nog komen die zo mooi is. Dus de heeren gamedevelopers moeten eerst maar eens uit de (nu breed) beschikbare hardware het sap gaan persen. En als je 8.1 games ziet (ook Doom3 straks) doet de GF4 (en de R8500 ook denk ik) het best ok. En ik ben dat gezeik zat dat we nu maar snel dx9 hardware moeten kopen omdat de gamedevelopers dan veel efficienter en mooier kunnen programmeren. Ik neem aan dat je het verhaal kent van de gameconsoles: daar worden na 4 jaar de schitterendste spellen voor gemaakt, gewoon omdat de gamedevelopers het onderste uit de kan halen van de hardware met al zijn beperkingen. Waarom kan dat met de pc niet?Verwijderd schreef op 15 February 2003 @ 14:46:
[...]
Nee, omdat performance meer is dan alleen maar zo snel mogelijk pixeltjes op een beeld tekenen, moet je je beleving omgooien.
[...]
Dat begint pas het laatste half jaar goed op gang te komen hoor. Ik noem Unreal2, en UT2003, meer weet ik er er niet, jij?Games van nu zijn nog gemaakt op een GF4
Dat is waar, maar hoelang moesten we niet wachten voordat er een killer-game kwam die dat uitbuitte (en nee , Comanche vondik geen killer-game). Als we gaan weten wat we missen zijn we al ruim een jaar verder, en is de r9500 een gepasseerd station. Maar ik mis idd wat, want 3dmark loopt klote, en maken geen gebruik van de extra kracht van DX9-hardware. Je merkt dus nog niet wat je mist. Dat wil niet zeggen dat je niks mist, want dat doe je zeer zeker. En je zult zien dat op den duur een R9500 het er beter van af brengt dan de snelste GF4, evenals de GF2Ultra het uiteindelijk moest afleggen tegen een GF3Ti200.
Dat weiger ik te geloven. Maar ik snap het wel, jij als programmeur wil het nieuwste van het nieuwste, en vind dx8.0 zeer beperkt. Ik niet, wil jij beweren dat de overgang van dx8 naar dx9 een stuk grotere was, dan de overgang dx7 naar dx8?Een GF4 is niet waardeloos, maar je moet niet vergeten dat een R9500 een veel geavanceerdere architectuur is, die, mits goed benut, een hoop voordelen kan hebben. Ze zijn niet vergelijkbaar, want in feite kan een GF4 helemaal niks, vergeleken met een R9500.
Wat een minachting van dx8 zeg.Het enige waar ie wel goed in is, is snel veel pixels tekenen, en simpele shader-programmaatjes draaien.
De Voodoo graphics is de grooste vooruitgang ooit geweest, de enigste waarbij mij bek openviel toen ik het zag. Vergeleken bij wat nu kan is 't uiteraard stront ja, hehe.is het ook met Voodoo destijds gegaan... Die kaarten konden eigenlijk helemaal niks. Maar qua fillrate stonden ze ver bovenaan.
tja de GF3 was zijn tijd behoorlijk vooruit, dus dat geeft niet.een GF4 was technisch al verouderd toen ie uitkwam (opgelapte GF3 tegenover de ps1.4, n-patches, HyperZ II en dergelijke van de R8500).
Verwijderd
Dat zeg ik helemaal niet... Maar ik probeer even duidelijk te maken dat er wel degelijk een groot verschil is tussen een GF4 en een R9500, ook al snapt de leek dat niet.En ik ben dat gezeik zat dat we nu maar snel dx9 hardware moeten kopen
Ten eerste heb je met consoles geen legacy-problemen... Iedereen die een Xbox heeft, heeft DX8 en shaders, en genoeg fillrate om het te gebruiken. Je hoeft dus niet moeilijk te gaan doen, gewoon coden voor 1 target.Ik neem aan dat je het verhaal kent van de gameconsoles: daar worden na 4 jaar de schitterendste spellen voor gemaakt, gewoon omdat de gamedevelopers het onderste uit de kan halen van de hardware met al zijn beperkingen. Waarom kan dat met de pc niet?
Ten tweede is een console heel anders ontworpen dan een PC (sleutelwoord is UMA: Unified Memory Architecture), en kun je via een console-ontwerp veel meer rendement halen uit componenten dan met een PC.
Okee wijsneus, GF4 en lager bedoelde ik. Niet hoger iig.Dat begint pas het laatste half jaar goed op gang te komen hoor. Ik noem Unreal2, en UT2003, meer weet ik er er niet, jij?
Over een jaar is een R9500 nog goed bruikbaar hoor, en kun je gaan profiteren van de extra features. De GF4 begint dan echt achterhaald te worden, omdat je de spellen niet meer op het hoogste detail kunt spelen, omdat de hardware-support simpelweg ontbreekt (kijk nu bv maar eens naar het verschil van RalliSport op een DX7-kaart en een DX8-kaart... Op DX7-hardware is het best te spelen, maar geen mooi spiegelend ijs etc... Is ook niks aan he?).Als we gaan weten wat we missen zijn we al ruim een jaar verder, en is de r9500 een gepasseerd station
Ligt eraan hoe je het bekijkt. Het programmeermodel is bijna niet veranderd... Het aantal nieuwe features daarentegen is enorm toegenomen. En daarmee dus ook de grafische mogelijkheden.Ik niet, wil jij beweren dat de overgang van dx8 naar dx9 een stuk grotere was, dan de overgang dx7 naar dx8?
Het enige boeiende verschil tussen DX7 en DX8 waren de shaders... En zo geweldig zijn ps1.x shaders niet... Zeker < ps1.4... Daar kun je niet veel mee in 1 pass. Hooguit was per-pixel reflectie/licht... soort veredelde bumpmapping.
Verder is het grote verschil tussen DX8 en DX9 dat je voor DX9 NU al goed betaalbare hardware kunt kopen, terwijl DX8 alleen door dure high-end kaarten ondersteund werd. DX8 begint nu net een beetje mainstream te worden... Maar DX9 zal veel sneller z'n intree doen, omdat nu DX9-hardware amper nog duurder is dan DX8-hardware... En ik zie niet in waarom iemand nu uberhaupt nog een GF4 zou kopen, daar zijn Radeons gewoon te goedkoop voor. Dat is gewoon dom, sorry hoor.
Ja, na een paar simpele ps1.1 shaderprogrammaatjes is de lol er gauw vanaf. Moet je alsnog multipass gaan renderen. Vergeleken met DX9 stelt het echt niet zoveel voor hoor.Wat een minachting van dx8 zeg.
Datzelfde gaat dus ook op voor GF3/4 vs DX9-hardware... Dat verschil is behoorlijk groot.Vergeleken bij wat nu kan is 't uiteraard stront ja, hehe.
Helemaal niet. Op een GF1 (dat was een kaart die z'n tijd vooruit was) zaten al simpele 'shaders' (werden register-combiners genoemd), die per-pixel operaties konden doen. Op de originele Radeon zaten al meer geavanceerde shaders, die op een haar na niet de DX8-standaard haalden. GF3 haalde dat net wel... Maar binnen een paar maanden was daar R8500 met ps1.4, die een stuk krachtiger was, en waarmee de GF3 eigenlijk al achterhaald was.tja de GF3 was zijn tijd behoorlijk vooruit, dus dat geeft niet.
De GF4 was mosterd na de maaltijd.
[ Voor 3% gewijzigd door Verwijderd op 15-02-2003 16:13 ]
Maakt niet uit man, relaxRobin001 schreef op 14 February 2003 @ 21:13:
[...]
okee! sorry hoor!
idletoad maakte schreef er nogal veel over, was je waarschijnlijk wat ondergesneeuwd...
Jij weet alles beter he?Verwijderd schreef op 15 February 2003 @ 16:08:
[...]
Dat zeg ik helemaal niet... Maar ik probeer even duidelijk te maken dat er wel degelijk een groot verschil is tussen een GF4 en een R9500, ook al snapt de leek dat niet.
Misschien moet je eens leren goed en efficient te programmeren. Je zal t voorlopig nog moeten doen met dx8 hardware, als je tenminste een breed publiek wilt bereiken.Ja, na een paar simpele ps1.1 shaderprogrammaatjes is de lol er gauw vanaf. Moet je alsnog multipass gaan renderen. Vergeleken met DX9 stelt het echt niet zoveel voor hoor.
lolDatzelfde gaat dus ook op voor GF3/4 vs DX9-hardware...
Oh en waarom kennen we dan pas shaders sinds de GF3? De GF1 was zeer snel ingeburgerd, de gf3 veel minder, dus was die zijn tijd vooruit.Helemaal niet. Op een GF1 (dat was een kaart die z'n tijd vooruit was) zaten al simpele 'shaders' (werden register-combiners genoemd), die per-pixel operaties konden doen. Op de originele Radeon zaten al meer geavanceerde shaders, die op een haar na niet de DX8-standaard haalden. GF3 haalde dat net wel... Maar binnen een paar maanden was daar R8500 met ps1.4, die een stuk krachtiger was, en waarmee de GF3 eigenlijk al achterhaald was.
De GF4 was mosterd na de maaltijd.
Verwijderd
Als je mij niet gelooft, download voor de grap eens de DX9-SDK en draai de capsviewer op een GF4, een R8500 en een R9500...Jij weet alles beter he?
Je zult zien dat een GF4 verreweg het minste kan. R8500 kan al meer, en R9500, laten we daar niet eens over beginnen (feature-wise is ie identiek aan een R9700Pro, en dus scheelt ie ook met een GF FX niet veel).
DX8-hardware? Was het maar waar... Ik programmeer nu nog voor GF2. Verder hebben de beperkingen van de ps1.1-shaders weinig te maken met goed en efficient programmeren. Ze zijn gewoon heel beperkt. Je hoeft mij niet te geloven hoor. Geloof je John Carmack wel? Die zegt het ook. En Futuremark uiteraard.Misschien moet je eens leren goed en efficient te programmeren. Je zal t voorlopig nog moeten doen met dx8 hardware, als je tenminste een breed publiek wilt bereiken.
Waarom ken JIJ pas shaders sinds de GF3, zul je bedoelen. Zoals ik al zei, bestaan ze al sinds GF1. Waarschijnlijk ken jij ze pas sinds ze door 3dmark2001 gebruikt werden. Dat wil niet zeggen dat ze er nog niet waren... Er zijn demo's van nVidia en ATi te vinden die de pre-GF3 shaders gebruiken... In 2000 is er zelfs een demo op Bizarre gereleased die de GF1-shaders gebruikte: http://www.pouet.net/prod.php?which=669Oh en waarom kennen we dan pas shaders sinds de GF3?
Natuurlijk werden shaders wat bekender toen ze gestandaardiseerd waren in DX8, maar dat wil niet zeggen dat ze nog niet bestonden.
De GF3 was verschrikkelijk duur, zul je bedoelenDe GF1 was zeer snel ingeburgerd, de gf3 veel minder, dus was die zijn tijd vooruit.
GF1 was goed betaalbaar.
Gelukkig zijn de Radeons nu ook goed betaalbaar, dus zal DX9-hardware wat sneller ingeburgerd zijn. Er zijn al een hoop mensen met een nieuwe ATi.
Mooi verhaal
, maar
Ze hadden veel beter per onderdeel (dx7, 8 en 9) aparte punten kunnen geven, zo kun je tenminste nog op een nuttige manier kaart 1 met dx8 vergelijken met kaart 2 die dx9 ondersteunt.
Het huidige puntensysteem zorgt er net wel voor dat kaarten met verschillende directX ondersteuning vergeleken worden, er komt namelijk altijd een cijfer uit de benchmark. Zo lijkt het net alsof een dx8 kaart een heel stuk slechter is dan een dx9 kaart (omdat ie amper de helft van de punten haalt), terwijl je appels met peren vergelijkt. Maar uit de bench komt helemaal niet duidelijk naar voren dat je de cijfer voor je geforce 4600 niet kan vergelijken met een dx9 kaart.Verwijderd schreef op 13 februari 2003 @ 19:49:
edit:
Oh, nog een dingetje wat ik kwijt wou over de scores...
Ik vind het niet meer dan logisch dat DX7-kaarten per definitie lager scoren dan DX8-kaarten, en evenzo DX8- vs DX9-kaarten.
Zo blijven ze allemaal in hun eigen klasse.
Ze hadden veel beter per onderdeel (dx7, 8 en 9) aparte punten kunnen geven, zo kun je tenminste nog op een nuttige manier kaart 1 met dx8 vergelijken met kaart 2 die dx9 ondersteunt.
Verwijderd
Misschien dachten ze dat dat onderhand al bekend was... Met 3dmark2001 was het ook het geval met DX7 vs DX8... Ze hebben het publiek onderschat, denk ik.Maar uit de bench komt helemaal niet duidelijk naar voren dat je de cijfer voor je geforce 4600 niet kan vergelijken met een dx9 kaart.
Maar dat kan ook... Iedere test krijgt een aparte score, en je kunt zelfs online vergelijken met de ORB-functie. En dat kan per test, hoeft niet op totaalscore. En dat zou ook bekend moeten zijn, want dat kon met de eerdere 3dmarks ook al, en als je 1 keer getest hebt, en de ORB bekeken, had je het ook wel gezienZe hadden veel beter per onderdeel (dx7, 8 en 9) aparte punten kunnen geven, zo kun je tenminste nog op een nuttige manier kaart 1 met dx8 vergelijken met kaart 2 die dx9 ondersteunt.
Ik ben nog niet helemaal wakker, ik dacht dat er maar 1 pagina was, dus heb gereageerd op de laatste post van pagina 1 (post 99), terwijl er nog zo'n 200 na kwamen. 
Excuus.

Excuus.
Verwijderd
bedankt trouwens nog, voor het rekenen.Verwijderd schreef op 14 February 2003 @ 19:01:
[...]
4008 - (38x30) = 2868...
2868 is de score zonder game 4
p.s.
Ik zou het wel op prijs stellen, als een radeon9500pro bezitter hier zijn 'detail-scores' met eindresultaat (met pixelshader 1.4 uit) neer zet. (btw ik heb zelf 1892 met een ti-4200)
Die score klopt trouwens niet helemaal.
Nature Test telt 20% mee van de eindscore. Als er dus 4008 gehaald wordt dan doe je dus gewoon 4008*0.8=3206,4
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
oke, weet ik dat ook even weer, bedankt cj.CJ schreef op 16 February 2003 @ 10:21:
[...]
Die score klopt trouwens niet helemaal.
Nature Test telt 20% mee van de eindscore. Als er dus 4008 gehaald wordt dan doe je dus gewoon 4008*0.8=3206,4
trouwens ik zie in je specs dat je ook een hercules 3d prophet 9700 pro hebt.
altijd goed.
[ Voor 14% gewijzigd door Verwijderd op 16-02-2003 12:23 ]
Verwijderd
Dat kun je zo niet terugrekenen. Die 20% is hun ijk-regel.Nature Test telt 20% mee van de eindscore. Als er dus 4008 gehaald wordt dan doe je dus gewoon 4008*0.8=3206,4
De uiteindelijke score in gt4 is afhankelijk van het aantal fps dat de kaart daar scoort, en dat is niet per definitie 20% van de totaalscore.
De andere methode is de juiste... Gewicht van gt4 is 38.7. Dus je moet 38.7*(fps in gt4) van de totaalscore aftrekken om de bijdrage van gt4 eraf te halen.
Nog even een rekenvoorbeeld... Ik heb een R9500 (non-pro, 128mb) uit de ORB gehaald...
Deze had een score van 2790. En een framerate van 19.8 in gt4.
Dus de 'gecorrigeerde' score wordt dan:
2790 - (19.8*38.7) = 2023,74 (En dat is dus niet hetzelfde als 2790*0.8! Want dat zou zijn 2232)
edit:
Hier de compare-url voor het R9500-systeem: http://service.futuremark.com/compare?2k3=70747
[ Voor 10% gewijzigd door Verwijderd op 16-02-2003 14:24 ]
Verwijderd
Verwijderd schreef op 16 February 2003 @ 14:12:
[...]
Dat kun je zo niet terugrekenen. Die 20% is hun ijk-regel.
De uiteindelijke score in gt4 is afhankelijk van het aantal fps dat de kaart daar scoort, en dat is niet per definitie 20% van de totaalscore.
De andere methode is de juiste... Gewicht van gt4 is 38.7. Dus je moet 38.7*(fps in gt4) van de totaalscore aftrekken om de bijdrage van gt4 eraf te halen.
Nog even een rekenvoorbeeld... Ik heb een R9500 (non-pro, 128mb) uit de ORB gehaald...
Deze had een score van 2790. En een framerate van 19.8 in gt4.
Dus de 'gecorrigeerde' score wordt dan:
2790 - (19.8*38.7) = 2023,74 (En dat is dus niet hetzelfde als 2790*0.8! Want dat zou zijn 2232)
edit:
Hier de compare-url voor het R9500-systeem: http://service.futuremark.com/compare?2k3=70747

Dit is trouwens ook nog eens een OC-9500 op 300/300.Verwijderd schreef op 16 February 2003 @ 14:12:
[...]
edit:
Hier de compare-url voor het R9500-systeem: http://service.futuremark.com/compare?2k3=70747
Hier de reactie van ATi op 3DMark2003:
Bron: http://www.hardocp.com/article.html?art=NDMxATI fully supports this new graphics benchmark, 3Dmark03. We feel it is a valuable diagnostic tool for estimating the performance of current and future graphics products when running future game titles (to be released over the next 1-2 years). We believe that using synthetic benchmarks such as 3DMark03 in combination with real applications and game benchmarks provides the most complete picture of the overall performance and value of graphics hardware.
It takes significant development time for developers to incorporate new DX features into their games and engines. So, it is virtually impossible to predict the performance of future games using only existing games. From a business perspective, game developers generally wait for a minimum install-base of a certain generation of graphics products before they incorporate features that rely on those products. Synthetic benchmarks aren't necessarily subject to these limitations, and therefore can be designed to stress the limits of even the most powerful and leading-edge graphics hardware available.
Every game uses different features and techniques, and places emphasis on different aspects of the PC. Some stress pixel fill rate, or vertex processing, or memory bandwidth, or CPU performance, or some combination. It is not often clear in such benchmarks what aspects of the hardware are being tested most strongly. Synthetic benchmarks, on the other hand, can run a diverse set of tests that are specifically designed to stress all aspects of the hardware, and pinpoint specific strengths or deficiencies much more conclusively.
We feel that benchmarks of all kinds are very important tools in our ongoing efforts to improve the performance and quality of our products. Every benchmark or diagnostic that we run provides us with feedback on what things we are doing well and what things need more work. It is often the case that optimizations we come up with for one application end up benefiting other applications as well.
Synthetic benchmarks provide us with valuable feedback because they often stress features and paths that are not yet used in shipping game titles. They may help us find bugs and inefficiencies before game developers encounter them. By evaluating our performance in these benchmarks, we can often improve the performance of future game titles long before they are released, and improve the overall robustness of our drivers.
Synthetic benchmarks also offer us a lot of help in designing future hardware. Relying solely on existing game benchmarks in this case would leave us in danger of producing new products that run old games well, but run new games poorly.
Patti Mikula
Public Relations Manager
Desktop Products
ATI Technologies Inc.
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
Verwijderd
ati ondersteund het tenminste wel, en wat ze daar verder zeggen, vind ik een hele realistiche beeld hoe je de benchmarkt moet zien, en waar die voor bedoeld is.CJ schreef op 16 februari 2003 @ 16:16:
[...]
Dit is trouwens ook nog eens een OC-9500 op 300/300.
Hier de reactie van ATi op 3DMark2003:
[...]
Bron: http://www.hardocp.com/article.html?art=NDMx
Weet iemand of er een site is die een lijst bijhoudt van welke dx8 en dx9 features games gebruiken (of ogl-extensies natuurlijk)?
een zeer goed link : http://download.gamezone.cz/_programy/3DMark03.exe
* Intel Core i7-6700K @ 4.8Ghz * Asus MAXIMUS VIII EXTREME* nVidia Asus Poseidon 1080Ti * Mushkin 16 GB * SSD Samsung M.2 2280 256GB + 3x Samsung 256GB 850Pro* Enermax Revolution85+ 1250W * CM Stacker 832 SE * Waretcooling CPU, NB ,VGA 3x Mora
idletoad:
Ik heb ooit eens ergens gelezen dat 'n Nvidia kaart helemaal anders werkt dan 'n Ati kaart ... Ben helaas de bron kwijt, en weet niet meer precies hoe dat 't zit ...
't ging over het feit dat Nvidia z'n kaarten aanspreekt door middel van 'n soort "compiler" in z'n drivers .. dat die "compiler" de code die naar de videokaart moest gestuurd worden, vertaald in code die de nvidiakaart screaming fast kan uitvoeren...
Ati daarintegen z'n hardware zit beter in elkaar, en halen de performance uit de snelheid van de kaart zelf.. Ati spreekt z'n kaarten op 'n meer "generic" manier aan...
Dat verklaart ook waarom Nvidia zo veel met driver updates komt (die "compiler" wordt steeds beter, en er is een performancewinst) en Ati niet (per hogere versie van de Ati drivers is minder performance winst te boeken dan bij de Nvidia's)
Dit is zo ongeveer wat ik me er van herinner ... weet jij er iets over?
Ik heb ooit eens ergens gelezen dat 'n Nvidia kaart helemaal anders werkt dan 'n Ati kaart ... Ben helaas de bron kwijt, en weet niet meer precies hoe dat 't zit ...
't ging over het feit dat Nvidia z'n kaarten aanspreekt door middel van 'n soort "compiler" in z'n drivers .. dat die "compiler" de code die naar de videokaart moest gestuurd worden, vertaald in code die de nvidiakaart screaming fast kan uitvoeren...
Ati daarintegen z'n hardware zit beter in elkaar, en halen de performance uit de snelheid van de kaart zelf.. Ati spreekt z'n kaarten op 'n meer "generic" manier aan...
Dat verklaart ook waarom Nvidia zo veel met driver updates komt (die "compiler" wordt steeds beter, en er is een performancewinst) en Ati niet (per hogere versie van de Ati drivers is minder performance winst te boeken dan bij de Nvidia's)
Dit is zo ongeveer wat ik me er van herinner ... weet jij er iets over?
iPhone 12 Pro 128GB MacBook Pro (13-inch, 2020, i7, 16GB, 1TB)