Is 3DMark 2003 representatief?

Pagina: 1 2 3 Laatste
Acties:
  • 906 views sinds 30-01-2008
  • Reageer

Verwijderd

De hele discussie is eigenlijk appels met peren vergelijken.

Je hebt directX8.1 en directX9.0. De kaarten die het niet ondersteunen zijn verouderd. Al zal het nog wel 2 tot 3 jaar gaan duren voordat er een spel uitkomt waar je een directX9 kaart voor nodig hebt. Anders zal je geen monser verkoop gaan halen met je product.

Straks wanneer iedereen een appel (of peer) heeft kan je pas echt vergelijken. Nu is het gewoon eerlijk dat in deze test niet ondersteunde kaarten een slechte score halen (dit zou eigenlijk ook in 3dmark01 zo moeten zijn).

Conclusie:
Nu telt DirectX8 nog en dus 3dmark01 en wanneer directx9 in spellen gebruikt wordt is 3dmark03 de beste graadmeter.

  • stylezzz
  • Registratie: April 2000
  • Laatst online: 06:45
Verwijderd schreef op 13 February 2003 @ 20:12:
De hele discussie is eigenlijk appels met peren vergelijken.

Je hebt directX8.1 en directX9.0. De kaarten die het niet ondersteunen zijn verouderd. Al zal het nog wel 2 tot 3 jaar gaan duren voordat er een spel uitkomt waar je een directX9 kaart voor nodig hebt. Anders zal je geen monser verkoop gaan halen met je product.

Straks wanneer iedereen een appel (of peer) heeft kan je pas echt vergelijken. Nu is het gewoon eerlijk dat in deze test niet ondersteunde kaarten een slechte score halen (dit zou eigenlijk ook in 3dmark01 zo moeten zijn).

Conclusie:
Nu telt DirectX8 nog en dus 3dmark01 en wanneer directx9 in spellen gebruikt wordt is 3dmark03 de beste graadmeter.
Dus eigenlijk hebben we de afgelopen 2 jaar voor niks 3dmark2001 lopen draaien? Nu zijn de eerste 'echte' DX8 games pas beschikbaar...... :P

Verwijderd

<quote>

dominator schreef:

Dus eigenlijk hebben we de afgelopen 2 jaar voor niks 3dmark2001 lopen draaien? Nu zijn de eerste 'echte' DX8 games pas beschikbaar......
</quote>

Ik zeg niet voor niks....is altijd leuk om te zien hoe sommigen hun computer bijna opblazen voor een leuke score ;)

Maar toen ik vorig jaar mijn geforce 4 kocht voelde het wel een beetje k***e aan dat je niet eens alle alle grafische mogelijkheden kon benutten.

Want geef nou zelf toe, is de consument nu gebaat bij een directX9 compatibele kaart?

*Name? geeft voor het gemak zelf even antwoord*

Nee. Alleen de extra kracht die de nieuwe kaarten hebben doet er toe en niet de nieuwe functies. Deze zijn trouwens nutteloos voor deze kaarten want, kijk maar naar de geforce 4. in een spel volgepropt met directX 8 functies zal deze kaart het laten afweten. Dus de huidige generatie DirectX9 kaarten kunnen niks met deze nieuwe functies.

[ Voor 3% gewijzigd door Verwijderd op 13-02-2003 20:28 ]


  • stylezzz
  • Registratie: April 2000
  • Laatst online: 06:45
Een DX9 compliant kaart heeft nu nog niet zoveel nut nee. Maar iedereen loopt nu zo lekker 3dmark2k3 af te kraken omdat HUN GF4 zo zwaar butt presteert. En da's niet leuk als je daar een paar maanden geleden nog 2-400 euro voor hebt neergelegd. (begrijpelijk) Als over een jaar de NV30/5 en de radeon 9xxx zo goed als mainstream zijn zal het allemaal wel weer meevallen, de ene kaart uiteraard iets sneller als de andere maar absolute tegenvallers (zoals nu de GF4 TI) zullen er niet meer zijn......

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Verwijderd schreef op 13 February 2003 @ 19:49:
Nou, niets is minder waar...
ps1.1, 1.2 en 1.3 schelen niet echt veel met elkaar...
...
ps1.4 daarentegen is een compleet nieuw programmeer-model...
Ik kom net thuis en zat me al een beetje te verwonderen over de geringe kennis van mensen omtrend PS1.1 t/m 1.4. Totdat ik jouw post tegen kwam die eindelijk de boel eens recht zet. :)

PS 1.2 en PS 1.3 zijn maar relatief kleine uitbreidingen op PS 1.1
PS 1.4 is een veel grotere stap die trouwens meer op PS 2.0 lijkt dan de vorige versies. Ik geloof zelfs dat PS 1.4 als basis is gebruikt voor PS 2.0.

Als FutureMark PS 1.3 had gebruikt zoals sommigen hier voorstelden, dan had dat helemaal niets uitgemaakt in de eindscore.

Om de boel even om te draaien: Op Rage3D heeft iemand een test gedaan en PS1.1 geforceerd op de 9700Pro. De score die toen behaald werd lag 'maar' 500 punten lager dan met PS1.4. In mijn geval zou ik dan ipv 4500 op de 4000 komen. Dat scheelt dus echt niet veel, vooral als je ziet dat de GF4Ti4600 met moeite soms op 2000 komt. De ware kracht van de 9700Pro komt hier dus ook naar boven.

Ik zag hier ook ergens een post staan, waarin stond dat de Nature test ook met PS 1.1 gemaakt had kunnen worden, maar dan vergeet je 1 groot ding. Die Nature test leunt niet alleen op pixelshaders, maar ook op andere functies van DX9. Er wordt bijvoorbeeld ook floatingpoint berekeningen uitgevoerd om color-range van de lucht te vergroten. En ook de Vertex Shaders die gebruikt worden, maken nu gebruik van DX9 berekeningen, die dus absoluut niet met VS 1.1 gemaakt zouden kunnen worden.

Dus zo simpel van "ach die test kon ook met PS1.1 gemaakt worden", zo simpel is dat dus niet.

En ik ben blij dat die tests met DX9 gemaakt zijn. Stilstand is namelijk achteruitgang.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • silentsnow
  • Registratie: Maart 2001
  • Laatst online: 15-04-2013

silentsnow

« '-_-' »

Wat ik vreemd vind is dat het verschil tussen een 9700 Pro en een TI4600 in de DirectX 7 en 8 scenes in 3DMARK03 zo groot. Dat terwijl er bijna geen verschil was in 3DMark2001 in de DirectX 7 en 8 benchmarks.

Als je de fps in test 1, 2 en 3 van een Ti4600 vergelijkt met een 9700Pro dan zijn de verschillen bizar groot. Dat terwijl het verschil in 3D Mark 2001 niet zo groot was.

Het lijkt er dus een beetje op de nVidia en Futuremark ruzie hebben gehad en Futuremark pakt nVidia nu terug in de benachmarks. Dat is de enige conclusie die ik tot op dit moment kan trekken.

The trade of the tools
[ me | specs ] Klipsch Promedia Ultra 5.1 + Sennheiser HD-590


  • rockfly
  • Registratie: Februari 2003
  • Laatst online: 11-09 09:41
elk blad (behalve 1 duits blad) is afhankelijk van reclame, hoe meer reclame een merk maakt hoe beter ze uit de test komen, zo is het . en over test-> het is natuurlijk altijd perspectief.
elke test komt weer een andere boven. dat komt omdat niet alle test gelijk zijn. dus op 1 test kan je niet bewijzen dat iets beter is

  • stylezzz
  • Registratie: April 2000
  • Laatst online: 06:45
silentsnow schreef op 13 February 2003 @ 20:41:
Wat ik vreemd vind is dat het verschil tussen een 9700 Pro en een TI4600 in de DirectX 7 en 8 scenes in 3DMARK03 zo groot. Dat terwijl er bijna geen verschil was in 3DMark2001 in de DirectX 7 en 8 benchmarks.

Als je de fps in test 1, 2 en 3 van een Ti4600 vergelijkt met een 9700Pro dan zijn de verschillen bizar groot. Dat terwijl het verschil in 3D Mark 2001 niet zo groot was.

Het lijkt er dus een beetje op de nVidia en Futuremark ruzie hebben gehad en Futuremark pakt nVidia nu terug in de benachmarks. Dat is de enige conclusie die ik tot op dit moment kan trekken.
Als je nou eerst dit topic leest zal je een hoop duidelijk worden.... :)

Verwijderd

dominator schreef op 13 februari 2003 @ 20:44:
[...]


Als je nou eerst dit topic leest zal je een hoop duidelijk worden.... :)
Fully agrees :Y)

  • Schaapje_BlaaT
  • Registratie: September 2001
  • Laatst online: 10-09 20:41
mwahahaha het wordt steeds idioter
mijn huisgenoot haalt 150 marks met een GTS en 1000 mhz, en dan moet ik zeker geloven dat mijn computer 11 keer zo snel is als die van hem
nou ja, daar kwam tenminste nog een waarschuwing dat die test niet representatief was, hadden ze in het geval van geforce4 kaarten ook beter kunnen doen.

ASUS ROG Strix B650-A | AMD 7600X | Kingston 32GB DDR5 6000 CL36 | Kingston KC3000 1TB | Powercolor hellhound RX9070 16GB


  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Schaapje_BlaaT schreef op 13 februari 2003 @ 20:54:
mwahahaha het wordt steeds idioter
mijn huisgenoot haalt 150 marks met een GTS en 1000 mhz, en dan moet ik zeker geloven dat mijn computer 11 keer zo snel is als die van hem
nou ja, daar kwam tenminste nog een waarschuwing dat die test niet representatief was, hadden ze in het geval van geforce4 kaarten ook beter kunnen doen.
3DMark vergelijkt niet of je computer 'zoveel keer zo snel is' als die van een ander. Het test je videokaart op zijn mogelijkheden, en geeft ook een prognose voor de speelbaarheid van toekomstige games die DX8.1 en DX9 gebruiken. Over een half jaartje hebben we kaarten die makkelijk 8000-10000 punten halen, dan kan zo'n 'zielige' GF4 al helemaal niet meekomen in de test. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • stylezzz
  • Registratie: April 2000
  • Laatst online: 06:45
Precies, een radeon9700 is ook niet 2x zo snel als een GF4 TI... :) (al zou je dat wellicht gaan denken met die scores)

Verwijderd

Afbeeldingslocatie: http://www.xbitlabs.com/video/radeon9500-9700/vs-speed.gif
Afbeeldingslocatie: http://www.xbitlabs.com/video/radeon9500-9700/ps-speed.gif
Afbeeldingslocatie: http://www.xbitlabs.com/video/radeon9500-9700/aps-speed.gif
Afbeeldingslocatie: http://www.xbitlabs.com/video/radeon9500-9700/nature.gif

Synthetisch -> R300 superieur aan Geforce 4 ti in:
Vertex shader speed, Pixelshader speed en vooral in advanced pixel shader speed.

Maar in nature, waar naast de pixel ende vertex shaders ook textures om de hoek komen kijken, daar houdt de r9500pro de geforce 4 ti niet bij :? (hetzelfde verhaal bij codecult creatures, wat toch ook als voorspelling voor toekomstige games werd gezien...)

Verwijderd

Robin001 schreef op 13 February 2003 @ 19:09:
kheb ook nooit gezegd dat het een goed real-life beeld geeft van je gfx kaart, maar dx9 kaarten lijken zich onderling best redelijk volgens juiste verhoudingen te handhaven...
Wanneer gaan we eens op 1280x960 (of 1024) over? Ik speel echt geen spellen op 1024x768, tenzij het niet vlot genoeg loopt. Maar vind maar eens een game die niet lekker loopt! :+

Ik vind 3dmark 2003 echt gaar, ik krijg framerates van 1 tot 600+. :? De invloed van de CPU is ook een stuk minder dan in 2001, terwijl veel spellen wel een stevige cpu nodig zullen hebben voor bijv AI.

Verder hebben DX7 kaarten in met 2001 nog wel een redelijke score terwijl DX8 kaarten in 2003 echt niets neerzetten.

Verwijderd

Synthetisch -> R300 superieur aan Geforce 4 ti in:
Vertex shader speed, Pixelshader speed en vooral in advanced pixel shader speed.
Ja, want de R300 heeft veel meer vertex shaders dan de GF4 (4 vs 2), en helemaal veel meer pixelshaders (8 vs 2).
Bovendien maakt advanced pixelshader gebruik van ps1.4 indien mogelijk (destijds in de SE-versie van de benchmark toegevoegd, speciaal voor DX8.1/R8500), GF4 ondersteunt ps1.4 dus niet, en moet terugvallen op multipass rendering -> traag.
Maar in nature, waar naast de pixel ende vertex shaders ook textures om de hoek komen kijken, daar houdt de r9500pro de geforce 4 ti niet bij
Nature maakt geen gebruik van ps1.4, en hier valt voor de R9500Pro geen voordeel te behalen. Textures zijn ook een nadeel, want waar de GF4 2 texture-units per pixel-pipeline heeft, heeft de R9500Pro er maar 1.

Deze benchmark-resultaten lijken me dus volkomen logisch, en brengen precies de sterke en zwakke punten van de kaarten naar voren... Of niet?
3dmark03 doet hetzelfde, en ja, jammer voor de mensen die net een GF4 gekocht hebben, maar geen support voor ps1.4 en DX9 gaat echt een nadeel worden in de nabije toekomst. 3dmark03 illustreert dit. Misschien vinden sommige mensen het niet leuk dat ze zo keihard met hun neus op de feiten worden gedrukt, maarja, such is life, helaas... :(

  • mr_obb
  • Registratie: Juni 2001
  • Laatst online: 01-09 14:15

mr_obb

Lakse Perfectionist

Deze "benchmark" is leuk en aardig, maar ik heb geen enkel vertrouwen in de uitkomst.

Punt 1.: Is een Radeon 9500 ruim 3x sneller dan een Geforce Ti 4400/4600? Dit verschil (van 1300 naar 4200 punten) wordt helemaal gebaseerd op het feit dat Game Test 4 gedraaid kan worden. Beetje belachelijk he?

Punt 2.: De Graphics zijn NIET mooi, maar de framerates zijn belachelijk. De Framerates vallen bij mij VER onder die van de Doom III Alpha die enkele maanden geleden de kop op stak, terwijl de Graphics daarvan wel mooi waren.

Punt 3.: Als je twee jaar aan een Benchmark werkt, zoals FutureMark claimt, neem dan in ieder geval de moeite om de botsingen van de vliegtuigjes, de bewegingen van de poppetjes en de val van de trolletjes op een goede en vloeiende manier weer te geven.

Ik vind deze Benchmark, zeker vergeleken met 3Dmark01(SE) erg tegenvallen.

  • pSycho-Y2K
  • Registratie: Januari 2002
  • Laatst online: 01-04 08:17
Mag ik ff reageren?

Ik heb voor het gemak ff 3DMark2003 op mijn machine gedraaid en ik ben het volstrekt met Nvidia eens (en ja, ik heb een GF4Ti4600).

Er worden idd zeer rare technieken gebruikt die uberhaupt niet eens nodig zijn.

Een voorbeeld, herinner jullie nog de spacescene wat waanzinnig veel schokte? Enorme vertraging met een scene die hij makkelijk op z'n sloffen had kunnen doen (vergelijk 'm maar es met Unreal 2, die grafisch VEEL mooier is)

Ten eerste, let's face it, 3DMark2003 ziet er belabberd uit vergeleken met de 2001SE versie. Ze hebben imho veel dynamisch licht gebruikt en shaduw effecten. De scenes zelf stelden geen moer voor qua rendering.

Ten tweede, Nvidia klaagt over de technieken. Correct me if I'm wrong, maar waarom gebruikt 3DMark2003 effecten die compleet nutteloos zijn en anders kunnen? Hierbij geef ik HyperZ van ATI als een goed voorbeeld van een techniek die zeer zinvol is (net zoals Nvidia's Lightspeed Mem Architectuur).

Waarom koos Futuremark voor 'rare' en onpraktische technieken?

Ik mag dan wel een Nvidia gebruiker zijn, maar ben ook een zeer voorstander van ATi. Maar, als je kijkt naar de hedendaagse games (U2, UT2K3, C&C Generals) en de opkomende games (Doom 3 e.d.),

Waarom test men niet op de toekomstige game-elementen i.p.v. nutteloze onpaktische technieken die never-nooit populair worden gezien door software developers?

[ Voor 22% gewijzigd door pSycho-Y2K op 13-02-2003 22:17 ]


  • stylezzz
  • Registratie: April 2000
  • Laatst online: 06:45
Zouden beide voorgaande posters de moeite willen nemen om het hele topic even te lezen? (damn, ik val in herhaling vanavond.... :P )

  • pSycho-Y2K
  • Registratie: Januari 2002
  • Laatst online: 01-04 08:17
dominator schreef op 13 februari 2003 @ 22:16:
Zouden beide voorgaande posters de moeite willen nemen om het hele topic even te lezen? (damn, ik val in herhaling vanavond.... :P )
En dan dingen lezen van ATI fanboys met "zie je wel, ATI rulezz" uitspraken dat nergens opslaan?

Nee dankje, I'll pass :z

[ Voor 32% gewijzigd door pSycho-Y2K op 13-02-2003 22:23 ]


Verwijderd

Verwijderd schreef op 13 February 2003 @ 22:09:
3dmark03 doet hetzelfde, en ja, jammer voor de mensen die net een GF4 gekocht hebben, maar geen support voor ps1.4 en DX9 gaat echt een nadeel worden in de nabije toekomst. 3dmark03 illustreert dit. Misschien vinden sommige mensen het niet leuk dat ze zo keihard met hun neus op de feiten worden gedrukt, maarja, such is life, helaas... :(
Codecultcreatures => Voorspelling van hoe toekomstige games eruit gaan zien
3dMark2003 => Voorspelling van hoe toekomstige games eruit gaan zien

(Als spellen er trouwens over 2 jaar hetzelfde als de 2e en 3e game-test van 3dmark2003 uit gaan zien, dan houd ik mijn hart vast :Y))

Het enige verschil is dat Codecultcreatures in de ogen van veel mensen als meer realistische voorspelling van de toekomst wordt gezien, dan 3dmark2003...

(Codecult creatures is efficienter geprogrammeerd en ook beter geoptimaliseerd voor de wat oudere dx 8 kaarten... het wordt immers een game-engine met uitbreidingsmogelijkheden voor dx 9)

Het is nu te zien, dat codecult creatures, qua voorspellingen van goede videokaarten voor de toekomst een ander pad inslaat, dan 3dmark2003.
pSycho_Y2K schreef op 13 February 2003 @ 22:21:
[...]


En dan dingen lezen van ATI fanboys met "zie je wel, ATI rulezz" uitspraken dat nergens opslaan?

Nee dankje, I'll pass :z
Tja, ik zie mijn posts eigenlijk als best wel relevant...

[ Voor 12% gewijzigd door Verwijderd op 13-02-2003 22:25 ]


  • stylezzz
  • Registratie: April 2000
  • Laatst online: 06:45
pSycho_Y2K schreef op 13 februari 2003 @ 22:21:
[...]


En dan dingen lezen van ATI fanboys met "zie je wel, ATI rulezz" uitspraken dat nergens opslaan?

Nee dankje, I'll pass :z
Het kost natuurlijk wel wat moeite, maar er staan wel degelijk nuttige reply's tussen. Maar goed, je hebt de benchmark gedraait, zwaar teleurgesteld omdat je systeem het niet trekt en nu zoek je argumenten om 3dmark2k3 onderuit te halen. Begrijpelijk.... :)

Verwijderd

De Framerates vallen bij mij VER onder die van de Doom III Alpha die enkele maanden geleden de kop op stak, terwijl de Graphics daarvan wel mooi waren.
Heeft Doom3 Depth-of-Field, Bloom, en een hele zooi geanimeerde karakters met hoge polycount tegelijkertijd in beeld, zoals 3dmark03? Dacht het niet he?
Beetje scheve vergelijking. Als je meer doet, kost het meer resources, logisch toch?
Hierbij geef ik HyperZ van ATI als een goed voorbeeld van een techniek die zeer zinvol is (net zoals Nvidia's Lightspeed Mem Architectuur).
Wat bedoel je hiermee? HyperZ/LMA werken impliciet hoor, je hoeft er alleen maar voor te zorgen dat je geen D3DCMP_EQUAL tests doet, maar D3DCMP_GREATEREQUAL of D3DCMP_LESSEQUAL, zodat de hierarchische zbuffer z'n werk kan doen...
En ik weet zeker dat ze dat gedaan hebben, want ik heb het met Mikko destijds nog erover gehad (lang voor 3dmark03).
Bovendien is de zbuffer wel het minste van de problemen bij het renderen van scenes zoals in 3dmark03, dus zelfs als je geen hierarchische zbuffer gebruikt, zul je er weinig van merken (relatief 'ondiepe' scenes, weinig overdraw).
Dus wat wou je zeggen met je voorbeeld? Ik snap niet waar je heen wilt.

edit:
Erm, over codecreatures... Dat was toch een DX8-benchmark?
Die ongeveer neerkwam op de nature-game van 3dmark2001, maar hij liep veel trager... Ik vond hem ook minder mooi (was vooral gras wat je te zien kreeg, 3dmark2001 was dan wat gevarieerder).
Beetje moeilijk te vergelijken met 3dmark03... Want het is namelijk ongeveer net zo oud als 3dmark2001, en toen hadden we andere ideeen over de 'toekomst' dan nu, uiteraard. We kwamen toen net kijken met pixelshaders en vertexshaders.
Nu programmeren we die dingen al met een C-achtig taaltje.

[ Voor 20% gewijzigd door Verwijderd op 13-02-2003 22:36 ]


  • eXcyle
  • Registratie: Juni 2002
  • Laatst online: 30-08 23:45
'k ben het ook met pSycho eens, 3d mark maakt gebruik van zeer onpaktische manieren om zijn beelden tevoorschijn te toveren.

ik zie het nut van zelke benshmarks ook niet echt, veel toekomstige games zullen de UT2003, Seriouse Sam 2 of Quake 3 engine gebruiken, het is veel nutiger om de ingebouwde benchmarks van dat soort engines te draaien, dat zijn tenminste technieken die gebruikt (gaan) worden in games

The portion of this algorithm labeled “Skin Object in Vertex Shader” is doing the exact same skinning calculation over and over for each object. In a scene with five lights, for example, each object gets re-skinned 11 times. This inefficiency is further amplified by the bloated algorithm that is used for stencil extrusion calculation. Rather than using the Doom method, 3DMark03 uses an approach that adds six times the number of vertices required for the extrusion. In our five light example, this is the equivalent of skinning each object 36 times! No game would ever do this. This approach creates such a serious bottleneck in the vertex portion of the graphics pipeline that the remainder of the graphics engine (texturing, pixel programs, raster operations, etc.) never gets an opportunity to stretch its legs.

en als ik dan kijk wat 3d mark er van bakt, ziet er vergeleken met ut2003 etc nogal Shit uit

game developers zullen nooit zulke technieken gebruiken omdat er gewoon ook rekening met oudere pc's gehouden moet worden

en als ik dan dit soort topic lees of op T-net, dan word ik echt broert van de ati fanboy's die gelijk nvidia de grond in trappen, omdat ati beter uit de test komt met nuteloze technieken wil dat nog niet gelijk zeggen dat ati beter is, tis op het moment wel zo..... maar ga dan niet 3dmark2003 gebruiken om zo iets te bewijzen maar kijk naar ingame tests

[ Voor 5% gewijzigd door eXcyle op 13-02-2003 22:34 ]


  • pSycho-Y2K
  • Registratie: Januari 2002
  • Laatst online: 01-04 08:17
Verwijderd schreef op 13 February 2003 @ 22:23:
[...]


Tja, ik zie mijn posts eigenlijk als best wel relevant...
Mja, oke, maar ik heb het over de meerderheid, want wat ik las op de frontpage qua reacties werd ik toch ff witheet van de menigte die zat te brullen dat ATI roeld en dat Nvidia z'n koffers kan pakken, omdat een benchmark programma met onpraktische technieken beter uitkomt met ATI dan Nvidia.... bravo... :Z I-)

Verwijderd

pSycho_Y2K schreef op 13 February 2003 @ 22:29:
[...]


Mja, oke, maar ik heb het over de meerderheid, want wat ik las op de frontpage qua reacties werd ik toch ff witheet van de menigte die zat te brullen dat ATI roeld en dat Nvidia z'n koffers kan pakken, omdat een benchmark programma met onpraktische technieken beter uitkomt met ATI dan Nvidia.... bravo... :Z I-)
(dat stoor ik me geeneens meer aan :P, de 'harde kern' valt toch niet altijd om te praten)

Ikzelf zou het wel mooi vinden, als de makers van de codecult creature engine, wat meer omgevingen zouden willen creeeren om zo te benchen met eventueel nieuwe technieken, zoals pixelshader 2.0 e.d.. (en dan natuurlijk online gooien en verspreiden :))

  • stylezzz
  • Registratie: April 2000
  • Laatst online: 06:45
Onpraktisch? Omdat een GF4 Ti zich er dus blijkbaar er zwaar in verslikt en een radeon of GF FX niet? De toekomst zal het moeten uitwijzen of dat deze technieken echt hun weg zullen gaan vinden in games. (in meer of mindere mate aangepast wellicht?)

Maar goed, lees het topic nou even door. Er is inmiddels veel meer info bij gekomen sinds dat stukje van XBIT labs wat iedereen aangrijpt om een goede nachtrust te krijgen. (en hun GF4 Ti :P )

  • pSycho-Y2K
  • Registratie: Januari 2002
  • Laatst online: 01-04 08:17
dominator schreef op 13 February 2003 @ 22:35:
Onpraktisch? Omdat een GF4 Ti zich er dus blijkbaar er zwaar in verslikt en een radeon of GF FX niet? De toekomst zal het moeten uitwijzen of dat deze technieken echt hun weg zullen gaan vinden in games. (in meer of mindere mate aangepast wellicht?)

Maar goed, lees het topic nou even door. Er is inmiddels veel meer info bij gekomen sinds dat stukje van XBIT labs wat iedereen aangrijpt om een goede nachtrust te krijgen. (en hun GF4 Ti :P )
Goed, ik wil geen flamewar beginen ofzo. Ik mag beide bedrijven zeer graag (ATI / Nvidia, aangezien zij de games van nu en strax vloeiend moeten gaan draaien :))

Ben gewoon pissig van het feit dat er gelijk n00bs beginnen te blaten dat ATI roeleerd en dat Nvidia op kan krassen :Z (Zie frontpage reacties)

Maar, goed, ben blij dat we het met elkaar eens zijn.

Verwijderd

dominator schreef op 13 February 2003 @ 22:35:
Onpraktisch? Omdat een GF4 Ti zich er dus blijkbaar er zwaar in verslikt en een radeon of GF FX niet? De toekomst zal het moeten uitwijzen of dat deze technieken echt hun weg zullen gaan vinden in games. (in meer of mindere mate aangepast wellicht?)

Maar goed, lees het topic nou even door. Er is inmiddels veel meer info bij gekomen sinds dat stukje van XBIT labs wat iedereen aangrijpt om een goede nachtrust te krijgen. (en hun GF4 Ti :P )
Ik heb geforce 4 ti-4200 128mb (tis mijn tweede :)) XP turbo

Zolang benchmarks als codecultcreatures, ut2003, SS, 3dmark2001se nog goed gaan, vrees ik eigenlijk weinig voor de komende 15 maanden :) (daarna wel weer overstappen ofzo)

  • stylezzz
  • Registratie: April 2000
  • Laatst online: 06:45
Precies, dat soort nutteloze ATI/Nvidia Fanboy discussies proberen we hier te vermijden. Vandaar dat hier een vrij interessant topic is ontstaan IMHO.....

Maar goed, als ik een GF4 Ti zou hebben zou ik ook niet meteen naar de winkel sprinten om iets anders te halen. Alles draait nog goed vandaag de dag, dus om nou inderdaad voor 1 lullig benchmarkje veel geld uit te gaan geven is vrij bezopen. Situatie is echter anders, ik heb een GF3 Ti500 en zit al een tijdje (sinds unreal 2 en C&C generals voornamelijk :P ) met wat lage performance te dubben. Tijd voor een upgrade waarschijnlijk, en zoals het er nu naar uit ziet een 9900(pro) of misschien nog even wachten voor een NV35? (tenzij dat pas na de zomer word ofzo...)

[ Voor 65% gewijzigd door stylezzz op 13-02-2003 22:48 ]


Verwijderd

game developers zullen nooit zulke technieken gebruiken omdat er gewoon ook rekening met oudere pc's gehouden moet worden
Nooit? Zeg nooit nooit! :)
Over een jaar of wat, als iedereen een DX9+-kaart heeft... wat dan?
Het gaat hard vooruit hoor, in de graphics-industrie.
omdat een benchmark programma met onpraktische technieken beter uitkomt met ATI dan Nvidia.... bravo... I-)
Uhh nee, want de GF FX is wel degelijk sneller dan de R9700Pro in 3dmark03.
De teleurstelling zit hem vooral bij de GF4, maar dat is logisch, want dat ding is verouderd.
Het is een veredelde GF3. Zelfs een R8500 was technisch al meer geavanceerd (ik noem een ps1.4, een HyperZ, een TruForm...).
Qua brute kracht is een GF4 leuk, en in DX7/8 software presteert ie prima... Maar dat is het 3dmark2001-tijdperk.. We kijken nu naar DX9, en daar is voor de GF4 geen plaats. Het 3dmark03-tijdperk is aangebroken. Over niet al te lange tijd, zullen spellen ook ps1.4+/DX9 gaan gebruiken, en dan gaan alle GF4-gebruikers toch upgraden. Dit IS geen GF3/4-benchmark. Net zoals 3dmark2001 geen GF1/2-benchmark was (en al zeker geen TNT :)).
Is het zo moeilijk om te begrijpen dat de GF4 verouderd is? Er zijn nota bene al maandenlang DX9-kaarten op de markt, en al ruim een jaar ps1.4-kaarten. Dat zijn niet alleen maar leuke getalletjes. Maar dat zul je tegen die tijd wel zien. 3dmark03 laat NU al zien wat DX9 in de toekomst voor spellen gaat betekenen.

  • pSycho-Y2K
  • Registratie: Januari 2002
  • Laatst online: 01-04 08:17
Verwijderd schreef op 13 February 2003 @ 22:46:
[...]3dmark03 laat NU al zien wat DX9 in de toekomst voor spellen gaat betekenen.
Ehmm, bedoel je grafisch gezien? Want op grafisch gebied ziet ie er niet al te best uit vergeleken met z'n voorganger (<-- nogal zacht gezegd O-) )

Verwijderd

Afbeeldingslocatie: http://www.darkcrow.co.kr/image/tip&tech/3dmark03score/02.gif
Afbeeldingslocatie: http://www.darkcrow.co.kr/image/tip&tech/3dmark03score/03.gif
Afbeeldingslocatie: http://www.darkcrow.co.kr/image/tip&tech/3dmark03score/04.gif
Afbeeldingslocatie: http://www.darkcrow.co.kr/image/tip&tech/3dmark03score/05.gif

Verwijderd

op grafisch gebied ziet ie er niet al te best uit vergeleken met z'n voorganger
En dat beoordeel jij na hem bekeken te hebben op een GF4?
Misschien moet je dan even dit bekijken: http://www.pcextreme.net/...mark03/3dmark03-DX9lq.wmv

Dan zie je wat je mist...
En de rest van de benchmark ziet er vast ook een stuk beter uit als ie op een behoorlijke framerate draait.
Verder is 3dmark03 boven alles een benchmark, en gaat het er meer om wat ie doet, dan hoe het eruit ziet (ook al zien de 3dmarks er altijd fantastisch mooi uit).
En 3dmark03 heeft een stuk meer effecten dan 3dmark2001, en gebruikt ook andere (en nieuwere) technieken.

  • eXcyle
  • Registratie: Juni 2002
  • Laatst online: 30-08 23:45
Verwijderd schreef op 13 februari 2003 @ 22:46:
Nooit? Zeg nooit nooit! :)
Over een jaar of wat, als iedereen een DX9+-kaart heeft... wat dan?
Het gaat hard vooruit hoor, in de graphics-industrie.
over een jaar zullen er nog steeds genoeg pc's zijn met een DX8 kaart, niet iedereen heeft het geld om elke keer 300 pleuro aan een nieuwe VGA kaart te besteden, 'k zal zelf over een jaar mijn GF4 ti 4600 ook nog wel hebben, en daar zal altijd rekening mee gehouden worden

'k vind ook dat benchmarks zich wat meer op de hedendaagste technieken moeten richten, niet op technieken die over een jaar of 2 pas gebruikt worden

't hele idee van zulke benchmarks is achtelijk, als je gaat benchmarken, doe dat dan ingame met je eigen setings en kijk dan naar je FPS, zecht veel meer dan de melding dat je 1572 3d mark 2003 punten hebt
waarbij grotendeels aleen maar naar je VGA kaart gekeken word, games willen niet aleen maar brute VGA kracht hebben, CPU kracht en geheugen is ook erg belangrijk, vooral als je naar games zoals Battlefield 1942 kijkt als je server draaid of tegen bots speelt
3dmark deed daar ook wel wat tests in, maar als mijn PC in die test niet goed liep wil dat nog niet zeggen dat ik de toekomstige games ook niet kan draaien.

'k denk dat je als je kijkt naar toekomstige games je beter in ut2003 etc kan benchmarken dan in 3d mark want een vaag cijfertje zecht nix over mijn FPS score in games

[ Voor 31% gewijzigd door eXcyle op 13-02-2003 23:05 ]


  • pSycho-Y2K
  • Registratie: Januari 2002
  • Laatst online: 01-04 08:17
Verwijderd schreef op 13 februari 2003 @ 22:56:
[...]


En dat beoordeel jij na hem bekeken te hebben op een GF4?
Misschien moet je dan even dit bekijken: http://www.pcextreme.net/...mark03/3dmark03-DX9lq.wmv

Dan zie je wat je mist...
En de rest van de benchmark ziet er vast ook een stuk beter uit als ie op een behoorlijke framerate draait.
Verder is 3dmark03 boven alles een benchmark, en gaat het er meer om wat ie doet, dan hoe het eruit ziet (ook al zien de 3dmarks er altijd fantastisch mooi uit).
En 3dmark03 heeft een stuk meer effecten dan 3dmark2001, en gebruikt ook andere (en nieuwere) technieken.
Mag ik jou er even op wijzen dat dit de bekende DX9 scene is?

Ik heb het over de 8.1 scenes. Vergelijk dat maar es met de voorganger 2001SE.
Zelfs als ie net zo schokt als in 2003 (wat ie dus deed met oudere hardware) ziet 2001SE er nog mooier uit.

  • stylezzz
  • Registratie: April 2000
  • Laatst online: 06:45
pSycho_Y2K schreef op 13 February 2003 @ 22:49:
[...]


Ehmm, bedoel je grafisch gezien? Want op grafisch gebied ziet ie er niet al te best uit vergeleken met z'n voorganger (<-- nogal zacht gezegd O-) )
Als je hem met 30FPS bekijkt issie super hoor. No doubt about it.... :)

(goed, op mijn systeem zat ik ook tegen een slideshow van 6-7FPS aan te kijken. Niet leuk... :( )

  • pSycho-Y2K
  • Registratie: Januari 2002
  • Laatst online: 01-04 08:17
Het komt mij over dat ze de DX8.1 scenes een beetje afgeraffeld hebben en de DX9 scene een meesterwerk van hebben gemaakt.

  • We Are Borg
  • Registratie: April 2000
  • Laatst online: 21:58

We Are Borg

Moderator Wonen & Mobiliteit / General Chat
pSycho_Y2K schreef op 13 februari 2003 @ 22:21:
[...]


En dan dingen lezen van ATI fanboys met "zie je wel, ATI rulezz" uitspraken dat nergens opslaan?

Nee dankje, I'll pass :z
Lees er overheen zoals al gezegd is. Ik kan me er ook aan ergeren hoor, " ATI/Nvidia rulez _/-\o_ " :/ . Maar goed, je doet er niks aan....

Verwijderd

over een jaar zullen er nog steeds genoeg pc's zijn met een DX8 kaart, niet iedereen heeft het geld om elke keer 300 pleuro aan een nieuwe VGA kaart te besteden, 'k zal zelf over een jaar mijn GF4 ti 4600 ook nog wel hebben, en daar zal altijd rekening mee gehouden worden
Valt wel mee hoor, mensen die echt verouderde hardware hebben, willen kennelijk geen spellen spelen, en daar wordt ook geen rekening mee gehouden. DX7 is nu al het minimum. Dan mag je dus nog net blij zijn dat je een nieuw spel kunt spelen. Je hebt al DX80-hardware nodig om het een beetje mooi eruit te laten zien, en ook nog een redelijke framerate te halen.
Over een jaar zal een GF4 het absolute minimum zijn, en zal de gemiddelde gamer al lang een DX9+-kaart hebben, waar de meeste spellen ook dankbaar gebruik van zullen maken.
'k vind ook dat benchmarks zich wat meer op de hedendaagste technieken moeten richten, niet op technieken die over een jaar of 2 pas gebruikt worden
Daar hadden ze 3dmark2001 al voor he? Beetje nutteloos om nog een DX8-benchmark uit te brengen. Bovendien wil je toch upgraden naar een kaart met toekomstperspectief? Een GF4 heeft dat niet, dus zal ie door 3dmark03 niet aangeraden worden. En terecht, anders kom je bedrogen uit binnenkort.
Dat wil dus ook niet zeggen dat een GF4 nu een waardeloze kaart is... in 3dmark2001 doet ie het prima.
Maarja, nu moet je eigenlijk al een GF4 hebben, en niet meer een GF4 gaan kopen, als je tenminste van plan bent om over een jaar of wat nog ermee te gaan gamen. Ik zou niemand aanraden om nu nog DX8-hardware te gaan kopen. Zeker niet als DX9-hardware amper duurder is. Dat is gewoon onzin.
En ja, als 3d/spellen niet belangrijk voor je is, waarom zou je uberhaupt naar 3dmark gaan kijken?
Mag ik jou er even op wijzen dat dit de bekende DX9 scene is?
Meen je dat nou? Duh, dat wist ik niet zeg!
Ik heb het over de 8.1 scenes. Vergelijk dat maar es met de voorganger 2001SE.
Zelfs als ie net zo schokt als in 2003 (wat ie dus deed met oudere hardware) ziet 2001SE er nog mooier uit.
Ligt eraan wat je onder 'mooier' verstaat...
3dmark03 gebruikt veel meer special effects (schaduwen, bloom, depth-of-field, particle-effects, etc) dan 3dmark2001 (de enige 8.1 test aldaar was Advanced Pixelshader trouwens... De enige andere shadertest was de Nature-game. De rest was in feite DX7-spec spul, wat met een DX7-fixedfunction pipeline afkon. Geen shader-effecten, weinig multipass-dingen, heel simpel dus).
3dmark2001 had ook maar hele beperkte animatie (beetje wuivend gras, niet heel boeiend, verder stromend water, ook niet boeiend... Doe je allemaal makkelijk in een vshader. En dan een simpel vissertje). 3dmark03 heeft grote geanimeerde mannetjes met alles erop en eraan.
Technisch gezien is 3dmark03 dus veel 'mooier'. Of het artistiek mooier is, is een ander verhaal, en dat lijkt me in dit topic niet echt relevant. Bovendien is dat maar een mening.
Misschien vind jij 3dmark2001 'mooier' omdat het soepeler loopt... Ja, dan moet je maar eens 3dmark03 op een goede PC bekijken, waar het soepel loopt, en DAN pas je conclusies trekken. Er is een hoop meer te zien aan effecten in ieder geval. Maar als je een slideshow zit te kijken, dan ontgaat je dat misschien.

[ Voor 38% gewijzigd door Verwijderd op 13-02-2003 23:23 ]


  • pSycho-Y2K
  • Registratie: Januari 2002
  • Laatst online: 01-04 08:17
Verwijderd schreef op 13 februari 2003 @ 23:13:
[...]
Meen je dat nou? Duh, dat wist ik niet zeg!
[...].
Hiermee wil ik dus aangeven dat je de DX9 Test als een algemeen omvattende conclusie ziet van 3DMark03 :Z
Verwijderd schreef op 13 februari 2003 @ 23:13:
[...]
Misschien vind jij 3dmark2001 'mooier' omdat het soepeler loopt... Ja, dan moet je maar eens 3dmark03 op een goede PC bekijken, waar het soepel loopt, en DAN pas je conclusies trekken. Er is een hoop meer te zien aan effecten in ieder geval. Maar als je een slideshow zit te kijken, dan ontgaat je dat misschien.
Het gaat mij niet om de effecten die ik zie, maar om het feit dat er technieken gebruikt worden die onpraktisch zijn, dit wordt ook nog es benadrukt door X-Bit Labs. Dat 3DMark2003 er over het algemeen (en lees het goed, over het algemeen) er slechter uitziet dan 2001SE is de meerderheid wel eens.

X-Bits Labs geeft als voorbeeld de Multi-texturing van de eerste test:

It’s odd that the new generation of 3DMark has taken such a dramatic step backward in using multitexture even when compared to its older brother. Games certainly aren’t showing any signs of going back to single textured rendering. Multitexture is a key feature that has been employed in multiple game genres since DirectX 6.0 (DX6). Game Test 1 is too simplistic to be representative of modern DX7 games. You would have to look back four years or more to find applications this simplistic.

Verwijderd

Ik heb game 4 niet gezien, ik weet niet hoe die eruit ziet. Ik heb de andere games wel gezien...die zuigen. Dank u...

Maar als game4 echt zo :9 is, plz be my guest en maak een zooi screeny's aub :) (niet die ene, want die heb ik al te vaak gezien)

  • eXcyle
  • Registratie: Juni 2002
  • Laatst online: 30-08 23:45
filmpie ook goed, is al een keer hier gepost (lezen is moeilijk, ik weet het)
http://www.pcextreme.net/...mark03/3dmark03-DX9lq.wmv

een benchmark moet niet aleen technieken gebruiken die het er mooier uit laten zien maar doen wat de games ook doen, een gulden middel weg, technieken die er iets slechter uit zien maar een aardige preformance winst geven.

en wat dat betreft vind ik deze 3dmark echt waardeloos, alemaal technieken die toch niet gebruikt gaan worden in games, de game makers willen hun games goed verkopen, en als ze de zelfde technieken gaan gebruiken als 3dmark doet koopt niemand het omdat er weinig systeemen overblijven die het dan kunnen draaien

[ Voor 2% gewijzigd door eXcyle op 13-02-2003 23:29 . Reden: typo in link ]


Verwijderd

eXcyle schreef op 13 februari 2003 @ 23:28:
filmpie ook goed, is al een keer hier gepost (lezen is moeilijk, ik weet het)
http://www.pcextreme.net/...mark03/3dmark03-DX9lq.wmv

een benchmark moet niet aleen technieken gebruiken die het er mooier uit laten zien maar doen wat de games ook doen, een gulden middel weg, technieken die er iets slechter uit zien maar een aardige preformance winst geven.

en wat dat betreft vind ik deze 3dmark echt waardeloos, alemaal technieken die toch niet gebruikt gaan worden in games, de game makers willen hun games goed verkopen, en als ze de zelfde technieken gaan gebruiken als 3dmark doet koopt niemand het omdat er weinig systeemen overblijven die het dan kunnen draaien
Schrijven ook :Y), anyway tnx voor filmpie

Verwijderd

DumphuiZ: zie URL die ik hierboven gepost heb.
Is een wmv-filmpje van de Mother Nature test (game 4), ongeveer 18 mb.
Het gaat mij niet om de effecten die ik zie, maar om het feit dat er technieken gebruikt worden die onpraktisch zijn, dit wordt ook nog es benadrukt door X-Bit Labs.
Weet je uberhaupt wel wat voor technieken ze gebruiken, en waarom ze voor die technieken hebben gekozen?
Verder, ik heb geen hoge pet op van de technische know-how van review-sites. Ik denk niet dat de mensen bij X-Bit labs weten hoe ze een 3d engine met shaders en allerlei effecten moeten schrijven. Meestal blaten die journalisten maar een beetje de marketing-praatjes van de bedrijven na. En sommigen zijn kennelijk op de hand van nVidia.
Ik hecht niet zoveel waarde aan die uitspraken. Ik ben zelf al een tijd lekker bezig met DX8.1 en DX9, dus ik denk dat ik zelf wel een aardig idee heb over hoe de zaak in elkaar steekt. Verder spreek ik Mikko geregeld op IRC, en hebben we het vaak over het coden van shaders/special effects etc.

Wat bedoelt X-Bit Labs trouwens met dat gezeur over multi-texturing van de eerste test? Van wat ik begrijp, willen ze suggereren dat het single-textured is?
Nou erm *kuch*, dan hebben ze zeker de glossmaps, de reflectionmaps en de lightmaps over het hoofd gezien?
Jawel, er worden 4 texture-layers gebruikt. Simplistic? De heren van X-Bit labs zijn simpel misschien :)

Lees dit maar eens na: http://www.futuremark.com...o/3dmark03_whitepaper.pdf
en wat dat betreft vind ik deze 3dmark echt waardeloos, alemaal technieken die toch niet gebruikt gaan worden in games
Halo 2 gebruikt ook al Depth-of-Field en bloom.... dus?

[ Voor 7% gewijzigd door Verwijderd op 13-02-2003 23:34 ]


Acties:
  • 0 Henk 'm!

  • FirmPete
  • Registratie: Juli 2001
  • Niet online
Wat een wijze woorden van allemaal....

Misschien zal ik een topic openen over het cpu gedeelte... Iets met Intel en AMD in de titel.
Of "Ik heb een AMD met een Nvidia kaart, mijn vriendin een Pentium IV met een ATI: Moet ik het nu uitmaken?"

Ontopic: Natuurlijk is 3dmark 2003 niet representatief. Net als 2001 en 2000.
Toen 2001 uitkwam had ik nog een Voodoo 3. Boos dat iedereen (lees 3dfx-users) toen was dat 2001 op 32bit wilde draaien... "Welk spel gebrúíkt dat?" enz.

2003 zegt misschien iets over spellen die de komende 1 a 2 jaar gaan uitkomen. Misschien ook niet. We zien het dan wel.

En kindertjes die vanwege een slechte score een nieuwe kaart kopen kan je in 2 groepen onderverdelen:
1: Kleine kindertjes die het komende jaar ongelovelijk veel kranten moeten wegbrengen c.q. vakken moeten vullen dat ze geen tijd hebben om rottigheid uit te halen.
2: Grote kindertjes die het geld kunnen en willen uitgeven en daarmee de "wereldeconomie" steunen. (ofzo, who cares)

Dank u voor u aandacht,

Een trotse Nvidia GF3 bezitter, maar ATI-fan van het eerste uur. (Mijn eerste pentium had een 4MB ATI-pci kaart erin :))

Firmpete on Aerie Peak


Acties:
  • 0 Henk 'm!

Verwijderd

nou moeten de nvidia's boys zich niet zo aanstellen, want ik weet ook nog wel toen het andersom was, toen waren de nvidia'tjes ook niet te beroerd om nvidia rulez te zeggen, en nou dat het dus een keer andersom is gaan zeuren,
net zoals nvidia zelf zit te zeuren dat 3d mark03 niet representatief is, en over een jaar zijn er allemaal dx 9 kaarten ook van nvidia, en let op, dan hoor je nvidia niet meer, dan steunen ze zogenaamd 3d mark03 weer, nee je kan lullen wat je wilt, maar toen nvidia nog roelde, moest ik dat ook steeds aanhoren. _/-\o_

wat maakt dat nou uit dat het niet meer aan de orde is, ik wil dat nog gewoon even kwijt, dus pit maar weer verder :Z

[ Voor 12% gewijzigd door Verwijderd op 14-02-2003 08:40 ]


Acties:
  • 0 Henk 'm!

  • pSycho-Y2K
  • Registratie: Januari 2002
  • Laatst online: 01-04 08:17
Verwijderd schreef op 14 February 2003 @ 06:36:
nou moeten de nvidia's boys zich niet zo aanstellen, want ik weet ook nog wel toen het andersom was, toen waren de nvidia'tjes ook niet te beroerd om nvidia rulez te zeggen, en nou dat het dus een keer andersom is gaan zeuren,
net zoals nvidia zelf zit te zeuren dat 3d mark03 niet representatief is, en over een jaar zijn er allemaal dx 9 kaarten ook van nvidia, en let op, dan hoor je nvidia niet meer, dan steunen ze zogenaamd 3d mark03 weer, nee je kan lullen wat je wilt, maar toen nvidia nog roelde, moest ik dat ook steeds aanhoren. _/-\o_
Als je goed hebt gelezen is dit niet meer aan de orde, we hebben het niet over ATI en Nvidia, maar over 3DMark2003 zelf. :Z :Z

Acties:
  • 0 Henk 'm!

  • pSycho-Y2K
  • Registratie: Januari 2002
  • Laatst online: 01-04 08:17
Heb hier nog een stukje van iemand op de frontpage:


Ten eerste claimt 3DMark 2003 een DirectX 9 benchmark te zijn terwijl slechts in een van de testen slechts een KLEIN gedeelte daadwerkelijk DirectX 9 is. Moet wel want anders draait het op alleen de Radeon 9700 en Geforce FX. Dat is hoogst opmerkelijk.

Ten tweede zijn voor pixel shaders voornamelijk versie 1.4 gebruikt. De enige fabrikant die deze versie ondersteunt is ATi. Als versie 1.4 niet door een kaart wordt ondersteunt dan wordt er direct teruggevallen op versie 1.1. Dat terwijl vanaf de Geforce 3 al versie 1.3 van pixel shaders ondersteunt wordt die meer mogelijkheden heeft net als versie 1.4. Dat is hoogst opmerkelijk.

Nog erger is dat als er teruggevallen wordt naar pixel shader versie 1.1 dat de polygon count met bijna tweemaal verhoogd wordt. Dat is hoogst opmerkelijk.

Dus enigzins komen de ATi kaarten er heel opmerkelijk het beste vanaf terwijl in daadwerkelijke spellen zoals UT2003 pixel shaders 1.1 en 1.3 alleen ondersteund worden.

Dus ja, nVidia heeft wel degelijk een zeer terecht punt van kritiek op 3DMark 2003.

Acties:
  • 0 Henk 'm!

Verwijderd

Ten eerste claimt 3DMark 2003 een DirectX 9 benchmark te zijn terwijl slechts in een van de testen slechts een KLEIN gedeelte daadwerkelijk DirectX 9 is.
Ik denk dat de meeste mensen dit niet goed begrijpen... Heel 3dmark03 is gemaakt met de DX9-API.
Er is echter maar 1 test die ook daadwerkelijk DX9-specifieke features gebruikt.
De rest van de tests benchmarken wel degelijk de performance van een kaart onder DX9.
Bij de andere 3dmarks was dit niet anders. Zo had je in 3dmark2001 alleen DX8-features nodig voor de nature-test.
Sterker nog, in 3dmark2000 had je eigenlijk helemaal geen DX7-kaart nodig... Het belangrijkste verschil was namelijk hardware-T&L, maar met software-T&L kon je ook alle tests draaien.
Waarom hoorde je toen niemand erover, en nu nVidia ineens commentaar geeft, hoor je wel iedereen mekkeren? Er is niks veranderd tov de vorige keren hoor.
Ten tweede zijn voor pixel shaders voornamelijk versie 1.4 gebruikt. De enige fabrikant die deze versie ondersteunt is ATi.
Ten eerste is dit niet waar, want de GeForce FX ondersteunt 1.4 ook, en dat is dus geen ATi-produkt. Ten tweede is het niet de schuld van ATi dat de GF4 geen ps1.4 heeft. De R8500 heeft het namelijk WEL, en die is ouder dan de GF4. nVidia liep dus toen al achter, feature-wise.
Dat terwijl vanaf de Geforce 3 al versie 1.3 van pixel shaders ondersteunt wordt die meer mogelijkheden heeft net als versie 1.4.
Dit heb ik eerder al in dit topic uitgelegd. Lees nog maar eens na. ps1.3 heeft geen nut, ps1.4 des te meer. Zijn 2 compleet verschillende programmeer-modellen, en daar zit de winst van ps1.4. Verder is een GeForce 3 ps1.1, en een GeForce 4 pas 1.3.
Nog erger is dat als er teruggevallen wordt naar pixel shader versie 1.1 dat de polygon count met bijna tweemaal verhoogd wordt. Dat is hoogst opmerkelijk.
Heb ik ook al eerder uitgelegd in dit topic. Als je met ps < 1.4 moet renderen, heb je meerdere passes nodig, en dus zul je dezelfde polys 2x of meer renderen, logisch dat de polycount met bijna tweemaal verhoogd wordt, niet?
Dus enigzins komen de ATi kaarten er heel opmerkelijk het beste vanaf terwijl in daadwerkelijke spellen zoals UT2003 pixel shaders 1.1 en 1.3 alleen ondersteund worden.
Niet waar, de GeForce FX komt er het beste vanaf (zie oa. hardocp.com). ATi heeft alleen veel meer kaarten op de markt die goed presteren in 3dmark03, omdat ATi al veel langer DX9-hardware maakt dan nVidia. Maar de absolute topper blijft een nVidia-kaart, dus ATi komt er niet 'het beste van af', en dat is dus ook niet 'opmerkelijk'.
Verder is UT2003 een spel uit de DX8-generatie, en moet vergeleken worden met 3dmark2001. 3dmark03 is de volgende generatie.
Dus ja, nVidia heeft wel degelijk een zeer terecht punt van kritiek op 3DMark 2003.
Als je niet weet waar je het over hebt, en zo maar de onzinnige kritiek van nVidia slikt, dan vind je dat misschien ja.

[ Voor 3% gewijzigd door Verwijderd op 14-02-2003 09:17 ]


Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Nu online
Verwijderd schreef op 14 February 2003 @ 08:58:
[...]


Niet waar, de GeForce FX komt er het beste vanaf (zie oa. hardocp.com). ATi heeft alleen veel meer kaarten op de markt die goed presteren in 3dmark03, omdat ATi al veel langer DX9-hardware maakt dan nVidia. Maar de absolute topper blijft een nVidia-kaart, dus ATi komt er niet 'het beste van af', en dat is dus ook niet 'opmerkelijk'.
Verder is UT2003 een spel uit de DX8-generatie, en moet vergeleken worden met 3dmark2001. 3dmark03 is de volgende generatie.


[...]
Dat klopt niet he. Alleen in de 4 game-tests wint de Fx nu, maar:

quote: What is the most important thing to notice is that the individual feature tests have not improved much at all. Vertex Shader speed, Pixel Shader 2.0 are only a few FPS faster giving the lead still to ATI in these tests, most notably Pixel Shader 2.0 test.

Wat mij betreft verdient de Ati de voorkeur.

Acties:
  • 0 Henk 'm!

Verwijderd

Dat klopt niet he. Alleen in de 4 game-tests wint de Fx nu
Waarom klopt dat niet?
Natuurlijk zijn die andere tests niet of nauwelijks sneller geworden. Die testen vooral de features zelf... Die performance is dus 99% de rauwe hardware die je daar ziet.

Bij de game-tests komt er veel meer kijken dan alleen de snelheid van de hardware. Het gaat hier ook om de kwaliteit van de driver. Hoe snel zijn state-changes, hoe optimaal worden textures geladen, hoe goed werken verschillende rendertargets... etc.
Daar kon bij nVidia kennelijk nog een hoop verbeterd worden. Lijkt me ook logisch, want ze zijn net pas begonnen met die drivers. ATi's drivers zijn al wat volwassener.

Dus nee, ik vind het helemaal niet vreemd dat de game-tests beter gaan, en de synthetische tests niet. Mensen die dit wel vinden, snappen kennelijk niet helemaal waar het om gaat... Jammer he, die review-sites?

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Nu online
Misschien kan Ati ook nog wel wat verbeteren. Ze hebben wel de superieure hardware, of wou je dat ook al ontkennen?

Ennu, jij kwam met die hardocp site hoor...

[ Voor 17% gewijzigd door Sjah op 14-02-2003 09:36 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ik kwam met hardocp.com omdat daar resultaten van GeForce FX vs Radeon 9700 Pro op staan. Zodat je kunt zien dat de GeForce FX wel degelijk de snelste is, en de benchmark dus niet pro-ATi kan zijn.
Wat hardocp verder schrijft, zal me worst wezen. Die lui weten niet waar ze over praten.

ATi kan vast ook nog wel wat aan de drivers verbeteren. Er is ook best een kans dat nVidia wat geknoeid heeft met de drivers (herinneren jullie quack3.exe nog? Misschien zo'n gevalletje :))...
Het is ook zeer waarschijnlijk dat nVidia 3dmark03 goed bestudeerd heeft om de drivers vooral daar op te optimaliseren...
Maar wie zegt dat ATi dat niet gedaan heeft? En wat dan nog? Zolang andere software er niet slechter van gaat draaien, is er niets aan de hand. Sterker nog, ik denk dat een hoop andere software ook profijt zal hebben van optimalisaties aan de hand van 3dmark.

Heeft ATi de superieure hardware? Ben ik het niet mee eens.
De GeForce FX is echt wel beter. Meer features (vooral als je PSM wilt toepassen heb je veel voordeel met een GeForce, ook met GF3/4 trouwens), hogere snelheid...
Maar dat mag ook wel, want hij is een stuk nieuwer en een stuk duurder.
ATi is wel veel aantrekkelijker, want het verschil in features is niet zo groot, en het verschil in snelheid is al helemaal nihil... maar de ATi's zijn wel veel goedkoper.
Het verschil is zo klein dat ik geen van beide 'superieur' zou willen noemen...
Hoewel... de AA/AF van ATi is wel superieur aan die van nVidia :)

Dus nee, ATi heeft niet de superieure hardware, en dat mag je ook niet eens verwachten van een kaart die een half jaar ouder is.
ATi gaat zeer binnenkort wel superieure hardware hebben, te weten de R350.

Verder gaat het hier helemaal niet om ATi vs nVidia, als je dat misschien dacht. Het gaat er juist om dat de kritiek van nVidia (en een hoop nVidia-aanhangers) nogal eens ongegrond is... Lees mijn eerdere posts hier maar eens na over de technische achtergronden bij de claims van nVidia.

[ Voor 5% gewijzigd door Verwijderd op 14-02-2003 09:50 ]


Acties:
  • 0 Henk 'm!

Verwijderd

hmmmmm..... lijkt erop dat er een heleboel mensen zijn hier die gewoon een specifieke kant kiezen (ATI of NVIDIA, ik zelf ook :) ) Maar het punt is wel dat nu gewoon naar boven komt dat NVIDIA een beetje is achter gebleven ten opzichte van ATI.. Mij maakt het verder niet uit welke Fabrikant er lijdt, zolang de videokaarten maar snel en goedkoop zijn.. Ik vind het gewoon oom jammer dat NVIDIA gewoon de DX9 functionaliteit niet goed ondersteund...

Acties:
  • 0 Henk 'm!

Verwijderd

Ik wilde nog even iets kwijt over de scores die gehaald worden met 03 en volgens mij is dit wel het goede topic ervoor.

Met 3DMark03 gaan er ongeveer 9000 punten vanaf (als je het vergelijkt met 2001).

Voorbeeld: ik heb een score van 1349 met mijn Aeolus Ti4200 in 03, ik tel er 9000 bij op en ik de score in 2001, dus 10349. Volgens mij klopt dit wel aardig want als je de scores bekijkt van mensen met een 9700 Pro, die hebben meestal een score van 4300. dus 9000 erbij is 13300. De hoogste score die ik zo'n beetje heb gezien was iemand met een pro met maarliefst bijna 5000 punten, 9000 erbij optellen en je hebt 14000 punten in 2001.

Je kan dus met deze formule natuurlijk (Duh!) ook terugrekenen. Mijn hoogste score die ik ooit heb gehaald in 2001 was 11600, 9000 eraf en ik heb 2600 punten in 03.

Wat ik denk is dat de puntentelling in 03 precies hetzelfde werkt als bij 2001 alleen is in 03 het referentiepunt drastisch gedaald.

Dus wat ik denk is dat ATI niet wordt voorgetrokken.

[ Voor 43% gewijzigd door Verwijderd op 14-02-2003 10:26 ]


Acties:
  • 0 Henk 'm!

  • MF
  • Registratie: April 2000
  • Laatst online: 14-09 17:28

MF

Take a Seat

Verwijderd schreef op 14 February 2003 @ 10:08:
Ik wilde nog even iets kwijt over de scores die gehaald worden met 03 en volgens mij is dit wel het goede topic ervoor.

Met 3DMark03 gaan er ongeveer 9000 punten vanaf (als je het vergelijkt met 2001).

Voorbeeld: ik heb een score van 1349 met mijn Aeolus Ti4200 in 03, ik tel er 9000 bij op en ik de score in 2001, dus 10349. Volgens mij klopt dit wel aardig want als je de scores bekijkt van mensen met een 9700 Pro, die hebben meestal een score van 4300. dus 9000 erbij is 13300. De hoogste score die ik zo'n beetje heb gezien was iemand met een pro met maarliefst bijna 5000 punten, 9000 erbij optellen en je hebt 14000 punten in 2001.

Je kan dus met deze formule natuurlijk (Duh!) ook terugrekenen. Mijn hoogste score die ik ooit heb gehaald in 2001 was 11600, 9000 eraf en ik heb 2600 punten in 03.

Wat ik denk is dat de puntentelling in 03 precies hetzelfde werkt als bij 2001 alleen is in 03 het referentiepunt drastisch gedaald.

Dus wat ik denk is dat ATI niet wordt voorgetrokken.
Tja, er waren toch echt kaarten die in 2001 de 20.000 doorbraken, die zouden dus volgens jou 11.000 punten hebben in 20003.....

Acties:
  • 0 Henk 'm!

Verwijderd

lol 20.000 heeft haast nog nooit iemand gehaald dat weet je zelf ook wel. Dat zijn uitzonderingen...

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Nu online
Verwijderd schreef op 14 February 2003 @ 09:45:
Ik kwam met hardocp.com omdat daar resultaten van GeForce FX vs Radeon 9700 Pro op staan. Zodat je kunt zien dat de GeForce FX wel degelijk de snelste is, en de benchmark dus niet pro-ATi kan zijn.
Wat hardocp verder schrijft, zal me worst wezen. Die lui weten niet waar ze over praten.
Jer moet wel heel sterk inje schoenen staan om dat te zeggen. Welke hardwaresites respecteer je wel? Ik vind Aces en Anand bijv. goed.
ATi kan vast ook nog wel wat aan de drivers verbeteren. Er is ook best een kans dat nVidia wat geknoeid heeft met de drivers (herinneren jullie quack3.exe nog? Misschien zo'n gevalletje :))...
Het is ook zeer waarschijnlijk dat nVidia 3dmark03 goed bestudeerd heeft om de drivers vooral daar op te optimaliseren...
Maar wie zegt dat ATi dat niet gedaan heeft? En wat dan nog? Zolang andere software er niet slechter van gaat draaien, is er niets aan de hand. Sterker nog, ik denk dat een hoop andere software ook profijt zal hebben van optimalisaties aan de hand van 3dmark.
Dat is Nvidia niet met je eens, er zal geen 1 game zijn die daar profijt van trekt, simpelweg omdat game anders opgebouwd zijn (of werken) dan 3dmark. Het kost alleen maar manuren aan engineers.
Heeft ATi de superieure hardware? Ben ik het niet mee eens.
De GeForce FX is echt wel beter. Meer features (vooral als je PSM wilt toepassen heb je veel voordeel met een GeForce, ook met GF3/4 trouwens), hogere snelheid...
Maar dat mag ook wel, want hij is een stuk nieuwer en een stuk duurder.
ATi is wel veel aantrekkelijker, want het verschil in features is niet zo groot, en het verschil in snelheid is al helemaal nihil... maar de ATi's zijn wel veel goedkoper.
Het verschil is zo klein dat ik geen van beide 'superieur' zou willen noemen...
Hoewel... de AA/AF van ATi is wel superieur aan die van nVidia :)
Nee superieur is idd wat te veel gezegd, zeker sinds nvidia nu die stuk betere driver heeft released. Maat Ati heeft betere bandwidth, betere laagste FPS in games. En die features die de Fx idd heeft zijn vlees nog vis, ze gaan verder dan dx9.0 vraagt, maar niet ver genoeg voor dx9.1. tIs mijn inziens de vraag of ze niet redelijk werkeloos op de kast zullen blijven liggen. Tenslotte is Ati stiller en goedkoper, dus vandaar dat 't mijn keus zou zijn (alhoewel ik lekker op de R400 wacht :) ).
nee, ATi heeft niet de superieure hardware, en dat mag je ook niet eens verwachten van een kaart die een half jaar ouder is.
ATi gaat zeer binnenkort wel superieure hardware hebben, te weten de R350.
Dat is idd zeker, alhoewel we nog niks weten van de actual features van de chipcore.
der gaat het hier helemaal niet om ATi vs nVidia, als je dat misschien dacht. Het gaat er juist om dat de kritiek van nVidia (en een hoop nVidia-aanhangers) nogal eens ongegrond is... Lees mijn eerdere posts hier maar eens na over de technische achtergronden bij de claims van nVidia.
Weetik, alhoewel ik blijf vinden dat Nvidia's argumenten wel enigszins hout snijden.

[ Voor 5% gewijzigd door Sjah op 14-02-2003 11:17 ]


Acties:
  • 0 Henk 'm!

  • killer1979
  • Registratie: November 2002
  • Laatst online: 14-07-2024
Het klopt zoiezo niet helemaal, dan zou ik met mijn gf2 ook 9222 punten moeten halen in 2001 (oke ik weet het hij 's niet helemaal directx 8.1 compatible) terwijl ik helemaal standaard 4950 punten haalde... Bovendien kun je met een GF2 TI behoorlijk wat games nog wel redelijk normaal spelen... Dus echt super representatief vind ik het niet

Het lijkt namelijk net alsof een GF2 een kaartje is vergelijkbaar met een TNT2 kaartje waar je niets meer mee kunt. Dus ik vind het maar een apart verhaal.

Daar komt bij dat mensen met een GF4 4600 maar weinig punten halen tov een 9700 Pro. Ik vind het allemaal erg tegenvallen als ik eerlijk ben... Ik vind het wel erg pro Ati als ik eerlijk ben

System Specs


Acties:
  • 0 Henk 'm!

Verwijderd

ik vind persoonlijk dat 03 erg saai is om naar te kijken, die demo bijvoorbeeld met die orcs die aan het rollenbollen zijn....die demo ziet er echt niet uit, die orcs zijn niet eens mooi afgewerkt en je hebt een fps van gemiddeld 7/15. Dat vind ik wel een vaag, net alsof er een prop in de uitlaat van je videokaart word gedaan, zo lelijke demo met zo'n lage fps. Dan kun je weer zeggen dat er bepaalde render technieken worden gebruikt..maar toch, ik vind het wel vreemd.

BTW, de 4600 haalde altijd een iets lagere score dan de pro. Ik ben eingenlijk altijd realistisch met ati en Nvidia, Ati heeft gewoon tot nu toe de beste/snelste kaart (en ja, ik zelf heb een Ti4200 :) )

[ Voor 20% gewijzigd door Verwijderd op 14-02-2003 11:15 ]


Acties:
  • 0 Henk 'm!

  • killer1979
  • Registratie: November 2002
  • Laatst online: 14-07-2024
Dat klopt maar de verschillen worden nu wel heel erg groot valt mij op...

System Specs


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Verwijderd schreef op 14 February 2003 @ 10:08:
Wat ik denk is dat de puntentelling in 03 precies hetzelfde werkt als bij 2001 alleen is in 03 het referentiepunt drastisch gedaald.

Dus wat ik denk is dat ATI niet wordt voorgetrokken.
Niet helemaal. Ik heb het even opgezocht en de berekening is ook aangepast.

GT1: DX7 = FPS x 7,3
GT2: DX8 = FPS x 37
GT3: DX8 = FPS x 47,1
GT4: DX9 = FPS x 38,7

GT4 telt maar 20% mee, en de overige drie tests vullen de andere 80%. GT4 in 3DMark2001 telde volgens mij nog minder mee.

Er gebeurt nu niets anders dan wat ook in 3DMark2001 gebeurde. Die test was voornamelijk DX7 met een vleugje DX8. 3DMark2003 is voornamelijk DX8.1 met een vleugje DX9. Maar om toch beter op de toekomst te zijn voorbereid is er meer gewicht gegeven aan DX9.

nVidia kaarten zijn nou eenmaal niet zo goed in DX8.1 (want het zijn in feite maar DX8.05-kaarten door het ontbreken van PS1.4 wat een vereiste is van DX8.1). Dus een lagere score is het gevolg.

Ook de CPU test is naar mijn mening goed doordacht. Een 9700Pro zal op een 1700+ bijna dezelfde score halen als op een 2700+. Maar de CPU score zal lager zijn op de 1700+, omdat-ie de data minder snel naar de VPU voert dan op een 2700+ (wat dus resulteert in een hogere score). Op deze manier is 3dMark2003 minder CPU afhankelijk en dus meer VPU afhankelijk. En dat is ook een reden waarom GF4Ti-kaartjes nu ineens een stukje minder presteren. 3dMark2001 werd door velen eigenlijk ook een CPU-test genoemd, de prestaties schaalden mee naar mate je een snellere processor had. En nu is dit gewoon voorkomen.

Toen 3DMark2001 uit kwam, hoorde je mensen zeggen dat de Nature test er zo mooi uit zag, maar dat je er toch niets aan had in games, omdat er geen games waren die er gebruik van maakten en dat 3DMark een vertekend beeld zou geven. Nou, die games zijn er nu. En er komen alleen maar meer games die steeds intensiever gebruik van Pixelshaders zullen maken. Nu zie je dat mensen hetzelfde doen, namelijk zeuren dat er toch nog geen DX9-games zijn dus dat 3DMark geen goed beeld schetst. Guess what? Over een tijdje zijn die games er wel, en dan is die test toch helemaal niet zo nutteloos als sommige mensen nu verklaren.

[ Voor 1% gewijzigd door CJ op 14-02-2003 12:52 . Reden: domme typvouten ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

Maar killer, als je die bereking van mij bij een paar scores uitvoerd klopt het volgens mij wel degelijk, want de pro had altijd een hoge score in 2001. En volgens mij speelt het gevoel ook een beetje mee, 1349 als score zier er een beetje gaar uit als er iemand met zo'n pro een score van 5000 haald.

CJ, ik denk dat je wel gelijk hebt, maar die orcs zien er toch niet uit? ze hebben gewoon stompjes... :)

[ Voor 54% gewijzigd door Verwijderd op 14-02-2003 11:26 ]


Acties:
  • 0 Henk 'm!

Verwijderd

killer1979 schreef op 14 februari 2003 @ 11:02:
Het klopt zoiezo niet helemaal, dan zou ik met mijn gf2 ook 9222 punten moeten halen in 2001 (oke ik weet het hij 's niet helemaal directx 8.1 compatible) terwijl ik helemaal standaard 4950 punten haalde... Bovendien kun je met een GF2 TI behoorlijk wat games nog wel redelijk normaal spelen... Dus echt super representatief vind ik het niet

Het lijkt namelijk net alsof een GF2 een kaartje is vergelijkbaar met een TNT2 kaartje waar je niets meer mee kunt. Dus ik vind het maar een apart verhaal.

Daar komt bij dat mensen met een GF4 4600 maar weinig punten halen tov een 9700 Pro. Ik vind het allemaal erg tegenvallen als ik eerlijk ben... Ik vind het wel erg pro Ati als ik eerlijk ben
maar niemand zegt ook dat als je 1500/2000 punten haalt in 3d mark03, dat je dan je spellen niet meer goed kan spelen, jongens kijk eens naar de ati 8500, die scoort ook niet meer dan 1500 punten, alleen de directx9 kaarten omdat die game 4 kunnen draaien, maar het is heus niet zo dat als je een lage score hebt dat je dan geen spel meer kunt draaien, een geforce 4 ti is heus wel een goeie kaart waar je nog makkelijk alle games op kunt spelen, daar gaat het niet om, en dat zegt ook niemand. :)


edit

oh ja cj, je legt het helemaal precies goed uit.

[ Voor 3% gewijzigd door Verwijderd op 14-02-2003 11:56 ]


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Dan nog even over de drivers. 3DMark2003 is nu natuurlijk heel erg afhankelijk van drivers omdat de CPU minder (tot niet) mee telt. Wat dat betreft heeft de 9700P nu natuurlijk een streepje voor op de FX. Maar ook op oudere kaarten wordt de voorsprong steeds groter.

Kijk naar nVidia. Die bracht ten tijde van de release van de 8500, de DetonatorXP uit die boosts brachten tot zo'n 30%. Daarmee haalde de GF3 de 8500, die toen geplaagd werd door slechte drivers, helemaal in. ATi doet nu hetzelfde, maar maakt daar niet zo'n ophef over.

Kijk bijvoorbeeld naar de laatste Cat. 3.1 drivers:
A performance improvement between 6 and 24% is noticed in Comanche4
A performance improvement of 10% is noticed in Max Payne
A performance improvement between 20 and 40% is noticed in UT2003 Flyby
A performance improvement between 30 and 40% is noticed in IL-2 Sturmovik when Aniso or Aniso and Anti-Aliasing is enabled at the display resolution of 1600x1200
A performance improvement between 17 and 24% is noticed in Jedi Knight II when Aniso or Aniso and Anti-Aliasign is enabled at the display resolution of 1600x1200
Boosts van 10% tot zelfs 40% in games doen aardig denken aan de Det. XP die nVidia destijds uitbracht toen ATi met de 8500 kwam. Deze Cat 3.1 betekent dus dat bv in UT2k3 Fly By de scores dus weer met 20 - 40% hoger zijn geworden dan die van een GF4Ti.

Als naar realworld gaming gekeken wordt, is de GF4Ti4600 in een enkel geval gelijkwaardig aan een 9700Pro, maar dit verschil wordt steeds groter naarmate er meer drivers voor de 9700Pro uit komen. De 9700Pro zal steeds verder weg trekken van de GF4Ti, en dat verschil zie je nu ook in 3DMark2003 en dat zal je later ook in nieuwere games zien. Ik hoor namelijk veel mensen zeggen dat realworld gaming beter is om naar te kijken dan een synthetic benchmark, maar ATi staat dus ook niet stil. Met elke driverupdate gaat de performance omhoog, terwijl de GF4Ti zo'n beetje aan z'n performance limiet zit.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

  • Haay
  • Registratie: Augustus 2001
  • Laatst online: 12-09 14:49
Trouwens, ik had ergens gelezen (kan de bron alleen niet meer terugvinden) dat bij de default benchmark in '03 anti-aliasing op 4x en aniso-filtering ook op 4x staat. Dat verklaart dan ook waarom Game Test 1 zelfs op een 9700 Pro en Ti4600 kaarten soms flink dropt in framerate in bepaalde drukke scenes.

Kan iemand met een Pro (betaalde) versie van '03 die bij de settings kan komen dit bevestigen?

Acties:
  • 0 Henk 'm!

Verwijderd

Jer moet wel heel sterk inje schoenen staan om dat te zeggen. Welke hardwaresites respecteer je wel? Ik vind Aces en Anand bijv. goed.
Geen enkele als het gaat om dit soort uitlatingen 3d graphics. Die mensen hebben er gewoon niet genoeg verstand van (zoals ik al eerder zei, ik zie dat soort mensen nog niet even een 3d engine maken met shaders/effecten etc).
Ik vind Anandtech de beste site, persoonlijk. Ze proberen altijd zo objectief mogelijk te zijn, en ze gaan dieper op de materie in dan de gemiddelde site (bv. de screenshots van AA/AF in de GF FX-review). Verder beschuldigen ze niet zomaar alles en iedereen van alles en nog wat. En als ze ergens niets vanaf weten, gaan ze er ook geen rare dingen over lopen schreeuwen.
Dat is Nvidia niet met je eens, er zal geen 1 game zijn die daar profijt van trekt, simpelweg omdat game anders opgebouwd zijn (of werken) dan 3dmark. Het kost alleen maar manuren aan engineers.
Dat claimt nVidia ja, maar ik heb al eerder hier aangetoond dat hun verhaal op meerdere plaatsen niet klopt, dus ik zou aan hun claims niet veel geloofwaardigheid hechten.
Weetik, alhoewel ik blijf vinden dat Nvidia's argumenten wel enigszins hout snijden.
Lees dan mijn eerdere posts hier nog maar eens na... Vooral het gezeur over ps1.3 is complete onzin. Dat roepen ze echt alleen maar omdat de grote massa er toch geen verstand van heeft, en dus makkelijk gelooft dat nVidia benadeeld is.
Als je het wel met nVidia eens bent, mag je dat wel even onderbouwen. Kun je de claims van nVidia aannemelijk maken voor mij?

Nog even over de scores: 3dmark2001 en 3dmark03 zijn niet vergelijkbaar... Dat een kaart goed presteert in 3dmark2001, hoeft helemaal geen garantie te zijn dat ie ook in 3dmark03 goed presteert. De tests van 3dmark03 zijn namelijk heel anders, veel geavanceerder vooral.
En als je ze niet met elkaar kunt vergelijken, maakt het dus ook niets uit dat je in de een 10000 punten haalt, en in de ander 2000. Dat heeft helemaal geen verband met elkaar. Net zoals 3dmark2000 en 3dmark2001. In 2001 scoorde je ook over het algemeen lager.
Is toch logisch? Nieuwere software is zwaarder. Bij Quake3 verwacht je toch ook geen hogere framerates dan bij Quake2? Of nog leuker voorbeeld: Doom3 tegen Doom2? :)
Dus alsjeblieft, kan iedereen hier ophouden met zeuren over 'lage' scores tov 3dmark2001 en dergelijke?
En ook stoppen met zeuren over GF4, want dat is geen DX9-kaart. Dus scoort ie in 1 van de tests 0 fps, en kan ie nooit vergeleken worden met DX9-kaarten die daar WEL een redelijke framerate scoren.
En als je dan wilt zeggen "Ja maar dan is 3dmark03 niet eerlijk, dan hadden ze die DX9-test eruit moeten laten", dan wil ik je even verwijzen naar 3dmark2001, die geen DX9-tests heeft, en waar de GF4 het prima doet. Iedereen blij nu? *zucht*

Acties:
  • 0 Henk 'm!

Verwijderd

Bor_de_Wollef schreef op:
[...]


Dat kan absoluut niet met dat systeem.
Kijk dan eens hier:
http://service.futuremark.com/compare?2k1=5779580

Acties:
  • 0 Henk 'm!

  • T7D_Sneezy
  • Registratie: Juni 2002
  • Laatst online: 12-09 20:36
Bokkepootje schreef op:
lol 20.000 heeft haast nog nooit iemand gehaald dat weet je zelf ook wel. Dat zijn uitzonderingen...
die mensen die in 2001 over de 20.000 heen gingen zoals APversteeg, die hebben nu nog maar 6400 ofzo, dus die -9000 theorie klopt niet

Acties:
  • 0 Henk 'm!

Verwijderd

heeft iemand die alpha versie van doomIII al eens gedraaid? dat ziet er ongeveer net zo uit als test 2 en 3 alleen mooier en het draait bij mij ook nog es soepel en de score die bij mij uit m'n systeem komt rollen is echt diep triest 1369 (zie specs) tegen 13xxx in 2001se
en wat iemand ook zei over het verschil tussen 3dmark99max en 2000 en 2001 is in verhouding idd nog nooit zo groot geweest,
en idd 3dmark2001se was gewoon leuk om naar te kijken deze is een stuk minder

Acties:
  • 0 Henk 'm!

  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 20:47
NVIDIA's statement:

3DMark03 has combined some pretty artwork into a set of four nice demo scenes. But, these scenes are so distant from real game applications that 3DMark03 just doesn't make it as a benchmark. Lacking any similarity to actual games, it misrepresents the gaming experience, and doesn't arm the consumer with the right information to make a purchase decision. It also forces hardware vendors to waste valuable engineering resources focusing on artificially fabricated cases that will never benefit real games. In the end, the consumer loses.


conclusie Tom's hardware:

NVIDIA's sudden change of mind is baffling - up till now, 3D Mark was always a well regarded test among the manufacturers, including NVIDIA. Perhaps NVIDIA feared a dwindling influence on the development of 3DMark.
Ultimately, it all boils down to the fact that developers need to use special code for different chips in order to ensure good performance on all possible platforms. This explains the attention that NVIDIA devoted to developers. Is the main reason for NVIDIA's criticism at 3D Mark 2003 due to Futuremark's refusal to use optimized code? In this case, NVIDIA is right in saying that 3D Mark is unrealistic - for one thing, because it was developed without NVIDIA's input, and for another thing, because it's difficult to imagine that actual "neutral" code would be useful for performance evaluation.


lijkt er dus ook op dat NVIDIA een beetje pissed op Futuremark is omdat er geen nvidia geoptimaliseerde code is gebruikt en Nvidia niet de invloed op de benchmark heeft kunnen uitoefenen die ze hadden willen...
ooit Ati horen zeuren over het feit dat 3dmark2001 meer nvidia geoptimaliseerd was? ik niet...

hoe dan ook 3dmark03 heeft wel voor een heerlijke soap gezorgd! :+

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


Acties:
  • 0 Henk 'm!

  • T.T.
  • Registratie: April 2000
  • Laatst online: 15-07 15:34

T.T.

Sowieso

Verwijderd schreef op 14 February 2003 @ 13:22:
En als je dan wilt zeggen "Ja maar dan is 3dmark03 niet eerlijk, dan hadden ze die DX9-test eruit moeten laten", dan wil ik je even verwijzen naar 3dmark2001, die geen DX9-tests heeft, en waar de GF4 het prima doet. Iedereen blij nu? *zucht*
Je hebt helemaal gelijk op alle punten, helaas zijn er veel nvidia-fanboys die niet meer helder kunnen nadenken nu ze scores onder de 5K halen ;)

Acties:
  • 0 Henk 'm!

Verwijderd

ooit Ati horen zeuren over het feit dat 3dmark2001 meer nvidia geoptimaliseerd was? ik niet...
3dmark2001 was dan ook niet voor 'nVidia geoptimaliseerd' (beweerden mensen trouwens niet het omgekeerde, omdat ATi kaarten in 3dmark2001 relatief goed presteerden in vergelijking tot de meeste spellen?), en 3dmark03 is ook niet voor 'ATi geoptimaliseerd'.
Dat de een beter presteert dan de ander, betekent niets meer of minder dan dat de hardware de functies in 3dmark sneller kan uitvoeren.
Het verhaal is eerder andersom... De meeste software is voor nVidia geoptimaliseerd (vooral OpenGL, in Direct3D ligt het wat moeilijker om voor een specifieke architectuur te optimaliseren), en 3dmark juist niet. Die proberen neutraal te zijn (vandaar dat dus ook beiden partner waren van FutureMark, tot voor kort).
3dmark03 is geoptimaliseerd voor DX9-hardware, en dan gaat het voornamelijk om vs2.0 en ps2.0 uiteraard. En die zijn door ATi nou eenmaal beter geimplementeerd dan door nVidia. nVidia wilde liever de kant van OpenGL op, en met hun extensies kun je in OpenGL meer performance halen (de standaard ARB2-extensies zijn trouwens TRAGER dan die van ATi, wederom... Zie ook .plan van John Carmack). Dat is hun keuze, maar dan niet zeuren dat DX9 niet goed draait.
Misschien dat er een paar kleine veranderingen gemaakt zouden kunnen worden, waardoor het op een FX beter loopt... maar ik denk dat dat voor R300 ook geldt. Waarschijnlijk hebben ze voor de gulden middenweg gekozen, en worden beide kaarten nergens echt bevoordeeld, en nergens echt benadeeld (wat bij spellen vaak wel anders is).

Verder vind ik de claim dat "neutrale" code niet bruikbaar is, nogal onzin. Bij CPUs is het vaak andersom, dan vinden ze het niet goed als je SSE2 in een benchmark gebruikt, omdat niet alle CPUs dat hebben, bijvoorbeeld. Wat is het nou?
DX9-code is per definitie al heel erg neutraal, omdat er op een laag level is vastgelegd hoe de hardware en de software samen moeten werken. En er is dus weinig speelruimte voor specifieke optimalisaties.
Dus dat je dan ook behoorlijk neutrale code krijgt, is eigenlijk niet meer dan logisch. En die code is heel nuttig, want dan kun je goed zien hoe efficient de implementatie is, of niet?
Als neutrale code al niet goed werkt op een chip, dan is die hele chip waarschijnlijk niet interessant. Zo gek veel beter zal het niet zijn met optimalisaties.

Nogmaals, met OpenGL is het verhaal anders... Daar heb je proprietary extensies waarmee je op een laag niveau direct de specifieke hardware aan kunt spreken, en dan kun je die optimaal gebruiken. Dus dan kun je ook heel duidelijk voor een bepaalde chip optimaliseren. Met DX9 kan dit niet, dus is het hele verhaal anders.

Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Nu online
Verwijderd schreef op 14 February 2003 @ 13:22:


Lees dan mijn eerdere posts hier nog maar eens na... Vooral het gezeur over ps1.3 is complete onzin. Dat roepen ze echt alleen maar omdat de grote massa er toch geen verstand van heeft, en dus makkelijk gelooft dat nVidia benadeeld is.
Als je het wel met nVidia eens bent, mag je dat wel even onderbouwen. Kun je de claims van nVidia aannemelijk maken voor mij?
Nou nee, ik kan hooguit mijn mening geven. Als ik jouw argumenten lees vind ik op het kritieke punt van je argumentering aannames, meer niet. Je zegt bijv. dat binnen no-time de meeste games ps 1.4 en dx 9 zullen gebruiken. Waar staat dat geschreven? Complete onzin als je 't mij vraagt. Ik denk dat over 1.5 jaar oid het pas ingang zal gaan vinden. En om dan te zeggen dat over 'n jaar de GF4 het absolute minimum is, bennik ook niet van overtuigd.
Nvidia heeft gewoon gelijk dat alle games ps 1.1 en 1.3 gebruiken, als ze al ps gebruiken he. Dankzij de ps 1.4 in alle gametest wordt de GF4 compleet afgeserveerd, waanzin. Ook je verhaal dat in de nabije toekomst shadowing via vertex shaders zal gebeuren is niet meer dan een aanname.
Kijk, 3dmark 2001 was een dx7 benchmark met wat dx8 erin. 3dmark 03 is een dx9 bench, terwijl het een dx8 met een scheut dx9 erin had moeten zijn. Is 't nu niet.

Acties:
  • 0 Henk 'm!

  • nare man
  • Registratie: Juli 2000
  • Laatst online: 26-07-2020
Wie wil er in 's hemelsnaam terug naar de tijd waarin spellen maar op één chip goed draaiden? Volgens mij was het rete-irritant, dat in de tijd van de TNT1 alles alleen maar geoptimaliseerd was voor 3Dfx.

Hardware wordt nooit voor software geschreven, maar software wordt altijd voor hardware geschreven. Als 80% van de gamers een GF4Ti in z'n systeem heeft hangen, dan gaat de gamesindustrie echt niet ineens alles optimaliseren voor de R300. Dan zouden ze zichzelf in de vingers snijden. Real-world-performance is altijd een afweging tussen de verschillende chips op de markt, de gebruikte API en de tijd die men in het developen van een spel wil stoppen. Optimaliseren voor één chip is er niet meer bij.

After all, you can't see a figure's panties unless it's the real thing.


Acties:
  • 0 Henk 'm!

  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 20:47
Sjah schreef op 14 February 2003 @ 15:05:
[...]


Kijk, 3dmark 2001 was een dx7 benchmark met wat dx8 erin. 3dmark 03 is een dx9 bench, terwijl het een dx8 met een scheut dx9 erin had moeten zijn. Is 't nu niet.
ja! dat is het ook wel maar dan een dx8.1 bench met een scheut dx9 erin...
en dus met ps 1.4 ondersteuning, waardoor chips die dat ondersteunen een aantal dingen in 1 pass kunnen renderen ipv 2 passes, wat ook het verschil in polycount verklaard...

misschien als 3dmark2001 ook ps 1.4 had ondersteund waren de radeons ook daar nog weer sneller in. was dan 3dmark2001 ineens ook niet meer representatief???

[ Voor 26% gewijzigd door Puppetmaster op 14-02-2003 15:18 ]

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Nu online
Idd. Je kan dan niet meer goed vergelijken, omdat 70% van de verkochte kaarten ps 1.4 niet aan boord heeft. Over dat feit mag niet zomaar heen gestapt worden.

Acties:
  • 0 Henk 'm!

Verwijderd

Sjah schreef op 14 februari 2003 @ 15:05:
[...]


Nou nee, ik kan hooguit mijn mening geven. Als ik jouw argumenten lees vind ik op het kritieke punt van je argumentering aannames, meer niet. Je zegt bijv. dat binnen no-time de meeste games ps 1.4 en dx 9 zullen gebruiken. Waar staat dat geschreven? Complete onzin als je 't mij vraagt. Ik denk dat over 1.5 jaar oid het pas ingang zal gaan vinden. En om dan te zeggen dat over 'n jaar de GF4 het absolute minimum is, bennik ook niet van overtuigd.
Nvidia heeft gewoon gelijk dat alle games ps 1.1 en 1.3 gebruiken, als ze al ps gebruiken he. Dankzij de ps 1.4 in alle gametest wordt de GF4 compleet afgeserveerd, waanzin. Ook je verhaal dat in de nabije toekomst shadowing via vertex shaders zal gebeuren is niet meer dan een aanname.
Kijk, 3dmark 2001 was een dx7 benchmark met wat dx8 erin. 3dmark 03 is een dx9 bench, terwijl het een dx8 met een scheut dx9 erin had moeten zijn. Is 't nu niet.
zeg dat niet te snel, het gaat sneller in de game industrie dan je denkt, ik denk zelf persoonlijk dat er eerder games met dx 9 uitkomen dan wij allemaal denken.

edit

trouwens er zijn er al een paar.
o.a. gun-metal is ook nog van nvidia zelf. :P

DX9: 'Occlusion Query' for optimised rendering and realistic flare effects
DX9: Use of 128bit floating point buffers, enabling use of high contrast colour and overflows (such as retina bleach)

[ Voor 14% gewijzigd door Verwijderd op 14-02-2003 15:34 ]


Acties:
  • 0 Henk 'm!

  • Sjah
  • Registratie: Juli 2000
  • Nu online
Verwijderd schreef op 14 februari 2003 @ 15:24:
[...]


zeg dat niet te snel, het gaat sneller in de game industrie dan je denkt, ik denk zelf persoonlijk dat er eerder games met dx 9 uitkomen dan wij allemaal denken.
Ik zou dat alleen maar toejuichen :)

Acties:
  • 0 Henk 'm!

Verwijderd

Sjah schreef op 14 februari 2003 @ 15:38:
[...]


Ik zou dat alleen maar toejuichen :)
nee oke, dan zijn we het daarover eens. ;)

Acties:
  • 0 Henk 'm!

Verwijderd

Nog even over die journalisten...
Zie extremetech.com (http://www.extremetech.com/article2/0,3973,888060,00.asp)
Dat zou een professionele review-site moeten zijn...

Ik noem even een paar dingen...
Ze beginnen al met:
However, the benchmark has arrived shrouded in controversy, owing to its heavy use of DirectX Pixel Shaders (PS) 1.4, a pixel shader revision supported only by ATI in its DX8/DX9 GPUs since the Radeon 8500.
Mensen die ook maar iets weten van Direct3D, weten dat ten eerste ps1.4 een DX8.1-feature is, en dat de R8500 een DX8.1-GPU is, en niet zo maar DX8. En verder weten die mensen ook dat DirectX per definitie backwards-compatible is. Kortom, als je ps2.0 ondersteunt, dan eist de standaard dat je alle lagere shaders, waaronder dus ps1.4, ook ondersteunt. De GeForce FX ondersteunt dan dus ook ps1.4, en is het dus NIET alleen ATi die die shaders ondersteunt.
The airplane models are quad-textured, and lit using "anisotropic lighting", according to FutureMark's white paper.
Niet dus, lees de whitepaper er maar op na. Er worden cubemaps gebruikt voor belichting, nergens wordt over anisotropic lighting gesproken.
The test also makes heavy use of the MAX FX's particle engine
Nee, want 3dmark03 maakt geen gebruik meer van MAX FX.
Hair physics modeling is done using the Havok physics engine and takes into account gravity, hair stiffness, and hair curl.
NEE, buiten het feit dat Havok uberhaupt niet zo geschikt is voor het animeren van bossen haar, staat er duidelijk in de whitepaper dat er gebruik wordt gemaakt van een CUSTOM physics engine.
The reduction would seem to indicate that 3DM2K3 is able to do exactly half as many rendering passes using PS 1.4, compared to the number necessary using PS 1.1. This is considerable, and obviously favors ATI
ATi, en alle andere fabrikanten die ps1.4 in hardware hebben... Waaronder dus nVidia, met GeForce FX.
Clouds cast shadows on the ground below, and this effect is done using PS 1.4 (if available)
Hoezo 'if available'? Als je ps2.0 hebt, heb je per definitie ps1.4. En als je ps2.0 niet hebt, werkt de hele test niet. Dus er wordt ALTIJD gebruik gemaakt van ps1.4.
whether to process PS 1.4 pixel shader code using PS 1.4 (via PS 2.0), or to fall back to doing more rendering passes using PS 1.1.
Volgens mij is dat uberhaupt niet mogelijk, denk bijvoorbeeld aan alphablending. Dat kun je niet in 2 passes doen als het in 1 pass moet met ps1.4.

Dit geeft dus maar even aan dat het allemaal wat te hoog gegrepen is voor de journalisten tegenwoordig...
Hun conclusies zijn trouwens wel interessant... Uit hun tests blijkt bijvoorbeeld dat de shadowvolumes helemaal niet zo vertexshader-limited zijn als nVidia wil doen geloven. Bij het verhogen van de resolutie, daalt de performance aanzienlijk. Een duidelijk teken dat ook de fillrate een groot aandeel heeft in de test.
This benchmark does overemphasize PS 1.4, and this probably wasn't the best way to go for all three tests.
Het is een DX9-benchmark, geen DX8, want die hadden we al.
Alle DX9-hardware zal ps1.4 ondersteunen, dus in dat licht is het helemaal niet vreemd dat ps1.4 gebruikt wordt. Het probleem is gewoon dat nVidia het al op de GF4 had moeten implementeren, maar dit dus niet gedaan heeft. En daarom zijn er veel meer ps1.4-kaarten van ATi in omloop (R8500/9100, R9000, R9500, R9700) dan van nVidia (alleen GeForce FX).
Jammer maar helaas voor nVidia.
It seems like FutureMark might want to consider doing a point-release to de-emphasize the PS 1.4 code paths, and add more PS 2.0 workloads
Dit is complete onzin? ps1.4 vervangen door ps2.0? Waarom zou je dat doen? Meer dan ps1.4 hebben die tests niet nodig, en als je ps2.0 hebt, heb je per definitie ook ps1.4, dus dit maakt in de praktijk niets uit.

Zo, nu heb ik in ieder geval onderbouwd waarom ik geen hoge pet op heb van de meeste review-sites... Iets voor jullie om over na te denken? :)

Acties:
  • 0 Henk 'm!

Verwijderd

Je zegt bijv. dat binnen no-time de meeste games ps 1.4 en dx 9 zullen gebruiken. Waar staat dat geschreven? Complete onzin als je 't mij vraagt. Ik denk dat over 1.5 jaar oid het pas ingang zal gaan vinden. En om dan te zeggen dat over 'n jaar de GF4 het absolute minimum is, bennik ook niet van overtuigd.
Doom3 komt dit jaar uit, en maakt al gebruik van 'ps1.4' en hoger (de OpenGL-varianten ervan welteverstaan). Er zijn zat andere spellen in ontwikkeling die dit ook doen, en die binnen het jaar gaan uitkomen Bovendien zei ik niet 'binnen een jaar', maar 'met een jaar of wat'... Anderhalf jaar, twee? Iets in die geest. Wat je zelf ook zei, dus je bent het wel met me eens, maar je interpreteerde me verkeerd.
Ook je verhaal dat in de nabije toekomst shadowing via vertex shaders zal gebeuren is niet meer dan een aanname.
Als ik puur naar mezelf kijk is het een feit. Ik ga vertexshaders gebruiken voor shadowvolume extrusion. En ik ken een hoop coders die dat ook doen. Geen aanname hoor.
Kijk, 3dmark 2001 was een dx7 benchmark met wat dx8 erin. 3dmark 03 is een dx9 bench, terwijl het een dx8 met een scheut dx9 erin had moeten zijn. Is 't nu niet.
Wat is het verschil dan? In 3dmark2001 scoorden DX7-kaarten ook belachelijk veel lager dan DX8-kaarten, terwijl ze in de games uit die tijd soms nog sneller waren (denk aan GF2Ultra). Ik zou 3dmark2001 dus ook een DX8-benchmark noemen, zo is ie ook bedoeld. En 3dmark03 is bedoeld als een DX9-benchmark (DX6, 7 en 8 benchmarks hebben ze immers al lang).

Acties:
  • 0 Henk 'm!

  • Puppetmaster
  • Registratie: December 2001
  • Laatst online: 20:47
Sjah schreef op 14 februari 2003 @ 15:24:
Idd. Je kan dan niet meer goed vergelijken, omdat 70% van de verkochte kaarten ps 1.4 niet aan boord heeft. Over dat feit mag niet zomaar heen gestapt worden.
nee, en daarom noemt futuremark het ook een dx9 benchmark...
En ik denk dat zelfs wel meer dan 70% van de verkochte kaarten niet dx9 compliant is!

en dat ps 1.4 probleem bestaat dus niet voor dx9 kaarten zoals Idletoad al de hele tijd probeert uit te leggen, en DAAROM is het ook best een aardige dx9 benchmark (waarom ps 2.0 gebruiken als het ook met 1.4 kan?), en DAAROM (onder andere) doen dx9 kaarten het gewoon veel beter...
ATI heeft meer dx9 kaarten op de markt, en daarom lijkt ATI het nu een heel stuk beter te doen dan Nvidia...

wacht maar rustig tot Nvidia de markt overspoeld met dx9 kaarten en dat hele gezeur over ps 1.4 en 3dmark2003 is wel of niet representatief als een dx9 benchmark is voorbij!

It seems that males are allowed to exist after all, because they help females get rid of deleterious mutations...


Acties:
  • 0 Henk 'm!

  • CJ
  • Registratie: Augustus 2000
  • Niet online

CJ

(overleden)
Sjah schreef op 14 February 2003 @ 15:05:
[...]
Dankzij de ps 1.4 in alle gametest wordt de GF4 compleet afgeserveerd, waanzin. Ook je verhaal dat in de nabije toekomst shadowing via vertex shaders zal gebeuren is niet meer dan een aanname.
Het is helemaal niet oneerlijk. Als nVidia zich aan de DX-afspraken hadden gehouden, dan was er nu helemaal geen gezeik van mensen die zitten te zeuren dat het niet eerlijk is. Dan ondersteunde de GeForce4 ook PS1.4, maar nee.... nVidia zei dat het onnodig was, want wat je met PS1.4 kan, dat kunnen de GF4-kaarten ook wel met PS1.1 - PS1.3. Dat waren nVidia's eigen woorden.

Het is niet de schuld van FutureMark dat GeForce4 kaarten zich niet aan de DX8.1 standaard houden door geen PS1.4 te integreren. |:( FutureMark volgt alleen de laatste DX-trend.
Kijk, 3dmark 2001 was een dx7 benchmark met wat dx8 erin. 3dmark 03 is een dx9 bench, terwijl het een dx8 met een scheut dx9 erin had moeten zijn. Is 't nu niet.
Ohw... wacht even. Even een oude quote er bij pakken van mezelf:

---------
Berekening eindscore
GT1: DX7 = FPS x 7,3
GT2: DX8 = FPS x 37
GT3: DX8 = FPS x 47,1
GT4: DX9 = FPS x 38,7

GT4 telt maar 20% mee, en de overige drie tests vullen de andere 80%.
----------

U zei? Dit is toch echt een DX8 test met een scheutje DX9. :+
Sjah schreef op 14 February 2003 @ 15:24:
Idd. Je kan dan niet meer goed vergelijken, omdat 70% van de verkochte kaarten ps 1.4 niet aan boord heeft. Over dat feit mag niet zomaar heen gestapt worden.
Waarom nou zo'n ophef over PS1.4?? :?

De Radeon8500 heeft duidelijk geen voordeel dat hij het wel kan. En de Radeon9700Pro is maar 500 punten langzamer als het gebruik maakt van PS1.1 in plaats van PS1.4. Je kan het nu zelfs testen met de nieuwste versie van Rage3DTweaker.

Een eindscore komt dan bij mij nog altijd uit op 4000 punten ipv 4500 punten. En dat is nog altijd RUIM meer dan een GF4Ti4600 scoort op een gelijksoortig systeem. :7 Dus wat dat betreft gaat het hele verhaaltje van 'het is niet eerlijk' helemaal niet op, want bij gelijke stand is de 9700Pro nog altijd sneller dan een GF4Ti. Dat komt gewoon doordat de R300-core beter om kan gaan met DX8 en meer brute kracht heeft.

[ Voor 1% gewijzigd door CJ op 14-02-2003 18:17 . Reden: domme typvouten ]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Acties:
  • 0 Henk 'm!

Verwijderd

CJ schreef op 14 February 2003 @ 17:52:
[...]


Waarom nou zo'n ophef over PS1.4?? :?

De Radeon8500 heeft duidelijk geen voordeel dat hij het wel kan. En de Radeon9700Pro is maar 500 punten langzamer als het gebruik maakt van PS1.1 in plaats van PS1.4. Je kan het nu zelfs testen met de nieuwste versie van Rage3DTweaker.

Een eindscore komt dan bij mij nog altijd uit komen op 4000 punten ipv 4500 punten. En dat is nog altijd RUIM meer dan een GF4Ti4600 scoort op een gelijksoortig systeem. :7 Dus wat dat betreft gaat het hele verhaaltje van 'het is niet eerlijk' helemaal niet op, want bij gelijke stand is de 9700Pro nog altijd sneller dan een GF4Ti. Dat komt gewoon doordat de R300-core beter om kan gaan met DX8 en meer brute kracht heeft.
je hebt helemaal gelijk, ik heb het ook even getest met de nieuwste rage3D tweaker, en ik kwam ook op 4003 uit. :)

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op 14 February 2003 @ 18:11:
[...]


je hebt helemaal gelijk, ik heb het ook even getest met de nieuwste rage3D tweaker, en ik kwam ook op 4003 uit. :)
Test eens op 1.1 en met game 4 uit :P (dan nog steeds, heb je zo'n 3200 punten denk ik, maar beter vergelijkbaar met geforce 4-serie ;))

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op 14 February 2003 @ 18:27:
[...]


Test eens op 1.1 en met game 4 uit :P (dan nog steeds, heb je zo'n 3200 punten denk ik, maar beter vergelijkbaar met geforce 4-serie ;))
hoe doe je die game 4 uit, dat lukt mij maar niet, dat wou ik ook ff proberen, maar ik krijg hem niet uit.

edit

ik denk als je een geregistreerde hebt, dat het dan wil.

[ Voor 10% gewijzigd door Verwijderd op 14-02-2003 18:31 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Dus wat dat betreft gaat het hele verhaaltje van 'het is niet eerlijk' helemaal niet op, want bij gelijke stand is de 9700Pro nog altijd sneller dan een GF4Ti. Dat komt gewoon doordat de R300-core beter om kan gaan met DX8 en meer brute kracht heeft.
Dit is niet helemaal waar.
De GF4Ti is niet DX9-compliant, en kan game test 4 niet draaien, en scoort daar dus altijd 0 fps. Je kunt de kaarten simpelweg niet vergelijken, want de GF4 is een generatie ouder.
Je kunt de 3dmark03-score niet letterlijk vertalen naar "hij is trager". Probeer maar eens een R9700Pro te testen zonder game 4. Dan is het vergelijkbaar...
Maar goed, dat is allemaal nutteloos, want dan kun je net zo goed 3dmark2001 gebruiken.
3dmark03 is gewoon niet relevant voor hardware van vorige generaties, gebruik het alleen om DX9-kaarten te vergelijken, en hou op met zeuren. En ja, in 3dmark2001 is die R9700Pro ook wel sneller dan de GF4, zonder ps1.4/2.0 etc.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op 14 februari 2003 @ 18:29:
[...]


hoe doe je die game 4 uit, dat lukt mij maar niet, dat wou ik ook ff proberen, maar ik krijg hem niet uit.
sorry mijn fout...

Iets anders, check de resultaten van game4 en vermenigvuldig die met 38x (toch :?)...haal daarna dit getal van je 3dmarkscore af en je weet, wat je zou halen, als je game4 uit zou hebben staan.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op 14 February 2003 @ 18:32:
[...]


sorry mijn fout...

Iets anders, check de resultaten van game4 en vermenigvuldig die met 38x (toch :?)...haal daarna dit getal van je 3dmarkscore af en je weet, wat je zou halen, als je game4 uit zou hebben staan.
maakt niet uit, dat kon je ook niet zo snel weten. :)

en ik heb bij mother nature 30 fps, en mijn eindscore was deze keer 4008, moet ik dan die 30 daar van aftrekken, ja sorry voor mijn domheid, maar rekenen is niet mijn sterkste kant. :)

Acties:
  • 0 Henk 'm!

Verwijderd

T7D_Sneezy schreef op 14 February 2003 @ 13:40:
[...]


die mensen die in 2001 over de 20.000 heen gingen zoals APversteeg, die hebben nu nog maar 6400 ofzo, dus die -9000 theorie klopt niet
dat klopt, ik haalde in 2001 zon 13000 marks met mn pc, en nu maar 1500

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op 14 February 2003 @ 18:44:
[...]


maakt niet uit, dat kon je ook niet zo snel weten. :)

en ik heb bij mother nature 30 fps, en mijn eindscore was deze keer 4008, moet ik dan die 30 daar van aftrekken, ja sorry voor mijn domheid, maar rekenen is niet mijn sterkste kant. :)
4008 - (38x30) = 2868...

2868 is de score zonder game 4 :)

p.s.
Ik zou het wel op prijs stellen, als een radeon9500pro bezitter hier zijn 'detail-scores' met eindresultaat (met pixelshader 1.4 uit) neer zet :P. (btw ik heb zelf 1892 met een ti-4200)

[ Voor 19% gewijzigd door Verwijderd op 14-02-2003 19:03 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Nog even een nieuwsbericht van T.net:

Tom's Hardware over 3DMark03
De mannen van Tom's Hardware hebben een artikel online gezet waarin wordt ingegaan op de betrouwbaarheid van de nieuwe 3DMark03 benchmark. Nog geen dag na de release kwam nVidia, voorheen nauw betrokken bij de ontwikkeling, met stevige kritiek op de benchmark. Het probleem ligt onder andere in het gebruik van de in de praktijk weinig gebruikte pixelshaders 1.4 waardoor kaarten die deze functionaliteit niet ondersteunen het moeten doen met inefficiënte versie 1.1 pixelshaders.

Initieel dachten de meeste mensen dat nVidia bang was dat de GeForce FX niet de Radeon 9700 Pro kon bijhouden, maar dat blijkt niet het geval te zijn. De nieuwe 42.68 Detonator drivers blijken bijna 50 procent sneller te zijn dan zijn voorgangers in 3DMark03 waardoor de GeForce FX ongeveer 500 punten hoger scoort dan de Radeon 9700 Pro. Waardoor nVidia van standpunt is veranderd wat betreft 3DMark zal gissen blijven, maar het zal duidelijk zijn dat de resultaten van 3DMark03 met een korreltje zout genomen moeten worden:
NVIDIA's sudden change of mind is baffling - up till now, 3D Mark was always a well regarded test among the manufacturers, including NVIDIA. What initially looked like an attempt to hide the FX's weaker test performance cannot be confirmed with the appearance of the new driver. Perhaps NVIDIA feared a dwindling influence on the development of 3DMark. Especially with the new "The way it's meant to be Played" program, NVIDIA tries to increase its influence on game developers.

Of course, gamers with NVIDIA cards benefit from NVIDIA's involvement, as they get better graphics and performance in real games. Owners of non-NVIDIA cards might have something else to say though. At the NVIDIA Developer Forum, it became clear the Pixel Shader (2.0) code doesn't run equally well on all hardware. Ultimately, it all boils down to the fact that developers need to use special code for different chips in order to ensure good performance on all possible platforms. This explains the attention that NVIDIA devoted to developers. Is the main reason for NVIDIA's criticism at 3D Mark 2003 due to Futuremark's refusal to use optimized code? In this case, NVIDIA is right in saying that 3D Mark is unrealistic - for one thing, because it was developed without NVIDIA's input, and for another thing, because it's difficult to imagine that actual "neutral" code would be useful for performance evaluation.

Acties:
  • 0 Henk 'm!

Verwijderd

trouwens ik test net weer op 1.4, heb ik een score van 4621, maar die mother-nature die heeft nu onder 1.4, 32 fps, dat scheelt dus weinig met 1.1 daar had ik 30 fps.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Nu haat ik NVidia echt:
NVIDIA's sudden change of mind is baffling - up till now, 3D Mark was always a well regarded test among the manufacturers, including NVIDIA. What initially looked like an attempt to hide the FX's weaker test performance cannot be confirmed with the appearance of the new driver. Perhaps NVIDIA feared a dwindling influence on the development of 3DMark. Especially with the new "The way it's meant to be Played" program, NVIDIA tries to increase its influence on game developers.

Of course, gamers with NVIDIA cards benefit from NVIDIA's involvement, as they get better graphics and performance in real games. Owners of non-NVIDIA cards might have something else to say though. At the NVIDIA Developer Forum, it became clear the Pixel Shader (2.0) code doesn't run equally well on all hardware. Ultimately, it all boils down to the fact that developers need to use special code for different chips in order to ensure good performance on all possible platforms. This explains the attention that NVIDIA devoted to developers. Is the main reason for NVIDIA's criticism at 3D Mark 2003 due to Futuremark's refusal to use optimized code? In this case, NVIDIA is right in saying that 3D Mark is unrealistic - for one thing, because it was developed without NVIDIA's input, and for another thing, because it's difficult to imagine that actual "neutral" code would be useful for performance evaluation.
intens troll alert, je iets anders uitdrukken volgende keer graag.
de strekking was : ik vind nVidia niet liev :*

[ Voor 10% gewijzigd door Verwijderd op 15-02-2003 13:20 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op 14 February 2003 @ 19:05:
Nu haat ik NVidia echt:


[...]


[lang verhaal]
Er staat alleen, dat ze niet tevreden zijn, omdat de software niet is geoptimaliseerd :?

[ Voor 22% gewijzigd door Verwijderd op 15-02-2003 13:21 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op 14 February 2003 @ 19:05:
Nu haat ik NVidia echt:


[...]
zei ik het niet een paar post terug, nou is het wel weer goed, dat bedoel ik nou, zit het nvidia tegen, dan is het iedereen zijn schuld, behalve nvidia, zit het mee, dan steunen ze het ineens weer. zo zie je maar weer.

[ Voor 19% gewijzigd door Verwijderd op 15-02-2003 13:21 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op 14 February 2003 @ 19:05:
Nu haat ik NVidia echt:


[...]
Wat ik ook erg zwak vond van Nvidia was dat ze afspraken hadden met sommige game developers, en dan zag je bij een demo de tekst "nvidia, the way its meant to be played".

[ Voor 22% gewijzigd door Verwijderd op 15-02-2003 13:22 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op 14 February 2003 @ 19:11:
[...]


Wat ik ook erg zwak vond van Nvidia was dat ze afspraken hadden met sommige game developers, en dan zag je bij een demo de tekst "nvidia, the way its meant to be played".
Bij ut2003 ook, maar kopop, waar zie je tegenwoordig geen reclame meer?

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op 14 February 2003 @ 19:13:
[...]


Bij ut2003 ook, maar kopop, waar zie je tegenwoordig geen reclame meer?
ja oke reclame, maar nvidia die speelde het wel mooi zo dat in het begin hij eerst niet deed op een radeon, pas naar een patch kon je pas fatsoenlijk spelen, he that's the way het is ja, volgens nvidia, nee masera heeft gelijk dat was een k*tstreek.
Pagina: 1 2 3 Laatste