Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
nVidia heeft geen been om op te staan, ze zijn busted en daar moeten ze nu maar voor boeten.CJ schreef op 24 mei 2003 @ 01:58:
Reactie nVidia:
[...]
http://news.com.com/2100-1046_3-1009574.html?tag=fd_top
Pfff... alsof dit smoesje het goed praat dat er gecheat wordt.
Hun vorige drivers werkten toch correct met 3Dmark03 ? Dan weten ze toch hoe ze te maken ? Dan kunnen ze die reactie niet als uitvlucht gebruiken.
[ Voor 18% gewijzigd door PeGys op 24-05-2003 02:11 ]
Een beetje verlies heb je altijd...
Ja en NeeVerwijderd schreef op 24 mei 2003 @ 01:23:
[...]
Het is wel degelijk te vergelijken. Die drivers renderen Quake3 anders dan ze horen te doen, en ze doen dat ook alleen bij Quake3. Opzettelijk.
Ja, want ze cheaten.
Nee, want het draait WEL! sneller in Quake.
Met de Nvidia-fix draait alleen de Benchmark "schijnbaar" sneller, met je spellen merk je er geen moer van.
Dus dit is wel degelijk een verschil.
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Verwijderd
Wat zou nVidia daarover te zeggen hebben? "We don't know what they we did, but it looks like they we have intentionally tried to create a scenario that makes our products look bad", wellicht?
[ Voor 8% gewijzigd door Verwijderd op 24-05-2003 02:25 ]
Verwijderd
Het draait sneller omdat de beeldkwaliteit lager is. Dat is bagger. Da's hetzelfde dat een driver je 320x240 geeft als je 1024x768 wilt. Sneller .. maar niet wat je wilt dat het is.Madrox schreef op 24 May 2003 @ 02:22:
[...]
Ja en Nee
Ja, want ze cheaten.
Nee, want het draait WEL! sneller in Quake.
Met de Nvidia-fix draait alleen de Benchmark "schijnbaar" sneller, met je spellen merk je er geen moer van.
Dus dit is wel degelijk een verschil.
Het is dus wel degelijk hetzelfde.
Ze hebben geprobeerd om ATI achter zich te laten, maar hun plan is aan het licht gekomen.
Een beetje verlies heb je altijd...
Hier een leuk en duidelijk verhaaltje omtrend de Quake/Quack affaire met de Radeon8500.Verwijderd schreef op 24 May 2003 @ 02:32:
[...]
Het draait sneller omdat de beeldkwaliteit lager is. Dat is bagger. Da's hetzelfde dat een driver je 320x240 geeft als je 1024x768 wilt. Sneller .. maar niet wat je wilt dat het is.
Het is dus wel degelijk hetzelfde.
http://www.geocities.com/radtruth/p1.htm
Korte samenvatting. Heeft ATi gecheat in Quake3? Ja en nee.
Ja, maar niet in heel Quake 3. Het gaat hier om 5 textures in de gehele game waar de kwaliteit naar beneden werd gehaald om sneller te worden.
Nee, omdat de rest (dus alle overige textures) van de game er wel goed uit ziet.
Edit:
Reactie van ATi op de 1.9% performance winst, die er toe heeft geleid dat mensen beginnen te zeggen dat ATi 'net zo erg cheat als nVidia':
Een stuk netter dan nVidia's reactie.The 1.9% performance gain comes from optimization of the two DX9 shaders (water and sky) in Game Test 4 . We render the scene exactly as intended by Futuremark, in full-precision floating point. Our shaders are mathematically and functionally identical to Futuremark's and there are no visual artifacts; we simply shuffle instructions to take advantage of our architecture. These are exactly the sort of optimizations that work in games to improve frame rates without reducing image quality and as such, are a realistic approach to a benchmark intended to measure in-game performance. However, we recognize that these can be used by some people to call into question the legitimacy of benchmark results, and so we are removing them from our driver as soon as is physically possible. We expect them to be gone by the next release of CATALYST.
[ Voor 42% gewijzigd door CJ op 24-05-2003 02:45 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
ech nietVerwijderd schreef op 24 May 2003 @ 02:32:
[...]
Het draait sneller omdat de beeldkwaliteit lager is. Dat is bagger. Da's hetzelfde dat een driver je 320x240 geeft als je 1024x768 wilt. Sneller .. maar niet wat je wilt dat het is.
Het is dus wel degelijk hetzelfde.
Nogmaals, Ati truuk werkt in 3Dmark maar ook in je spel. Nvidia's truuk werkt alleen maar in 3Dmark. Da's nog erger....
en wat nog erger is, is dat Nvidia dit doet terwijl ze uit het 3Dmark gebeuren zijn gestapt. De huilebalken
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Zij zijn het die bij Futuremark zijn weggegaan, niet Futuremark die nVidia eruit heeft gegooid.
Een beetje verlies heb je altijd...
As expected no one was going to be quiet for long on the Futuremark audit report released earlier today. After much discussion and emailing, we were able to get some official reaction from both Nvidia and ATI in regard to the Futuremark audit report.
Nvidia released the following statement to us -
"Since NVIDIA is not part in the FutureMark beta program (a program which costs of hundreds of thousands of dollars to participate in) we do not get a chance to work with Futuremark on writing the shaders like we would with a real applications developer. We don't know what they did but it looks like they have intentionally tried to create a scenario that makes our products look bad. This is obvious since our relative performance on games like Unreal Tournament 2003 and Doom3 shows that The GeForce FX 5900 is by far the fastest graphics on the market today."
From this statement it is clear to us that are calling into question the entire validity of synthetic benchmarking. While we would agree that in most cases real world applications are in many ways a better mode of comparison between products, the drivers are optimized for performance with specific applications. Some believe that Futuremark has an ax to grind with Nvidia, but at least in their statement, this does not appear to be the case.
It is clear that we would agree that certainly Unreal Tournament 2003 is a good example, we would still have to say that it is too early to be totally sure about Doom3 as this not yet a released product. Certainly, you can draw some conclusions as to the performance potential of products on the Doom3 engine, it will only be after Doom3 is closer to release that the full performance story can be told. Again, we are forced to ask the question, Do these driver optimizations effect gameplay or image quality? It would seem only if they do, will these optimizations be called into question.
ATI also came under fire in the Futuremark audit report as well, and they responded by issuing the following statement to us -
"The 1.9% performance gain comes from optimization of the two DX9 shaders (water and sky) in Game Test 4 . We render the scene exactly as intended by Futuremark, in full-precision floating point. Our shaders are mathematically and functionally identical to Futuremark's and there are no visual artifacts; we simply shuffle instructions to take advantage of our architecture. These are exactly the sort of optimizations that work in games to improve frame rates without reducing image quality and as such, are a realistic approach to a benchmark intended to measure in-game performance. However, we recognize that these can be used by some people to call into question the legitimacy of benchmark results, and so we are removing them from our driver as soon as is physically possible. We expect them to be gone by the next release of CATALYST."
Well, it seems that ATI is making the correct move to address the issue, by removing the code from the drivers that gives the appearance of an advantage. It would seem on the surface that ATI's situation is a bit different from that of Nvidia's. While they can label it as an optimization, it is clear over the next several weeks both companies will have to start being more specific about the difference between an optimization and what is now being commonly referred to as a "cheat".
One additional thing that has become clear. Depending on which sources you listen to, Nvidia while still participating in the Futuremark Beta program had access to the last code drop before the final code was released for 3DMark03. Several sources have seemed to indicate that the differences between the last code that Nvidia has access to and the final build where very minimal.
What does this mean in the big scope of things? Many questions remain, but as long as reviewers as well as OEMs continue to use 3DMark03 as one of the standard tests that is used to judge the performance of hardware, these issues are going to continued to get heated. Right now, Lars and Tom are hard at work evaluating the situation and hope to provide a more in depth report shortly. While we all have our early opinions of the situation, it is clear that you, the readers want us to properly research and look at all sides of the issue before giving you our in depth opinion, on what can now only be called a mess. This is what we are going to do.
In the mean time, we will be monitoring our THG Community forums for your comments about the 3DMark03 situation, to get your perspective, input, and feelings about the situation. Drop into the graphics section of our forums and feel free to leave us some feedback, we are listening.
Voorlopige conclusie: Nvidia's verhaal is slap, Ati's verhaal is verhelderend.
hier is iig het laatste woord nog niet over gezegd
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Het is wel opvallend dat de klagende en cheatende partij (nVidia) zo'n beetje de enigste videochipfabrikant is die niet in het 3DMark Beta Programma zit, verder zitten ATi, Matrox, S3, SiS, Trident er allemaal in. En die hoor je niet klagen, want die volgen gewoon braaf de regeltjes.PeGys schreef op 24 May 2003 @ 03:01:
Eerst stappen ze het op bij Futuremark, dan maken ze driver om te cheaten en dan geven ze de schuld aan Futuremark omdat nVidia niet naar hun instructies kan programmeren.
Zij zijn het die bij Futuremark zijn weggegaan, niet Futuremark die nVidia eruit heeft gegooid.
[ Voor 7% gewijzigd door CJ op 24-05-2003 03:23 ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
O nee, wacht. Ze waren het dus niet eens met de gebruikte benches. Aha, dachten ze toen...laten we futuremark eens ff een poets bakken. We gaan es ff lekker de boel verzieken....jaaa...dat klinkt al veel aannemelijker, nietdan ?
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Ik begin meer en meer het gevoel te krijgen dat nVidia het niet aan kan dat ze van de eerste plaats worden geschoven en door zo'n manieren zijn positie probeert te behouden wat enkel tot problemen kan uitdraaien. Wat momenteel dus duidelijk gebeurd is.
ATI geeft toe dat er een kleine optimisation kan zijn in de drivers maar die is minimaal, daar scoor je geen +1000 punten extra mee in 3Dmark03 maar enkel een paar puntjes.
Maar zij gaan ze dan ook meteen verwijderen.
nVidia voelt zich enorm aangevallen wat al bewijst dat ze iets op hun kerfstok hebben. Als hun drivers wel degelijk in orde waren zouden ze niet op zo'n onbeschofte manier reageren en de schuld niet op Futuremark steken.
Een beetje verlies heb je altijd...
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Inderdaad, ik ben benieuwd hoe nVidia hieruit gaat komen. Want dat is nu niet echt het soort reklame dat een groot merk graag heeft.Madrox schreef op 24 May 2003 @ 03:40:
En Ati geeft ook aan dat het ECHTE optimalisaties zijn, dus heel goed bruikbaar in games. Da's wel ff wat anders dan die bit-map soep van Nvidia
Dit zal nog wel een paar dagen/weken blijven duren eer het volledig opgelost is maar het incident wordt niet vergeten.
Een beetje verlies heb je altijd...
Verwijderd
als ik nvidia was zou ik t ook doen... er zijn miljoenen nerdjes die zitten te trekken bij een score van boven de 5000 en oogkleppen ophebben voor hoe videokaarten in gewone games werken... die kopen echt geen Nvidia meer, deels ten onrechte.
wat doe je dan om je hoofd boven water te houden in barre tijden? yep... een beetje ellebogenwerk hier en daar... niks mis mee.
btw. ik ben geen nvidia aanhanger, ik heb een 9700 pro
Hoe ze dat doen maakt echt geen drol uit. Ik denk dat er wel vaker van die 'optimalisaties' in de drivers zaten van zowel ATI als Nvidia, alleen dat die niet zijn opgemerkt.
Nvidia heeft gewoon slecht gegokt door zo'n optimalisatie in de drivers te stoppen imo.
tvw
Wel, dan doe je wat ATI vroeger heeft gedaan bij de grote opkomst van nVidia, je houd je een paar jaar stil, werkt aan een volledig nieuw product dat de anderen overtreft, en dan sla je toe en veeg je de anderen weg.Verwijderd schreef op 24 May 2003 @ 03:48:
ohohoh wat zijn we weer anti Nvidia...
als ik nvidia was zou ik t ook doen... er zijn miljoenen nerdjes die zitten te trekken bij een score van boven de 5000 en oogkleppen ophebben voor hoe videokaarten in gewone games werken... die kopen echt geen Nvidia meer, deels ten onrechte.
wat doe je dan om je hoofd boven water te houden in barre tijden? yep... een beetje ellebogenwerk hier en daar... niks mis mee.
btw. ik ben geen nvidia aanhanger, ik heb een 9700 pro
Hoe denk je dat ATI zo groots is geworden op die korte tijd ?
Een beetje verlies heb je altijd...
hehe, ik hou wel van een gezond schandaaltje.
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Optimalisaties, ok, maar zo'n cheat zoals nVidia geflikt heeft dat kan niet vindt ik, dat is puur de mensen afzetten. Een product aanbieden dat in benches hoog scoort maar als eindresultaat in games bedroevend is. Dat is veel geld pakken en weinig in de plaats geven.ShotGun schreef op 24 May 2003 @ 03:49:
Ach ik vind Nvidia en ATI, Matrox whatever allemaal één pot nat. Ze willen allemaal zoveel mogelijk $$$. En hoe krijgen ze dat? -Door beter te scoren in de benches.
Hoe ze dat doen maakt echt geen drol uit. Ik denk dat er wel vaker van die 'optimalisaties' in de drivers zaten van zowel ATI als Nvidia, alleen dat die niet zijn opgemerkt.
Nvidia heeft gewoon slecht gegokt door zo'n optimalisatie in de drivers te stoppen imo.
Een beetje verlies heb je altijd...
Matrox ???? kom es onder die steen vandaanShotGun schreef op 24 May 2003 @ 03:49:
Ach ik vind Nvidia en ATI, Matrox whatever allemaal één pot nat. Ze willen allemaal zoveel mogelijk $$$. En hoe krijgen ze dat? -Door beter te scoren in de benches.
Hoe ze dat doen maakt echt geen drol uit. Ik denk dat er wel vaker van die 'optimalisaties' in de drivers zaten van zowel ATI als Nvidia, alleen dat die niet zijn opgemerkt.
Nvidia heeft gewoon slecht gegokt door zo'n optimalisatie in de drivers te stoppen imo.
Als Matrox echt zulke ambitieuse geldwolven waren, waren ze allang geen familiebedrijf meer.....
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Verwijderd
een paar jaar stil? denk je dat een bedrijf als nvidia zich het kan veroorloven zich een paar jaar stil te houden? dan zijn ze al 3x faillietPeGys schreef op 24 May 2003 @ 03:50:
[...]
Wel, dan doe je wat ATI vroeger heeft gedaan bij de grote opkomst van nVidia, je houd je een paar jaar stil, werkt aan een volledig nieuw product dat de anderen overtreft, en dan sla je toe en veeg je de anderen weg.
Hoe denk je dat ATI zo groots is geworden op die korte tijd ?

Wat me ook wel opvalt is dat de 5800 Ultra of iets in die aard een tijd geleden voor de release bij reviewers ook als "krachtiger dan Radeon 9700 PRO" werd omschreven maar uiteindelijk toch een pak minder krachtig is.
[ Voor 3% gewijzigd door PeGys op 24-05-2003 03:59 ]
Een beetje verlies heb je altijd...
ATI Technologies’ New VPU to Overshadow NVIDIA GeForce FX 5900 This Fall
by Anton Shilov
05/22/2003 | 02:14 PM
David Orton, the president and COO of ATI Technologies, yesterday shed some light on the company’s intentions both in short term and long term future. Representative of Markham, Ontario-based graphics and multimedia chips design house said that his company continues to consider consumer-electronics market as a very prospective one.
Mr. Orton said that ATI’s sales will be boosted by devices like PDAs, mobile phones, STBs and digital TVs this [calendar?] year, thus, expect more products for handhelds from ATI since currently the company’s portfolio of such devices only consists of a very few chips. Additionally, ATI wants to capture larger share in the market of integrated chipsets. Orton agrees with his rivals from NVIDIA Corporation and also tells us that this year is going to be successful for graphics processors.
What you really want to know now is when ATI Technologies will beat its arch-rival again in the high-end graphics market. David Orton told on Wednesday that the company will launch its new highest-end graphics chip this Fall. According to Orton, it will overshadow NVIDIA GeForce FX Ultra Ultra that was announced earlier this month.
To tell you the truth, I do now know what does ATI Technologies’ COO and President mean by “new highest-end chip”. Is that R360 that we told you about some time ago (see this news-story), or is that the highly-acclaimed R400? We will need to find everything out, but at this point I doubt this will be R400 given that it is not yet taped out and we should not expect it earlier than in November with real sales starting in December or even January.
Orton also said that his company did not feel substantial impact from SARS outbreak, but weak USD causes some losses currently.
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Dat nVidia KAN cheaten in zo'n stomme benchn zegt meer over Futuremark dan nVidia, het is namelijk aan de bench om te controleren of alles correct gaat, net zoals een game developper moet controleren of gamers in MP niet vals spelen
Kijk, optimalisaties zijn in mijn ogen wat anders dan cheats/hacks. En ATi geeft zelf al aan: "we simply shuffle instructions to take advantage of our architecture".PeGys schreef op 24 May 2003 @ 03:30:
ATI geeft toe dat er een kleine optimisation kan zijn in de drivers maar die is minimaal, daar scoor je geen +1000 punten extra mee in 3Dmark03 maar enkel een paar puntjes.
Maar zij gaan ze dan ook meteen verwijderen.
Dat is dus wat anders dan dingen weg laten, want "These are exactly the sort of optimizations that work in games to improve frame rates without reducing image quality and as such, are a realistic approach to a benchmark intended to measure in-game performance."
Maar ATi haalt het nu voor de zekerheid weg om gezeik in de toekomst te voorkomen. En als nVidia dat zou doen, dan zou de performance helemaal in kakken.
[ Voor 2% gewijzigd door CJ op 24-05-2003 10:30 . Reden: effe wat bold gemaakt ]
Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.
ik persoonlijk niet.. en als je iets moet vergelijken dan is het fps en beeldkwaliteit in games die je ook werkelijk speelt.. wat moet je dan met zo'n domme benchmark?
en ja ik heb een GF4 , en ja ik geef ook toe dat met AA de radeon mooier is.
maar wat ik mij vooral herinner van ati (m7 op mijn laptop bv) is dat ik altijd of speciale drivers of patches nodig had voor games.. nu zal dat tegenwoordig wel beter zijn, maar ut2003 , BF1942 , ut hadden allemaal fixes/patches /.ini tweaks nodig om fatsoelijk te draaien op de ati.. hier heb ik bij nvidia nooit last van gehad.
daarom is het ook een kwalijke zaak dat ze hun energie in het cheaten van een benchmark steken ipv het optimaliseren (ook kwalitatief .. niet alleen snelheid.. 100fps of 120fps .. who gives a f*ck!) van hun drivers..
Verwijderd
Het probleem is juist dat deze cheats net zo gemakkelijk in games te gebruiken zijn als in 3dmark. De kans is vrij groot dat in andere standaard benchmarks ook "discutabele" dingen gebeuren, die (nog) niet ontdekt zijn. Cheats zijn in games moeilijker te detecteren, waar nog bij komt dat de developers van games helemaal geen tijd/zin/geld hebben om te kijken of er gecheat wordt in benchmarks voor hun games (ik raad je voor verdere info aan die .pdf eens te lezen).Nocturno schreef op 24 mei 2003 @ 11:36:
Het is allemaal leuk en aardig, maar wie SPEELT er 3dmark2003 ??
ik persoonlijk niet.. en als je iets moet vergelijken dan is het fps en beeldkwaliteit in games die je ook werkelijk speelt.. wat moet je dan met zo'n domme benchmark?
en ja ik heb een GF4 , en ja ik geef ook toe dat met AA de radeon mooier is.
Het feit dat bij 3dmark 2k3 wel cheats worden ontdekt is juist een pluspunt voor 3dmark, omdat dat de enige benchmark is tot nu toe waarvan we weten dat er nu dus goed onderzoek is gedaan naar het bestaan van cheats. Dit maakt 3dmark alleen maar belangrijker als benchmark.
Nu moet je wel ff verder denken. Op het moment dat die games ontwikkeld werder was nVidia de meest voorkomende grafische producent en werden die games daarvoor dan ook geroptimaliseerd. Maar deze games waren niet geoptimaliseerd voor de redelijk nieuwe Radeon grafische kaarten waardoor je inderdaad patches nodig hebt.Nocturno schreef op 24 May 2003 @ 11:36:
Het is allemaal leuk en aardig, maar wie SPEELT er 3dmark2003 ??
ik persoonlijk niet.. en als je iets moet vergelijken dan is het fps en beeldkwaliteit in games die je ook werkelijk speelt.. wat moet je dan met zo'n domme benchmark?
en ja ik heb een GF4 , en ja ik geef ook toe dat met AA de radeon mooier is.
maar wat ik mij vooral herinner van ati (m7 op mijn laptop bv) is dat ik altijd of speciale drivers of patches nodig had voor games.. nu zal dat tegenwoordig wel beter zijn, maar ut2003 , BF1942 , ut hadden allemaal fixes/patches /.ini tweaks nodig om fatsoelijk te draaien op de ati.. hier heb ik bij nvidia nooit last van gehad.
daarom is het ook een kwalijke zaak dat ze hun energie in het cheaten van een benchmark steken ipv het optimaliseren (ook kwalitatief .. niet alleen snelheid.. 100fps of 120fps .. who gives a f*ck!) van hun drivers..
Kijk maar eens naar Windows. Al die games zijn ontworpen voor windows 98/me/2k en als je ze probeert te spelen op Windows XP moet je ook een patch downloaden om hem daarin te draaien (die patches zitten meestal reeds in service packs).
Een beetje verlies heb je altijd...
Verwijderd
Als tweakers zo langzaam is kom je hier toch gewoon niet meerPeGys schreef op 24 May 2003 @ 13:16:
Nuja, komt tweakers.net een dagje later af met het bericht dat ondertussen heel de wereld al weet.
On-topic:
Niet netjes van nVidia, maar dat was het van Ati ook niet. Verder een storm in een glas water imo. Ik koop sowieso geen grafische kaart op basis van 3Dmark scores.
Over schandalen gesproken:
Wie luistert er tegenwoordig nou nog naar TomEn hier Tom's verhaal over dit debacle
Verwijderd
Ja, maar het is niets meer dan dat, een synthetishe benchmark. Zelf heb ik nooit en zal ik nooit een aankoop beslissing op een benchmark baseren maar doe ik dat alleen op dingen als prestatie in games, prijs an beschikbaarhaid op het moment dat ik een nieuwe video-kaart nodig heb.Verwijderd schreef op 24 May 2003 @ 12:27:
[...]
Het feit dat bij 3dmark 2k3 wel cheats worden ontdekt is juist een pluspunt voor 3dmark, omdat dat de enige benchmark is tot nu toe waarvan we weten dat er nu dus goed onderzoek is gedaan naar het bestaan van cheats. Dit maakt 3dmark alleen maar belangrijker als benchmark.
Waar ik op het moment echt op zit te wachten zijn head-to-head benchies van de ATI 9600pro vs. de Nvidia Geforce 5600 ultra in Half-life 2 an DooM III. Totdantoe ga ik geen beslissing nemen over een eventuele nieuwe aankoop. Als ik al iets nieuws bove mijn Ti4200 koop.
Het enige dat ik belangenrijk vind is dat vorig jaar op de E3 DooM III en dit jaar HL 2 beide op een ATI kaart werden getoond. Een sterke aanwijzing dat dit merk op dit moment gewoon de betere is. En daar heb ik geen stompzinnig benchmark programma voor nodig
Nee natuurlijk niet en ik heb m ook nietNocturno schreef op 24 mei 2003 @ 11:59:
ik neem aan dat je je aankopen niet alleen op 3dmark2003 baseert ..
lolz, inderdaad, goeie vergelijking.Mark Lor schreef op 24 mei 2003 @ 14:01:
[...]
Nee natuurlijk niet en ik heb m ook nietmaar het is toch bedrog als jij een auto koopt en er staat topsnelheid 220 km per uur dan verwacht je toch ook niet dat je daarvoor een stijle berg af moet rijden
Een beetje verlies heb je altijd...
Verwijderd
Ja dan ligt het ook niet aan de valsspelers neem ik aan? FutureMark gooit zijn eigen glazen in als ze nVidia uitsluiten of benadelen, ze moeten objectief zijn, dus zo stom zullen ze niet zijn. nVidia probeerd FutureMark gewoon in een slecht daglicht te plaatsen en iedereen die nog een GF4 heeft (net zoals ik), met erg lage scores, lullen lekker mee.catfish schreef op 24 mei 2003 @ 10:09:
Dat nVidia KAN cheaten in zo'n stomme benchn zegt meer over Futuremark dan nVidia, het is namelijk aan de bench om te controleren of alles correct gaat, net zoals een game developper moet controleren of gamers in MP niet vals spelen.
Verwijderd
Ik ben het met je eens dat games beter zijn als benchmark dan synthetische benchmarks. De grote vraag is in welke mate we de games-benchmarks nog kunnen vetrouwen nu blijkt dat cheaten zo makkelijk is en ook daadwerkelijk wordt gedaan. Pas nadat er goed onderzoek is gedaan denk ik dat je pas weer waarde kan gaan hechten aan de huidige games benchmarks.Verwijderd schreef op 24 mei 2003 @ 13:59:
[...]
Waar ik op het moment echt op zit te wachten zijn head-to-head benchies van de ATI 9600pro vs. de Nvidia Geforce 5600 ultra in Half-life 2 an DooM III. Totdantoe ga ik geen beslissing nemen over een eventuele nieuwe aankoop. Als ik al iets nieuws bove mijn Ti4200 koop.
Het enige dat ik belangenrijk vind is dat vorig jaar op de E3 DooM III en dit jaar HL 2 beide op een ATI kaart werden getoond. Een sterke aanwijzing dat dit merk op dit moment gewoon de betere is. En daar heb ik geen stompzinnig benchmark programma voor nodig
Doom III zou ik momenteel overigens weinig waarde aan hechten: het is een beta versie, NVIDIA heeft dankzij samenwerking met ID een voorspring in het ontwikkelen van drivers voor Doom III en NVIDIA heeft ook de systemen geleverd waarop Doom III zjin gebenched (wat in de huidige situatie natuurlijk helemaal verdacht is). Halflife2 verkeert ook nog in beta fase en ATI heeft veel meer mogelijkheden gehad om zijn drivers voor halflife2 aan te passen dan NVIDIA (ATI werkt nauw samen met Valve op dit vlak).
Ik zou geen vertrouwen hebben in benchmarks van beide games tot de daadwerkelijke release versies uit zijn samengaand met goed onderzoek naar het aanwezig zijn van potentiele cheats in de drivers voor de betreffende games.
Zoals CJ al zei, het lijkt of de FX series speciale aansturing nodig hebbent en dan laat ik het gecheat even buiten beschouwing
Ik heb meer dx9 tests gedaan met een FX5800, en daar komt hij ronduit beroerd uit de test, zelfs de R9700 scoort veel beter in plain dx9 shaders zie Digit Life.
[ Voor 4% gewijzigd door edward2 op 25-05-2003 01:20 ]
Niet op voorraad.
Updates en optimalisaties zijn het werkterrein van de softwareontwikkelaars, eventueel in samenwerking met ATI/Nvidia of wie dan ook..
Of eventueel een optie dat je 3dmark2003 met en zonder speciale optimalisaties kan draaien zodat daar duidelijkheid in is.
[ Voor 21% gewijzigd door procyon op 25-05-2003 11:36 ]
Niet op voorraad.
Nvidia gebruikt een soort "mixed mode" techniek, dus het is nogal lastig voor mij als leek om het uit te leggen. Hee, zelfs de die-hards programmeurs hebben er 4 kantjes A4 voor nodig
Lees alleen maar eens John Carmack's (Doom3) *.plan updates.
Als je na het lezen daarvan nog niet duizelig word ....
Het grootste probleem is in mijn ogen nog geeneens dat hier gecheat word. Het ligt dieper.
sim-pel gezegt komt het er op neer dat er onvoldoende uniformiteit is, er zijn teveel varianten die ook nog es allemaal programeerbaar zijn. En als dat nog niet genoeg is heeft elke fabrikant zijn eigen code om die variabelen te programmeren. Kortom; de chaos is compleet. Dit kan nooit in ons voordeel zijn, zie alleen al de stroom patches en driver-updates waar maar geen einde aan lijkt te komen; integendeel zou ik haast zeggen.
Daarom word het hoog tijd dat de heren eens de koppen bij elkaar steken en de specificaties voor een toekomstige standaard vastleggen; en dan natuurlijk wel! met strakke regels en vereisten, anders schiet het niet op. Zeg maar een standaard 3D -API waar elk spel mee overweg kan, waarop de fabrikant naar believen 3D-functies bouwt die niet de standaard-API in de weg zit. ICM met een goed developments-pakket voor software-ontwikkelaars moet dit dan gaan leiden tot stabiele spellen waar elke 3D-kaart (certified) mee overweg kan.
Zo kan iedere Noob met een onbezorgd hart zijn favoriete spelletje spelen en de tweakers de laatste 3D-features beproeven. Net zoiets als een tijd geleden gebeurde, met de VESA-standaard. Want toen was de 2D ook al een jungle waar je niet vrolijk van werd.
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
wat ze doen met 3Dmark, kunnen ze met elke Fly-by, Demo whatever. Pure oplichting dus.
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Verwijderd
Wel jammer dat de hardware specifieke pipeline optimalisaties in de driver gaan verdwijnen, daar heb je in games etc tenminste ook echt wat aan en lijkt mij ook het feitelijke doel van een driver (naast de normale OS/DX/GL-aansturing).we simply shuffle instructions to take advantage of our architecture. [..] However [...] we are removing them from our driver as soon as is physically possible.
Lees nu ook interressant voer; De meeste DOOM 3 reviews schijnen niet helemaal te kloppen. Er loopt een heftige discussie bij www.beyond3d.com (forum) tussen een reviewer (lars van THG) en een paar code-crushers. Lars heeft het moelijk
Ook Hardocp en Anandtech krijgen ervan langs.....
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Verwijderd
Uhh jaProcyon for life schreef op 25 May 2003 @ 11:21:
Optimalisaties hier en daar is in mijn ogen allemaal fout, ik wil de ruwe performance zien van de nieuwste GPU's.. (in benchmarks) Niets meer en niets minder!
Updates en optimalisaties zijn het werkterrein van de softwareontwikkelaars, eventueel in samenwerking met ATI/Nvidia of wie dan ook..
Of eventueel een optie dat je 3dmark2003 met en zonder speciale optimalisaties kan draaien zodat daar duidelijkheid in is.
Maar dan heb je het dus over D3D en niet DirectX op zich, of geprerenderde spullen alts UT2003 en Doom 3 enz.
Dan moet je het hele texel gedoe en de AGP versnellingen enzo uitzetten en realtime 3D gaan renderen met een programma als CPUMM van RightMark dat direct de plaatjes rendert.
Ik weet dat ze tegelijkertijd aan 16 en 32 bits precisie kunnen doen, ik probeer ik altijd het forum van beyond3d te begrijpenMadrox schreef op 26 May 2003 @ 03:46:
Ja en nee![]()
Nvidia gebruikt een soort "mixed mode" techniek, dus het is nogal lastig voor mij als leek om het uit te leggen. Hee, zelfs de die-hards programmeurs hebben er 4 kantjes A4 voor nodig
Lees alleen maar eens John Carmack's (Doom3) *.plan updates.
Als je na het lezen daarvan nog niet duizelig word ....
Het grootste probleem is in mijn ogen nog geeneens dat hier gecheat word. Het ligt dieper.
sim-pel gezegt komt het er op neer dat er onvoldoende uniformiteit is, er zijn teveel varianten die ook nog es allemaal programeerbaar zijn. En als dat nog niet genoeg is heeft elke fabrikant zijn eigen code om die variabelen te programmeren. Kortom; de chaos is compleet. Dit kan nooit in ons voordeel zijn, zie alleen al de stroom patches en driver-updates waar maar geen einde aan lijkt te komen; integendeel zou ik haast zeggen.
Daarom word het hoog tijd dat de heren eens de koppen bij elkaar steken en de specificaties voor een toekomstige standaard vastleggen; en dan natuurlijk wel! met strakke regels en vereisten, anders schiet het niet op. Zeg maar een standaard 3D -API waar elk spel mee overweg kan, waarop de fabrikant naar believen 3D-functies bouwt die niet de standaard-API in de weg zit. ICM met een goed developments-pakket voor software-ontwikkelaars moet dit dan gaan leiden tot stabiele spellen waar elke 3D-kaart (certified) mee overweg kan.
Zo kan iedere Noob met een onbezorgd hart zijn favoriete spelletje spelen en de tweakers de laatste 3D-features beproeven. Net zoiets als een tijd geleden gebeurde, met de VESA-standaard. Want toen was de 2D ook al een jungle waar je niet vrolijk van werd.
Dan hebben we nog fx12

Niet op voorraad.
Ik zag toch echt duidelijk dat ik het over benchmarks heb, andere 3d programma's mogen natuurlijk wel geoptimaliseerd worden.Verwijderd schreef op 26 mei 2003 @ 09:52:
[...]
Maar dan heb je het dus over D3D en niet DirectX op zich, of geprerenderde spullen alts UT2003 en Doom 3 enz.
Dan moet je het hele texel gedoe en de AGP versnellingen enzo uitzetten en realtime 3D gaan renderen met een programma als CPUMM van RightMark dat direct de plaatjes rendert.
en da's alleen nog maar het technische verhaal. Probleems is dat juist hierdoor er weer speciale tools ontwikkelt voor de heren programmeurs die niet compatible zijn met de concurrentie. Zo hou je dus de chaos in stand. Of nee ik weet het, laten we allemaal Nvidia kopen, zodat ze net als Ms monopolist worden. Da's pas lachen, kunnen we eindelijk onze euro's goed besteden.
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
welke subtread & titel? d'r zijn tig tread verdeeld over de subdirectorys over cheating.Madrox schreef op 26 mei 2003 @ 06:29:
Volgens een Ati medewerker (die het niet eens was met dit besluit) zijn ze al druk bezig om dit toch voor elkaar te krijgen op een betere manier zodat Futuremark er vrede mee kan hebben.
Lees nu ook interressant voer; De meeste DOOM 3 reviews schijnen niet helemaal te kloppen. Er loopt een heftige discussie bij www.beyond3d.com (forum) tussen een reviewer (lars van THG) en een paar code-crushers. Lars heeft het moelijk
Ook Hardocp en Anandtech krijgen ervan langs.....
Heb wel iets gevonden waar kylie werd afgezeken.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
als een kaart van ati (bv de 9100 of de 9000 pro) die trager werkt in spellen en trager is in 3dmark2001 ineens sneller is in 3dmark2003 als bijvoorbeeld een geforce4 TI dan daalt mijn geloofwaardigheid al.

krijgen ze punten omdat ze dingen ondersteunen die voorlopig niet in games te vinden zijn (dan zijn die kaarten van ati ook al veels te traag)
ik kan de allernieuwste spellen allemaal spelen, ook met 2x FSAA aan en anosotopisch filteren aan zonder schokken. bijna 11.000 punten in 3dmark2001 en wat heb ik in 2003: 1300 punten
dat KLOPT toch niet

en zoals al gemeld was heeft ATI dat ook destijds geflikt met quake3 door het detaillevel van de textures omlaag te schroeven.
zolang alle spellen draaien vind ik het best

3dmark2003 is voor mij echt alleen nog maar een stresstestprogramma geworden ipv een eerlijke vergelijkingstool.
Je vergelijkt appels met peren, dat klopt er niet....
Dat komt gedeetelijk omdat je de dx9 tests niet kan runnen.Metro2002 schreef op 27 May 2003 @ 08:17:
ik kan de allernieuwste spellen allemaal spelen, ook met 2x FSAA aan en anosotopisch filteren aan zonder schokken. bijna 11.000 punten in 3dmark2001 en wat heb ik in 2003: 1300 punten
dat KLOPT toch niet
Bovendien is deze benchmark voor een aantal jaar en de hoogste
score die ik hier op gathering zie ligt nog onder de 6000.
Dus ik denk dat scores in 3dmark 03 sowieso al lager uitvallen dan in 2001.
Ikzelf heb een MX kaartje ( wegens geldgebrek ) en ik mag blij zijn als ik er in 3dmark 2001 een score uit kan slepen van 7000 puur omdat ik die nature test niet kan doen.
9100 is anders ook een DX8.1 kaart en die haalt toch hoger als een GF4 TIdominator schreef op 27 May 2003 @ 08:43:
[...]
Je vergelijkt appels met peren, dat klopt er niet....
Hoezo klopt dat niet! Sommige mensen denken blijkbaar niet verder en trekken dan conclusiesMetro2002 schreef op 27 mei 2003 @ 08:17:
ik vind 3dmark2003 sowieso al niet representatief.
als een kaart van ati (bv de 9100 of de 9000 pro) die trager werkt in spellen en trager is in 3dmark2001 ineens sneller is in 3dmark2003 als bijvoorbeeld een geforce4 TI dan daalt mijn geloofwaardigheid al.
krijgen ze punten omdat ze dingen ondersteunen die voorlopig niet in games te vinden zijn (dan zijn die kaarten van ati ook al veels te traag)
ik kan de allernieuwste spellen allemaal spelen, ook met 2x FSAA aan en anosotopisch filteren aan zonder schokken. bijna 11.000 punten in 3dmark2001 en wat heb ik in 2003: 1300 punten
dat KLOPT toch niet

Oftewel, 3DMark 2003 vind ik persoonlijk wel heel handig om te kijken hoe een bepaalde kaart in toekomstige games gaat presteren, zodat je weet of je ermee vooruit kunt of niet,
en hoe hij gaat presteren als hij het echt zwaar krijgt. Er zijn blijkbaar ook mensen die denken; het kan mij niet boeien wat de toekomst mij brengt.. dat zie ik dan wel. Daar heb ik uiteraard respect voor, dat moeten die mensen zelf weten. Maar ga dan niet lopen zeiken dat je geloofwaardigheid daalt.
[ Voor 6% gewijzigd door Sluuut op 27-05-2003 12:29 ]
57696520646974206c65657374206973206e657264
Verwijderd
Ik heb wel iets gerelateerd gevonden; http://www.beyond3d.com/f...topic.php?t=6043&start=20SuperG schreef op 27 mei 2003 @ 08:02:
[...]
welke subtread & titel? d'r zijn tig tread verdeeld over de subdirectorys over cheating.
Heb wel iets gevonden waar kylie werd afgezeken.
Vooral die laatste post van Dave H is erg interessant, daar wordt opgesomd welke fouten tot nu toe allemaal gemaakt zijn in de reviews.
Ik kan de beyond3d forums trouwens erg aanraden, er posten over het algemeen mensen met veel vestand van de videokaarten wereld.
Zit op zoveel forums te neuzen dat ik het 1,2,3 ook niet meer weet waar al die info vandaan komt. En idd vind ook ik de beyond3D forums ver boven de rest uitsteken. En om er ff aan toe te voegen; er zitten mensen tussen die er midden in zitten
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Verwijderd
Volgens mij is de huidige situatie eigenlijk erg simpel. Iedereen die op dit moment geen volstekt verouderde videokaart heeft moet op dit moment beslist geen nieuwe hardware kopen. Blijf zitten waar je zit. Pas later dit jaar, als games als FarCry, Half-life 2 en DooM III in de winkel zijn verschenen zullen we kunnen vaststellen welke grafische kaart de beste is.
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
E_razor_2 schreef op 27 May 2003 @ 16:56:
Waarom laat iedereen alles afhangen van die 3d mark. Als je een game speelt en hij draait vlotjes waarom dan lopen te zanikken dat ie nie lekker draait onder 3d mark 2003. Deze is alleen voor toekomstige hardware. De mensen die nu een GF3/4 hebben kunnen nog alles goed draaien behalve dan die DX9 games en die zijn er nog lang niet, en dit gaat nog wel een tijd duren ook.
He who controls the Spice, controls the Universe.
Verwijderd
Dit misverstand hoor ik jammer genoeg wel vaker. 3Dmark2003 bestaat niet uit DirectX 9 testen, maar bestaat uit één directX 7 test, twee DirectX 8 testen en uit één directX 9 test. En deze laatste test zou volgens Futuremark maar 20% van de totaalscore uit moeten maken, oftewel. Bij de scores zie je dat van de populaire kaarten in het middensegment zelfs bij 3Dmark's defaultresolutie, 1024x768x32 zonder AA & AF, een Geforce 4 Ti-4200 bij lange na niet in de buurt komt van een Radeon 9500 laat staan een 9500 pro of 9600 Pro. En het verschil wordt niet zozeer door die ene DirectX 9 test gemaakt, nee, bij de eerste drie testen loopt de Ti4200 al een flinke achterstand op. En dat klopt gewoon niet met werkelijkheid. Ik heb dat al eens eerder getracht te verduidelijken, zie b.v.Sluuut schreef op 27 May 2003 @ 12:21:
[...]
Hoezo klopt dat niet! Sommige mensen denken blijkbaar niet verder en trekken dan conclusies... als je nou even bedacht had dat die ATi kaartjes DirectX 9 ondersteunen en hoe complexer de textures worden hoe beter ze het kunnen verwerken in vergelijking met Geforce kaartjes waar jij het over hebt. Natuurlijk zijn die Geforce kaartjes in UT/weet-ik-veel-welke-ouwe-games sneller dan de Radeon's. Die Geforce kaartjes kunnen die ouwe textures namelijk veel sneller verwerken dan de Radeon's, totdat het complexer word. En ja, 3D Mark 2001 werkt nog met ouwe textures, waarbij de kaarten gewoon op een heel andere (ouwere) DirectX versie worden getest.
Oftewel, 3DMark 2003 vind ik persoonlijk wel heel handig om te kijken hoe een bepaalde kaart in toekomstige games gaat presteren, zodat je weet of je ermee vooruit kunt of niet,
en hoe hij gaat presteren als hij het echt zwaar krijgt. Er zijn blijkbaar ook mensen die denken; het kan mij niet boeien wat de toekomst mij brengt.. dat zie ik dan wel. Daar heb ik uiteraard respect voor, dat moeten die mensen zelf weten. Maar ga dan niet lopen zeiken dat je geloofwaardigheid daalt.
http://gathering.tweakers...message/17740935#17740935
Interessanter met het oog op de toekomstige games is dat ook nieuwe testen laten zien dat de scores van 3Dmark2003 weinig tot geen zinnig beeld geven voor de performance in games. Zie hier een test van Splinter Cell op maximale instellingen, een recente en naar huidige maatstaven loodzware DirectX game en daarmee model staand voor menig andere game die het komende jaar zal gaan verswchijnen. Vergelijk deze resultaten eens met de scores die de geteste kaarten in game 2 en 3 van 3Dmark2003 scoren:
http://firingsquad.gamers...-vtdr128_review/page7.asp
En zeg nou zelf, als je ziet dat Futuremark met hun 3Dmark2003 bij de eerste 3 testen, waar dus al genoeg DirectX-7 en -8 games waren om hun benchmark dusdanig te eiken dat zij zelf tijdens de ontwikkelingsfase hadden kunnen (moeten) zien dat er iets grondig mis was met hun testmethode, dusdanig de plank misslaat, heb jij er dan nog enig vertrouwen in dat de laatste test ineens wel een correct beeld van de toekomstige werkelijkheid bij DirectX 9 games zal laten zien?
Ten eersteVerwijderd schreef op 28 May 2003 @ 00:15:
Lang verhaal..
De link die jij gaf:
http://firingsquad.gamers...-vtdr128_review/page7.asp
Als ik me niet vergis zie ik dat de radeons beter presteren dan de GeForce kaart als de resoluties op de max staan.
Ik weet ook dat de mannen bij Futuremark een bepaalde manier van rendering toegepast hebben waardoor alles eigenlijk meerdere keren berekend wordt dan nodig is (extra zwaar gemaakt), komt ruwweg neer op een res verdubbeling en daar waren de radeons weer beter.
Kortom 3dmark2003 is wel een goede graadmeter voor de videokaart performance in de toekomst (hoge resoluties) want laten we eerlijk zijn, wat doet het er toe welke kaart het snelst is in 1024*768, we willen de performance zien op 1600*1200 en eigenlijk nog zwaarder om te weten hoe ze het zullen doen in de games van morgen.
Kortom vergelijk 3dmark 2003 @ 1024*768 maar met een game van vandaag op een res van 1600*1200.
Verwijderd in "RE: is 3Dmark 03 representatief?"
Ten tweede, in de andere post van je zeg je dat een pIII 1300Mhz met een Gf4 ti4200 een slechter platform is dan een P4 2.8Ghz met een Ti4400 kaart, en dat 3dmark2003 ten onrechte laat zien dat dat niet zo zou zijn.
Je hebt gelijk dat simpele dx7 spellen zolang de filrate niet de beperkende factor is sneller lopen op een computer met een snellere cpu, maar wat als je DX9 spellen gaat spelen op een hoge resolutie? Waarschijnlijk is de pIII1300Mhz dan een beter platform omdat de vid kaart beter is en de vid kaart de beperkende factor is.
Wat denk je wat er gaat gebeuren bij doom3? Deze generatie spellen zijn veel eerder GPU dan CPU gelimiteerd en dat verschil zal elk jaar groter worden.
Vandaar dat het in (3dmark) 2003 veel minder uitmaakt of je nou een 1 of 2Ghz processor hebt dan dat je een GPU hebt die op 250 of 500Mhz loopt.
Vandaar dat ik vind dat 3dmark2003 een goede benchmarktool is om de vodeoperformance te meten, vandaag en morgen!
Ten derde
De gameperformance van de Radeon 9800Pro en de FX5900ultra is nagenoeg gelijk, de 3dmark2003 score ook (gepatchde versie van 2003), vind je nu nog steeds dat de score van 3dmark2003 geen goede performance indicatie geeft?
[ Voor 14% gewijzigd door procyon op 28-05-2003 01:29 ]
Verwijderd
Radeon 9500 vs TI4200Procyon for life schreef op 28 May 2003 @ 01:03:
[...]
Ten eerste
De link die jij gaf:
http://firingsquad.gamers...-vtdr128_review/page7.asp
Als ik me niet vergis zie ik dat de radeons beter presteren dan de GeForce kaart als de resoluties op de max staan.
Ik weet ook dat de mannen bij Futuremark een bepaalde manier van rendering toegepast hebben waardoor alles eigenlijk meerdere keren berekend wordt dan nodig is (extra zwaar gemaakt), komt ruwweg neer op een res verdubbeling en daar waren de radeons weer beter.
Kortom 3dmark2003 is wel een goede graadmeter voor de videokaart performance in de toekomst (hoge resoluties) want laten we eerlijk zijn, wat doet het er toe welke kaart het snelst is in 1024*768, we willen de performance zien op 1600*1200 en eigenlijk nog zwaarder om te weten hoe ze het zullen doen in de games van morgen.
Kortom vergelijk 3dmark 2003 @ 1024*768 maar met een game van vandaag op een res van 1600*1200.
[...]
Splinter Cell
800*600
TI4200: 38.4
R9500: 32.2 Verschil 19.3%
1024*768
Ti4200: 32.5
R9500: 28.4 Verschil 14.4%
1280*1024
TI4200: 25.6
R9500: 21.7 Verschil 18.0 %
1600*1200
TI4200: 20.2 Verschil 12.8%
R9500: 17.9
Performanceverhouding van 1024*768 -> 1600*1200
TI4200: 32.5 -> 20.2 = 62.2%
R9500: 28.4 -> 17.9 = 63.0%
Je ziet dat het dus niet zo is dat als je de resolutie maar eindeloos ophoogt, dat dan de Radeon ineens wint. De radeon verliest bijna net zo veel aan performance als de Geforce 4, wel zien wij hier het bekende verschijnsel dat Nvidia er in slaagt bij een lage resoluties als b.v. 800*600 er wat extra frames uit te persen. Dit verschijnsel was ook al bekend van de GF2 & GF3 t.o.v. de Radeon 7500 & 8500, ik heb gewoon het idee dat nvidia iets meer moeite neemt dan ATI om hun drivers op de lage resoluties te optimaliseren. Veel praktisch nut heeft dit naar mijn mening overigens niet.
Goed, duidelijk is dus dat in een loodzware directX 8 game een Radeon 9500 duidelijk minder presteerd dan een TI4200. En wat geeft 3Dmark aan? Helaas was in deze test van Firingsquad om één of andere reden 3Dmark2003 niet meer gebruikt (zouden zij soms deze benchmark om een of andere reden niet meer bruikbaar vinden?), dus ik moet noodgedwongen naar een test uit April van deRadeon9600Pro uitwijken. Hier is het echter een TI4800 (of zoals zij dat noemen, een TI4600-8X) gebruikt. Mij staat bij dat een TI-4200-8X in 3Dmark2003 ongeveer 80% scoort t.o.v. een TI4800, kan het jammer genoeg niet zelf testen, ik heb namenlijk een ATI Radeon in mijn PC zitten!
3Dmark2003
Game 2
TI4800: 10.8
TI4200: ongeveer 8.6
R9500: 16.3 !!!
Game 3
TI4800: 10.5
TI4200: ongeveer 8.4
R9500: 15.7 !!!
3Dmark2001
Game 4 (ook DirectX 8 )
TI-4800: 78.9
TI-4200: ???
R9500: 59.5
Je ziet dus dat 3Dmark2003 bij hun DirectX 8 testen wel een aantal interessante getallen ophoest, maar dat deze absoluut geen zinnig verband hebben in de werkelijke gameperformance. Want zeg nou zelf, waar in 3Dmark2001 de nature test en de eerste zware DirectX 8 games laten zien dat een TI4200 ongeveer 15% sneller is dan een Radeon 9500, beweert 3Dmark2003 dat de Radeon 9500 bijna 90 % sneller is.
Natuurlijk, het is altijd lastig om met een benchmark proberen de werkelijkheid weer te geven. Ik zal het geen enkele GPU-benchmark kwalijk nemen als zij er 10 a 20 % naast zitten, integendeel, dat is een keurige prestatie en voor 3Dmark2001 heb ik dan ook erg veel lof over. Echter, als je ziet dat 3DMark2003 er met meer dan 100% naast zit, dan heb ik daar minimaal het volgende woord over: SCHANDE!
En iemand met een slecht humeur of meer wantrouwen kan daar nog een hoop lelijke woorden als bedrog, corruptie, vriendjespolitiek, incompetentie en weet niet wat bij verzinnen. En deze woorden kan een dergelijk persoon tevens gebruiken om sommige drivers van Nvidia te beschrijven...
Kort samengevat:
3Dmark2003 meet in hun directX 8 testen iets waar goed presterende directX 8 kaarten zoals de Geforce 4 TI-serie spectaculair slecht op scoren.
Deze testen hebben geen verband met de werkelijkheid bij DirectX 8 games.
Ik denk dat ik daarmee je laatste vraag of de resultaten van de Geforce FX mij meer vertrouwen geven ook wel beantwoord heb.
[ Voor 4% gewijzigd door Verwijderd op 29-05-2003 02:20 ]
Maw; er is eigenlijk geen goede objectieve en gelijkwaardige benchmark meer mogelijk.
Beide hebben voor en nadelen, wat ik begrijp uit JC's commentaar is dit:
Nvidia's techniek is uiteindelijk sneller maar legt een zware druk op de programmeurs; fouten in de code zijn bijzonder lastig op te sporen....
Waar ik dus bang voor ben is nog meer bugs in spellen, bugs die dan niet opgelost worden "omdat het zo verdomd lastig is die te vinden". Lang leve de vooruitgang....
IPV. de techniek meer toegangelijk te maken en de kans op fouten te verkleinen, gaan ze precies de andere kant op.
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Verwijderd
Wie zegt dat Nvidia ook niet hun drivers hebben "geoptimaliseerd" in 3dmark2001 en/of splintercell (wat al een pro-nvidia spel is btw)?
Zal me helemaal niet verbazen als ze hetzelfde smerige truukje hebben gedaan bij 2k1, splintercell en andere "benchmark" spellen.....
[ Voor 4% gewijzigd door Verwijderd op 28-05-2003 22:57 ]
Verwijderd
Gameproducenten optimaliseren hun spellen voor bestaande videokaarten!
Dit is ook een belangrijk verschil met 3Dmark2003. Deze is dusdanig 'geoptimaliseerd' dat hij in test 2 en 3 werkelijk niet vooruit te branden is. Als een gameproducent net zo zou programmeren als Futuremark bij deze testen, dan is de mislukking bijkans gegarandeerd!
En wat de fouten in games betreft, mijn eigen ervaringen met Radeon en Geforce kaarten is dat de Radeons voor meer problemen zorgen dan de Geforcekaarten. Hoe zijn jullie ervaringen hiermee?
[ Voor 5% gewijzigd door Verwijderd op 29-05-2003 02:15 ]
Verwijderd
.....Verwijderd schreef op 28 mei 2003 @ 23:10:
Het is nog veel erger:
Gameproducenten optimaliseren hun spellen voor bestaande videokaarten!
Dit is ook een balangrijk verschil met 3Dmark2003. Deze is dusdanig 'geoptimaliseerd' dat hij in test 2 en 3 werkelijk niet vooruit te branden is. Als een gameproducent net zo zou programmeren als Futuremark bij deze testen, dan is de mislukking bijkans gegarandeerd!
Ik heb sinds een maand 2 radeon kaarten (9500 64Mb en 9500Pro 128Mb) en nog geen enkel probleem gehad. Zeer snelle, stabiele en betrouwbare kaarten als je het mij vraagt.... Hiervoor had ik Nvidia kaarten (GF2, GF3, GF4). Daar had ik veel meer problemen mee. Dat was dan wel over een tijdspanne van 3 jaar. Dus 't is een beetje moeilijk te vergelijken.Verwijderd schreef op 28 mei 2003 @ 23:10:
En wat de fouten in games betreft, mijn eigen ervaringen met Radeon en Geforce kaarten is dat de Radeons voor meer problemen zorgen dan de Geforcekaarten. Hoe zijn jullie ervaringen hiermee?
Verwijderd
Ik denk dat het verschil in NVIDIA en ATI drivers tegenwoordig nihil is, en dat het meer afhangt van je hardware configuratie hoeveel problemen je krijgt dan van je merk videokaart. Sommige hardware combinaties hebben nou eenmaal wat meer problemen dan andere...Verwijderd schreef op 28 mei 2003 @ 23:35:
[...]
.....
[...]
Ik heb sinds een maand 2 radeon kaarten (9500 64Mb en 9500Pro 128Mb) en nog geen enkel probleem gehad. Zeer snelle, stabiele en betrouwbare kaarten als je het mij vraagt.... Hiervoor had ik Nvidia kaarten (GF2, GF3, GF4). Daar had ik veel meer problemen mee. Dat was dan wel over een tijdspanne van 3 jaar. Dus 't is een beetje moeilijk te vergelijken.
De radeon's hebben voor iets meer problemen gezorgd in het verleden, met sommige spellen heb je er nog last van. Transparancy-code van Nvidia had Nvidia erdoor gedrukt achter de rug om de overige DX-development leden. Was niet zo netjes en ze hebben het later bijgelegt met ATi. Dus zet es ff je gekleurde bril af, plzz.. Alles is niet zo zwart/wit.Verwijderd schreef op 28 May 2003 @ 23:10:
Het is nog veel erger:
Gameproducenten optimaliseren hun spellen voor bestaande videokaarten!
Dit is ook een belangrijk verschil met 3Dmark2003. Deze is dusdanig 'geoptimaliseerd' dat hij in test 2 en 3 werkelijk niet vooruit te branden is. Als een gameproducent net zo zou programmeren als Futuremark bij deze testen, dan is de mislukking bijkans gegarandeerd!
En wat de fouten in games betreft, mijn eigen ervaringen met Radeon en Geforce kaarten is dat de Radeons voor meer problemen zorgen dan de Geforcekaarten. Hoe zijn jullie ervaringen hiermee?
Zoals Futuremark programmeert hebben ze in samenspraak gedaan met al hun leden, die zullen waarschijnlijk iets meer verstand van zaken hebben dan jij en ik.
Dat Nvidia eruit gestapt heeft niets te maken met het idee dat Futuremark waardeloos is, zoals Nvidia ons nu wil doen geloven. Nvidia is gewoon niet blij met de manier waarop de benches werden uitgevoert, ook al is dat 100% volgens de DX-specificaties. Nvidia vond het alleen niet zo prettig, omdat hun produkt er niet zo best van afkwam met deze manier van testen, wat niet het probleem van Futuremark of Dx is maar gewoon een gevolg van hun eigen keuses (12/16/32 FP mix). Als Futuremark werkelijk zo slecht bezig is, waarom is Nvidia dan de enige die eruit gestapt is ? Omdat ze zo slim zijn ?
Kom nou toch, gebruik nou eens je verstand.
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Verwijderd
Even een paar vragen waar jij met al je verstand over mag nadenken:
Grafisch is 3Dmark2003 bij game 2 en 3 leuk maar niet execptioneel en toch is het baggertraag. Indien een gameproducent een game op deze wijze programmerd, grafisch niet echt beter dan de concurentie en toch qua fps een fractie van de snelheid, wordt dit een succes ja of nee?
Er van uitgaande dat je deze vraag na enig nadenken correct hebt beantwoord, mag je door naar de volgende ronde:
Hoe komt het dat gameproducenten ook bij DirectX 8 games wel veel performance uit de Geforce 4 TI-serie halen?
A. Zij optimaliseren de code van hun games voor de populaire videokaarten
B. Eh, puur toeval..
C. Nvidia manipuleert hun drivers dusdanig dat het net lijkt alsof de games soepel lopen.
Indien je deze vragen goed hebt beantwoord, kijk dan nog even mijn vorige antwoorden.
a)
Als je geluk hebt voor allebei of meerdere. Als je pech heb meer voor de een dan voor de ander. Lang niet alle game worden optimaal gemaakt. Het ligt ook aan de kwaliteit van de heren programmeurs die ze in dienst hebben, welke API's ze gebruiken etc.etc.etc.
Maw: Elk game-benchmark kan je eigenlijk alleen met dat ene spel vergelijken.
Aangezien 3Dmark een allround benchmark programma is geeft het uiteidelijk een gemiddeld beeld.
De reden dat 3Dmark nu als waardeloos word bestempelt, heeft toch vooral met het akkefietje van Nvidia te maken. Of niet soms ?
Heb al je vorige antwoorden allang gezien hoor
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
nv4_disp is in een oneindige loop geraakt...Verwijderd schreef op 28 mei 2003 @ 23:10:
En wat de fouten in games betreft, mijn eigen ervaringen met Radeon en Geforce kaarten is dat de Radeons voor meer problemen zorgen dan de Geforcekaarten. Hoe zijn jullie ervaringen hiermee?



HELS! Kreeg ze keer op keer met windows xp, laters zelfs met 2000. Toen maar ATi 9500 Pro gekocht en geen problemen meer
een opmerking van mijn kant over 3dmark:
NU vergelijk je videokaarten met 3dmark2001(SE), en STRAKS met '03
[ Voor 14% gewijzigd door Glashelder op 29-05-2003 13:03 ]
PV 4915wp op oost, 2680 wp op west, 1900 wp op zuid. pvoutput - AUX 8 kW bi bloc
Verwijderd
Juist! Dat is wat sommigen hier (lees: Meneer_E) niet begrijpen. 3DMark2003 is een benchmark voor games die over een tijdje uitkomen. En niet voor games die al uit zijn. Maar dit is allang bekend. Sterker nog, dit is al zo vaak gezegd, dat ik niet begrijp waarom sommigen dit nog steeds niet kunnen bevatten......dual-zip schreef op 29 May 2003 @ 13:00:
[...]
NU vergelijk je videokaarten met 3dmark2001(SE), en STRAKS met '03
Verwijderd
Hoeveel tweakers hebben een Radeon 9500 non pro gekocht in de veronderstelling, dat als zij een exemplaar hadden die niet foutloos te modden valt, dat deze kaart nog aardig snel zou zijn i.p.v. signifikant langzamer dan een TI-4200? En ik heb het idee dat dit medekomt door de onzinscores van 3Dmark2003.
Madrox:
Of Nvidia er wel of niet blij is met 3Dmark2003 maakt voor mij als Radeon-bezitter echt niet veel uit, mijn punt is dat de testresultaten niet deugen als indicatie voor gameperformance.
P.S.
Ben blij dat de Radeons tegenwoordig tamelijk probleemloos lopen, zelf had ik eerst enige problemen maar sinds de komst van Catalyst 2.5 draait het bij mij redelijk probleemloos (al had ik gisteravond met Morrowind een vastloper, maar dat is dan de uitzondering die de regel bevestigd, nietwaar?).
Mede daarom ben ik nu bezig mijn broer ervan te overtuigen dat hij nu een Radeon 9700 moet kopen i.p.v. één of andere nvidia...
Edit:
Meneer_E begrijpt niet dat er tweakers zijn die nog steeds niet weten dat ook bij DirectX 9 videokaarten 80% van de score bepaald wordt door de Direct X 7 test van game 1 en de Direct X 8 testen van game 2 en 3.
Meneer_E wordt een beetje moe van zoveel onwetendheid...
[ Voor 13% gewijzigd door Verwijderd op 29-05-2003 13:46 ]
Vanaf 2.5 Catalist ? Kan kloppen, ik had rond die versie of daarvoor vooral problemen met Neverwinter Night. Die draaide absoluut niet lekker met de ATi-drivers, vreemd genoeg wel met de Omega's (lucky me). Alleen de quick save sloeg nog vast. Morrowind draait voor mijn gevoel het lekkerst met 3.2, zo ver ik weet heb ik daar geen crashes naar de desktop mee gehad. 3.4 doet het ook lekker, maar die wil weles naar de desktop crashes. (kan natuurlijk ook omdat ik de GPU/MEM iets opgeschroefd heb
Ehm, je broer overtuigen
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Verwijderd
Mischien heb je gelijk, een collega had ik eind vorig jaar ook geadviseerd om een Radeon te nemen, hij heeft toen in de 'opruiming' een 8500pro weten te scoren voor een zeer vriendelijk prijsje, maar in zijn systeem bleek de kaart niet stabiel te krijgen.
Overigens heb ik het idee, geheel los van de verbeteringen in de huidige ATI drivers, dat de huidige Radeon 9xxx serie simpelweg (nog) minder problemen geeft dan b.v. de Radeon 8500.
[ Voor 7% gewijzigd door Verwijderd op 29-05-2003 15:22 ]
zou best kunnen, SFAIK is die 9100 ook iets simpeler gemaakt, of zit er ook een 2de ramdac op ?
ff een vergelijk gedaan met de connect 3D's 9100-series, die missen allemaal 1 chippie vlak naast de fan, aan de linkerkant. Je ziet wel een vierkant leeg vlakje.
[ Voor 44% gewijzigd door Madrox op 29-05-2003 15:45 ]
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Verwijderd
Ja en? 3DMark2003 is geen benchmark voor DirectX 7 of 8 games, maar voor DirectX 9 games…..Verwijderd schreef op 29 May 2003 @ 13:30:
Edit:
Meneer_E begrijpt niet dat er tweakers zijn die nog steeds niet weten dat ook bij DirectX 9 videokaarten 80% van de score bepaald wordt door de Direct X 7 test van game 1 en de Direct X 8 testen van game 2 en 3.
Denk nou eens na: als game 1/2/3 (DirectX 7/8) 80% van de score uitmaakt, waarom presteren alle GF4 Ti kaarten dan zo laag? Ze zouden hoogstens 20% minder punten moeten halen dan bijv een 9500Pro….
’03 is geen benchmark voor games met DirectX 7 en DirectX 8 games, maar zoals gezegd DirectX9 games. Dat DirectX 7 en 8 erin zitten, is om te laten zien hoe kaarten die niet DirectX 9 ondersteunen (ie GF4 TI’s) zullen presteren in toekomstige directx9 games (t.o.v. bijvoorbeeld de 9500Pro) aangezien die kaarten toch ook die games kunnen draaien.
Als ze alleen DirectX 9 in de 3DMark2003 hadden gedaan, dan was het geen echte benchmark geweest aangezien je dan niet kan testen hoe bijvoorbeeld de TI4600 presteert in toekomstige games.
Verwijderd
Game Test 1: Wings of Fury (DX7)
Represents simulation type game usage on lower-end graphics hardware. It is an air combat scenario where a group of Allied bombers are attacked by enemy fighter planes. A low number of polygons are used, but the test has heavy use of particles. Planes are rendered with 4 texture layers.
Game Test 2 - Alpha Squadron (DX8)
Represents first-person shooter type game usage on medium-end graphics hardware. It is a space-ship battle scenario where defenders fight off enemy soldiers attempting to board. Vertex and Pixel shaders are used extensively. Some cameras have Depth of Field and Bloom post processing effects. Light sources generate dynamic shadows using stencil buffers. The test also has use of particles and real-time physics.
Game Test 3 - Troll's Lair (DX8)
Represents role-playing game usage on medium-end graphics hardware. In the scenario, an adventurer discovers two trolls in a hidden room and combat ensues. Vertex and Pixel shaders are used extensively. Some cameras have Depth of Field and Bloom post processing effects Light sources generate dynamic shadows using stencil buffers. Real-time physics is used for characters falling and collisions. Character’s hair is anisotropically lit and uses a custom physics model.
Game test 4 - Nature II (DX9)
Represent expected DirectX 9 usage on high-end graphics hardware. The scenario is of a dynamic nature scene with swaying trees and blades of grass along a running stream. Tree leaves and grass blades are modeled individually using vertex shaders. Lake surface and sky surface are produced with pixel shaders. Higher color range used for calculating over bright reflection and lighting.
En een korte samenvatting over de berekening van de scores:
This formula has been obtained by running the benchmark on a number of high-end systems. The results for each system are weighted such that game test 4 gives 20% of the total score and game tests 1, 2 and 3 are equally weighted to give the remaining 80%. Hence, game test 1, 2 and 3 each give 26.6% of the total score.
The weights are averaged across all the systems used to generate the weights in the formula. Note that this weighting can be very different on low-end systems.
Asmodean:
Ik moet je zonder meer gelijk geven als je stelt dat Futuremark bij 3Dmark2003 de DX7 en en DX8 onderdelen geprogrammeerd heeft vanuit een DX9 oogpunt. Echter, dit is nou precies de reden voor mijn bezwaren tegen 3Dmark2003 als performance-indicatie voor toekomstige generatie games. De praktijk zal zijn dat een gameproducent zijn games voor bestaande videokaarten optimaliseerd. Je ziet nu bij de recente DX8.1 games dat deze eveneens geoptimaliseerde routines hebben voor de oudere kaarten.
Voorbeeld: Een DirectX 8.1 game als Splinter Cell dat gebruik maakt van PS1.4 heeft eveneens geoptimaliseerde code voor kaarten die geen PS1.4 ondersteunen zoals de GF4-serie. Daardoor blijft een TI-4200 een Radeon 9500 probleemloos voor en kan die zelfs met de Radeon 9500pro en 9600pro concureren. Daarom ben ik van mening dat de scores van 3Dmark2003 nimmer een goede indicatie vormen voor de echte gameprestaties.
Sterker en tevens om het misverstand uit de weg te ruimen dat Splinter Cell een typische game zou zijn die nvidia-kaarten zou bevoordelen, hier een test van een BFG FX5600-ultra 256MB, met de nieuwe versie welke op 400/800 MHz loopt. Zelfs met de omstreden 44.03 drivers komt hij qua performance niet in de buurt van de R9500pro/R9600Pro of de TI-4200 (deze is jammer genoeg niet meegenomen in deze test, zie daarvoor mijn eerdere link hoe de TI-4200 zich verhoudt t.o.v. de Radeonkaarten).
http://www.hardocp.com/article.html?art=NDc5LDM
Thanks to the additional memory of the BFG card and the efficiency of the new Detonator FX drivers, the GeForce FX 5600 is able to remain within striking distance of the Radeon 9600 Pro throughout each test.
erg efficient inderdaad....
edit: na dat artikel te hebben gelezen vindt ik 1 ding heel erg naaierig tov ATi. Ze klokken de FX5600Ultra zover over dat ie in staat is de 9600Pro te verslaan, maar laatstgenoemde laten ze op stockspeed lopen. Klok die dan ook over!
[ Voor 25% gewijzigd door Glashelder op 29-05-2003 18:35 ]
PV 4915wp op oost, 2680 wp op west, 1900 wp op zuid. pvoutput - AUX 8 kW bi bloc
Verwijderd
Wat betreft het overclocken: dit is eigenlijk bij de meeste hardwaresites gebruikelijk. Omdat elke exemplaar weer anders overklokt, wordt meestal alleen de kaart(en) waaraan de test gewijd is overgeklokt en blijven de referentiekaarten op stockspeed. Overigens was hardocp.com bij hun test van de radeon 9600Pro erg tevreden over diens overklokpotentieel. Zie:
http://www.hardocp.com/article.html?art=NDY0LDQ=
Ook geeft zo'n OC balk 'n indruk alsof dat merk beter presteer aangezien OC ergens erbij staat in kleine letter maar niet uit de balkjes is te zien.
Tom doet dat anders iig bij CPU en klokt AMD en intel over en geeft dmv kleur aan dat het OC resultaten zijn waardoor er een sterk contrast is tussen Stock speed performance en OC performance.
Het is dan makkelijk voor niet OC'ers om OC resulktaten te ignoren door het kleur contrast en OC'ers die komen nu wel voledig tot hun trekken doordat de twee concurenten beide geOc'ed zijn.
Die methode wat de meeste doen is gewoon half werk scheeld alleen veel in de lab bench tijd of ze hebben een kleine lab en minder test mensen.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
PV 4915wp op oost, 2680 wp op west, 1900 wp op zuid. pvoutput - AUX 8 kW bi bloc
Als meneer_E geen last heeft van onwetendheid dan weet meneer_E ook dat de Radeon 9800PRO en de FX5900ultra ongeveer dezelfde score hebben in 3dmark2003, het zelfde beeld geven bijna ale gamebenchmarks. Is dat dan ook een onzinscore?Verwijderd schreef op 29 May 2003 @ 13:30:
Hoeveel tweakers hebben een Radeon 9500 non pro gekocht in de veronderstelling, dat als zij een exemplaar hadden die niet foutloos te modden valt, dat deze kaart nog aardig snel zou zijn i.p.v. signifikant langzamer dan een TI-4200? En ik heb het idee dat dit medekomt door de onzinscores van 3Dmark2003.
Madrox:
Of Nvidia er wel of niet blij is met 3Dmark2003 maakt voor mij als Radeon-bezitter echt niet veel uit, mijn punt is dat de testresultaten niet deugen als indicatie voor gameperformance.
Meneer_E wordt een beetje moe van zoveel onwetendheid...
Wanneer een vodeokaart geen DX9 instructies ondersteund kan hij de situatie wel renderen maar kost hem dat veel meer moeite, vandaar dat de TI4200 familie slecht scoort en de Radeon 9xxx familie wel goed scoort in 3dmark2003 en games die DX9 ondersteunen (de games van morgen).
Dat is het, en nu ophouden over dat het allemaal zo oneerlijk is enz want de 4200 serie is gewoon slechter dan de 9000 serie (vanaf 9500PRO) in DX9 benches.
Punt
Verwijderd
Als de games goed werken op een resolutie die jij fijn vind is het toch goed?
3D mark tests zijn leuk, om een beetje mee te vergelijken, maar ik trek me er niets van aan. Als iedereen zegt dat ik een Radeon 9500 Pro ofzo koop ( stel dat ik geen geld had ) en ik had een GF4 mx440 en alles zou ermee werken had ik nog wel even gewacht met het kopen van een nieuwe videokaart.
Intel 14700K | Asus ROG Strix z790 GAMING WIFI | 32GB 7200MHZ | ASUS ProArt RTX 4070 SUPER | Fractal North | CORSAIR RM750 | Samsung 2.5TB NVME | Samsung Odyssey G8 OLED
Alleen zijn er nog geen full directx 9 games dus is het vrij lastig om te bepalen welke kaart je nou het beste kan kopen...Deorgere schreef op 30 May 2003 @ 17:21:
Lol, waar maken jullie je in hemelsnaam druk om??
Als de games goed werken op een resolutie die jij fijn vind is het toch goed?![]()
3D mark tests zijn leuk, om een beetje mee te vergelijken, maar ik trek me er niets van aan. Als iedereen zegt dat ik een Radeon 9500 Pro ofzo koop ( stel dat ik geen geld had ) en ik had een GF4 mx440 en alles zou ermee werken had ik nog wel even gewacht met het kopen van een nieuwe videokaart.
'n halfom benchmark
Om die reden zou ik ook liever naar mijn in de future favo game zijn bench resultaat kijken dan naar 3Dmark aangezien die samen raapsel van game senarioos nogal specifiek is wat door een getal wordt omgetoverd.
in dit bench getal zit een fliegsimulatie spel en een FPS etc en die gedragen zich nogal verschillend. Mensen die vooral zich aan een bepaalde genre houden kijgen een waarde voorgeschoteld die berekend is uit gedeeltelijk niet relevante games voor hun en ook nog eens gebruik makende van verschillende DX niveau's
Dat waren zo ongeveer de eerste bezwaren van reviewers tov 3Dmark wat later kwam pas het cheaten er nog eens es boven op.
'n pluspunt is wel dat de resultaten per gamedemo ook bekend zijn
Je zou dan dan zelf een formule of alleen één belangrijke demogame los benchen.
Code creatures vind ik dus ook uit de boot vallen aangezien die in mijn ogen geen game benchmark is maar eerder een tech demo van wat mogelijk is.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Misschien omdat 3Dmark2003 juist is bedoeld voor DX9-kaarten ?Verwijderd schreef op 30 May 2003 @ 17:03:
Als je mijn stukken goed had gelezen en begrepen, dan zou je weten dat mijn bezwaar tegen 3Dmark2003 is dat hun methode voor de bepaling van de eerste 3 benches niet goed de werkelijke situatie tussen een DirectX 8 kaart en een DirectX 9 kaart in games weergeven. Hoe jij dan in vredesnaam op het idee komt een vergelijking tussen twee Direct X 9 kaarten erbij te slepen als argument is mij een compleet raadsel.
En zouden die Dx7 en DX8 testen er niet in kunnen zitten om de backwards performance te meten ?
Nu ik deze vragen zo stel (ook aan mezelf) klinkt dat helemaal niet zo vreemd. Een GF4 mx-kaart testen met 3dmark2003 is ook nogal onzinnig, lijkt me.
3Dmark is altijd een synthetische test geweest. Da's wat anders dan een game-benchmark. En als het al een game-benchmark moet simuleren is het de Game-mark van morgen. Niet vandaag of gisteren. Ze heten tenslotte Future-mark.
Ik weet me nog vaag te mijn eerste ervaring met 3Dmark, 2000 geloof ik. Dat was ook niet zo'n prettige ervaring, de G200 moest behoorlijk in het stof bijten
Maar de lijn die je zag in de afgelopen jaren, was toch redelijk vertrouwd en solide. Op een paar uitzondereringen na (kyro en?) kloppen de statistieken wel. Dat het met sommige spellen stuivertje wisselen is doet niets af aan de geloofwaardigheid van de benchmark. Het is een gemiddelde, je zal dus altijd uitschieters naar boven en beneden zien. Hebben we ook te danken aan de grote verscheidenheid aan game-engines en de kwaliteit van de spel-ontwikkelaars. Er zitten pareltjes bij, maar er zijn ook genoeg kneusjes.
Tja, en dan over die Dx9 support. Wat we vergeten is dat futuremark zoveel mogelijk Dx9-code erin heeft gestopt als er NU mogelijk is. Althans dat begrijp ik eruit, AFAIK. Ook lees ik bijv. dat het verschil tussen ps 1.4 en ps 2.0 minder groot is als wij zouden afleiden uit de cijfertjes.
Over pixel-shaders gesproken, hier loopt een leuk draadje over. Als er iemand is die ff zijn ti4200 op de pijnbank wil leggen, moet ie daar maar eens neuzen
http://www.beyond3d.com/f...s=0&postorder=asc&start=0
Iig hoeft de PS1.4 van mijn ATi Radeon 8500Pro zich niet te schamen voor een Nvidia 5800ultra, integendeel
Hier een klein warenonderzoek door een van de users daarzo :
MDolenc's 'Fillrate Tester' app tests for PS2.0 (FP32) and PS2.0 PP(FP16)
Neehoor, die draaide gewoon 275/275Display adapter: RADEON 8500 Series (Omega 2.4.07a)
Driver version: 6.14.1.6307
PS 1.1 - Simple - 1105.937378M pixels/sec
PS 1.4 - Simple - 558.337708M pixels/sec
Display adapter: RADEON 9700 PRO
Driver version: 6.14.10.6343
PS 1.1 - Simple - 1384.389404M pixels/sec
PS 1.4 - Simple - 1384.398193M pixels/sec
PS 2.0 - Simple - 1384.516235M pixels/sec
Display adapter: RADEON 9800 PRO (Omega 2.4.43)
Driver version: 6.14.10.6343
PS 1.1 - Simple - 1686.099976M pixels/sec
PS 1.4 - Simple - 1686.119019M pixels/sec
PS 2.0 - Simple - 1685.154785M pixels/sec
Display adapter: NVIDIA GeForce FX 5800 Ultra
Driver version: 6.14.10.4410
PS 1.1 - Simple - 989.477356M pixels/sec
PS 1.4 - Simple - 624.802979M pixels/sec
PS 2.0 - Simple - 628.450745M pixels/sec
Now while I have no doubts that the 8500 was an overclocked card, the fact that it's on par with the 5800 Ultra is somewhat startling! But look at the R3xx figures....owwwwcchhhh!
ps: dat het vooral Nvidia gebruikers niet blij zijn met Futuremark, zal niemand verbazen. 90& van de Nvidia-bezitters vind het maar niks, terwijl er bij de radeon-gebruikers er 70% afwijzend tegenoverstaan. Heeft volgens mij ook een hoop te maken met het het "testoron" gehalte. De cpu schaalt niet zo lekker mee, dus overklokken geeft weinig voordeel. Tel daar de laatste rumoertjes bij op en de misvatting (mijn inziens) dat je met een DX8 of DX7 kaart een DX9-benchmark kan draaien (met dan natuurlijk voor jou acceptabele scores) en de maliase is compleet.
my 0.02c
ps: En dan nog even over de game benchmarks van de "grote" reviewers.
Firingsquad, Hardcop en Anandtech kenmerken zich de laatste tijd door "gekleurde" benchmarks.
Firingsquad:
eVGA e-GeForce FX 5600 Ultra Review
Test alle res. van "800/600 t/m 1600/1200 zonder AA&FF met 6 spellen.
En maar 2 testen met AA/AF. Waarvan er maar 1tje in mijn ogen relevant is. Ut2003. Quake3 benchen word toch echt nostalgisch hoor. En dan ook nog 2 pagina's voor Quake3. Why ? komt toevallig de GF5600ultra daar het minst slecht uit ? 't is toch bekend dat met AA/AF de Geforce flink moet inleveren. Ook vind ik die overklok statistiek erbij behoorlijk misleidend. 't idee is leuk, de uitvoering minder. Het lijkt bijna wel een legale score. Ook zal het overklok-potentioneel van elke kaart verschillen. T'is leuk als toevoeging maar niet gepast zoals ze het nu presenteren. Er word dan als voetnoet in de conclusie gezegd dat de 9500Pro ook een goede overklokker is, maar hoeveel dan ? Hoe ziet het er dan uit, verhoudingsgewijs ?
kheb dan ook sterk het vermoeden dat de reviewers er alles aan doen om de leverancier van hun materiaal niet tegen het hoofd te stoten. Iig valt het me op dat hoe meer publiek zo'n site trekt en hoe populairder ze worden des te milder de kritiek. Wat heeft Anand bijv. gezegd over Nvidia's driver cheat ? En wat zegt Hardcop ? tom zei er iets over, al werd je er niet veel wijzer van. Nee, er hangt een luchtje aan die sites. Een luchtje waar je misselijk van word....
Kyle(hardcop): het is geen cheat, het is een optimalisatie. als je het gewoon afspeelt (de benchmark) zie je het niet. dus 't is geen cheat.....
Sharkyextreme: ....(stilte)
Anandtech: ...........(stilte)
[ Voor 31% gewijzigd door Madrox op 02-06-2003 14:38 ]
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Als ik een race motor koop en op het bordje staat ie een topsnelheid heeft van 300 dan moet ik er ook 300 mee kunnen.
En als ik er mee gaat rijden en dat ding heeft maar een topsnelheid van 250 dan zou ik me toch genaaid voelen.
En als het een optimalisatie was en er dus ook met echte games er beter van werd dan vond ik het nog wel ok.
Nu ben ik blij dat ik een Radeon in mijn peecee heb zitten.
(heb hiervoor altijd Geforce gehad dus ben geen anti-nvidia).
PVOutput 10x Longi 360wp zo PSN: Yamy_Daffy
Verwijderd
Goed dat je het voorbeeld van de PS1.4 noemt. Inderdaad zijn deze zeer belangrijk bij de toekomstige games. 3Dmark2003 maakt gebruik in game 2 en 3 bij hun DX8.1 test van PS1.4 voor de DX9 en de DX8.1 kaarten. Voor DX8.0 kaarten als de TI4200 wordt PS1.1 gebruikt, PS1.2 en PS1.3 echter wat daar eveneens mogelijk is, wordt niet gebruikt, overigens tot grote ergernis van Nvidia. Futuremark stelt echter dat het gebruik van PS1.2 en PS1.3 geen voordelen zou hebben t.o.v. PS1.1
SplinterCell is een schoolvoorbeeld voor de moderne game die net als 3Dmark2003 game 2 en 3 DX9 op je PC wil instaleerd, maar qua code gebruik maakt van PS1.4 De diverse effecten zijn adembenemed mooi, helaas heb je wel een snelle CPU/GPU combinatie nodig om een acceptabele snelheid te halen. Qua effecten is het nog een flink stukje indrukwekkender dan wat 3Dmark2003 laat zien. Met testers van Chip waren met name over de pefecte licht/schaduweffecten onder de indruk. Zie b.v.:
http://www.chip.de/artikel/c_artikelunterseite_9890965.html
Mede dankzij hardwarematige PS1.4 scoren de Radeon 9500pro en vooral de 9600pro erg goed. De 9500non pro en de 'oude' 8500Pro, ondanks dat zij PS1.4 hardwarematig ondersteunen, presteren droevig.
En die zielige TI4200, die niet eens PS1.4 heeft en 'daardoor' volgens 3Dmark2003 test 2 en 3 in een dergelijke DX81 game nog niet eens 2/3 van de performance en hooguit de helft van een Radeon 9500pro haalt:
Tja, deze blijkt met PS1.1 en PS1.2 & PS1.3 niet duidelijk langzamer maar juist veel sneller te zijn dan de Radeon 9500 en ook t.o.v. de FX5600 non-ultra!
3Dmark2003 zit met hun performanceindicatie in test 2 en 3 er met meer dan een factor twee naast. En laten deze twee testen nou bij een Ti4200 nou net voor 67% voor de totalscore meetellen. Ik hoop toch niet dat ik nou nog meer voorbeelden en getallen moet geven om mijn standpunt te verduidelijken. Zullen wij afspreken dat die enkeling die weer probeert een sneer naar mijn kanttekeningen t.a.v. 3Dmark2003 te maken, eerst zelf zijn standpunt met getallen gaat onderbouwen?
Wat vinden jullie overigens van de FAQ van V&B:
"...3DMark is namelijk niet heel erg betrouwbaar. Ook als je pc gewoon goed loopt in spellen hoef je je geen zorgen te maken over de lagere 3DMark score..."
Wat de cheat betreft:
Wie van jullie is het ook opgevallen dat de FX5900 met Detonator 43.51 onder de nieuwe 3Dmark2003 build 330 een flink stuk sneller is dan met 44.03? Ergens is er iets vreemd aan de hand met deze build 330.
Je klaagde dat de diverse sites er te weinig op de problemen ingaan, welnu, leef je uit met het volgende artikel:
http://www.digit-life.com...eon/herc-r9800-r7500.html
[ Voor 4% gewijzigd door Verwijderd op 02-06-2003 22:55 ]
En over die scores van Splinter Cell: maakt denk ik duidelijk dat de shaders niet zoveel invloed hebben in dat spel, of zijn de shaders zodanig geoptimaliseerd dat sommige GPU's er nadeel van hebben. Welk codepath gebruikt Sc eigenlijk ? Vergeet niet dat 3Dmark2003 express de GPU extra werk laten doen, om toch vooral de GPU te meten en niet zozeer de prestaties van je CPU. 3Dmark2003 is daarom ook minder CPU-gevoelig dan zijn voorgangers.
Ze hebben niet gezegd btw. dat het totaal geen verschil maakte welke PS* je gebruikt, het is verwaarloosbaar.
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
NVIDIA Didn't Cheat - 6/02/03 5:57 pm - By: MikeC - Source: Email
I'm sure some of our more vocal forum members will be eating some crow
The following is a joint statement from Futuremark and NVIDIA relating to 3DMark03 and optimizations.
Futuremark Statement
For the first time in 6 months, as a result of Futuremark's White Paper on May 23rd, 2003, Futuremark and NVIDIA have had detailed discussions regarding NVIDIA GPUs and Futuremark's 3DMark03 benchmark.
Futuremark now has a deeper understanding of the situation and NVIDIA's optimization strategy.In the light of this, Futuremark now states that NVIDIA's driver design is an application specific optimization and not a cheat.
The world of 3D Graphics has changed dramatically with the latest generation of highly programmable GPUs. Much like the world of CPUs, each GPU has a different architecture and a unique optimal code path. For example, Futuremark's PCMark2002 has different CPU test compilations for AMD's AthlonXP and Intel's Pentium4 CPUs.
3DMark03 is designed as an un-optimized DirectX test and it provides performance comparisons accordingly. It does not contain manufacturer specific optimized code paths. Because all modifications that change the workload in 3DMark03 are forbidden, we were obliged to update the product to eliminate the effect of optimizations identified in different drivers so that 3DMark03 continued to produce comparable results.
However, recent developments in the graphics industry and game development suggest that a different approach for game performance benchmarking might be needed, where manufacturer-specific code path optimization is directly in the code source. Futuremark will consider whether this approach is needed in its future benchmarks.
NVIDIA Statement
NVIDIA works closely with developers to optimize games for GeForceFX. These optimizations (including shader optimizations) are the result of the co-development process. This is the approach NVIDIA would have preferred also for 3DMark03.
Joint NVIDIA-Futuremark Statement
Both NVIDIA and Futuremark want to define clear rules with the industry about how benchmarks should be developed and how they should be used. We believe that common rules will prevent these types of unfortunate situations moving forward.
Niet op voorraad.
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!
Wat betreft de vergelijking tussen 3DMark03 en Splintercell zijn er denk ik nog veel meer zaken die meetellen, zoals hierboven al gezegd; voor hoeveel % beinvloeden de shaders de performance?
Verder is het ook belangrijk om te kijken in hoeverre fillrate nog om de hoek komt kijken, heeft de engine veel multitexturering in de levels of juist weer veel single, het laatste is voor de 8x1 architectuur in het voordeel van de Radeon3xx, terwijl de 4x2 van NV het weer goed doet met multitexturelayers (ATI ook maar NV is theoretisch wat sneller).
Het is onderhand zo complex geworden, zijn zoveel benaderings methodieken en er zit zoveel verschil tussen de architectuur van Nv en ATI dat 1 op 1 vergelijken steeds moeilijker wordt, terwijl dx dat juist mogelijk zou moeten maken.
Ik krijg toch het idee dat NV steeds meer terrein aan het verliezen is en de R3xx architectuur op steeds meer fronten als winnaar uit de bus komt.
NVidia 32 bits fp is meer een marketingtruuk en dat het het bruikbaar is bv. terwijl ATI's 24 bits prima performance levert.
In de praktijk zal de NV3x serie het met 16 gaan doen, zelfs de migthy NV35 stelt teleur in 32 bist fp, daar helpt meer bandbreedte niets aan .
[ Voor 16% gewijzigd door edward2 op 03-06-2003 03:09 ]
Niet op voorraad.
Verwijderd
Mijn samenvatting van de gehele zaak: de heren hebben elkaar publiekelijk de tanden laten zien.en gaan nu door wat ze echt interesseert: geld verdienen.
Het maakt mij allemaal niets uit. Ik heb een Ti4200 en koop niets nieuws totdat ik 'echte"-want door de reviewsite op eigen gemaakte demo's genomen-benchies van DooMIII zie.
edward2 schreef op 03 June 2003 @ 03:03:
Ik denk nog geen gameover, dit muisje krijgt een hele lange staart.
Da's word dan deel II, voorlopig hebben ze dit "gat" dichtgegooid.
Wat betreft de vergelijking tussen 3DMark03 en Splintercell zijn er denk ik nog veel meer zaken die meetellen, zoals hierboven al gezegd; voor hoeveel % beinvloeden de shaders de performance?
- behoorlijk lijkt me, zeker als er geen specifieke "Nvidia-code" gebruikt word.
Verder is het ook belangrijk om te kijken in hoeverre fillrate nog om de hoek komt kijken, heeft de engine veel multitexturering in de levels of juist weer veel single, het laatste is voor de 8x1 architectuur in het voordeel van de Radeon3xx, terwijl de 4x2 van NV het weer goed doet met multitexturelayers (ATI ook maar NV is theoretisch wat sneller).
- Hier heb gelijk in. Maar aan de andere kant levert de Geforce behoorlijk in als er veel single-textures gebruikt worden. Dat verschil is groter
Het is onderhand zo complex geworden, zijn zoveel benaderings methodieken en er zit zoveel verschil tussen de architectuur van Nv en ATI dat 1 op 1 vergelijken steeds moeilijker wordt, terwijl dx dat juist mogelijk zou moeten maken.
- Dx (Ms en overigen) heeft onder druk van Nvida bepaalde sub-argumenten toegelaten in de code. Dit is natuurlijk winst voor Nvidia maar verhoogt de complexiteit. Of we er gelukkig mee moeten zijn zullen zijn zal over een poosje duidelijker worden. Nvidia beweert trouwens dat ze onder druk van ATi (en Ms?) akkoord zijn gegaan met de 24bits minimum pixel-precisie. Welke druk ?
Ik krijg toch het idee dat NV steeds meer terrein aan het verliezen is en de R3xx architectuur op steeds meer fronten als winnaar uit de bus komt.
- Iig zijn de game-ontwikkelaars niet zo blij met Nvidia's shader-mix. Er gaat meer tijd en kosten mee gemoeid naarmate de ontwikkeling uitgebreider (meer code-path) en ingewikkelder word (shaders). Tuurlijk zitten de Nvidia-programmeurs er bovenop, maar bedruipen ze alle game-ontwikkelaars, of beperkt het zich tot een beperkt groepje spellen ?
Voor upgrade, complete zelfbouw, herstellen van windows/software klik hier!