Toon posts:

[Algemeen] ATi Nieuwsdiscussie Topic - Deel 31 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 4 5 6 Laatste
Acties:
  • 2.730 views sinds 30-01-2008

  • Anoniem: 38733
  • Registratie: Oktober 2001
  • Niet online
Nou het is dus game over voor de X1800.
Lol, beetje voorbarig vind je niet? :) Remember vorig jaar vlak na de release van 3DM05, toen de X800 serie in één klap 1000 punten meer kreeg na een nieuwe driverrelease (memory allocation bug).
De eindscore van 3DM06 schijnt voor een groot deel bepaald te worden door de FP blending HDR performance, zoals bekend iets waar X1K niet in schittert. Als we de komende één á twee driverreleases hier geen verbetering in zien zal het structureel blijven, maar we blijven nog even hopen. :)

De huidige "matige" scores had je kunnen voorspellen, check bijv. de FP HDR benchmarks van bijv. Firefox. En als "toetje" wordt ook nog steeds DST gebruikt als default, hier wint Nv ~8% performance mee. Ik blijf het nog steeds onbegrijpelijk vinden dat Nvidia kaarten het wordt toegestaan om een shadow compressie te mogen gebruiken die de schaduw kwaliteit visueel aantast, simpelweg afwijkt van de reference image. Dit is geen "Apples to Apples".

[Voor 38% gewijzigd door Anoniem: 38733 op 18-01-2006 16:48]


  • oeLangOetan
  • Registratie: Maart 2002
  • Laatst online: 04-08-2022
Anoniem: 126513 schreef op woensdag 18 januari 2006 @ 14:57:
@FirefoxAG, HDR is een belichtingsmethode van de toekomst, niet DE methode. Heeft alleen te maken met de niet zichtbare spectra die invloed hebben op de wel zichtbare lichtspectra. Overigens vind ik HDR vaak erg overdone en niet natuurlijk zoals in SS2 bijv. Het ziet wel mooi uit maar ik vind het niet natuurlijk, gelukkig kun je de intensietijd instellen.
niet een belichtingsmethode, de belichtingsmethode :p
alle engines gaan in de toekomst HDR gebruiken en momenteel lijken de GF kaarten beter te presteren met HDR, misschien omdat alle toepassingen die HDR gebruiken op GF kaarten gemaakt zijn. (de x1800 series nog niet lang beschikbaar)
overgens is het resultaat van d x1600 wel interessant :)
Is Catalyst 6.1 er al met de optimalisaties voor 3DM06? :Y)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Joepi
  • Registratie: December 1999
  • Laatst online: 08-06 13:15
Seeing that twelve drivers had already been released by ATI in 2005, most readers assumed that the new driver would have to come in January 2006 as Catalyst 6.1. ATI's Secret Santa decided to release this gift earlier to PC enthusiasts with a 13th driver release in 2005 and Oh, how things have changed!
http://firingsquad.com/ha...alyst_5.13_video_quality/

5.13 was dus 6.1 :+
Voor zover ik weet niet.

Cat 5.13 was gewoon de 13de catalyst release van 2005. Dit was de bonus Catalyst en konden ze moeilijk iets anders noemen. De Catalyst die in Januari uit komt is de eerste Catalyst van 2006 en zal daarom Catalyst 6.1 heten.

[Voor 83% gewijzigd door CJ op 18-01-2006 16:53]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Anoniem: 38733
  • Registratie: Oktober 2001
  • Niet online
CJ schreef op woensdag 18 januari 2006 @ 16:39:
Is Catalyst 6.1 er al met de optimalisaties voor 3DM06? :Y)
áls die optimalisatie's er zijn zou je toch verwachten dat Cat6.1 tenminste vandaag had gekomen, maar goed, Ati is meestal laat. :)

Heeft jouw vogeltje iets ingefluisterd CJ betreffende verbeteringen?

[Voor 14% gewijzigd door Anoniem: 38733 op 18-01-2006 16:55]


  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 05-04 22:34
"For boards that are missing hardware support for FP16 floating-point filtering (such as ATI's Radeon X1000 series), FutureMark have included a fallback which makes use of shader emulation of this feature to produce a comparable image and functionality, although naturally this should be slower than performing the filtering in hardware."
(gaat over de gebruikte vorm van HDR bij 3dmark 06)

Komt van: http://www.elitebastards.com/page.php?pageid=13397

Tja, dan is het wel logisch dat de x1000 serie langzamer is, of dit handig is van futuremark laat ik nog maar even in het midden...

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

oeLangOetan schreef op woensdag 18 januari 2006 @ 16:38:
niet een belichtingsmethode, de belichtingsmethode :p
alle engines gaan in de toekomst HDR gebruiken en momenteel lijken de GF kaarten beter te presteren met HDR, misschien omdat alle toepassingen die HDR gebruiken op GF kaarten gemaakt zijn. (de x1800 series nog niet lang beschikbaar)
Ik denk dat je dit inderdaad wel zo kunt stellen ja :)
overgens is het resultaat van d x1600 wel interessant :)
Mwoh, "interessant" is een groot woord als je weet hoe de scores berekend worden. De 3DMark06 score is een "optelling" van SM2.0, SM3.0 en CPU scores, met een formule daaroverheen:

3DMark06 - Score Calculation
As we've already mentioned, your final 3DMark06 score is calculated from the framerates garnered in the four graphics tests, and two CPU tests of a default benchmark run. The final score (as well as those for separate SM 2.0, HDR/SM 3.0 and CPU scoring) is calculated using the following methodology:

SM2.0 Score = 120 x 0.5 x (SM2 GT1 fps + SM2 GT2 fps)
HDR/SM3.0 Score = 100 x 0.5 x (SM3 GT1 fps + SM3 GT2 fps)
CPU Score = 2500 x Sqrt (CPU1 fps x CPU2 fps)
3DMark Score = 2.5 x 1.0/ ((1.7/GS + 0.3/CPU Score)/2)


De scores van de X1600 zijn dus gewoon niet vergelijkbaar met die van een X850 (of any andere SM2.0 kaart), gezien de laatste gewoon 1 score-element (SM 3.0 score) mist en dus per definitie een stuk lager scoort...

Eveneens uit het artikel:
If 3DMark05 was controversial, then 3DMark06 will be blowing up a storm of vast proportions - One of the major graphics IHVs is really not happy with the way this benchmark has been developed, and it is almost certainly something you'll be hearing a lot about rather soon by all accounts.
Ik ben zeeeeer benieuwd. Een nieuwe publiciteits/pr rel?:P
ATi moet met een antwoord komen, gezien hun positionering van hun X1K series als "gericht op de toekomst" (i.t.t. GTX). Een gelijkspel van X1800XT met een stock GTX 256 in "de" next gen benchmark (zo ziet het publiek het) past natuurlijk niet echt lekker in dat beeld O-)
SpankmasterC schreef op woensdag 18 januari 2006 @ 17:07:
"For boards that are missing hardware support for FP16 floating-point filtering (such as ATI's Radeon X1000 series), FutureMark have included a fallback which makes use of shader emulation of this feature to produce a comparable image and functionality, although naturally this should be slower than performing the filtering in hardware."
(gaat over de gebruikte vorm van HDR bij 3dmark 06)

Komt van: http://www.elitebastards.com/page.php?pageid=13397
Tja, dan is het wel logisch dat de x1000 serie langzamer is, of dit handig is van futuremark laat ik nog maar even in het midden...
Tsja, ik vraag me af of er uberhaupt sprake is van "handig" of niet. FP16 HDR zoals door hun geimplementeerd (en volgens mij zoals tot nu toe door iedere FP16 dev geimplementeerd) maakt gebruik van FP filtering. Kan dit niet in hardware, dan moet het ge-emuleerd worden... it's that simple :/
Ik snap ook nog steeds ATi's keuze om hardware FP filtering weg te laten uit de X1K serie niet... het kost dus echt performance blijkbaar... of het vereist misschien een ander (blijkbaar kwalitatief minder) renderpath wat futuremark weigert te nemen. Je kunt niet ATi kaarten zonder en nV kaarten met filtering vergelijken als dit ook echt een ander plaatje oplevert.

[Voor 30% gewijzigd door Cheetah op 18-01-2006 17:21]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


Anoniem: 54475

Hey allen, lang niet gezien, had het druk, wordt papa!!
(was ff offtopic ;-))

Afgaande van het volgende:

"In the meantime, we’ll continue to focus on testing the latest graphics hardware with real shipping titles, and use 3DMark 06 only on occasion from time to time. Perhaps with 3DMark 06’s new emphasis on CPU performance, 3DMark 06 would be better served as a system benchmark used to evaluate a given PC’s performance as a gaming platform rather than solely as a 3D benchmark, in some ways similar to the way 3DMark 2001 was used by enthusiasts to judge the success of their overclocking endeavors."

zou ik eerder per spel testen, en niet via 3d mark 06 om de performance van huidige en komende spellen te testen... Het is goed als en indicatietool, maar niet zozeer om je daardoor te laten leiden tot aankoop van een videokaart. _/-\o_

Verder vindt ik dat de X1800 series teleurstelt.... Dat betekent niet dat ik de mijne meteen wegdoe, maar wellicht komt er door middel van nwe drivers etc. daar nog verbetering in.
Nvidia heeft wat dat betreft stabielere drivers, en heeft zat tijd gehad om de boel te tweaken voor performance, terwijl Ati dat met de X1000 series niet echt had.
Over HDR performance maak ik me eigenlijk helemaal niet druk op dit moment.... 8)7

Ik kijk op dit moment ff wijselijk de kat uit de boom O-)
Anoniem: 38733 schreef op woensdag 18 januari 2006 @ 16:54:
[...]


áls die optimalisatie's er zijn zou je toch verwachten dat Cat6.1 tenminste vandaag had gekomen, maar goed, Ati is meestal laat. :)

Heeft jouw vogeltje iets ingefluisterd CJ betreffende verbeteringen?
Mijn gevoel zegt me dat er wel wat veranderingen in zitten. ;) Er zouden dus wel wat verbeteringen in moeten zitten, maar voor sommige zaken in 3DM06 is moeilijk te optimaliseren. Zoals wat?

FP16 Floating Point Filtering
3DM06 gebruikt met HDR bijvoorbeeld FP16 floating-point filtering en dat ondersteunt ATi niet in de hardware. 3DM06 emuleert nu dus FP16 Filtering via de shaders om een gelijke beeldoutput te genereren (net zoals UE3 dat zal doen) en dit levert altijd een performancedrop op (maximaal zo'n 25% geloof ik).

DST & PCF Filtering niet in R520, wel in RV515/RV530
Daarnaast gebruikt 3DM06 ook D24X8 of R32F depth textures voor shadowing en dat is geloof ik DST... nVidia ondersteunt dit hardwarematig en zoals we bij de GF6 serie gezien hebben in 3DM06 zorgde dit voor zo'n 1000 punten meer. De R520 ondersteunt geen hardware 24-bit DST/Fetch4 (is ook geen onderdeel van DX9). De X1600 en X1300 aan de andere kant ondersteunen het wel!

Hardware Vertex Texture Fetch in 3DM06
Vertex Texture Fetch is een onderdeel van Vertex Shader 3.0 compliancy. Maar ATi maakt hier gebruik van een loophole in de specs, namelijk dat er geen texture formats voorgeschreven worden die ondersteunt moeten worden. ATi heeft dit heel letterlijk genomen en R520 ondersteunt dus Vertex Texture Fetch maar geen enkele texture format wordt blootgesteld in de hardware/drivers.

Mocht een applicatie wel VTF gebruiken dan dient deze ook gebruik te maken van ATi's manier van vertex texturing via de nieuwe extensie in DX, Render to Vertex Buffer (R2VB). Dit is eigenlijk superieur aan VTF omdat alle mogelijkheden van de pixelshader gebruikt kunnen worden en in de geometry pipeline terug kunnen worden gevoerd. En tevens zou de performance ook beter moeten zijn dan de huidige vertex texturing mogelijkheden in hardware omdat de pixel pipelines beter geschikt zijn om om te gaan met latency en dit beter kunnen verbergen.

ATi heeft de mogelijkheid om het developers gemakkelijk te maken door R2VB via de drivers automatisch te laten activeren wanneer een applicatie om VTF vraagt. Dit gebeurt op dit moment nog niet. Een applicatie dient nu dus specifiek geschreven te zijn voor R2VB (dit vereist ongeveer 5 regels code verandering!).

Wat heeft dit met 3DM06 te maken? Nou simpel. Die gebruikt Vertex Texture Fetch en ondersteunt geen R2VB. Ik vermoed dat Catalyst 6.1 een profiel zal hebben voor 3DM06 met R2VB.

nVidia heeft trouwens al een tijdje een profiel voor 3DM06 en ATi is fashionably late met hun optimaliseringen. Altijd last minute. ;)

Edit: en ik neem aan dat het iedereen ook opgevallen is dat PC Perspective gebruikt maakt van OC nV kaarten? (GTX @ 450/1.25, GT @ 450/1.05, 6800GS @ 485/550) vs non-OC ATi kaarten. De eindslag ziet er non-OC toch iets anders uit voor nV.... ligt dan een stuk dichter bij elkaar.

[Voor 13% gewijzigd door CJ op 18-01-2006 17:49]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Anoniem: 38733
  • Registratie: Oktober 2001
  • Niet online
FP16 Floating Point Filtering
3DM06 gebruikt met HDR bijvoorbeeld FP16 floating-point filtering en dat ondersteunt ATi niet in de hardware. 3DM06 emuleert nu dus FP16 Filtering via de shaders om een gelijke beeldoutput te genereren (net zoals UE3 dat zal doen) en dit levert altijd een performancedrop op (maximaal zo'n 25% geloof ik).
Haal jij 'blending' en 'filtering' niet door elkaar? Bijv. Farcry gebruikt geen FP blending/filtering, enkel FP blending voor HDR.

Tim Sweeney zei het volgende over UE3's HDR methode;

How is High-Dynamic-Range rendering done on R300/R420 class visual processors?

"The only special consideration on that hardware is its lack of floating-point blending. To work around that, we swap to a new render target, and perform manual blending in a shader program, using the original render target as a texture. This is slower than real floating-point blending, but only affects total performance by 20% or so"


Bovenstaande gaat niet op voor X1K aangezien deze gewoon FP blending ondersteund. Mocht er FP filtering noodzakelijk zijn dan gebeurd dit idd in de shader, maar de performancehit hiervan schijnt niet groot te zijn in het geval het gebruikt wordt. Of 3DM06 het gebruikt weet ik niet.

  • Anoniem: 38733
  • Registratie: Oktober 2001
  • Niet online
Trouwens wel grappig om deze resultaten te zien, Ati veegt Nvidia hier kompleet van de kaart ;) :)

http://www.firingsquad.com/hardware/3dmark_06/images/gt3high12804aa.gif

http://www.firingsquad.com/hardware/3dmark_06/images/gt4high12804aa.gif

"When we move to tests with anti-aliasing turned on, things change substantially. Although the GeForce 7800GTX is one of the fastest performing GPUs in real-world games it cannot do HDR and anti-aliasing simultaneously. ATI can. As a result, NVIDIA puts in a zero score for the HDR/SM3.0 with anti-aliasing tests."

http://www.firingsquad.com/hardware/3dmark_06/page10.asp

  • Astennu
  • Registratie: September 2001
  • Laatst online: 09-06 13:42
UHmm dit verandert de beoordeling echt giganties.

Maar waarom heeft ATi die FP16 niet gewoon ondersteunt ? Want dat is dan wel genaaid als dat via emulatie wordt gedaan dan vind ik het niet raar dat de Nvidia kaart dik wint.

Mja de vraag is hoe gaan de toekomstige games dat doen. Als dat ook via emulatie gaat heeft ATi een grote fout gemaakt.

En hopelijk fixt ati nog het een en ander dat bepaalde dingen toch hardwarematig gedaan kunnen worden. Zoals R2VB.

En over dat HDR + AA dat was bekend. Maar wel leuk om te zien natuurlijk :)

[Voor 10% gewijzigd door Astennu op 18-01-2006 18:53]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Anoniem: 38733 schreef op woensdag 18 januari 2006 @ 18:21:
[...]


Haal jij 'blending' en 'filtering' niet door elkaar? Bijv. Farcry gebruikt geen FP blending/filtering, enkel FP blending voor HDR.

Tim Sweeney zei het volgende over UE3's HDR methode;

How is High-Dynamic-Range rendering done on R300/R420 class visual processors?

"The only special consideration on that hardware is its lack of floating-point blending. To work around that, we swap to a new render target, and perform manual blending in a shader program, using the original render target as a texture. This is slower than real floating-point blending, but only affects total performance by 20% or so"


Bovenstaande gaat niet op voor X1K aangezien deze gewoon FP blending ondersteund. Mocht er FP filtering noodzakelijk zijn dan gebeurd dit idd in de shader, maar de performancehit hiervan schijnt niet groot te zijn in het geval het gebruikt wordt. Of 3DM06 het gebruikt weet ik niet.
Nee ik haal het niet door elkaar. UE3 gebruikt beide. Blending en Filtering voor zover ik weet... dus wat voor 3DM06 geldt, geldt dan ook voor UE3.

3DM06 gebruikt zowel FP16 Blending en FP16 Filtering voor HDR. FP16 Blending wordt hardwarematig ondersteunt. FP16 Filtering niet. Zie ook Elite Bastards
For boards that are missing hardware support for FP16 floating-point filtering (such as ATI's Radeon X1000 series), FutureMark have included a fallback which makes use of shader emulation of this feature to produce a comparable image and functionality, although naturally this should be slower than performing the filtering in hardware.
Shader FP Filtering zorgt in 3DM06 voor een drop van ong 10%.

Over DST is ook nog niet alles gezegd.
According to ATI, a 16-bit depth stencil texture (DST) would have been sufficient to preserve quality in 3DMark06. Futuremark does not use DSTs on current ATI cards since they do not support the D24X8 format—instead they render into a 32-bit floating point color buffer and use it as the depth texture. When generating the shadow buffers on an X1000 cards for each pixel, ATI has to read and write to a 32-bit depth buffer, and also write to a 32-bit color buffer for a total of up to 96-bits per pixel of bandwidth.

Regardless, the decision to use the 24X8 texture format for the depth stencil texture favors current Nvidia cards heavily with a significant reduction in required bandwidth.
Bron: www.extremetech.com

ATi rendert dus alles op een hogere precisie. 16 bit is vereist door DX9. 24-bit is optioneel. En toch kiest Futuremark voor de optionele 24-bit DST ondanks dat het in bijna geen enkele game gebruikt wordt.

[Voor 5% gewijzigd door CJ op 18-01-2006 18:56]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

Astennu schreef op woensdag 18 januari 2006 @ 18:51:
UHmm dit verandert de beoordeling echt giganties.

Maar waarom heeft ATi die FP16 niet gewoon ondersteunt ? Want dat is dan wel genaaid als dat via emulatie wordt gedaan dan vind ik het niet raar dat de Nvidia kaart dik wint.

Mja de vraag is hoe gaan de toekomstige games dat doen. Als dat ook via emulatie gaat heeft ATi een grote fout gemaakt.

En hopelijk fixt ati nog het een en ander dat bepaalde dingen toch hardwarematig gedaan kunnen worden. Zoals R2VB.

En over dat HDR + AA dat was bekend. Maar wel leuk om te zien natuurlijk :)
Dat vraag ik mezelf ook af. Ik wil geen kaart die in UE3 emuleert. Ik dacht toch echt dat ATI alles onder steunde behalve VF.

Niet op voorraad.


  • Astennu
  • Registratie: September 2001
  • Laatst online: 09-06 13:42
edward2 schreef op woensdag 18 januari 2006 @ 19:01:
[...]


Dat vraag ik mezelf ook af. Ik wil geen kaart die in UE3 emuleert. Ik dacht toch echt dat ATI alles onder steunde behalve VF.
Nja zo te zien is er dus veel meer. En wat CJ ook zegt over die 24x8. Dat is ook wel ernstig dan :\.

Dus 3 dingen die op een ATi kaart niet optimaal lopen omdat er iets anders is. Kun je na gaan en toch houd i nvidia bij. Best knap. K ben benieuwd in hoeverre ATi dit gaat oplossen. Want in de huidige games zullen ze wel tegen de zelfde problemen aan lopen. Want de HDR peformance is tot nu toe om te huilen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Het gebrek aan FP Filtering zorgde in Serious Sam 2 voor rendering errors met HDR. Dit is verholpen door een simpele patch zonder IQ verlies. Ik neem aan dat dit ook met UE3 mogelijk is.

Dit is echter een groter probleem:
Then there are the 24-bit depth stencil textures. This is supposedly an optional format in DX9, and yet it is required by Futuremark's new shadow algorithm. Only Nvidia supports this format, but rather than using a 16-bit depth stencil texture (required by DX9) on ATI cards, they're forced into a costly workaround. If ATI is forced into a costly workaround for the depth stencil texture format, why isn't Nvidia forced into a costly workaround for HDR + AA? Here we have a major hardware manufacturer claiming that the 24-bit format for the DST is not required to preserve shadow quality, nor that it is commonly used by game developers. Futuremark claims that it is necessary. We'd like to see the benchmark using 16-bit DSTs just to compare quality and judge for ourselves.
http://www.extremetech.com/article2/0,1697,1912123,00.asp

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Anoniem: 38733 schreef op woensdag 18 januari 2006 @ 18:39:
Trouwens wel grappig om deze resultaten te zien, Ati veegt Nvidia hier kompleet van de kaart ;) :)

[afbeelding]

[afbeelding]

"When we move to tests with anti-aliasing turned on, things change substantially. Although the GeForce 7800GTX is one of the fastest performing GPUs in real-world games it cannot do HDR and anti-aliasing simultaneously. ATI can. As a result, NVIDIA puts in a zero score for the HDR/SM3.0 with anti-aliasing tests."

http://www.firingsquad.com/hardware/3dmark_06/page10.asp
We weten allemaal al langer dan vandaag dat nVidia geen HDR + AA kan ;) Niks nieuws, en ik snap niet wat er grappig aan is, tenzij je graag een game aan gemiddeld 10 fps speelt :?

World War One

Het grappige is natuurlijk nog altijd dat nVidia zei dat dit onmogelijk was tenzij je ongeveer 2GB aan geheugen had (of zelfs meer). Nu blijkt dat HDR + AA toch mogelijk is. En om eerlijk te zijn is de performancedrop niet echt groot als je kijk naar HDR -> HDR + AA. Ongeveer 25% performancedrop, terwijl de groene concurrent altijd bij hoog en laag beweerde dat dit onmogelijk was.

Ik zag dat Apple ook de vraag over filtering gesteld had op B3D en nu heb je dus hetzelfde antwoord gekregen als wat ik gezegd had. ;) De X1K serie doet FP Filtering dus via de shaders. En de "very efficient shader emulation" resulteert dus maximaal in zo'n 10% performance drop.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Anoniem: 38733
  • Registratie: Oktober 2001
  • Niet online
Nick van Futuremark;

"We require FP16 texture & FP16 blending support (and SM3.0) for the HDR/SM3.0 tests. FP16 filtering is supported, but not required. For hardware without FP16 filtering the tests fallback to a very efficient shader emulation."

http://www.beyond3d.com/f...hp?p=676716&postcount=182

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 20:34

XanderDrake

Build the future!

Is 3Dmark2006 ook TWIMTBP dan ;) ? Hehe dat zou wat zijn.

Over de "HDR + AA =! nVidia kaarten" kwestie, ik gebruik gewoon "blur AA" oftewel Quincux AA icm HDR :) .
Ik zie het verschil tussen AA en Qs AA gewoonweg niet. En de kleine preformance drop mag er ook wel wezen!

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • Astennu
  • Registratie: September 2001
  • Laatst online: 09-06 13:42
XanderDrake schreef op woensdag 18 januari 2006 @ 19:39:
Is 3Dmark2006 ook TWIMTBP dan ;) ? Hehe dat zou wat zijn.

Over de "HDR + AA =! nVidia kaarten" kwestie, ik gebruik gewoon "blur AA" oftewel Quincux AA icm HDR :) .
Ik zie het verschil tussen AA en Qs AA gewoonweg niet. En de kleine preformance drop mag er ook wel wezen!
Het lijkt haast wel op TWIMTBP want futuremark gebruikt onderhand Nvidia standaards ivp DX 9.0 standaards

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • winwiz
  • Registratie: September 2000
  • Laatst online: 21:54
Ahum...... Ehhhhhh


Cat 6.1 is uit..... :)

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021


  • EricJH
  • Registratie: November 2003
  • Laatst online: 10-06 05:37
winwiz schreef op woensdag 18 januari 2006 @ 20:01:
Ahum...... Ehhhhhh


Cat 6.1 is uit..... :)
Staat nog niet op de voorpagina....iets vergeten soms? :+

  • Astennu
  • Registratie: September 2001
  • Laatst online: 09-06 13:42
EricJH schreef op woensdag 18 januari 2006 @ 20:02:
[...]

Staat nog niet op de voorpagina....iets vergeten soms? :+
https://support.ati.com/i...sk=knowledge&folderID=293

Ff beter zoeken :). Maar ik vind 06 afgezaagd hoor die demo is hetzelfde als van 05 alleen nu met HDR. 06 is nu al een slechte bench ze hebben wel erg weinig moeite gedaan vind ik. De laatste tijd zie je niet veel venieuwends meer dat is eigenlijk als sinds dat hele futuremark gebeuren. 3Dmark 2000 en 2001 zijn toch wel een van de betere van hun. De rest is in mijn ogen lang niet zo goed.

Tis nog erger !!! 3 tests zijn hetzelfde alleen nu hebben ze voor de cpu test niet game 3 gebruikt maar een apparte en een game 4 toegevoegt. De rest is hetzelfde alleen nu met HDR en andere dingen. Maar igg 3508 punten met 5.13 drivers nu 6.1 installeren ik ben benieuwd.

Edit:

Nou cat 6.1 doet dus niets 3519. Whoohoo 10 punten.

[Voor 23% gewijzigd door Astennu op 18-01-2006 20:47]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Upke dupke
  • Registratie: Januari 2003
  • Laatst online: 15:29

Upke dupke

Oompa Loompa

Ik heb 3409 punten. Ik geef er niet zo heel veel om, ik kan op dit moment alle spellen prima spelen. Maar toch vraag ik me af of ik/wij hier tevreden over zou moeten zijn. (nVidia doet het erg goed zo te zien, erg jaloers ;) :p )

  • Astennu
  • Registratie: September 2001
  • Laatst online: 09-06 13:42
Upke dupke schreef op woensdag 18 januari 2006 @ 21:18:
Ik heb 3409 punten. Ik geef er niet zo heel veel om, ik kan op dit moment alle spellen prima spelen. Maar toch vraag ik me af of ik/wij hier tevreden over zou moeten zijn. (nVidia doet het erg goed zo te zien, erg jaloers ;) :p )
Jah maar denk ook ff aan hoe. Als de X1800 2 dingen anders zou doen op een optimale manier voor die chip dan komt het gelijk te staan. Of laat de Nvidia dan presies hetzelfde renderen als de ATi. Dan kijg je wat anders te zien denk ik.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

X1900XT @ 3DM06, FX55
4618 3DMarks

X1900XT @ 3DM06, FX60
5348 3DMarks

Ter vergelijking GTX512 @ 3DM06, FX55
4642 3DMarks

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Astennu
  • Registratie: September 2001
  • Laatst online: 09-06 13:42
CJ schreef op woensdag 18 januari 2006 @ 21:36:
X1900XT @ 3DM06, FX55
4618 3DMarks

X1900XT @ 3DM06, FX60
5348 3DMarks

Ter vergelijking GTX512 @ 3DM06, FX55
4642 3DMarks
Owh jeey dit is niet goed :D. Mischien toch maar geen X1900 kopen want dit valt me wel extreem tegen.

Maar de shaders worden dus niet echt goed gebruikt of wel ? Want er is ongeveer 22% winst TOV een X1800 XT. Maar de X1900 gebruikt ook wat andere Render pads. Namelijk die van de RV530 ( of heb ik dit verkeerd ? ) En als die HDR via de shaders word geemuleerd zou i dus veel sneller moeten gaan op de X1900. Maar dat zal wel niet zo zijn omdat 1: de drivers er niet voor geschreven zijn 2: de software daar op niet op rekent. Of beredeneer ik dit verkeerd.

[Voor 41% gewijzigd door Astennu op 18-01-2006 21:43]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

CJ schreef op woensdag 18 januari 2006 @ 21:36:
X1900XT @ 3DM06, FX55
4618 3DMarks

X1900XT @ 3DM06, FX60
5348 3DMarks

Ter vergelijking GTX512 @ 3DM06, FX55
4642 3DMarks
Geen XTX dus?

Nog steeds zo'n CPU-invloed had ik niet verwacht.. En de uitslag valt me tegen. Op de één andere manier lijkt de shaderpower van de X1900Xt nog niet tot uiting te komen in deze test..

Niet op voorraad.


  • jimbojansen
  • Registratie: Mei 2005
  • Laatst online: 09-04 08:22
edward2 schreef op woensdag 18 januari 2006 @ 21:47:
[...]


Geen XTX dus?

Nog steeds zo'n CPU-invloed had ik niet verwacht.. En de uitslag valt me tegen. Op de één andere manier lijkt de shaderpower van de X1900Xt nog niet tot uiting te komen in deze test..
je kan ook de CPU score er vanaf trekken.. dan heb je (volgens mij) CPU-onafhankelijke score

  • m277755
  • Registratie: Februari 2004
  • Laatst online: 24-01-2022

m277755

leest meer dan hij typt

Dat verschil zit hem denk ik meer in de dual core drivers dan echte cpu power

  • Upke dupke
  • Registratie: Januari 2003
  • Laatst online: 15:29

Upke dupke

Oompa Loompa

Ik zat net in bad, en ik zat zo aan de scores te denken, en had een groot gevoel van een zinked schip. ;) Daarmee bedoel ik, de X1800. En als dat de scores zijn van een X1900 dan is het meer dan een zinkend schip. Dan is het een lekke onderzeeër. :/

Edit: BLAAT!

[Voor 44% gewijzigd door Upke dupke op 18-01-2006 22:02]


  • dikki dik
  • Registratie: Januari 2004
  • Laatst online: 12-07-2020
catalyst 6.1 is uit

meuktracker: ATi Catalyst 6.1


was al gepost, over drie posts hhen gelezen :X

[Voor 33% gewijzigd door dikki dik op 18-01-2006 22:03]

Battlefield 2 stats - Specs PC - X360 Gamertag


  • Boxman
  • Registratie: Januari 2005
  • Laatst online: 30-05 12:36
Ja, de CPU-score wordt gewoon bij de SM2.0 test score en de HDR/SM3.0 test score opgeteld. Echt slecht gedaan vind ik, want nu kan je de X800 bijvoorbeeld niet vergelijken met concurrent 6800 (voor zover ik het nog een concurrent kan noemen). De HDR/SM3.0 score ontbreekt bij de X800 namelijk gewoon, terwijl de X800 in games de 6800 er flink uit trekt... Ik vind dat die test niet echt geweldig is.

@ CJ en de mensen die daarop reageren: get over it, de X1900XT is nog nieteens gemaakt. De architectuur is enkel bekend, dneken jullie nou serieus dat er nu al scores van de x1900XT zijn?

[Voor 20% gewijzigd door Boxman op 18-01-2006 21:58]

Ryzen 3950x | Taichi x470 | 64GB E-die 3600C16 | Watercooled 2080 Ti | Seasonic X-1250W


  • Anoniem: 38733
  • Registratie: Oktober 2001
  • Niet online
Nou cat 6.1 doet dus niets 3519. Whoohoo 10 punten.
Iemand op Beyond3D scoort ruim 300 punten meer met 6.1 (met een X1800XT). Verbetering
zit in de sm2.0 test;

5.13 Drivers Optimal Default Quality:
1425 SM2.0 score
1799 HDR/SM3.0 score
1417 CPU Score

3948 total
--------------------------------
6.1 Drivers Optimal Default Qaulity:
1747 SM2.0 Score
1791 SM3.0 Score
1404 CPU Score

4257 total

[Voor 13% gewijzigd door Anoniem: 38733 op 18-01-2006 21:59]


  • edward2
  • Registratie: Mei 2000
  • Laatst online: 25-05 02:13

edward2

Schieten op de beesten

Boxman schreef op woensdag 18 januari 2006 @ 21:57:
@ CJ en de mensen die daarop reageren: get over it, de X1900XT is nog nieteens gemaakt. De architectuur is enkel bekend, dneken jullie nou serieus dat er nu al scores van de x1900XT zijn?
:D
De X1900 is al in handen van reviewers en misschien al in de groothandel ook in NL.

Niet op voorraad.


  • epo
  • Registratie: November 2000
  • Laatst online: 00:51
cat 6.1 : 3dmark2006 4225 :

SM 2.0 Score 1833
SM 3.0 Score 1894
CPU Score 1107

http://service.futuremark.com/compare?3dm06=5259

[Voor 28% gewijzigd door epo op 18-01-2006 22:06]

Boxman schreef op woensdag 18 januari 2006 @ 21:57:
@ CJ en de mensen die daarop reageren: get over it, de X1900XT is nog nieteens gemaakt. De architectuur is enkel bekend, dneken jullie nou serieus dat er nu al scores van de x1900XT zijn?
Jij volgt zeker het laatste nieuws niet? De X1900XT en X1900XTX zijn al gemaakt en liggen nu al bij verscheidene winkels te wachten totdat ze verkocht mogen worden maandag. En zoals gezegd, de reviewers hebben 'm nu al een paar weken kunnen testen.

Cat 6.1 zou zo'n 6-8% boost moeten geven op de X1K architectuur in 3DM06

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Anoniem: 38733
  • Registratie: Oktober 2001
  • Niet online
Iemand op Beyond3D scoort ruim 300 punten meer met 6.1 (met een X1800XT).
Zelf even 5.13 met 6.1 vergeleken en ik zie geen enkel verschil, sterker nog, tot op de punt hetzelfde; 4076 (X1800XT).

  • Astennu
  • Registratie: September 2001
  • Laatst online: 09-06 13:42
Anoniem: 38733 schreef op woensdag 18 januari 2006 @ 21:57:
[...]


Iemand op Beyond3D scoort ruim 300 punten meer met 6.1 (met een X1800XT). Verbetering
zit in de sm2.0 test;

5.13 Drivers Optimal Default Quality:
1425 SM2.0 score
1799 HDR/SM3.0 score
1417 CPU Score

3948 total
--------------------------------
6.1 Drivers Optimal Default Qaulity:
1747 SM2.0 Score
1791 SM3.0 Score
1404 CPU Score

4257 total
Huh vaag :S Ik haal na genoeg niets extra. Mischien is me Windows dan een beejte fucked up.Nja het zal wel :D Mijn cpu core is BTW wel lager dan die 1404 daar ik zit net op 1060 of zo.
CJ schreef op woensdag 18 januari 2006 @ 22:12:
[...]


Jij volgt zeker het laatste nieuws niet? De X1900XT en X1900XTX zijn al gemaakt en liggen nu al bij verscheidene winkels te wachten totdat ze verkocht mogen worden maandag. En zoals gezegd, de reviewers hebben 'm nu al een paar weken kunnen testen.

Cat 6.1 zou zo'n 6-8% boost moeten geven op de X1K architectuur in 3DM06
En die X1900 score die jij had was met 5.13 ?
Anoniem: 38733 schreef op woensdag 18 januari 2006 @ 22:25:
[...]


Zelf even 5.13 met 6.1 vergeleken en ik zie geen enkel verschil, sterker nog, tot op de punt hetzelfde; 4076 (X1800XT).
Ik ben dus niet de enige :D Ik vraag me af wat er dan niet goed zit. @ 600-700 heb ik iets van 375x.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Avvd
  • Registratie: November 2003
  • Niet online
ik had eigenlijk een vraag:
ik wilde dit mobo gaan halen:
DFI Lanparty UT RDX200
met dus dus de SB450 shipset.

ikheb nu een x800gto2 dus geen mastercard.
nou las ik in de start post dat het nieuwere chipset geen mastercard meer nodig heeft is dan de kans niet groot dat er straks geen mastercards meer te krijgen zijn aangezien die nu ook zeer moeilijk verkrijgbaar zijn.

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Heb hem juist effe gedraaid, die CPU-tests waren een diashow hier... En dat voor een Athlon XP @ 2.3GHz... Ik praat dus over een frame elke 5 à 10 seconden. De Basic versie is echt wel bekrompen... Had trouwens 1600 puntjes zowat op dit systeem.

  • Astennu
  • Registratie: September 2001
  • Laatst online: 09-06 13:42
Spacejam schreef op woensdag 18 januari 2006 @ 22:40:
ik had eigenlijk een vraag:
ik wilde dit mobo gaan halen:
DFI Lanparty UT RDX200
met dus dus de SB450 shipset.

ikheb nu een x800gto2 dus geen mastercard.
nou las ik in de start post dat het nieuwere chipset geen mastercard meer nodig heeft is dan de kans niet groot dat er straks geen mastercards meer te krijgen zijn aangezien die nu ook zeer moeilijk verkrijgbaar zijn.
Ik zou ff wachten over 2 weken is de RD580 uit en DFI heeft een mobo met die chip klaar staan. En die is veel sneller.

Over die mastercard. Dat geld alleen voor de X1300 en X1600. En die werken niet goed @ RD480 omdat die maar 8x PCIe heeft. En bij die kaarten gaat alle communicatie via de bus dus loop je bij de X1600 al tegen de limmit aan en heb je soms maar 35% prestatie winst. De RD580 moet dit verbteren want die heeft 2x16 PCI E. Ding gaat de Xpress 3200 heten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Avvd
  • Registratie: November 2003
  • Niet online
dus als ik er op dat mobo nog een x800gto2 erbij zet dan zou het dus in crossfire moeten werken. of zie ik het dan verkeerd. want als ik zie dat dit mobo al ruim 200 euro dan wil ik niet weten hoe duur de nieuwe variant is.

  • Aight!
  • Registratie: Juli 2004
  • Laatst online: 00:26

Aight!

'A toy robot...'

Ik weet niet of de X800 serie wel in Crossfire kan, alleen de X850XT Mastercard heb je nodig voor de X850XT/Pro X800XL.

  • Avvd
  • Registratie: November 2003
  • Niet online
er zit in mijn kaart nu wel een x850xt-pe bios in (dus niet de verbouwde x800gto2 bios).
stock snelheid is nou dus ook gewoon 540/590.

en is het met crossfire ook mogelijk om een x850xt-pe met een x1800xt te mengen of gaan 2 generaties door elkaar niet werken?

  • Astennu
  • Registratie: September 2001
  • Laatst online: 09-06 13:42
Spacejam schreef op woensdag 18 januari 2006 @ 22:55:
er zit in mijn kaart nu wel een x850xt-pe bios in (dus niet de verbouwde x800gto2 bios).
stock snelheid is nou dus ook gewoon 540/590.

en is het met crossfire ook mogelijk om een x850xt-pe met een x1800xt te mengen of gaan 2 generaties door elkaar niet werken?
Neeh dan moet je een X850 Mastercard gebruiken. Want volgens mij blijf je die composting chip nodig hebben voor de X8X0 serie. En die heeft die X800 GTO niet.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Avvd
  • Registratie: November 2003
  • Niet online
en met het nieuwe chipset hoeft het niet meer? dan zou ik er dus wel 2x een x800gto2 in kunnen zetten. en een x800gto2 met een x1800 werkt dat ook? of vraag ik dan te veel van het crosfire gebeuren :)

  • Astennu
  • Registratie: September 2001
  • Laatst online: 09-06 13:42
Spacejam schreef op woensdag 18 januari 2006 @ 23:17:
en met het nieuwe chipset hoeft het niet meer? dan zou ik er dus wel 2x een x800gto2 in kunnen zetten. en een x800gto2 met een x1800 werkt dat ook? of vraag ik dan te veel van het crosfire gebeuren :)
Durf ik niet te zeggen. Kan best dat je het voor de X8x0 nog steeds moet. Maar igg kun je dan de X1600 goed in CF draaien zonder dat je tegen buss limmits aan loopt. Dus dan heb je meer dan 35% winst en ga je richting de 70% winst in CF @ X1600 kaartjes.

Maar ik denk eerlijk gezegt dat je nog wel een master kaart nodig zal hebben maar de borden clocken gewoon beter en hebben betere USB support en zo.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Ik zie - hoe verrassend - langzamerhand Futuremark verketterd worden voor keuzes die ze gemaakt hebben. Laten we echter wel zijn, het was ATi die de keuze heeft gemaakt deze door futuremark gebruikte onderdelen niet te ondersteunen in hun X1800...

En dan hebben we het over:
* FP Filtering: foute keuze i.m.o. dit kost ze over de hele FP16 HDR linie performance (niet alleen in 06)
* Vertex Texture Fetch: foute keuze i.m.o. ook dit kost ze performance, gezien eerst omzetting naar ATi's proprity R2VB formaat moet gebeuren
* D24X8 textures: betwistbaar, maar eveneens een foute keuze van ATi i.m.o. Waarom ondersteunen RV515 en RV530 dit wel en R520 niet? Als je keuzes maakt doe dat dan in ieder geval consequent (ondersteun het over de hele linie wel of niet).

2 van de 3 issues zijn dus i.m.h.o. onbetwistbaar rechtstreeks ATi's eigen schuld. De 3e is betwistbaar, maar ook hier neig ik meer richting ATi te wijzen:
"Optioneel" betekend dat het wel degelijk kan en mag worden gebruikt door dev's. Verder vind ik het ook geen onlogische keuze van FM... 16bit wordt als niet precies genoeg beschouwd, 32bit is erg precies, maar nogal zwaar, dus de tussenstap 24 bit lijkt me een erg logische, ook al is die officieel niet verplicht binnen DX9. De designteams van RV515/530 vonden dat blijkbaar ook, anders had ondersteuning daarvoor niet in die kaarten gezeten...
Ik vind dat je dan niet moet huilen als je high-end GPU de "gebeten hond" is omdat het de feature niet ondersteund, net als nV nu niets te janken heeft als blijkt dat hun kaarten bagger presteren met DB stukken renderwerk. Dat zijn de keuzes die je maakt...
CJ schreef op woensdag 18 januari 2006 @ 19:09:
Het gebrek aan FP Filtering zorgde in Serious Sam 2 voor rendering errors met HDR. Dit is verholpen door een simpele patch zonder IQ verlies. Ik neem aan dat dit ook met UE3 mogelijk is
Zonder IQ verlies, maar tevens zonder performancewinst... HDR performance van de X1800 in SS2 is echt dramatisch.
If ATI is forced into a costly workaround for the depth stencil texture format, why isn't Nvidia forced into a costly workaround for HDR + AA?
Allereest vraag ik me dan af hoe professioneel het extremetech figuur dat deze opmerking maakt is... De nV kaarten ondersteunen hardwarematig geen FP16 HDR + AA, dus daar is ook geen "costly" workaround voor te bedenken tenzij de boel via de shaders gerenderd wordt. Dan is het echter geen FP16 HDR of vergelijkbaar meer en is de score totaal niet meer te vergelijken met FP16 HDR+AA ondersteunende kaarten... met andere woorden die score zou nergens op slaan. De 0 score in die tests is dus juist, die staat voor "hardware incompatible" wat exact de juiste definitie hiervan is.
Ten tweede moet nog even aangetoont worden hoe "costly" 32bits i.p.v. 24bits renderen nu werkelijk is... ik denk dat een groot deel van deze resultaten namelijk gewoon te wijten is aan ATi's HDR problemen, ze dit gewoon niet willen erkennen, en nu FM de zwarte piet proberen toe te spelen. D24X8 werd al in 05 gebruikt, en nu het in 06 hergebruikt wordt wil ATi daar plotseling een rel op los laten... typisch he...

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Astennu
  • Registratie: September 2001
  • Laatst online: 09-06 13:42
Ach ja zo blijft het wat. Nu begin ik me af te vragen wat er nu gaat gebeuren is een X1900 strax totaal waardeloos in de next gen games omdat i die FP16 niet support ? En HDR brak loopt.

Ik wil wel een beetje kunnen gamen met een kaart van 600 euro :\

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • J0YR1D3R
  • Registratie: Juni 2001
  • Niet online
Boxman schreef op woensdag 18 januari 2006 @ 21:57:

@ CJ en de mensen die daarop reageren: get over it, de X1900XT is nog nieteens gemaakt. De architectuur is enkel bekend, dneken jullie nou serieus dat er nu al scores van de x1900XT zijn?
Heb er anders al genoeg door mn handen gehad :P Zelfs de XTX :)

Website


  • Astennu
  • Registratie: September 2001
  • Laatst online: 09-06 13:42
J0YR1D3R schreef op woensdag 18 januari 2006 @ 23:55:
[...]


Heb er anders al genoeg door mn handen gehad :P Zelfs de XTX :)
Owh in dat geval is 750 euro overdreven :D kom maar met een X1900 XT voor 550 euro in de winkels :D

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 05-04 22:34
Als je kaart gezien wordt als een X850 XT, dan moet je volgens mij gewoon crossfire kunnen draaien, ook op dat 'oude' mobo, als je een x850 Master Card weet te vinden.
Deze zullen wel pittig duur zijn, maar de compositing chip zit hier dus op... Ook heb je te maken met die 1600x1200@60Hz limiet...

Maar crossfire is wel mogelijk, alleen niet door er nog een GTO2 bij te rammen, dan werkt t niet..

En neem op mijn woorden ook geen gif in, want je hebt geen officiele x850, je hebt m gebiosflashed en voor hetzelfde geldt is er toch een hardwarematig verschil waardoor het niet werkt....

(Had ff niet gezien dat pagina 15 er ook al was... dit is dus voor Spacejam bedoeld)

[Voor 8% gewijzigd door SpankmasterC op 19-01-2006 01:42]


Anoniem: 94724

eerst echt zien, dan geloven. Ik haal met een 7800GT(490+40/1200) al 4413 met gewone whql fm approved 81/98 drivers en een x2 4400+@2700Mhz

Dus als een in spelletjes veeeeel snellere GTX512 maar 200 puntjes meer doet dan is een kaart als de x1900xt met een fx60(langzamer dan mijn cpu dus:)) met zijn 900 punten meer dan mijn kaart wel heel erg bloedsnel tov. mijn kaart.

Als dit de echte score is zie ik het dus helemaal niet somber is.
CJ schreef op woensdag 18 januari 2006 @ 21:36:
X1900XT @ 3DM06, FX55
4618 3DMarks

X1900XT @ 3DM06, FX60
5348 3DMarks

Ter vergelijking GTX512 @ 3DM06, FX55
4642 3DMarks
FirefoxAG schreef op woensdag 18 januari 2006 @ 23:34:
Ik zie - hoe verrassend - langzamerhand Futuremark verketterd worden voor keuzes die ze gemaakt hebben. Laten we echter wel zijn, het was ATi die de keuze heeft gemaakt deze door futuremark gebruikte onderdelen niet te ondersteunen in hun X1800...
Even kijken... ATi volgt DX9 precies, maar volgt niet wat Future Mark graag wil...

Gamedevelopers volgen natuurlijk Futuremark als ze games developen... en ze hebben natuurlijk nu zo veel games uitgebracht met DST.
En dan hebben we het over:
* FP Filtering: foute keuze i.m.o. dit kost ze over de hele FP16 HDR linie performance (niet alleen in 06)
Net zoals het een foute keuze was om met de X800 serie alleen voor SM2.0b te gaan? We hebben allemaal gezien dat die serie het prima deed tegenover de GF6 serie. FP16 HDR is verder prima te doen zonder hardware FP Filtering. Het is geen vereiste om het hardwarematig te ondersteunen. In hoeverre kan je dan spreken van een foute keuze?

FP Filtering en FP Blending doen niets af aan de compliancy voor SM3.0. Dit heeft puur en alleen met bepaalde methodes van HDR te maken. Futuremark heeft er voor gekozen om een FP Filtering test te integreren, maar dit wil niet zeggen dat dit 'de manier' gaat worden die in elke vorm van HDR gebruikt gaat worden. Futuremark maakt wel meerdere rare beslissingen die in geen enkele game terug te vinden is.

En nVidia heeft overigens ook kaarten die geen FP16 Filtering en FP16 Blending ondersteunen zoals bv de GF6200. Maar was dit een verkeerde keuze? Nee. Die kaarten hadden toch niet genoeg power om HDR te draaien.
* Vertex Texture Fetch: foute keuze i.m.o. ook dit kost ze performance, gezien eerst omzetting naar ATi's proprity R2VB formaat moet gebeuren
En die omzetting is volgens jou veel moeite en kost veel performance? Dan moet je je toch eerst even verdiepen in R2VB (wat trouwens een door MS goedgekeurde extensie is van DX9) die dichter zit bij de unified manier van shaden dan puur VTF. 5 regels code en R2VB is flexibeler (eigenlijk een superset omdat alle pixelshader bewerkingen nu ook in de geometry pipeline kunnen worden gebruikt) en kost niet al te veel tot geen performance. Maar goed, non-issue want de test telt niet mee in de eindscore.
* D24X8 textures: betwistbaar, maar eveneens een foute keuze van ATi i.m.o. Waarom ondersteunen RV515 en RV530 dit wel en R520 niet? Als je keuzes maakt doe dat dan in ieder geval consequent (ondersteun het over de hele linie wel of niet).
In hoeverre is dit een foute keuze? Dat het in 3DM05 gebruikt werd, wil niet zeggen dat ATi het dan opeens hardwarematig moet ondersteunen. Zeker niet als er bijna geen games zijn die het gebruiken behalve dan Far Cry. Het is geen DX9 standaard.

En daar zit 'm juist de crux. Futuremark heeft gezegd dat ze standaarden volgden, maar ze volgen nu hun eigen weg. 3Dc wordt ook niet ondersteunt terwijl het een open standaard is (en ook in DX10 zit) en G7x dit ook kan via een hack. En Far Cry ondersteunt dit ook. En toch ondersteunen ze wel DST maar geen 3Dc.
2 van de 3 issues zijn dus i.m.h.o. onbetwistbaar rechtstreeks ATi's eigen schuld. De 3e is betwistbaar, maar ook hier neig ik meer richting ATi te wijzen:
"Optioneel" betekend dat het wel degelijk kan en mag worden gebruikt door dev's. Verder vind ik het ook geen onlogische keuze van FM... 16bit wordt als niet precies genoeg beschouwd, 32bit is erg precies, maar nogal zwaar, dus de tussenstap 24 bit lijkt me een erg logische, ook al is die officieel niet verplicht binnen DX9. De designteams van RV515/530 vonden dat blijkbaar ook, anders had ondersteuning daarvoor niet in die kaarten gezeten...
Hoe het zit met RV515/RV530 weet ik niet precies. Zal ik nog even uitzoeken. Waarschijnlijk al te ver heen in development. R580 ondersteunt het weer wel als ik het goed heb.

Maar tussen 'optioneel' en 'verplicht' zit een hele wereld van verschil. Optioneel betekent in dit geval niets anders dan dat iets niet hardwarematig ondersteunt moet worden. Dat devs (in dit geval geen gamedevs, maar een benchdev) hier gebruik van maken is niet ATi's fout. Het punt hier is dat 3DM een gamersbenchmark is en geen enkele game gebruikt 24-bit DST op Far Cry na (en zelfs hier zien shadows er mooier uit op ATi kaarten), zelfs niet in de maanden nadat 3DM05 is uitgekomen is er nog een game uitgekomen die het ondersteunt.

Dus het is maar net wat je verwacht van een gamersbenchmark, dat er echt dingen gebenched worden die je terug kan verwachten in games, of dat er IHV specifieke zaken worden gebruikt om ze goed uit de test te laten komen? Futuremarks reden om DST te gebruiken in 3DM05 was dat er nog een andere IHV gebruik maakte van hardware DST, namelijk S3 en we weten allemaal dat S3 een wereldspeler is op de 3D markt. G7x ondersteunt ook 3Dc (via een slimme methode), dus zijn er nu multiple IHVs die dit kunnen. Maar zien we dit terug in 3DM06? Nee. Beetje krom allemaal als je het mij vraagt en dat terwijl 3Dc onderdeel is van DX10 en DST niet.
[...]
Zonder IQ verlies, maar tevens zonder performancewinst... HDR performance van de X1800 in SS2 is echt dramatisch.
Volgens mij ging de performance ook niet echt achteruit na de patch. Een patch die IQ problemen oplost en waarmee de performance gelijk blijft is dus nog altijd iets om over te zeuren, begrijp ik.
Allereest vraag ik me dan af hoe professioneel het extremetech figuur dat deze opmerking maakt is... De nV kaarten ondersteunen hardwarematig geen FP16 HDR + AA, dus daar is ook geen "costly" workaround voor te bedenken tenzij de boel via de shaders gerenderd wordt. Dan is het echter geen FP16 HDR of vergelijkbaar meer en is de score totaal niet meer te vergelijken met FP16 HDR+AA ondersteunende kaarten... met andere woorden die score zou nergens op slaan. De 0 score in die tests is dus juist, die staat voor "hardware incompatible" wat exact de juiste definitie hiervan is.
Tja, zo kan je natuurlijk iedere reviewsite/reviewer gaan afkraken die iets anders zegt dan jou mening, net zoals toen met Bjorn3D. Extremetech is toch altijd vrij kritisch geweest en was een van de sites die aan de wieg stond van alle 3D sites. Het wordt ook gemeld op andere sites, zoals B3D door meerdere tech-site houders, maar goed, de mensen daar zullen ook wel niet echt professioneel bezig zijn.

Maar goed, even zonder sarcasme... Zowel ExtremeTech als B3D zijn lid van Futuremarks BDP (Benchmark Development Program) en ze stellen dus terecht bepaalde vragen (zoals waarom geen parallax mapping terwijl dit toch heel populair aan het worden is, zie bv FEAR, Oblivion, Far Cry, Splinter Cell etc). Dus reken maar dat ExtremeTech zeer professioneel bezig is. De vragen die ze stellen zijn dus zeer terecht. ExtremeTech is dus 1 van de 14 leden van het BDP programma en 1 van de 3 online sites die evenveel inbreng hebben in de ontwikkeling van 3DM. Maar daar is dus blijkbaar weinig mee gedaan, terwijl het toch de reviewsites zijn die voornamelijk 3DM zouden moeten gebruiken om de hardware te testen (wat nu dus niet gebeurd).
Ten tweede moet nog even aangetoont worden hoe "costly" 32bits i.p.v. 24bits renderen nu werkelijk is... ik denk dat een groot deel van deze resultaten namelijk gewoon te wijten is aan ATi's HDR problemen, ze dit gewoon niet willen erkennen, en nu FM de zwarte piet proberen toe te spelen. D24X8 werd al in 05 gebruikt, en nu het in 06 hergebruikt wordt wil ATi daar plotseling een rel op los laten... typisch he...
Je zegt net zelf dat 32 bits erg precies is, maar nogal zwaar. Lijkt me dat je zelf al hebt aangegeven hoe "costly" renderen op 32bits nu eigenlijk is vs 24 bits? En de rel was er al in 05. Zoek maar eens op in dit topic en op de verschillende tech-sites. Gelukkig zit er een optie in om te testen zonder DST, maar helaas doen veel reviewsites dit niet omdat de GF6/7 serie dan veel slechter uit de bus komt.

Kort gezegd begon 3DM als een benchmark die moest laten zien hoe een kaart in D3D performt. De laatste tijd begint het meer een benchmark te worden die zich laat leiden door allerlei optionele dingen die gestuurd worden door een bepaalde IHV. Dat is de kritiek die er altijd al is geweest en dat is de kritiek die je nu dus ziet, en niet omdat een X1800XT toevallig net iets minder presteert dan een GTX, want veel games tonen toch wel anders aan.

- Geen parallax mapping
- Geen uitvoerige dynamic branching (zeer spaarzaam gebruikt in de tests die meetellen)
- IHV specifieke ondersteuning voor depth stencils

Imo is 3DM in de huidige vorm slecht voor de hele gamingindustrie... IHVs stoppen meer tijd en geld in het optimaliseren voor 3DM dan in games...

nV bouwt zelfs voor bepaalde games en benchmarks. Dit zegt bv genoeg: http://www.beyond3d.com/f...php?p=622641&postcount=54 En ook het feit dat nVidia mailtjes rondstuurt naar reviewers waarin ze 3DM06 helemaal de hemel in prijzen en dat het blijkbaar een betere indicatie is van real-world performance dan ooit tevoren, zeggen mij genoeg... zeker na de fikse ruzie met nV na alle cheats.
As I huddled here in seclusion testing all of the latest graphics cards on this new benchmark, a little green bird fluttered in and landed on my shoulder. It sang the praises of 3DMark06, saying that this new version should do a better job of tracking with real-world game performance than past editions, noting that 3DMark05 wasn't horrible, but was simply too vertex bound, as the example of the Radeon X1600 demonstrated.
http://techreport.com/onearticle.x/9293

Wat een beetje interessanter is, is de performance van de X1600 vs de GS6800. Zelfs met HDR weet de X1600 te winnen op 800x600 en 1024x768 maar in de knoop komt op hogere resoluties door een gebrek aan bandbreedte.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • timdeh
  • Registratie: Juli 2001
  • Laatst online: 01-05-2018

timdeh

Ducati 999R Evolution

Zou de verhouding in prestatie tussen de Nvidia en ATI kaarten verschillen als er de AGEIA-kaart beschikbaar komen? Ik kan me gerust voorstellen dat de cpu-load zal verminderen en dat het éne merk er meer baat zal bij hebben.

eMac overclocking ,Panta Rhei levensfilosofie


  • hjs
  • Registratie: Juni 1999
  • Niet online
Omega heeft zijn 6.1 ook al uit, iemand die al getest met 3dm06 ?

http://www.omegadrivers.net/

  • Astennu
  • Registratie: September 2001
  • Laatst online: 09-06 13:42
Ik ga die omega's wel even testen.

Over 3DM wisten we al. Totaan Madonion was het goed. Toen Had je 99 Max, 2000 en 2001/SE. Wat waren goede tests. Ik heb gebruik nu nog 2001 SE.

3D Mark 2006 test geen system peformance maar cpu peformance. Je merkt er geen donder van of je ram nu 100 of 300 mhz loopt. En dat is bij 2001 wel anders. Als je daar de timings van de ram geheugen verandert merk je dat in je eind score. Dus 2001 is en blijft de bench voor je hele systeem.

Want alleen de cpu testen en die bij de totaal socre op tellen is dus flut. Want in de game tests ben je GFX limmeted en een snelle cpu helpt daar niet. En als je een dual core hebt wordt je fps in die game tests 0.0 hoger maar heb je wel een eind score. Waardeloos dus.

En dat hele 3dm begint op TWIMTBP te lijken. Support alles wat handig is voor nvidia niets wat goed is volgens de Dx 9 standaard. Zegt genoeg over futuremark en of hun test bruikbaar is om vergelijkingen te maken. Als je zelker wilt zijn dat je Nvidia kaart goed presteerd test dan 2006 :)

Tis niet dat ik wil flamen of zo. Tis gewoon dat Futuremark er niets van bakt. Met 2003 was er ook al van alles mis. 2005 was niet geweldig en nu dit. Je kunt beter naar games blijven kijken die je veel speeld daar moet je een kaart op kopen.

Edit:

Omega's geven hetzelfde ook 3519.

[Voor 14% gewijzigd door Astennu op 19-01-2006 10:26]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

CJ schreef op donderdag 19 januari 2006 @ 01:55:
Net zoals het een foute keuze was om met de X800 serie alleen voor SM2.0b te gaan? We hebben allemaal gezien dat die serie het prima deed tegenover de GF6 serie. FP16 HDR is verder prima te doen zonder hardware FP Filtering. Het is geen vereiste om het hardwarematig te ondersteunen. In hoeverre kan je dan spreken van een foute keuze?
FP Filtering en FP Blending doen niets af aan de compliancy voor SM3.0. Dit heeft puur en alleen met bepaalde methodes van HDR te maken. Futuremark heeft er voor gekozen om een FP Filtering test te integreren, maar dit wil niet zeggen dat dit 'de manier' gaat worden die in elke vorm van HDR gebruikt gaat worden. Futuremark maakt wel meerdere rare beslissingen die in geen enkele game terug te vinden is.
En nVidia heeft overigens ook kaarten die geen FP16 Filtering en FP16 Blending ondersteunen zoals bv de GF6200. Maar was dit een verkeerde keuze? Nee. Die kaarten hadden toch niet genoeg power om HDR te draaien.
Was i.m.o. wel een foute keus, gezien gamedev's dit duidelijk wel gebruiken en het zodoende op ATi hardware geemuleerd moet worden. Dit kost nodeloos veel performance, en is iets dat ATi van tevoren had kunnen weten. In dat opzicht een foute keuze dus, en dat blijkt gezien de HDR performance van X1800 tot nu toe. Dat argument van de 6200 slaat natuurlijk nergens op, en je geeft zelf al aan waarom niet ;)
En wat betreft gebrek aan SM3.0 ondersteuning in de X800 serie: met het oog op toekomstige - zelfs huidige - games was SM3.0 ondersteuning in mijn optiek inderdaad een betere keus geweest.
En die omzetting is volgens jou veel moeite en kost veel performance?
Dan moet je je toch eerst even verdiepen in R2VB (wat trouwens een door MS goedgekeurde extensie is van DX9) die dichter zit bij de unified manier van shaden dan puur VTF. 5 regels code en R2VB is flexibeler
Iedere omzetting kost performance, in het ene geval meer dan in het andere geval. R2VB is geen DX9 standaard, VTF wel. Unified shaden is ook geen DX9 standaard trouwens, dus geen reden om een eigen - in principe overbodig - proprity formaat te pushen...
Het zelfde geldt voor 3Dc: geen DX9 standaard, dus optioneel. Niemand kan FM verplichten het te gebruiken omdat dit ATi voordeel oplevert.

Dat is 't nu eenmaal met eigen proprity formaten: je loopt het risico dat dev's besluiten het niet te gebruiken en een andere oplossing kiezen... en als dat gebeurd moet je niet klagen, je hebt er immers zelf voor gekozen je eigen optionele formaat neer te zetten.
Niet ondersteunen D24X8: In hoeverre is dit een foute keuze? Dat het in 3DM05 gebruikt werd, wil niet zeggen dat ATi het dan opeens hardwarematig moet ondersteunen. Zeker niet als er bijna geen games zijn die het gebruiken behalve dan Far Cry. Het is geen DX9 standaard.
Ik vond de verklaring dat 16bits precisie onvoldoende was voor het door Futuremark beoogde kwaliteitsnuveau vrij plausibel. 24bits is dan ook een minimale vereiste. Kaarten die dat niet ondersteunen moeten dus de volgende stap - ofwel 32 bits - pakken. Ik zie het ook helemaal niet als onrealistisch dat dev's binnenkort hogere kwaliteit shadows dan 16bits gaan gebruiken. Dat houdt automatisch in dat de X1800 32bits in schiet, omdat die de 24bits tussenstap niet kan maken.
Foute keus dus i.m.o. omdat je dan OF nodeloos performance verliest OF lagere kwaliteit shadows aan moet zetten op een X1800.

Het zou me niet verbazen als het trouwens ook deze "issue" is die bij FEAR SoftShadows speelt.
Maar tussen 'optioneel' en 'verplicht' zit een hele wereld van verschil. Optioneel betekent in dit geval niets anders dan dat iets niet hardwarematig ondersteunt moet worden. Dat devs (in dit geval geen gamedevs, maar een benchdev) hier gebruik van maken is niet ATi's fout. Het punt hier is dat 3DM een gamersbenchmark is en geen enkele game gebruikt 24-bit DST op Far Cry na (en zelfs hier zien shadows er mooier uit op ATi kaarten), zelfs niet in de maanden nadat 3DM05 is uitgekomen is er nog een game uitgekomen die het ondersteunt.
"Optioneel" betekent dat het door dev's gebruikt KAN en MAG worden, en ik vind dat je als IHF hierop moet anticiperen.
En niet moet huilen als het vervolgens wel gebruikt wordt en dat jou performance kost. Net als nV niet moet huilen wanneer DB gebruikt wordt... dat zijn de keuzes die je maakt.
Dus het is maar net wat je verwacht van een gamersbenchmark, dat er echt dingen gebenched worden die je terug kan verwachten in games, of dat er IHV specifieke zaken worden gebruikt om ze goed uit de test te laten komen?
Toen ongeveer een jaar geleden de Geforce FX serie definitief af ging in 3DMark05 was dat een prachtige indicatie van de toekomst - ook volgens de ATi cracks. Nu de ATi X1800 serie de 7800 serie - volkomen terecht i.m.o. - niet domineert in 3DMark06 wordt Futuremark plotseling afgeschilderd als de evil rechterhand van nVidia die met opzet nV bevoordeeld in de benchmark.
Vind je dat zelf niet - op zijn zachtst gezecht - ronduit hypocriet? Met name als je de - t.o.v. de 7800 - bedroevende X1800 HDR performance in het plaatje meeneemt? Als FM echt nV had willen bevoordelen hadden ze dit gemakkelijk kunnen doen met een zwaarder gewicht aan HDR. En gezien de performance die ik tot nu toe heb gezien van ATi in FP16 HDR games mag ATi zich misschien zelfs in zijn handjes knijpen met dit resultaat i.p.v. op Futurmark te bitchen.
Ik heb HDR performanceverschillen van 70 - 110% gemeten in real life games...

Maar goed, zoals gezecht verbaast deze reactie me niet. Het geeft - om mij niet verrassende redenen - niet het resultaat weer dat ATi cracks verwacht hadden, dus zoekt men maar een stok om FM mee te slaan i.p.v. dat ATi de hand in eigen boezem steekt.
SS2 performance: Volgens mij ging de performance ook niet echt achteruit na de patch. Een patch die IQ problemen oplost en waarmee de performance gelijk blijft is dus nog altijd iets om over te zeuren, begrijp ik.
Als de avg framerate van de X1800XT 18fps is waar de GTX TOP 38fps doet: lijkt me wel ja ;)
Tja, zo kan je natuurlijk iedere reviewsite/reviewer gaan afkraken die iets anders zegt dan jou mening, net zoals toen met Bjorn3D. Extremetech is toch altijd vrij kritisch geweest en was een van de sites die aan de wieg stond van alle 3D sites. Het wordt ook gemeld op andere sites, zoals B3D door meerdere tech-site houders, maar goed, de mensen daar zullen ook wel niet echt professioneel bezig zijn.
Extremetech gaat toch wel erg ver in het verkondigen van ATi's (PR) visie op het geheel.
Ze stellen zelfs voor om de 6800/7800 in de HDR+AA tests de SM2.0 score te laten genereren, wat echt totaal nergens op slaat. Het hele idee van een benchmark is dat dergelijke scores vergelijkbaar moeten zijn, en door 2 totaal verschillende scores te baseren op 2 totaal verschillende renderpaden maak je dit scheer onmogelijk en je benchmark tot een farce. Uiteraard zou dit ATi wel goed uitkomen, omdat de 7800 serie vanwege de ontbrekende SM3.0 HDR+AA tests veel lager zou scoren dan de X1800.
"Prima" zegt Extremetech, "doen"! Ook al genereren we daarmee een volslagen bogus score die kant nog wal raakt omdat die niet vergelijkbaar is met zowel ATi's HDR+AA score, en ook niet met nV's eerdere HDR/noAA score. Met zo'n volslagen non-score voor de Gf6/7 serie lijkt ATi namelijk veel beter uit de bus te komen!

Ik hoop trouwens dat het iedereen hier om bovenstaande reden ook duidelijk is dat de 3DMark06 scores van SM3.0 (+FP16 HDR) compliant kaarten totaal niet te vergelijken zijn met die van SM2.0(b) compliant kaarten? ;)
De enige vergelijking die kan worden gemaakt is SM2.0 vs SM2.0 en SM3.0 vs SM3.0, tenzij de individuele game framerates bekeken worden. De X1600 score bijv. kan niet worden vergeleken met die van de X800XT etc.
Je zegt net zelf dat 32 bits erg precies is, maar nogal zwaar.
Tja, ik weet niet precies wat het exacte verschil in performance is, maar dat het zwaarder is is niet zo moeilijk te bedenken. Onderzoeken zullen moeten uitwijzen wat het exacte verschil is. Feit blijft dat volgens FM 16bits precisie onvoldoende bleek voor de in 06 gebruikte shadowmaps. Zodoende hebben ze (i.m.o. terecht) 24bits als minimumvereiste gesteld voor een bepaalde door hun gewenste kwaliteit shadows. De X1800XT ondersteund dit niet, dus springt naar 32 bits... lijkt me niet dat je FM daarvan de schuld moet geven.
Kort gezegd begon 3DM als een benchmark die moest laten zien hoe een kaart in D3D performt. De laatste tijd begint het meer een benchmark te worden die zich laat leiden door allerlei optionele dingen die gestuurd worden door een bepaalde IHV. Dat is de kritiek die er altijd al is geweest en dat is de kritiek die je nu dus ziet, en niet omdat een X1800XT toevallig net iets minder presteert dan een GTX, want veel games tonen toch wel anders aan.
Even in de herhaling:
1. De GTX is zonder AA/AF over het algemeen sneller dan de X1800XT
2. De GTX is met HDR veel sneller dan de X1800XT
Echter, in een test zonder AA/AF en met HDR trekt de X1800XT nu gelijk met de GTX... volgens jouw theorie zou je bijna zeggen dat ATi bevoordeeld wordt, vergeleken met real life games :+
- Geen parallax mapping
- Geen uitvoerige dynamic branching (zeer spaarzaam gebruikt in de tests die meetellen)
- IHV specifieke ondersteuning voor depth stencils
* Parallax: Inderdaad een gebrek, maar geen ramp, want geen van beide kaarten hoeft het dus te renderen.
* DB: Waarom had er "uitvoerig" DB gebruikt moeten worden? Om ATi te bevoordelen misschien, want het is in geen enkele game te bekennen?
* Depth stencils: De test vereist 24 bits of hoger. Niets IHF specifiek dus, dat ATi's X1800 geen 24 bits ondersteunt ligt aan niemand anders dan henzelf. Volgens jou zelf ondersteunen de X1300 en X1600 het trouwens ook, dus daarmee kan het "minimaal 24bit = IHF specifiek" argument al helemaal van tafel.

Het grappige hieraan is dat iedereen hier roept dat FM wel proprity ATi formaten moet hanteren, maar tegelijk geen optionele DX9 formaten (waarvan ATi er zelf voor heeft gekozen die niet te ondersteunen) mag gebruiken. Make up your mind, en wees een beetje consequent plz...
En al met al bekeken denk ik dat dit plaatje met het oog op HDR er voor ATi een heeeeel stuk slechter uit had kunnen zien als FM werkelijk nV had willen bevoordelen.

[Voor 23% gewijzigd door Cheetah op 19-01-2006 14:50]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • Paladin
  • Registratie: Maart 2000
  • Laatst online: 09-06 13:20

Paladin

Play Ball!

Hmz even afstappen van het futuremark gebeuren, maar wordt de 24 jan nu samen met de X1900 ook de nieuwe ati chipset oftewel de RD580 onthult?

Zit een beetje tegen nieuw systeem aan te hikken maar als deze moederborden binnen 2 a 3 weken te verkrijgen zijn wacht ik nog wel even...

|Yesterday is History, Today is a gift, Tomorrow a Mystery | M3 - LRAWD - Referral-link:https://ts.la/p66085


  • Astennu
  • Registratie: September 2001
  • Laatst online: 09-06 13:42
Paladin schreef op donderdag 19 januari 2006 @ 14:51:
Hmz even afstappen van het futuremark gebeuren, maar wordt de 24 jan nu samen met de X1900 ook de nieuwe ati chipset oftewel de RD580 onthult?

Zit een beetje tegen nieuw systeem aan te hikken maar als deze moederborden binnen 2 a 3 weken te verkrijgen zijn wacht ik nog wel even...
Als het goed is komt die RD580 meteen uit alleen de vraag is of moederbord makers ook meteen borden uitbrengen.

Igg de kaart zou snel beschikbaar moeten zijn na of zelfs op de 24e dus heel even afwachten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

FirefoxAG schreef op donderdag 19 januari 2006 @ 14:11:
[...]
Was i.m.o. wel een foute keus, gezien gamedev's dit duidelijk wel gebruiken en het zodoende op ATi hardware geemuleerd moet worden. Dit kost nodeloos veel performance, en is iets dat ATi van tevoren had kunnen weten. In dat opzicht een foute keuze dus, en dat blijkt gezien de HDR performance van X1800 tot nu toe. Dat argument van de 6200 slaat natuurlijk nergens op, en je geeft zelf al aan waarom niet ;)
En wat betreft gebrek aan SM3.0 ondersteuning in de X800 serie: met het oog op toekomstige - zelfs huidige - games was SM3.0 ondersteuning in mijn optiek inderdaad een betere keus geweest.
Hoezo foute keuze? Hoeveel games vereisen er nu FP16 Filtering bij HDR? Woohoo, 1 game en 1 benchmark maken er nu gebruik van. Het gebrek aan hardwarematige FP Filtering doet bijna niets af aan de HDR performance zeker wanneer de shaders snel genoeg zijn. Tegen de tijd dat er games zijn die er heel erg veel gebruik van maken zijn de R600/G80 er al weer die hier veel beter voor geoptimaliseerd zijn. ATi maakt een tradeoff tussen het moment dat er software beschikbaar komt die een bepaalde functionaliteit ondersteunt, die-size en kosten. Net zoals ze dat gedaan hebben met SM3.0. En ik vind dat ze dat vanaf de R300 steeds goed gedaan hebben.

Datzelfde gold toendertijd met SM3.0. Hoeveel games hadden er nu SM3.0? Eentje. En de huidige games ondersteunen zowel het SM3.0 als SM2.0 pad, en nu blijkt dat de GF6 serie vaak net zo snel is als de X800 serie. Dus van een 'foute' beslissing kan je hier in mijn ogen niet spreken. ATi had gelijk toen ze zeiden dat SM3.0 ondersteuning in 2004 te vroeg was en dat tegen de tijd dat SM3.0 echt ingeburgerd zou zijn, die hardware te traag zou zijn wanneer er wel volop gebruik werd gemaakt van SM3.0.
Iedere omzetting kost performance, in het ene geval meer dan in het andere geval. R2VB is geen DX9 standaard, VTF wel. Unified shaden is ook geen DX9 standaard trouwens, dus geen reden om een eigen - in principe overbodig - proprity formaat te pushen...
Het zelfde geldt voor 3Dc: geen DX9 standaard, dus optioneel. Niemand kan FM verplichten het te gebruiken omdat dit ATi voordeel oplevert.
Niet iedere omzetting kost performance. Zo heeft nV kosteloze omzetting van DX8.1 calls naar DX9. En zo renderde de R3x0 serie alles intern op 32-bits, ook al kwam er 16-bits data binnen (16-bit -> data intern omgezet naar 32-bits voor bewerking -> data intern omgezet naar 24-bits voor output) en dit kostte niets. Het gebruik van R2VB zorgt helemaal niet voor een performancedrop en als die er al is, dan is het verwaarloosbaar.

Oh ja, en het leuke is dat NV40/G7x ook R2VB kunnen en dat ook deze kaarten waarschijnlijk sneller zijn met R2VB dan met hun hardwarematige Vertex Texture Fetch die niet zo snel is. Imo dus een hele rare beslissing van FutureMark om nu nog op het laatste moment voor DX10 gebruik te maken van de oude manier van VTF, terwijl R2VB meer een stap is richting de toekomst van unified shading. En 3DM was toch altijd een benchmark die ook de performance in toekomstige games moest kunnen voorspellen?

Hetzelfde geldt voor 3Dc. Open standaard, geintegreerd in Windows Graphics Foundation/DX10. Al gebruikt op de Xbox360. Eigenlijk zeer vergelijkbaar met het gebruik van FP Filtering in de test. FP Filtering is verplicht voor OpenEXR HDR, maar niet voor alle vormen van HDR. 3Dc kan gebruikt worden bij HDR maar is niet verplicht. Toch gebruikt FM FP Filtering in een test en geen 3Dc.
Dat is 't nu eenmaal met eigen proprity formaten: je loopt het risico dat dev's besluiten het niet te gebruiken en een andere oplossing kiezen... en als dat gebeurd moet je niet klagen, je hebt er immers zelf voor gekozen je eigen optionele formaat neer te zetten.
En DST24 is geen priopriatary formaat? DST is NOG geen officiele DX feature. Daar gaat je hele groene verhaal dus over het risico van het gebruiken van zelfgemaakte formaten... Feit blijft dus gewoon dat Futuremark hier 1 fabrikant bevooroordeelt boven anderen die geen DST hebben. Slechte zaak voor een gamingbenchmark. Hetzelfde geldt voor PCF.

Ter vergelijking, hardware die DST/PCF ondersteunt doet er 2 clockcycles over om iets te renderen. Hardware zonder DST/PCF kan het doen in 14 clockcycles (terwijl 1 fabrikant (ik geloof ATi) heeft aangegeven dat ze het in 7-8 clock cycles kunnen. DST/PCF heeft als voordeel dat het snel is, maar als nadeel dat schaduwen er niet soft uit kunnen zien maar harde randen hebben (zie ook Far Cry).
Ik vond de verklaring dat 16bits precisie onvoldoende was voor het door Futuremark beoogde kwaliteitsnuveau vrij plausibel. 24bits is dan ook een minimale vereiste. Kaarten die dat niet ondersteunen moeten dus de volgende stap - ofwel 32 bits - pakken. Ik zie het ook helemaal niet als onrealistisch dat dev's binnenkort hogere kwaliteit shadows dan 16bits gaan gebruiken. Dat houdt automatisch in dat de X1800 32bits in schiet, omdat die de 24bits tussenstap niet kan maken.
Foute keus dus i.m.o. omdat je dan OF nodeloos performance verliest OF lagere kwaliteit shadows aan moet zetten op een X1800.
En ook hier weer kiest FM een formaat van een bepaalde hardwareboer, terwijl ze hiermee dus 50% van de gamersmarkt weer negeren. Ze kiezen meer groene opties dan rode. Dat moet jij nu toch zelfs zien?

Het zou me niet verbazen als het trouwens ook deze "issue" is die bij FEAR SoftShadows speelt.
"Optioneel" betekent dat het door dev's gebruikt KAN en MAG worden, en ik vind dat je als IHF hierop moet anticiperen.
En niet moet huilen als het vervolgens wel gebruikt wordt en dat jou performance kost. Net als nV niet moet huilen wanneer DB gebruikt wordt... dat zijn de keuzes die je maakt.
Als je eens wist wat er allemaal wel niet optioneel is in DX, dan hebben hardware fabrikanten hier nog een flinke kluif aan om alles te integreren in hun GPUs. Die zouden dan veel te groot worden. Je moet keuzes maken en ATi heeft op safe gespeeld door in de eerste plaats alleen de verplichte opties te integreren. Dit zou ook de manier moeten zijn waarop FM hun benchmark in elkaar zou moeten zetten en zoals ze dat vroeger altijd deden, namelijk door het volgen van de D3D eisen.

Oh trouwens, FP Blending + AA is ook optioneel in DX. Staat zelfs omschreven in MS documenten. Maar toch kiest FM er voor om dit niet standaard aan te zetten, wat ze wel doen met bepaalde andere functies die alleen door NV hardware ondersteunt wordt.
Toen ongeveer een jaar geleden de Geforce FX serie definitief af ging in 3DMark05 was dat een prachtige indicatie van de toekomst - ook volgens de ATi cracks. Nu de ATi X1800 serie de 7800 serie - volkomen terecht i.m.o. - niet domineert in 3DMark06 wordt Futuremark plotseling afgeschilderd als de evil rechterhand van nVidia die met opzet nV bevoordeeld in de benchmark.
Vind je dat zelf niet - op zijn zachtst gezecht - ronduit hypocriet? Met name als je de - t.o.v. de 7800 - bedroevende X1800 HDR performance in het plaatje meeneemt? Als FM echt nV had willen bevoordelen hadden ze dit gemakkelijk kunnen doen met een zwaarder gewicht aan HDR. En gezien de performance die ik tot nu toe heb gezien van ATi in FP16 HDR games mag ATi zich misschien zelfs in zijn handjes knijpen met dit resultaat i.p.v. op Futurmark te bitchen.
Het enige wat hypocriet is is dat nVidia toendertijd met veel bombarie uit de BDP is gestapt en met rechtelijke stappen dreigde tegen FM, maar nu de grootste vriendjes is en zelfs mailtjes rondstuurt naar mensen waarin ze 3DM aanprijzen als de heilige graal van benchmarking.

En er is een heel verschil tussen toendertijd met de FX en 3DM05 en nu met 3DM06 en de huidige series. De FX was gewoon brak, maar veel nVidiots wilden toen maar niet geloven dat dit ook echt zo was "want ik kan alle games nu nog lekker snel spelen". Op zich natuurlijk prima als je het niet erg vind om om de zoveel tijd een nieuwe kaart te kopen. Het merendeel van de gamers doet het echter niet. 3DM05 gaf gewoon mooi aan wat er zou gebeuren bij veel shadergebruik (en zoveel shaders zaten er eigenlijk nog helemaal niet in). Maar ondanks dat geloofden velen het niet en toonden de games die toen uitkwamen aan dat de FX daadwerkelijk brak was (zie bv Rollercoaster Tycoon 3, Tribes Vengeance (UT2 engine met veel shaders)).

Nu heb je het geval dat FM alleen maar nV only features implementeert en geen ATi only features. Op z'n minst toch heel hypocriet. En omgekeerd zie je nu dat er nu shaderintensieve games uit komen (en nog gaan komen) die sneller zijn op ATi hardware dan op NV hardware, terwijl 3DM06 weer anders aanduidt. Laat staan dat het de CPU heel erg belangrijk is geworden.
Maar goed, zoals gezecht verbaast deze reactie me niet. Het geeft - om mij niet verrassende redenen - niet het resultaat weer dat ATi cracks verwacht hadden, dus zoekt men maar een stok om FM mee te slaan i.p.v. dat ATi de hand in eigen boezem steekt.
Het is misschien moeilijk te geloven door die groene waas van je, maar sommige mensen kunnen echt door dat verschil tussen groen en rood heen kijken en objectief kijken naar een instelling als FM en hun benchmarks.
Als de avg framerate van de X1800XT 18fps is waar de GTX TOP 38fps doet: lijkt me wel ja ;)
Dat doet er verder helemaal niet toe. Ik vroeg je indirect of het erg is dat een patch een probleem verhelpt zonder dat de IQ en performance naar beneden gaat. Ik denk namelijk niet dat dit iets is om over te klagen (ongeacht hoeveel fps er over het algemeen op het scherm wordt getoverd). Er om heen lullen kan je goed. ;)
Extremetech gaat toch wel erg ver in het verkondigen van ATi's (PR) visie op het geheel.
Ze stellen zelfs voor om de 6800/7800 in de HDR+AA tests de SM2.0 score te laten genereren, wat echt totaal nergens op slaat. Het hele idee van een benchmark is dat dergelijke scores vergelijkbaar moeten zijn, en door 2 totaal verschillende scores te baseren op 2 totaal verschillende renderpaden maak je dit scheer onmogelijk en je benchmark tot een farce. Uiteraard zou dit ATi wel goed uitkomen, omdat de 7800 serie vanwege de ontbrekende SM3.0 HDR+AA tests veel lager zou scoren dan de X1800.
"Prima" zegt Extremetech, "doen"! Ook al genereren we daarmee een volslagen bogus score die kant nog wal raakt omdat die niet vergelijkbaar is met zowel ATi's HDR+AA score, en ook niet met nV's eerdere HDR/noAA score. Met zo'n volslagen non-score voor de Gf6/7 serie lijkt ATi namelijk veel beter uit de bus te komen!
Ok, even wat dingen vetgemaakt. Komen we weer uit bij DST/PCF/FP16 Filtering. Totaal verschillende renderpaden dus voor hardware die niet de nV specifieke functies ondersteunen, scores zijn dus niet vergelijkbaar (want ene kaart doet -tig keer meer werk) en de benchmark is een farce.
Ik hoop trouwens dat het iedereen hier om bovenstaande reden ook duidelijk is dat de 3DMark06 scores van SM3.0 (+FP16 HDR) compliant kaarten totaal niet te vergelijken zijn met die van SM2.0(b) compliant kaarten? ;)
De enige vergelijking die kan worden gemaakt is SM2.0 vs SM2.0 en SM3.0 vs SM3.0, tenzij de individuele game framerates bekeken worden. De X1600 score bijv. kan niet worden vergeleken met die van de X800XT etc.
Ook heel grappig dat opeens de GF6800U in de SM2.0 tests net zo snel of zelfs sneller is dan een X850XT PE. Of dat zelfs een 6600GT sneller is dan een X800GTO. Ik heb dit al gelezen op meerdere sites, maar de nieuwe shaders zijn heel erg geoptimaliseerd voor groene hardware. ATi gaf toe dat ze dit eigenlijk min of meer aan zichzelf te danken hadden doordat de R520 zo laat was, maar FM maakt zichzelf hier wel heel erg belachelijk door nu eigenlijk 3DM05 overbodig te maken en andere resultaten te laten genereren.
Tja, ik weet niet precies wat het exacte verschil in performance is, maar dat het zwaarder is is niet zo moeilijk te bedenken. Onderzoeken zullen moeten uitwijzen wat het exacte verschil is. Feit blijft dat volgens FM 16bits precisie onvoldoende bleek voor de in 06 gebruikte shadowmaps. Zodoende hebben ze (i.m.o. terecht) 24bits als minimumvereiste gesteld voor een bepaalde door hun gewenste kwaliteit shadows. De X1800XT ondersteund dit niet, dus springt naar 32 bits... lijkt me niet dat je FM daarvan de schuld moet geven.
Je hebt het nu steeds over onderzoek en aantonen dat er verschil is... Nou, laat ze dan maar eerst aantonen dat 16-bits inderdaad niet voldoende was. En zelfs al was dat zo, dan is dat geen reden om een propriatary format te gebruiken. Dat de X1600XT en X1300Pro er van profiteren is duidelijk, gezien het feit dat de X1600XT met maar 4 pipelines (en 12 pixelshader processors) de GF6800GS verslaat en de X1300Pro in de buurt komt van de 6600GT. Maar dat wil nog niet zeggen dat de benchmark die bedoelt is om een eerlijke vergelijking te geven dit ook doet.
Even in de herhaling:
1. De GTX is zonder AA/AF over het algemeen sneller dan de X1800XT
2. De GTX is met HDR veel sneller dan de X1800XT
Echter, in een test zonder AA/AF en met HDR trekt de X1800XT nu gelijk met de GTX... volgens jouw theorie zou je bijna zeggen dat ATi bevoordeeld wordt, vergeleken met real life games :+
1. Mensen die een GTX / XT kopen spelen over het algemeen met AA/AF aan. Sommige reviews gebruiken nu alleen al die instellingen om kaarten te testen. Call of Duty, FEAR, Battlefield 2. Allemaal recente DX9 games waarin ATi sneller is. Sign on the wall?
2. Niet met alle vormen van HDR is een GTX veel sneller hoor. Je pint je te veel vast in OpenEXR HDR terwijl er al vaak genoeg gewezen is op andere vormen van HDR waar ATi prima mee kan. Zie bv (zoals al zo vaak genoemd, maar blijkbaar door jou over het hoofd gezien) Splinter Cell: Chaos Theory waar ATi gewoon veel sneller is, ondanks dat het bijna een identieke vorm van HDR is als wat gebruikt is in Far Cry. Veel hangt dus af van de developers. We zien nu games waarin ATi de boventoon voert en games waarin nV de boventoon voert. Een benchmark zou dit moeten reflecteren en ook duidelijk moeten specificeren wat voor type HDR er gebruikt wordt, zodat je met gemak kan voorspellen welke hardware ergens voordeel bij heeft. Meerdere HDR opties zou wat dat betreft een stuk beter passen bij 3DM.
]
* Parallax: Inderdaad een gebrek, maar geen ramp, want geen van beide kaarten hoeft het dus te renderen.
* DB: Waarom had er "uitvoerig" DB gebruikt moeten worden? Om ATi te bevoordelen misschien, want het is in geen enkele game te bekennen?
* Depth stencils: De test vereist 24 bits of hoger. Niets IHF specifiek dus, dat ATi's X1800 geen 24 bits ondersteunt ligt aan niemand anders dan henzelf. Volgens jou zelf ondersteunen de X1300 en X1600 het trouwens ook, dus daarmee kan het "minimaal 24bit = IHF specifiek" argument al helemaal van tafel.
* Parallax (Occlusion) Mapping: Het gaat er niet om dat beide fabrikanten het niet hoeven te renderen. Het gaat er om dat Parallax Mapping een SM3.0 optie is die in veel nieuwere games gebruikt wordt of gaat worden. 3DM als gamersbenchmark dient dit te reflecteren.
* DB: Zie ook Parallax Occlusion Mapping
* 24 bits is IHV specifiek en niet standaard DX. Dat ATi er voor kiest om dit al wel te integreren in de X1300 en X1600 doet niets af aan het feit dat FM hier nu weer een fabrikant voor trekt. ATi integreert DST24 dus mag FM het integreren van jou. NV integreert 3Dc in de drivers via een hack, dus mag het niet van jou gebruikt worden?

Dit staat dus helemaal los van het feit dat DST eventueel in de toekomst wel of niet in DX geintegreerd wordt (wat ik wel verwacht anders gaat ATi het niet ondersteunen). Als dat wel het geval was, dan had FM ook 3Dc en R2VB moeten integreren volgens dezelfde denkwijze.
Het grappige hieraan is dat iedereen hier roept dat FM wel proprity ATi formaten moet hanteren, maar tegelijk geen optionele DX9 formaten (waarvan ATi er zelf voor heeft gekozen die niet te ondersteunen) mag gebruiken. Make up your mind, en wees een beetje consequent plz...
En al met al bekeken denk ik dat dit plaatje met het oog op HDR er voor ATi een heeeeel stuk slechter uit had kunnen zien als FM werkelijk nV had willen bevoordelen.
R2VB is een officiele goedgekeurde extensie van DX9 die nV kaarten ook kunnen. Eigenlijk dus gewoon een optioneel DX9 formaat. Beide fabrikanten kunnen het aan en dat kan je niet zeggen van DST/PCF.

Wat dat betreft ben ik vrij consequent geweest, maar ben jij degene die niet consequent is. Eerst roepen dat een benchmark vergelijkbare scores moet geven en dat dit niet kan als er verschillende renderpaden gebruikt wordt. Maar blijkbaar vind je het niet erg dat dit dus wel gebeurt en geeft 3DM06 dus een goed beeld van de realiteit. Make up your mind pls. :7

[Voor 4% gewijzigd door CJ op 19-01-2006 16:31]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Joepi
  • Registratie: December 1999
  • Laatst online: 08-06 13:15
Ik zou maar wachten op de x1700 aka RV560
ik hoop dat die er komt, want ik ga graag pas met vista na pci-e.
Zolang - en dat is een jaar - komt er zeker nog iets "interessants" langs voor agp.
Ik heb begrepen, dat die agp 1600pro onder NDA staat - belachelijk!
De verkoop alleen in D was blijkbaar een "onglukje" LOL wel binnen een dag uitverkocht!!!
dus wie is hier nou gek? de klant zeker niet.
Als er een markt voor agp is, dan is er ook iemand in Taiwan, die er brood in ziet.
BTW, wat wel opvalt, is, dat de pcb's van ati steets ingewikkelder uitzien, waarom?

de x1900 doet er nog een schepje bovenop ...

BTW:
http://endian.net/details.asp?ItemNo=4148n

[Voor 11% gewijzigd door Joepi op 19-01-2006 16:43]


Anoniem: 47718

Probleem met het Catalyst Control Center op een Ati X800XT PE van ASUS... Ik krijg, net als bij 5.13, een cli.exe error. "The application failed to initialize properly ... ". Wat kan ik hier in godsnaam aan doen?
De X1900XT is inmiddels op een aantal websites te koop en IN STOCK.

http://www.computers4sure...id=4183262&affid=10000483
http://www.ecost.com/ecost/shop/detail~dpno~697227.asp

De prijs ligt rond de $620-630 op deze sites, maar ik verwacht een snelle daling, vooral gezien het feit dat de X1800XL al voor minder dan $350 over de toonbank gaat (zelfs een X1800XL AIW voor $379). En de X1800XT is al aan het zakken richting $450.

Verwacht de X1700 trouwens pas na de launch van de 7600. ATi zit nu in de positie dat ze kunnen wachten om te zien in hoeverre de 7600 over de X1600XT heen gaat en voor welke prijs.

Ook verschenen op de Sapphire site:
X1900XTX
X1900XT
X1900 CF

Toch jammer dat ze adverteren met "48 pixel pipelines" terwijl er eigenlijk maar 16 in zitten. Ik kan me voorstellen dat mensen dan heel erg teleurgesteld zijn in de performance in vergelijking tot een 'ouderwetse' 16 pipelines kaart als de X1800XT.

[Voor 34% gewijzigd door CJ op 19-01-2006 17:30]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Anoniem: 38733
  • Registratie: Oktober 2001
  • Niet online
Feit blijft dat volgens FM 16bits precisie onvoldoende bleek voor de in 06 gebruikte shadowmaps. Zodoende hebben ze (i.m.o. terecht) 24bits als minimumvereiste gesteld voor een bepaalde door hun gewenste kwaliteit shadows. De X1800XT ondersteund dit niet, dus springt naar 32 bits... lijkt me niet dat je FM daarvan de schuld moet geven.
Of 16bits precisie voor shadowmaps onvoldoende bleek zal hoogstwaarschijnlijk wel uitgezocht gaan worden binnenkort. Frappant vind ik wel dat Futuremark in 3DM05 geen enkel probleem had met de meer gekartelde schaduwrandjes op Nv kaarten dan Ati liet zien, maar nu plotseling een correcte schaduwrendering hoog in het vaandel heeft staan. Dit waait iedere keer wel héél erg met de Nvidia vlag mee, of zie ik dit verkeerd? :X

Anoniem: 54475

Bij 3Dmark06 is gewoon leuk om te doen, that's it. En wegsmijten die handel. Er zit i.m.o. geen meerwaarde aan een benchmark zoals deze om aan de hand daarvan tot een koop van een kaart over te gaan; de bench is gewoon niet representatief.

Dat de ATI guys dit gebruiken om futuremark af te ketteren vindt absolute bullcrap; dat gebeurt gewoon niet, het is gewoon dat de bench geen objectief beeld geeft van de performances van de verschillende kaartfabrikanten, omdat er geen gebruik wordt gemaakt van standaarden, maar van optionele, door een fabrikantaangegeven standaard, in dit geval van Nv.
De bench is gewoon leuk om de nV kaarten te testen, maar geeft geen rieeel beeld van de overall performance van de verschillende fabrikanten.
Het was het handigst geweest van futuremark om de standaarden aangegeven in DX9 en DX10 (the future) te gebruiken i.p.v. zaken die op geen van beide van toepassing zijn, of beter gezegd andere standaarden. Hierdoor heeft de toekomstwaarde van de benchmark geen nut, ongeacht het feit of de gamedevs. van die mogelijkheden gebruik gaan maken.

Let wel: ik ben noch ati noch nv, maar het had allemaal via de "normale" dx 9 en dx10 standaarden kunnen gebeuren, en dat is helaas niet in alle gevallen van de gebruikte technieken van futuremark in test 06 zo. |:(

@apple:
nee, dat zie je in imo niet verkeerd.... :X

[Voor 3% gewijzigd door Anoniem: 54475 op 19-01-2006 17:50]


Anoniem: 109640

Klein probleempje
------------------------------
Vroeger heb ik Ati Control Center gedownload, maar die deed het niet en de volgende versie ook niet. Maar we zijn nu een jaar veder en ik me gewaagd om ati met control center weer te downloaden.
maar ik krijg nog steeds het zelfde probleem.

tik tik, me hardschijf gaat draaien voor 1 seconden en veder niks,
heb ook alles geinstalleerd wat er installeren valt voor CCC.
maar geen response.

Ook restart voor runtime wilt niet werken, en op google valt er niks waardevols te vinden.
Ik heb een Ati800xl
met combinate AMD 3800

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

@CJ:
Ik had gehoopt dat we ondertussen over het "FirefoxAG = groen" verhaal heen waren, maarja, blijkbaar is dat een makkelijke (doch erg goedkope) manier om je argumentatie kracht bij te zetten en je gelijk te halen als je't in de discussie moeilijk krijgt.

Mijn argumenten zijn duidelijk, en bekeken van alle 3 zijden (FM, ATi, nV), met de nadruk op het perspectief van FM... jij bekijkt het verhaal alleen vanuit ATi's perspectief. Verder weerlegd je verhaal mijn argumentatie i.m.o. in het geheel niet. De hoofdlijn van het verhaal is keer op keer dat je had gewild dat ATi's propritairy formaten waren gebruikt, en dat er geen formaten hadden mogen worden gebruikt die ATi niet rechtstreeks ondersteund.
FM beweert nergens alleen de verplichte DX9 formaten te gebruiken. FM geeft aan de formaten te gebruiken waarvan zij verwachten dat dev's het in de nabije toekomst zullen gaan hanteren. En daar vallen dus blijkbaar formaten onder die ATi's X1800 niet rechtstreeks ondersteund.

FP16 filtering en VTF worden nu reeds door dev's gebruikt, en het klink me niet onwaarschijnlijk in de oren dat binnenkort ook gebruik zal worden gemaakt van 24bits shadowmaps. In mijn optiek is het - in geval 16bits inderdaad te beperkt is - dus terecht dat 24bits als minimumeis is geimplementeerd in 3DM06. Dat "IHF specifiek" noemen is absurd, gezien ATi het formaat zelf ondersteund (alleen dus niet in hun R520, een keus die ze nu in hun kont komt bijten), en het op de R520 ook werkt - echter middels het 32bits pad. Zodra dev's besluiten een hogere definitie dan 16bits te ondersteunen krijgt de X1800 - heel eenvoudig - bij inschakeling daarvan direct 32bits shadowrendering voor z'n kiezen omdat het 24 bits niet ondersteund. 'T lijkt me niet redelijk nu FM te willen opknopen omdat ze daarop anticiperen.
nVidia levert weer in op de stukken waar gebruik wordt gemaakt van Dynamic Branching... it's that simple. Niemand kan FM dwingen gebruik te maken van ATi's propritairy formaten w.o. R2VB en 3Dc, en FM biased noemen omdat ze dat niet doen gaat nogal ver... net als iedereen die het niet met jou en ATi eens is "groen" noemen trouwens.

Bovenstaand gelijk stellen aan "onvergelijkbare scores" en "totaal verschillende renderpaden" - en dit vergelijken met het verschil tussen een SM2.0 en SM3.0 renderpad waar ik het over had - is i.m.h.o. ronduit absurd.
Als FM nV serieus had willen bevoordelen had de score er echt wel anders uit gezien, met een veel zwaardere stress op HDR. Met mijn eigen benchmarks in het achterhoofd had FM dan zelfs een puntenverschil van 50% makkelijk kunnen verklaren door eenvoudigweg te wijzen naar de huidige HDR game-linup... met de vinger daarop was het echt geen probleem geweest om de X1K serie serieus pijn te doen. Ik vind het dus netjes dat FM de kracht en de zwakheden (DB vs HDR) van beide architecturen dus blijkbaar heeft weten te normaliseren tot een gelijke score.
SC:CT valt daar overigens vermoedelijk tussenuit gezien naar wat ik heb gelezen ATi's kaarten - ook de X1800 - een ander (SM2.0) HDR renderpad schijnen te volgen dan de nV 6800/7800 serie (SM3.0 FP16 blend). Ja, ja, die andere renderpaden dus ;)
Dit is in een eerdere "ATi Nieuwsdiscussie" thread trouwens ook al ter sprake gekomen.


Echter, deze discussie kan van vandaag tot morgen gevoerd worden, en is redelijk zinloos, gezien ik bij mijn standpunt blijf, en naar alle waarschijnlijkheid jij ook bij het jouwe.

[Voor 20% gewijzigd door Cheetah op 19-01-2006 18:18]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz


  • winwiz
  • Registratie: September 2000
  • Laatst online: 21:54
Je geeft aan dat je alles geinstalleerd hebt wat er te installeren is voor CCC, maar ben je toevallig .net (1.1) niet vergeten??? Je zult absoluut niet de eerste zijn.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021


  • Joepi
  • Registratie: December 1999
  • Laatst online: 08-06 13:15
CJ, wat zeg je hiervan:
In all fairness, any person or company who distributed their application without the dependencies was taking a big risk. Assuming anything about the end-user is nothing short of a gamble.
http://www.beyond3d.com/f....php?p=677521&postcount=3

  • Sapstengel
  • Registratie: November 2001
  • Laatst online: 21-11-2022

Sapstengel

Meer Sap dan Stengel

Voor wat betreft de hele FM discussie:
Behoort een benchmark niet objectief te zijn en alleen die technieken testen/belonen die zowel ATi als Nv hebben?

Beetje snoezelig, maar agressief | PSN: SAPJE | WoT: Dutch_Monkey_Killer | MWO: Sapstengel - Geen mens is zo slim om zijn eigen domheid te bevatten.


Anoniem: 54475

Sapstengel schreef op donderdag 19 januari 2006 @ 18:29:
Voor wat betreft de hele FM discussie:
Behoort een benchmark niet objectief te zijn en alleen die technieken testen/belonen die zowel ATi als Nv hebben?
Terechte opmerking!! De hele discussie is in een klap van de tafel te meppen door deze opmerking... U said it dude.. _/-\o_

Anoniem: 107626

FirefoxAG schreef op donderdag 19 januari 2006 @ 18:04:
Dit is in een eerdere "ATi Nieuwsdiscussie" thread trouwens ook al ter sprake gekomen.

Echter, deze discussie kan van vandaag tot morgen gevoerd worden, en is redelijk zinloos, gezien ik bij mijn standpunt blijf, en naar alle waarschijnlijkheid jij ook bij het jouwe.
Zoals je zegt is dit een Nieuwsdiscussie, en het is mooi om te zien hoe twee critici met hun argumenten elkaar proberen te overtuigen/vermorzelen. Iets wat ik in ieder geval van een discussie verwacht.

Prachtig toch deze discussie, ik geniet ervan! _/-\o_

Tja af en toe woorden als groene waas en rode bril, mogen wel weg. Ik dacht dat we er niet op de man gespeeld mocht worden ;)

Zelf denk ik overigens dat CJ's argument m.b.t. de XBOX360 heel plausibel is.

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 02-06 05:09

Format-C

Rays aan het Tracen

Anoniem: 107626 schreef op donderdag 19 januari 2006 @ 18:38:
[...]


Tja af en toe woorden als groene waas en rode bril, mogen wel weg. Ik dacht dat we er niet op de man gespeeld mocht worden ;)
Dat is hier weleens nóg erger geweest hoor; het valt nog wel mee nu. >:)

Nee, ff serieus; iedereen heeft een mening en probeert hem te onderbouwen, laten we gewoon respekt voor elkaar houden. O-)

MasterBox MB511 RGB/ Ryzen 9 5950X @ ML360R RGB/ RTX4090 FE/ Aorus B550 PRO V2/ G.Skill F4-3200C14D-32GTZ B-Die/ Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA HDD/ Gigabyte WBAX200/ CM V850 Gold V2/ Scarlett Solo / AOC AG493UCX


  • Jejking
  • Registratie: Februari 2005
  • Niet online

Jejking

It's teatime, doctor!

Wat ik vind over die hele 3DMark2006-affaire...

Futuremark is behóórlijk fout bezig geweest naar mijn mening, en wel om de volgende redenen:
- DST aanzetten op Nvidia-kaarten is belachelijk om de performance op niveau te houden terwijl de IQ achteruit gaat :/ (CJ, heb je btw hier ook harde bewijzen voor? Screenies e.d.?)

- als er 14 leden van het BDP zijn om mee te helpen in de ontwikkeling van nieuwe benchmarks, dan wordt er sérieus slecht geluisterd naar hen. En kom ajb niet aan met: dan zouden er véél te veel technieken gestopt moeten worden in één benchtest, nou... dan maak je toch wat meer tests? Net zoals die goede oude tijd van 3DMark2001 waarbij er gewoon een groot scala aan tests was, laat die dan meetellen in de beoordeling, kan je meteen goed stability testen van een OC'ed systeem :)
FirefoxAG schreef op donderdag 19 januari 2006 @ 18:04:
Als FM nV serieus had willen bevoordelen had de score er echt wel anders uit gezien, met een veel zwaardere stress op HDR. Met mijn eigen benchmarks in het achterhoofd had FM dan zelfs een puntenverschil van 50% makkelijk kunnen verklaren door eenvoudigweg te wijzen naar de huidige HDR game-linup... met de vinger daarop was het echt geen probleem geweest om de X1K serie serieus pijn te doen. Ik vind het dus netjes dat FM de kracht en de zwakheden (DB vs HDR) van beide architecturen dus blijkbaar heeft weten te normaliseren tot een gelijke score.
Je kan het ook anders formuleren, Futuremark maakt zijn naam als onafhankelijk nu al helemáál niet meer waar, want als ze dat wél hadden gedaan, hadden ze in 3DMark2006 gewoon een shitload aan én HDR én Dynamic Branching gestopt. Dan had je pas een echt beeld gekregen van de sterke en zwakke punten van beide kaarten, snappie? ;)
FirefoxAG schreef op donderdag 19 januari 2006 @ 18:04:
FM beweert nergens alleen de verplichte DX9 formaten te gebruiken. FM geeft aan de formaten te gebruiken waarvan zij verwachten dat dev's het in de nabije toekomst zullen gaan hanteren. En daar vallen dus blijkbaar formaten onder die ATi's X1800 niet rechtstreeks ondersteund.
Futuremark geeft aan de formaten te gebruiken waarvan zij verwachten dat dev's het in de nabije toekomst zullen gaan hanteren? Nou, dan vraag ik mij af wie er blind is... ik dacht dat het zo was dat een hoop games het DX9-format van Microsoft volgden? Dat is volgens mij de toonaangevende standaard in gameland hoor, dus gesproken over oogkleppen... :X

Pas als Futuremark het op zo'n manier doet dat alle formats gewoon goéd geïntegreerd zijn in plaats van zo'n gerushed niet-representatieve benchmark (je kan nou niet zeggen dat 3DMark2006 ganz voor de future is), met een scoreberekening waar een brugpieper zich nog de ogen voor uit z'n kop zou schamen (CPU-test mee laten tellen, SM3.0-kaarten scoren overal gewoon hoger dan SM2.0-kaarten omdat SM3.0-testresults gewoon opgeteld worden, dan ben je toch ook dom?), dán zie ik Futuremark pas weer als een geloofwaardig bedrijf, en trust me, dan maakt het me geen bál uit of ATi wint of Nvidia.... :)
Sorry voor die omgedraaide quote hehe ;)

@ CJ, we hebben tenminste weer eens een echte discussie waarbij de vonken er afvliegen, laten we ervoor zorgen dat er niet iemand straks in vlammen ontsteekt en we niet weer eindeloze warnings krijgen, ok? Dus stoppen met dat gedoe over Groen en Rood, we leven in Nederland en daar mag iedereen zijn éigen mening hebben... :/

[Voor 6% gewijzigd door Jejking op 19-01-2006 18:58]


  • Anoniem: 38733
  • Registratie: Oktober 2001
  • Niet online
Als FM nV serieus had willen bevoordelen had de score er echt wel anders uit gezien, met een veel zwaardere stress op HDR. Met mijn eigen benchmarks in het achterhoofd had FM dan zelfs een puntenverschil van 50% makkelijk kunnen verklaren door eenvoudigweg te wijzen naar de huidige HDR game-linup... met de vinger daarop was het echt geen probleem geweest om de X1K serie serieus pijn te doen.
Als je logisch nadenkt bevoordeelt FM Nvidia eigenlijk al door HDR als default te gebruiken. Interessant zou zijn geweest als HDR als optie aangezet had kunnen worden (zo doen gamedevs het ook nietwaar? ;) ) .
Want hoe verhoudt Ati's SM3.0 zich tov Nvidia's SM3.0 zonder HDR? Dat weten we nu niet. Het gebruik van HDR als default verbloemt eigenlijk de hele test.
Zoals je zelf al aangaf is Nvidia's FP HDR performance (nog) veel beter dan Ati's, en is het misschien dankzij het gebruik van HDR als default dé reden dat de scores redelijk dicht bij elkaar liggen. Zonder HDR zou een NvGTX kaart misschien wel een verschrikkelijke veeg uit de pan hebben gekregen van een AtiXT kaart in de SM3.0 tests. Om dit laatste te voorkomen gebruiken we (Futuremark) gewoon HDR als default, dit trekt de zaak weer enigszins recht. ;)

[Voor 13% gewijzigd door Anoniem: 38733 op 19-01-2006 19:32]


  • Pubbert
  • Registratie: Juni 2002
  • Laatst online: 23:35

Pubbert

random gestoord

Jejking schreef op donderdag 19 januari 2006 @ 18:56:
@ CJ, we hebben tenminste weer eens een echte discussie waarbij de vonken er afvliegen, laten we ervoor zorgen dat er niet iemand straks in vlammen ontsteekt en we niet weer eindeloze warnings krijgen, ok? Dus stoppen met dat gedoe over Groen en Rood, we leven in Nederland en daar mag iedereen zijn éigen mening hebben... :/
Naja, 6 Mei 2002 werd er nog iemand voor vermoord :+

Jammer dat ze het 3Dmark2001 niveau niet meer halen idd, 2003 en 2005 vond ik ook minder, en 2006 vind ik gewoon een 2005SE.

╔╗╔═╦╗
║╚╣║║╚╗
╚═╩═╩═╝


Anoniem: 109640

winwiz schreef op donderdag 19 januari 2006 @ 18:09:
Je geeft aan dat je alles geinstalleerd hebt wat er te installeren is voor CCC, maar ben je toevallig .net (1.1) niet vergeten??? Je zult absoluut niet de eerste zijn.
nop....
want dan zou ik Control center niet eens kunnen installeren.

  • EricJH
  • Registratie: November 2003
  • Laatst online: 10-06 05:37
Anoniem: 109640 schreef op donderdag 19 januari 2006 @ 19:32:
[...]


nop....
want dan zou ik Control center niet eens kunnen installeren.
Ik meen me te herinneren dat je het CCC wel zonder .NET kunt installeren. Het werkt dan idd niet.

  • The Source
  • Registratie: April 2000
  • Laatst online: 08-06 12:45
3Dmark is de laatste jaren zo overgewaardeerd. Veel websites gebruiken het nog omdat dan de meeste mensen de scores met hun eigen systeem thuis kunnen vergelijken. Maar we weten allemaal dat elke game andere resultaten geven, en een mix van gamebenchmarks meestal de beste indicator is voor welke gamekaart nu echt beter is. Voor mij is 3dmark gewoon een leuke demo net zoals vroeger de demo's op de homecomputers. Helaas zijn er nog een heleboel noobs die zich niet verder kijken dan hun 3Dmark lang is :(
FirefoxAG schreef op donderdag 19 januari 2006 @ 18:04:
@CJ:
Ik had gehoopt dat we ondertussen over het "FirefoxAG = groen" verhaal heen waren, maarja, blijkbaar is dat een makkelijke (doch erg goedkope) manier om je argumentatie kracht bij te zetten en je gelijk te halen als je't in de discussie moeilijk krijgt.
Als jij stopt met het continue steken onder water geven geven met de vele insinuaties dat ik niets anders kan doen dan alles met een rode gloed bekijken, dan stop ik met jou een groen ventje noemen ;)

Soms heb ik het gevoel dat ik tegen een muur aan sta te praten... Gelukkig vinden de meeste andere mensen het wel vermakelijk om te lezen... Maar ik weet niet of ik nog een keer op de rest van je argumenten in ga omdat ik dat 1) al veel te vaak gedaan heb, maar het steeds het ene oor in vliegt en het andere oor er weer uit, en 2)er een heleboel gewoonweg geen steek houden (bepaalde opmerkingen maken waaruit ik opmaak dat je je niet goed in de stof hebt verdiept).

Dat kan ik je dan nog zo vaak proberen duidelijk te maken op een normale beredenerende manier, maar het lukt het me toch niet om daar door heen te dringen. Zelfs niet als -tig mensen (die als zeer objectief beschouwd kunnen worden) op andere sites hetzelfde zeggen als ik, lukt me dat niet. Je kraakt ze meteen af door te zeggen dat het geen goede reviewers zijn of niet objectief zijn. Of je blijft maar doorhameren op 1 bepaalde vorm van HDR terwijl er -tig manieren zijn om HDR te ondersteunen (goh, wat grappig dat nV maar 1 hardwarematige vorm van HDR ondersteunt en dat dit dan meteen DE manier is volgens jou want FP16 Filtering en FP16 Blending is oh zo belangrijk). Je zegt dat VTF en FP16 Filtering al door zo veel devs gebruikt worden zonder voorbeelden te noemen.

FP16 Filtering wordt in welke games gebruikt? VTF wordt in welke games gebruikt? En dan niet met Pacific Fighters komen omdat daar de performance gigantisch ineenkakt vanwege de slome VTF implementatie van nV.

Ik zal het nog 1x zeggen. FP16 Texture Blending is zeer kostbaar en zwaar. Het kost heel erg veel geheugen en bandbreedte. Het kost veel moeite om dit te doen, vandaar dat hardwarematig FP16 Blending de voorkeur heeft. FP16 Filtering is niet zwaar. Aan de andere kant heb je wel heel erg veel transistoren extra nodig om dit hardwarematig te ondersteunen. De manier van ATi om het via de shaders te doen, kost niet erg veel en als ATi het in de caps activeert dan merken devs er helemaal niets van. Waarom ze dit nog niet gedaan hebben, zou ik eerlijk gezegd niet weten.

Ik hoorde trouwens van iemand dat de Unreal 3 Engine geen enkel probleem heeft met ATi's manier van FP Filtering. Developers willen geen boxfilters (bilinear filtering etc), maar ze willen filters die beter geschikt zijn om de taak te voldoen. Daarom gebruikt UE3 verschillende filters voor elk type kaart.

Wat ATi er zelf over te zeggen heeft:
I will gladly share our considerations for dumping FP16 texture filtering. When we analyzed promising methods of implementing HDR, we found out that 10-bit and 16-bit integer and FP16 formats are of special interest, both for storing textures as well as for rendering. What concerns FP16, in our opinion, alpha blending is the most important feature, followed by multisampling. Filtering goes only after them. The lack of alpha blending will not allow to render scenes with semitransparent objects, smoke, and other effects. Blending emulation in a shader using additional render buffers is theoretically possible, but it will be resource and performance taxing. The lack of multisampling has a negative effect on realism in rendered scenes - the main reason for using such technologies as HDR. At the same time, FP16 texture filtering is not so critical for HDR for several reasons. Let me explain. First of all, a large range of values is inexpedient at this stage of our gaming industry, it's not necessary actually. As game developers usually create their products for a wide spectrum of hardware, games must run well with high-end as well as low-end cards with practically the same set of textures and other elements of artistic design. It applies a peculiar limitation on the range of intensity values.
Bron met nog veel meer interessante info: http://www.digit-life.com/articles2/video/r520-part6.html

En ik denk dat ATi als een na grootste speler (na Intel) op zich toch wel een beter gevoel heeft voor wat er wel of niet belangrijk is voor gamen dan Futuremark. Als er echt veel devs waren die op FP Filtering hadden gevraagd in hardware, dan hadden ze dat heus wel toegevoegd.

Over HDR zelf is ook nog niet het laatste gezegd... Behardware heeft het mooi opgesomd in hun GTX512 review:
ATI and NVIDIA each support each a certain amount of different types of HDR. Here are the main differences:
- ATI supports FX10 blending, NVIDIA does not.
- ATI supports multi-sampling antialiasing in FX and FP, NVIDIA does not.
- FP16 texture filtering is free for NVIDIA not for ATI

Overall, ATI has more flexibility than NVIDIA for the number of HDR formats supported. However, as NVIDIA was the first to develop this technology, FP16 is the main format used. This can be a bit problematic for the Radeon X1K, which doesn´t normally filter FP16 textures and as long as shaders aren´t adapted to combat this deficiency.
http://www.behardware.com/art/imprimer/599/

En je mist gewoon het hele punt dat 3DM altijd een D3D benchmark is geweest en niet een benchmark die IHV specifieke extensies/formaten moet testen.

Of zoals Sapstengel zegt:
Sapstengel schreef op donderdag 19 januari 2006 @ 18:29:
Voor wat betreft de hele FM discussie:
Behoort een benchmark niet objectief te zijn en alleen die technieken testen/belonen die zowel ATi als Nv hebben?
Dat klopt dus precies. Zo was Futuremark altijd bezig met 3DM tot aan 2001, maar op de een of andere manier is dat sinds 2003 heel erg veranderd. 3DM is leuk om je systeem mee te stressen, maar er zijn nu zo veel verschillende games die allemaal weer andere technieken gebruiken dat 3DM gewoon te beperkt is om een goed beeld te geven van de 3D performance van een GPU, zeker wanneer een bepaalde fabrikant voorgetrokken wordt wat betreft functies.
Jejking schreef op donderdag 19 januari 2006 @ 18:56:
Wat ik vind over die hele 3DMark2006-affaire...

Futuremark is behóórlijk fout bezig geweest naar mijn mening, en wel om de volgende redenen:
- DST aanzetten op Nvidia-kaarten is belachelijk om de performance op niveau te houden terwijl de IQ achteruit gaat :/ (CJ, heb je btw hier ook harde bewijzen voor? Screenies e.d.?)
DST Off geeft 10.5% performance drop op de GF6 serie: http://www.elitebastards....d=10599&head=1&comments=1 En let vooral op de IQ verschillen.

Far Cry DST On/Off @ Xbit: http://www.xbitlabs.com/a...o/display/farcry30_4.html En ik geloof dat wanneer men een GF kaart zich deed voordoen als een Radeon kaart (en dus het Radeon renderpath gebruikt) de performance een stukje lager ligt, maar alles wel goed gerenderd wordt.
The Source schreef op donderdag 19 januari 2006 @ 20:34:
Voor mij is 3dmark gewoon een leuke demo net zoals vroeger de demo's op de homecomputers.
Dan vind ik ATi's Toyshop demo eigenlijk een stuk mooier en sfeervoller om naar te kijken dan 3DM. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Joepi
  • Registratie: December 1999
  • Laatst online: 08-06 13:15
Ik denk, de beste manier om de nieuwste 3d capaciteiten te laten zien, is de techdemos te laten zien.
Neem bv.'Toyshop': lonely at the top maar geen pc-zaak laat het zien!
Zit alles in!

Stresstest Source: veel beter!

  • Bartjuh
  • Registratie: Oktober 2001
  • Niet online
CJ schreef op donderdag 19 januari 2006 @ 21:08:

En ik denk dat ATi als een na grootste speler (na Intel) op zich toch wel een beter gevoel heeft voor wat er wel of niet belangrijk is voor gamen dan Futuremark. Als er echt veel devs waren die op FP Filtering hadden gevraagd in hardware, dan hadden ze dat heus wel toegevoegd.
Naja, Intel is de grootste in de procmarkt en die moet vaak het onderspit delven qua prestatie van AMD ;) , dus welke plaats ze innemen qua positie in de markt wil niet altijd zeggen dat ze het bij het juiste eind hebben :)

  • jimbojansen
  • Registratie: Mei 2005
  • Laatst online: 09-04 08:22
Bartjuh schreef op donderdag 19 januari 2006 @ 21:36:
[...]

Naja, Intel is de grootste in de procmarkt en die moet vaak het onderspit delven qua prestatie van AMD ;) , dus welke plaats ze innemen qua positie in de markt wil niet altijd zeggen dat ze het bij het juiste eind hebben :)
Intel's IGP's hebben het grootste marktaandeel.. dat probeert hij te zeggen (volgens mij :X )

  • Joepi
  • Registratie: December 1999
  • Laatst online: 08-06 13:15
Ati zou bezig zijn met 4GPU.
Werkt met de RV580 in Crossfire en dual GPU-cards, zgn. X2;
tot nu toe is alleen de X1600 X2 vertoont, maar de X1900 X2 is pas echt een killer!

BTW een interview met Nicklas Renqvist (FM), wel al van 2nov05 maar best cool om te lezen!
http://www.beyond3d.com/interviews/fm05/p2/

[Voor 5% gewijzigd door Joepi op 19-01-2006 23:35]


  • Maikel205
  • Registratie: Juni 2005
  • Laatst online: 09-06 21:30
X1900XT exclusive: http://www.dailytech.com/article.aspx?newsid=310

Eerste review van de R580, die volgende week geintroduceerd wordt.

  • Cheetah
  • Registratie: Oktober 2000
  • Laatst online: 26-06-2022

Cheetah

Try to live without WWW ;)

Sapstengel schreef op donderdag 19 januari 2006 @ 18:29:
Voor wat betreft de hele FM discussie:
Behoort een benchmark niet objectief te zijn en alleen die technieken testen/belonen die zowel ATi als Nv hebben?
Als je hem positioneert als puur synthetische DirectX9 benchmark: helemaal met je eens.
Echter 3DMark wordt door Futuremark niet als zodanig gepresenteerd, maar als een "Gamers benchmark" bevattende een referentie naar / verwachting van DirectX game performance in de toekomst. Dit houdt in dat ze keuzes maken voor formaten waarvan zij verwachten dat gamedev's die - over de boot genomen - algemeen gaan ondersteunen. Ook als deze formaten puur technisch gezien niet tot de verplichte DX9 set, maar tot de optionele formaten behoren.

En off the record: gezien nV's invloed met het TWIMTBP programma vind ik het dan nog niet eens zo "achterlijk" dat ze ook formaten kiezen die ATi's X1800 niet rechtstreeks in hardware ondersteund, maar wel door nV worden ondersteund.
Als FM bijv. het door nV gepatenteerde UltraShadow zou ondersteunen zou je me zeker daarover horen, maar met "optionele", open DX9 zaken als FP filtering, VTF en 24bits precisie heb ik geen moeite. Wedden dat toekomstige ATi generaties hier ook support voor hebben? En vervolgens dus deze hele rel een non-issue is omdat FM dan alsnog "gelijk" krijgt? Bij ondersteuning van 24bits shadowmaps is die transitie op ATi hardware zelfs reeds gaande.
ATi's eerdere keuzes reflecteren op dit moment die van FM niet, maar ik kan me niet herinneren ergens in FM's bepalingen te hebben zien staan alle IHF's en overige "affiliates" het volledig met hun keuzes eens moesten zijn ;)
Jejking schreef op donderdag 19 januari 2006 @ 18:56:
- als er 14 leden van het BDP zijn om mee te helpen in de ontwikkeling van nieuwe benchmarks, dan wordt er sérieus slecht geluisterd naar hen. En kom ajb niet aan met: dan zouden er véél te veel technieken gestopt moeten worden in één benchtest, nou...
Zie stuk hiervoor: FM kan onmogelijk rekening houden met alle eisen en wensen van alle IHF's en alle affiliates. Er ontstaat dan een onmogelijk benchmark die nooit klaarkomt omdat iedereen in het programma wel iets heeft om over te bitchen. FM overweegt dus de inbreng van het "zooitje" en kiest daaruit een set onderdelen waarvan zij verwachten dat die representatief is voor de toekomst.
Denk je misschien dat gamedev's dit anders doen? En de tijd hebben om voor iedere IHF een eigen renderpad te proggen... don't think so... ;)
Je kan het ook anders formuleren, Futuremark maakt zijn naam als onafhankelijk nu al helemáál niet meer waar, want als ze dat wél hadden gedaan, hadden ze in 3DMark2006 gewoon een shitload aan én HDR én Dynamic Branching gestopt. Dan had je pas een echt beeld gekregen van de sterke en zwakke punten van beide kaarten, snappie? ;)
Ik denk dat de twee goed in balans zijn, en je daarom ook een score krijgt die goed in balans is. Bij een zwaardere afweging van DB was ATi in het voordeel geweest, en bij een zwaardere afweging van FP16 HDR nV.
Kan ik er ten overvloede nog eens op wijzen dat HDR momenteel steeds vaker toegepast wordt en DB nog moet verschijnen in games... mag jij vertellen wat momenteel belangrijker is ;)
Futuremark geeft aan de formaten te gebruiken waarvan zij verwachten dat dev's het in de nabije toekomst zullen gaan hanteren? Nou, dan vraag ik mij af wie er blind is... ik dacht dat het zo was dat een hoop games het DX9-format van Microsoft volgden? Dat is volgens mij de toonaangevende standaard in gameland hoor, dus gesproken over oogkleppen... :X
Alle games volgen inderdaad het DX9 format... inclusief optionele formaten.
Heb je met het oog daarop wel eens van het ATi GITG en nV TWIMTBP programma gehoord? En je weet ook dat het TWIMTBP programma een stuk groter is en er veel meer geld in gestoken wordt dan GITG?

'nuff said? ;)
De wereld is niet zwart/wit maar grijs... je krijgt waar je voor betaald kortgezegd... ;)
Anoniem: 38733 schreef op donderdag 19 januari 2006 @ 19:24:
Als je logisch nadenkt bevoordeelt FM Nvidia eigenlijk al door HDR als default te gebruiken. Interessant zou zijn geweest als HDR als optie aangezet had kunnen worden (zo doen gamedevs het ook nietwaar? ;) ) .
Want hoe verhoudt Ati's SM3.0 zich tov Nvidia's SM3.0 zonder HDR? Dat weten we nu niet. Het gebruik van HDR als default verbloemt eigenlijk de hele test.
Zoals je zelf al aangaf is Nvidia's FP HDR performance (nog) veel beter dan Ati's, en is het misschien dankzij het gebruik van HDR als default dé reden dat de scores redelijk dicht bij elkaar liggen. Zonder HDR zou een NvGTX kaart misschien wel een verschrikkelijke veeg uit de pan hebben gekregen van een AtiXT kaart in de SM3.0 tests. Om dit laatste te voorkomen gebruiken we (Futuremark) gewoon HDR als default, dit trekt de zaak weer enigszins recht. ;)
Tja, dit is een eindeloze discussie.
In dezelfde trand: Wat als FM geen Dynamic Branching had gebruikt? Hoe zou het plaatje er dan uit gezien hebben? Dus bevoordeelt FM ATi door DB te gebruiken in de benchmark... kunnen we nooit weten hoe nV's performance eruit zou hebben gezien zonder DB... etc...

Catch the drift...? Wat FM heeft gedaan is een afweging, en die kun je tot in het oneindige bediscussieren als je de zaak alleen vanuit het blikpunt van 1 van de 2 partijen bekijkt. Nog afgezien daarvan vind ik persoonlijk op dit moment HDR interessanter dan DB, want HDR wordt nu al gebruikt en steeds meer, terwijl (serieuze) DB in games nog in geen velden of wegen te bekennen is...
CJ schreef op donderdag 19 januari 2006 @ 21:08:
Soms heb ik het gevoel dat ik tegen een muur aan sta te praten... Gelukkig vinden de meeste andere mensen het wel vermakelijk om te lezen... Maar ik weet niet of ik nog een keer op de rest van je argumenten in ga omdat ik dat 1) al veel te vaak gedaan heb, maar het steeds het ene oor in vliegt en het andere oor er weer uit, en 2)er een heleboel gewoonweg geen steek houden (bepaalde opmerkingen maken waaruit ik opmaak dat je je niet goed in de stof hebt verdiept).

Dat kan ik je dan nog zo vaak proberen duidelijk te maken op een normale beredenerende manier, maar het lukt het me toch niet om daar door heen te dringen.
Likewise... ik had het werkelijk niet beter kunnen uitdrukken, maar dan de tegenovergestelde kant op ;)
Zelfs niet als -tig mensen (die als zeer objectief beschouwd kunnen worden) op andere sites hetzelfde zeggen als ik, lukt me dat niet.
Ik zou eens goed gaan kijken of die "objectieve" (??) mensen op andere sites ook daarwerkelijk hetzelfde zeggen als jou, of dat je het alleen maar op die manier interpreteert ;)
Je kraakt ze meteen af door te zeggen dat het geen goede reviewers zijn of niet objectief zijn.
Hebben we 't nu over ExtremeTech? Mijn argumentatie omtrend de absurditeit van hun voorstel om de 6800/7800 in de HDR+AA test i.p.v. de correcte indicatie "hardware incompatible" een SM2.0 score te geven - die dus absoluut niet te relateren is aan de SM3.0 HDR/noAA score van deze kaarten zelf en de SM3.0 HDR+AA score van ATi - was toch wel duidelijk dacht ik?
Vooral als ze FM biased noemen omdat die uiteraard niet in deze absurditeit meegaan (like: DUH), nog afgezien van een hele zooi andere ongeverifieerden verdachtmakingen :X
En als ik dat onprofessioneel noem, dan ben ik biased zeker he, want jij bent 't wel met ze eens? :X
Of je blijft maar doorhameren op 1 bepaalde vorm van HDR terwijl er -tig manieren zijn om HDR te ondersteunen (goh, wat grappig dat nV maar 1 hardwarematige vorm van HDR ondersteunt en dat dit dan meteen DE manier is volgens jou want FP16 Filtering en FP16 Blending is oh zo belangrijk). Je zegt dat VTF en FP16 Filtering al door zo veel devs gebruikt worden zonder voorbeelden te noemen.
FP16 Filtering wordt in welke games gebruikt?
No offence, maar nV hardware is sneller in ELKE gelijkwaardige HDR gamebenchmark die ik tot nu toe gezien heb, ongeacht welke form gebruikt werd. Bovendien, dat ATi meer HDR formaten ondersteund dan nV is geweldig leuk, maar als deze niet gebruikt worden door dev's compleet zinloos. Wat we tot nu toe gezien hebben is SM2.0 shader HDR en FP16 HDR. Wat denk jij dat de kans is dat dev's in de nabije toekomst HDR paden gaan proggen die door niets anders dan ATi's X1K ondersteund worden?
Ik ga niet uit van formaten die nog nergens anders het levens"licht" (hey, leuke woordspeling :P) hebben gezien dan in ATi's testlabs, sorrie.
Ik zal het nog 1x zeggen. FP16 Texture Blending is zeer kostbaar en zwaar. Het kost heel erg veel geheugen en bandbreedte. Het kost veel moeite om dit te doen, [...]
Je vergeet een miniem detail daarbij te vermelden: "op ATi hardware", want nV heeft het er aanmerkelijk minder zwaar mee. Dit gezien het feit dat alle 3 door mij geteste HDR games op een 256mb 7800GTX TOP @1920x1200 prima speelbaar waren, met daarmee in contrast geen enkele op een X1800XT, zelfs @PE ;)
De 7800's slechtste resultaat = 38fps avg, de X1800XT's slechtste resultaat 18 fps avg... wat voor conclusies wil je dan dat ik trek? 2 van die games gebruiken FP filtering: SS2 en FarCry, en hoewel FC "meevalt" met "slechts" 55-78% performanceverschil zet de X1800 in SS2 de slechtste performance neer van al de games (111% verschil), zelfs na de patch. Hoe dat komt? Drivers? FP filtering? Hardware issue? You tell me...

Zolang die performance niet verbetert kan iedereen 10.000 excuses aandragen, maar de bottom line is dat die cijfertjes tellen. De rest is - sorrie - geklets in de marge, en daar kopen we niets voor, want het zet geen cm zoden aan de dijk.
En ik denk dat ATi als een na grootste speler (na Intel) op zich toch wel een beter gevoel heeft voor wat er wel of niet belangrijk is voor gamen dan Futuremark. Als er echt veel devs waren die op FP Filtering hadden gevraagd in hardware, dan hadden ze dat heus wel toegevoegd.
Niet dat dit een direct vergelijkbare situatie is, maar ik herinner me dergelijke uitspraken ook van nV cracks nadat de FX in 3DMark05 afging als een gieter... bleek dat FM dat zo gek nog niet had voorspeld.
En je mist gewoon het hele punt dat 3DM altijd een D3D benchmark is geweest en niet een benchmark die IHV specifieke extensies/formaten moet testen.
Zie mijn opmerking bovenaan: FM positioneert 3DMark niet als "gewoon" een D3D benchmark.
DST Off geeft 10.5% performance drop op de GF6 serie: http://www.elitebastards....amp;head=1&comments=1 En let vooral op de IQ verschillen
Men heeft de plaatjes met de grootste IQ verschillen eruit gehaald...
Als dat dus het maximum is van wat zichtbaar is van die hele DST rel, doe mij die +10,5% dan maar. Ik ben er nog niet eens van overtuigd dat ik het echt lelijker vind, en zeker niet in alle situaties. ATi zou er goed aan doen het ook te gaan ondersteunen :Y)

Elitebastards vat het trouwens ook meteen mooi samen:
Which side of this fence you fall on depends largely on how you view 3DMark05 - As a "Gamer's Benchmark" of future DirectX game title performance, or a synthetic benchmark for testing performance with DirectX 9 content. My personal thoughts as a reviewer tend to focus largely on the synthetic side, and thus (for comparisons between NVIDIA and ATI boards at least) DST will remain disabled in my testing. But, of course, everyone is entitled to their own opinion, and to run the benchmark as they see fit - There is no right and wrong in this particular discussion, simply issues for which awareness needs to be raised.
Ziet er naar uit dat wij tweetjes ons aan twee verschillende zijden van die "fence" bevinden CJ ;)

Wat ik wel vind is dat je consequent moet zijn in aan welke zijde je je bevind. Als 05 een "goede indicatie" was toen nV een pak slaag kreeg, dan is 06 dat nu ook (nog afgezien van dat ATi niet eens pak slaag krijgt, nogmaals ten overvloede: dit had met het oog op 2 FP16 HDR tests uit 4 graphics tests totaal met gemak vele malen erger kunnen zijn).
Ik heb sterk het idee dat heel wat mensen even snel "switchen" omdat ATi's nieuwe hardware t.o.v. nV niet het puntenaantal neerzet dat zij verwacht hadden... en daar dan voor zichzelf een plausibele rechtvaardiging bij zoeken.

[Voor 14% gewijzigd door Cheetah op 20-01-2006 02:18]

ASUS Max IV GENE-Z, Core i7 3770k, 16GB Kingston HyperX DDR3-1600, EVGA GTX970 FTW
Crucial M550 512GB SSD, 2TB WD HDD, LG GGW-H20L Blu/HD, Panasonic 40" AX630 UHD
Full Specz

Ik geloof dat er nog wat mooiere plaatjes waren van DST op guns in bv Far Cry wat kortgezegd... er niet uit zag...

En over HDR is nog lang niet alles gezegd. nV heeft bv met 32-bits op de een of andere manier ong 94% meer texture fillrate met blending dan ATi, terwijl dit op 64-bits een achterstand wordt van 46%. En zoek maar eens wat Splinter Cell vergelijkingen op bv op B3D of Anandtech. Dan is de de XT over het algemeen toch iets sneller dan de GTX met alle SM3 opties aan + HDR. Het ligt er maar net aan hoe de gamedevs HDR gebruiken.

Nogmaals:
Overall, ATI has more flexibility than NVIDIA for the number of HDR formats supported. However, as NVIDIA was the first to develop this technology, FP16 is the main format used. This can be a bit problematic for the Radeon X1K, which doesn´t normally filter FP16 textures and as long as shaders aren´t adapted to combat this deficiency.
En ik heb trouwens het gevoel dat sommige mensen GITG onderschatten. Het is misschien niet zo tastbaar als TWIMTBP, maar er wordt zeker wel wat aan gedaan en een aantal leuke games zullen onder het vaandel vallen en zelfs een aantal aankomende populaire games die hier niet onder vallen zullen goed presteren op ATi hardware dankzij de vele shaders...

Hetzelfde geldt voor 3DM en ATi's drivers. Ik verwacht daar nog wel wat verbeteringen in...


Meer X1900XTs op voorraad bij shops:

http://www.digitallyuniqu...944&cpncode=10-16007872-2 voor $559,95
http://www.computers4sure...ITE&Keyword=x1900&x=0&y=0

[Voor 16% gewijzigd door CJ op 20-01-2006 03:06]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


Anoniem: 107308

Nou wil ik niet lullig doen CJ maar ATi luisteren naar gamedevs? Ik moet wekelijks het gezeik aanhoren over ATI en het geweldig luisteren. Nee, luisteren zijn ze bij ATi nu niet bepaald goed in. En dit is bekend ook.

Over FM werd zoveel geklaagt dat de CPU zo weinig invloed had, zit het erin is het weer niet goed? Mis ik iets.

Voor de rest hebben jullie beide steek houdende argumenten ga zo door, houdt het alleen zwart wit. ;)
Noem eens wat voorbeelden van niet luisteren naar gamedevs? Je maakt me heel nieuwsgierig. :)

En er is natuurlijk maar een beperkte hoogte tot waar je kan luisteren als je nieuwe functionaliteit in je GPUs wilt inbouwen. Bij het ontwerpen van een GPU komt veel tijd kijken. Een gemiddelde GPU is misschien wel 2 a 3 jaar in ontwikkeling. Aan het begin van het proces moet je overleggen met gamedevs en MS en kijken wat er over een jaar of 3 nog handig is. Zo had ATi Truform geintegreerd omdat gamedevs graag meer polygonen op beeld wilden tonen, maar de hardware er nog niet krachtig genoeg voor was (zie bv Morrowind als mooi voorbeeld). Truform verhielp dit. Helaas was een jaar later de 9700Pro op de markt die wel genoeg power in huis had zodat Truform overbodig werd.

GITG is volgens mij ook meer gericht op het sturen van ATi lui naar gamedevs om ze te helpen code beter te optimaliseren voor ATi hardware. Van wat ik begrepen heb, is dat het een wisselwerking moet zijn van luisteren naar anderen en anderen die naar jou luisteren. En ik heb gehoord dat lang niet alle gamedevs de adviezen van ATi zo maar aan nemen, ook al zou dat wel helpen om optimaler te draaien op bepaalde GPUs. Er zijn bij ATi heus wel medewerkers die willen luisteren hoor. :) Maar of ze nog veel invloed hebben op de ontwikkeling van GPUs is een andere zaak.

En ik dacht dat het juist goed was dat de CPU weinig invloed had op de eindscore van 3DM, omdat dan juist de kracht van de GPU getest werd. Maar als je 3DM neemt als test van je hele systeem dan zou het gemakkelijker zijn om de CPU wel invloed te laten hebben. Eigenlijk zou men bij reviews gewoon met en zonder CPU tests de scores moeten laten zien, en niet alleen de eindscore.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.


  • Krizzie
  • Registratie: Mei 2004
  • Laatst online: 10-06 13:24

Krizzie

Progressive Music \o/

Het heet ook niet voor niets "3DMark" en geen "SystemMark" ;)

Werd in 2003/2005 de cpu score meegeteld? Nee toch? :?

Ik snap best dat oc-ers wat meer van de cpu verlangen en daardoor net die 100 puntjes extra kunnen pakken. Maar dat is in de gametests, de cpu test moeten ze los van de game tests houden, anders is het geen 3DMark meer. ;)

Geluidswolk


  • Aight!
  • Registratie: Juli 2004
  • Laatst online: 00:26

Aight!

'A toy robot...'

cpu speelde wel een rol.

  • Astennu
  • Registratie: September 2001
  • Laatst online: 09-06 13:42
Even iets anders. Ik belde net maXpert. En die had het er over dat veel leveranciers geen AMD cpu's inkopen omdat er volgende week een prijs verlaging is. Mischien de introductie van de AM2 vervroegt ? Loopt wel samen met het uitkomen van de RD580 chipset.

Dus ik ben heel erg benieuwd. Mischien dan toch slim om daar even naar te gaan kijken als ik toch al een nieuw mobo wil. Aangezien je nu ook DDR II met 3-2-2-2 timings hebt.

En hun leveranciers hadden nog geen X1900 op de prijslijst staan.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • jimbojansen
  • Registratie: Mei 2005
  • Laatst online: 09-04 08:22
Astennu schreef op vrijdag 20 januari 2006 @ 12:47:
Even iets anders. Ik belde net maXpert. En die had het er over dat veel leveranciers geen AMD cpu's inkopen omdat er volgende week een prijs verlaging is. Mischien de introductie van de AM2 vervroegt ? Loopt wel samen met het uitkomen van de RD580 chipset.

Dus ik ben heel erg benieuwd. Mischien dan toch slim om daar even naar te gaan kijken als ik toch al een nieuw mobo wil. Aangezien je nu ook DDR II met 3-2-2-2 timings hebt.

En hun leveranciers hadden nog geen X1900 op de prijslijst staan.
neej volgens mij komt dit niet door de AM2 maar door de FX60.. kijk hier maar sommige prijzen worden ook duurder.. ze willen dat mensen van de Opteron afstappen..

  • Mr. Detonator
  • Registratie: Februari 2003
  • Laatst online: 09-06 01:13
Maikel205 schreef op donderdag 19 januari 2006 @ 23:43:
X1900XT exclusive: http://www.dailytech.com/article.aspx?newsid=310

Eerste review van de R580, die volgende week geintroduceerd wordt.
dat valt me een beetje tegen ?!

allebei met een opteron 165, en 2 gig mem.....en maar zo'n klein verschil ?

ligt dat nou aan mij, of is de r580 niet zo goed dan iedereen veronderstelde ?! :X

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online
De grafische kaarten business is imo inmiddels zo ingewikkeld geworden dat het niet echt makkelijk is om echt weloverwogen te kiezen. Zelfs al volg je de business.

Momenteel gebruik ik 3dmark05/06 eigenlijk alleen om te zien of mijn systeem scoort zoals het moet. Als een vergelijkbaar systeem bijv. 1000 scoort en ik 800, dan klopt er ws iets niet in mijn systeem.


Verder lijkt het me dat Anand het wel goed ziet in zijn conclusie vd 3dmark06 review: http://www.anandtech.com/video/showdoc.aspx?i=2675&p=4
Final Words

As we've said before, 3DMark is a somewhat specialized benchmarking tool with the ability to measure a lot of different aspects of a gaming system, and while it may not be best suited for testing performance between cards, there are many other things this program is useful for.

3DMark06 is quite useful for doing more focused comparisons with hardware components. For instance, comparing 3DMark results between a card and an overclocked version of itself can give a good idea of how a given card's clock speeds scale. Another use would be for testing drivers and to determine what kind of improvements certain features may have had between updates. We typically use looped game benchmarks when testing the stability of a graphics card while overclocking, but 3DMark would make a good tool for this as well. With 3DMark's demos, any graphical tearing or visual anomalies would very easily be seen. By taking screen shots, 3DMark would also be a great tool for comparing image quality in Anti-Aliasing or filtering for example.

There are likely many other uses for this program, which we can't mention here, and there is no doubt that 3DMark will remain a popular benchmarking program. Our uses for this program mostly involve more specific feature comparisons rather than those between the performance of different cards. Again, real-world tests show how 3DMark test scores don't really reflect actual performance in a game, particularly when you consider that different games will always favor different graphics hardware.

The bottom line is that a graphics card was made for playing games. Futuremark has developed a nice tool with excellent graphical elements in this latest version of 3DMark, which hopefully game makers will aspire to achieve in future games. Regardless of how you use it, 3DMark06 shows off some very impressive graphics and is a definite improvement over 3DMark05 both in visual quality and in the types of performance tests used. We certainly won't be focusing on 3DMark scores in future graphics card comparisons, but we may see some of the feature set tests or image quality comparisons pop up down the road

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Astennu
  • Registratie: September 2001
  • Laatst online: 09-06 13:42
jimbojansen90 schreef op vrijdag 20 januari 2006 @ 13:36:
[...]

neej volgens mij komt dit niet door de AM2 maar door de FX60.. kijk hier maar sommige prijzen worden ook duurder.. ze willen dat mensen van de Opteron afstappen..
Jah ik dacht dat ook. Want de AM2 komt als het goed is pas in de zomer. Maar goed even een weekje afwachten.
Mr. Detonator schreef op vrijdag 20 januari 2006 @ 13:40:
[...]


dat valt me een beetje tegen ?!

allebei met een opteron 165, en 2 gig mem.....en maar zo'n klein verschil ?

ligt dat nou aan mij, of is de r580 niet zo goed dan iedereen veronderstelde ?! :X
Dat vond ik dus ook al. Ik wacht liever op revieuws van B3D en Anadtech voordat ik een conclussie ga trekken. Fear had igg beter moeten zijn in mijn ogen. Andere games zouden beste te weinig shaders nodig kunnen hebben en dan zal de X1900 niet echt veel sneller zijn als een X1800.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Pagina: 1 ... 4 5 6 Laatste

Dit topic is gesloten.


Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee