Toon posts:

[Algemeen] ATi Nieuwsdiscussie Topic - Deel 31 Vorige deelOverzichtVolgende deelLaatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1
Acties:
  • 2.433 views sinds 30-01-2008
http://www.phoenixclan.nl/ati/atitopiclogo.jpg
 
Welkom in het ATi Nieuwsdiscussie-topic, het topic waar je de laatste nieuwtjes op het gebied van 3D-videokaarten van de Canadese fabrikant ATi kunt vinden. Lees alsjeblieft even onderstaande regels door alvorens je in dit topic begint te posten.

De meest gestelde vragen kan je vinden in de tweede post. Klik HIER om er meteen naar toe te gaan.

TOPIC REGELS
Ja, ook dit topic heeft regels! In overleg met de mods is besloten om een topic te openen waarin alleen maar nieuwsfeiten en geruchten gepost en besproken. Het is puur de bedoeling om elkaar hier op de hoogte te houden van de laaste nieuwtjes op het gebied van ATi-GPUs! Heb je problemen met je videokaart? Gebruik dan eerst de search-functie van het forum. Bestaat er nog geen onderwerp over... Open dan een nieuw topic!!!!!

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. De nieuws- en discussiewaarde is het belangrijkste in dit topic.

Wat is absoluut NOT DONE in dit topic?
  • "ATi sux, nVidia rox / nVidia sux, ATi rox!" uitlatingen. Wil je flamen/trollen... doe dat dan ergens anders.
  • Basic vragen zoals "Welke kaart kan ik het beste kopen?", "Heb ik een nieuwe voeding nodig voor m'n X1800XT?", "Kan ik mijn X800GTO2 modden naar een X850XT PE?". Gebruik de search. Dit soort vragen zijn al -tig keer voorbij gekomen, zowel in dit topic als in andere topics. Of kijk in de second post.
  • Continue melden dat een kaart niet beschikbaar is. Het melden in dit topic HELPT de beschikbaarheid NIET verbeteren. En na 1x weten we het wel. Wacht gewoon, check de pricewatch, bel wat winkels, eet wat uit je neus... maar meldt het hier niet aangezien de discussiewaarde nihil is en niets bij draagt aan dit topic!
  • Probeer mensen niet continue te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk, en ik heb geen zin in klaagmailtjes van topiclezers in in mijn mailbox. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod!
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op ATi gebied.
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".


TOPIC GESCHIEDENIS


http://www.phoenixclan.nl/ati/ati-eye.jpg


Zoek je meer gedetailleerde informatie over de R420? Kijk dan eerst even in de oudere topics. Elk topic biedt de mogelijkheid om binnen het topic op trefwoorden te zoeken! In deel 3 en 4 kan je meer vinden over de lancering van de R420. In deel 8 is een FAQ toegevoegd met o.a. informatie over Temporal Anti Aliasing en 3Dc. Deel 13 behandeld de R480 & R430 Launch, terwijl de eerste leaks over R520 in Deel 20 verschijnen.

[rml]1[/rml] [rml]2[/rml] [rml]3[/rml] [rml]4[/rml] [rml]5[/rml] [rml]6[/rml] [rml]7[/rml] [rml]8[/rml] [rml]9[/rml] [rml]10[/rml] [rml]11[/rml] 12 [rml]13[/rml] [rml]14[/rml] [rml]15[/rml] [rml]16[/rml] [rml]17[/rml] [rml]18[/rml] [rml]19[/rml] [rml]20[/rml] [rml]21[/rml] [rml]22[/rml] [rml]23[/rml] [rml]24[/rml] [rml]25[/rml] [rml]26[/rml] [rml]27[/rml] [rml]28[/rml] [rml]29[/rml] [rml]30[/rml]
NAVIGATIE
HUIDIGE VPUs
ATi's huidige line-up is tweeledig. Aan de ene kant zitten we nog met de nasleep van de SM2.0b kaarten zoals de X800XL en X850XT, aan de andere kant hebben we nu de nieuwe SM3.0 generatie van de X1K-serie.

Wil je meer weten over de SM2.0b generatie dan raad ik je aan om even in de first post te kijken van een van de voorgaande delen (bv deel 10). Dit deel zal puur en alleen over de SM3.0 generatie gaan.

De huidige serie kaarten zijn gebaseerd op de volgende cores:
  • R520 (PCI-E: X1800-serie)
  • RV530 (PCI-E: X1600-serie)
  • RV515 (PCI-E: X1300-serie)
Zoals je ziet staan er steeds twee versies vernoemd van elke core. De R520, RV530 en RV515 worden gemaakt door TSMC. Er gaan geruchten de ronde dat er ook cores zijn die luisteren naar de namen R521, RV531 en RV516. UMC zou verantwoordelijk zijn voor de productie van deze cores om de voorraad flink op te schroeven. In hoeverre dit waar is, is echter nog onduidelijk.

Desktop: R520 - X1800 serie
http://www.phoenixclan.nl/ati/X1800series.jpg

R520 heeft een naam gekregen, namelijk Radeon X 1800.

http://www.phoenixclan.nl/ati/X1800XT.jpg
X1800XT


Er zullen in eerste instantie twee varianten van verschijnen. De X1800XL en X1800XT. Eventueel kunnen later nog een Pro en LE editie gelanceerd worden.

http://www.phoenixclan.nl/ati/r520-chart.jpg


De prijzen in de chart zijn richtprijzen.


De X1800XL zal een single slot cooler gebruiken terwijl de X1800XT van een dualslot zal worden voorzien. Nieuwe snufjes die de R520 aan boord heeft zijn o.a. 512-bit Ringbus, Adaptive AA, HDR + AA, Avivo en 10 bits pipeline precision.Verdere diepgaande details over de R520 architectuur zullen NA de launch op 5 oktober in de first post worden geplaatst.

http://www.phoenixclan.nl/ati/ASUSX1800XTTOP.jpg
Asus X1800XT TOP


Desktop: RV530 - X1600 serie
http://www.phoenixclan.nl/ati/X1600series.jpg

RV530 zal voortaan bekend staan onder de naam Radeon X 1600. Er zullen in eerste instantie twee varianten van verschijnen. De X1600Pro en X1600XT.

http://www.phoenixclan.nl/ati/rv530-chart.jpg


De prijzen in de chart zijn richtprijzen.


Desktop: RV515 - X1300 serie
http://www.phoenixclan.nl/ati/X1300series.jpg

RV515 heeft de naam Radeon X 1300 meegekregen. Er zullen in eerste instantie drie varianten van verschijnen. De X1300HM, X1300 en X1300Pro.

http://www.phoenixclan.nl/ati/rv515-chart.jpg


De prijzen in de chart zijn richtprijzen.


TOEKOMSTIGE VPUs (Korte Termijn)
In de komende paar maanden zal ATi een refresh reeks VPUs introduceren. Het gaat dan om de volgende cores:
  • R580 (High End)
  • RV560 (Mid Range)
  • RV535/540 (Low End)
  • RV505 (?)
Er gaan veel geruchten over R580, zoals dat dit een 32 pipes kaart zou zijn, of dat de interne efficientie dusdanig is verbeterd dat de performance enorm omhoog is gegaan. R580 zal delen van de architectuur met RV530 lenen. Wanneer we meer info hebben over de RV530 zal ons dit wellicht ook meer informatie verschaffen over de R580.

R580 zal niet de enige refresh core zijn. Ook RV560, RV540 en RV505 zullen gelanceerd worden in de eerste helft van volgend jaar. Het is de verwachting dat R580 niet een vervanger wordt van R520, maar dat ze naast elkaar in de lineup blijven bestaan. R580 is dan de nieuwe high end core en R520 komt er dan net onder te zitten.
Mobile: M52, M54,M56, M58
Op ATi's roadmap zijn inmiddels de volgende chips verschenen: M52, M54, M56, M58, M58Pro. Al deze cores zullen zoals het er nu naar uit ziet SM3.0 support hebben. M58 zal de highend core zijn.

De als eerste gelanceerde chip is de Mobility Radeon X 1600. Deze is gebaseerd op de M56 en heeft 12 pixelshaderprocessors en 5 vertexshaders. De performance staat ongeveer gelijk aan de GeForce 6800 Go. De coresnelheid staat voorlopig op 475 Mhz.

Daarnaast heeft ATi begin 2006 ook de Mobility Radeon X1400 (M54) en Mobility Radeon X1300 (M52) gelanceerd. Beide cores zijn afgeleiden van de RV515 die in de Radeon X1300 serie gebruikt worden.

Eind Januari/begin Februari 2006 zal ATi de Mobility Radeon X1800XT lanceren. Op welke desktop core de M58 precies gebaseerd is, durft nog niemand te zeggen. Het lijkt er op dat het hier toch om een R520 achtige core gaat. Dell zal binnenkort een nieuwe serie laptops lanceren met Yonah CPU en al deze laptops zullen de mogelijkheid hebben om de Mobility X1800XT chipset te gebruiken. De Mobility X1800XT is bedoeld als tegenhanger van de 7800GTX MXM kaart en zal draaien op 446Mhz core en 495Mhz mem.

M52, M54 -> Lowend
M56 -> Midrange
M58 -> Highend


Prijsovergezicht na lancering X1K serie
http://www.phoenixclan.nl/ati/pricechart.jpg


Houdt er rekening mee dat dit richtprijzen zijn die gesteld zijn door ATi. Winkels kunnen er van afwijken. Ook ATi zelf kan prijswijzigingen doorvoeren.

X1K TECHNOLOGY
OVERVIEW
De X1K generatie van ATi is een "Next Generation Architecture" die gemaakt wordt op het 90nm low-k proces. Dit houdt in dat het technieken bevat waar toekomstige generaties op zullen verder bouwen, maar ook dat het technieken bevat die gebruikt kunnen worden voor andere doeleinden dan puur en alleen renderen van beelden. Daarnaast is de X1K serie de eerste generatie die de naam Avivo Video & Display Platform kan dragen. Wat dit inhoudt kan je
hieronder lezen.

Shader Model 3 done right?
ATi vat een groot deel van de nieuwe functionaliteiten van de X1K-serie samen onder de noemer "DX9 Shader Model 3.0 done right!". Om dit te bewerkstelligen heeft de X1K serie een aantal nieuwe zaken aanboord zoals:

- Ultra Threaded Dispatch Processor
- 32-bit Processing At Full Speed Full Time
- Fast Dynamic Branching
- 512 Parallel Threads
- Veel snellere PCIe bandbreedte
- Advanced Memory Controller

De voordelen voor de eindgebruiker zijn dat er geen compromissen worden gesloten op performance en IQ. Zo wordt er altijd op full precision gewerkt, waar de concurrentie nog kan springen naar partial precision om snelheid te winnen ten koste van IQ. Tevens zorgt dit er voor dat toekomstige games die hevig gebruik maken van dynamic branching (toch "het" grote voordeel van SM3.0) alleen maar sneller werken dan op kaarten van de concurrentie. ATi is er dan ook trots op om te vermelden
dat hun SM3.0 kaarten de enige SM3.0 kaarten zijn die alle DCT SM3.0 tests goed volbrengt, daar waar de concurrentie een aantal tests niet kan voltooien. Shader Model 3 done right dus!

Shader Model 3.0
De top-of-the-line X1800-serie heeft 16 Pixel Shader Processors aan boord. Vanaf dit moment praten we dus niet meer van Pixelshader pipelines zoals voorheen het geval was. Deze 16 PSPs zijn verdeeld over 4 Shader Cores, waarvan elke Shader Core 4 PSPs
bevat, vandaar de naam "Quad Pixel Shader Core". Daarnaast bevat de X1800 serie 8 Vertex Shader Processors, 16 Texture Address Units, 16 Texture Units en 16 Render Back-End Units (de ROPs).

Shadermodel 3
Wat betreft setup van de Pixel Shader Processors is er niet veel verandert tov de R4x0 reeks. Er zijn echter wel wat dingen toegevoegd en aangepast om er voor te zorgen dat de X1800 kan voldoen aan de SM3.0 eisen. Zo is er een Branching Execution Unit toegevoegd aan elke PSP die kan zorgen voor snelle dynamic flow control (branching, looping, subroutines). En ook werkt alles nu volledig op 128-bit Floating Point Processing (FP32), terwijl bij de voorgaande generaties alles intern op
FP32 werkte, maar extern op FP24 (96-bit Floating Point Processing) werkte.

http://www.ixbt.com/short/images/x1800xt.jpg
PowerColor X1800XT


Dynamic Flow Control / Branching
Op de huidige generatie kaarten van de competitie is Dynamic Flowcontrol niet bepaald het sterkste punt. Het gaat zelfs zo ver dat de competitie developers aanraadt om spaarzaam om te gaan met zaken als dynamic branching, omdat dit anders averechts zou kunnen werken en de performance juist achteruit gaat ipv vooruit. ATi heeft dit probleem aangepakt met de X1K serie.

De X1K serie acceleert Flow Control door multiple threads te ondersteunen (tot 512 op de X1800), een intelligent thread selection systeem in te bouwen, met kleinere threadsizes te werken (competite
werkt met grotere blocks waardoor de boel langzamer is) en een dedicated branching unit aan te brengen.

Ultra-Threading
De X1000 serie is in staat om honderden threads tegelijkertijd te verwerken op verschillende PSPs. Elke thread kan 6 verschillende shaderinstructies op 4 pixels per clockcycle verwerken. Dankzij de
aparte snelle Branching Execution Unit wordt flow control snel en effectief uitgevoerd zonder dat dit de ALU's zwaar belast, iets waar de concurrentie zich op zal verslikt zoals meerdere flowcontrol
benchmarkprogrammas al uitwijzen. En dankzij de Multi-Ported Register Array is het mogelijk om snel van thread te wisselen zonder dat er bottlenecks ontstaan. In de oude generatie was het dus mogelijk dat een thread moest wachten totdat de PSP waar hij voor in de rij stond beschikbaar kwam. Wat er nu gebeurd is dat de wachtende thread doorgeschakeld wordt naar een PSP die wel vrij is. Is er geen PSP vrij dan wordt de thread 'in slaap' gezet totdat er een PSP vrij komt om het
te verwerken. Hiermee wordt de hele architectuur efficienter aangezien de Pixel Shader Processors continue aan het werk blijven.. Zoals je wel zult begrijpen kan dit ook veel voordelen voor dynamic flow control hebben. Wanneer games echt gebruik gaan maken van SM3.0 zal je hier dan ook de grote snelheidsverschillen ten op zichte van bv de G70 kunnen vinden.

Vertex Engine
De X1800 serie heeft 8 Vertex Shader Processors aan boord. Elke VSP kan 2 shader instructions per klok aan. Dankzij de hoge snelheid waarmee de X1800 cores werken kunnen deze 8 VSPs dus in totaal meer dan 10 miljard instructies per seconde aan. En om te voldoen aan de SM3.0 standaard
zijn de VSPs opgewaardeerd met support voor Dynamic Flow Control, 1024 instructieslots (oneindig met flow control) en meer registers.

Voorheen bevatten alle kaarten die gebruik maakten van dezelfde core, dezelfde aantallen Vertex Shaders. Dit was eigen aan de manier waarop de cores in elkaar staken. Zo hadden alle Radeon X800 en X850 serie kaarten 6 vertexshaders. Maar ook de afgeleide X700 had er 6. ATi is nu
het pad op gegaan van nVidia en nu kunnen er afzonderlijke VSPs afgesloten worden. De X1800 heeft er 8, de X1600 heeft er 5, de X1300 heeft er 2. En op verzoek van fabrikanten kunnen er meer worden opengegooid of dicht worden gedaan. Dit geldt overigens niet alleen voor de Vertex Shader Processors, maar ook voor de Texture Units, Z Compare Units en Render Back End Units. Elk kan onafhankelijk van elkaar worden ingesteld. Zo heeft de X1600 8 Z Compare Units terwijl er
maar 4 ROPs zijn.

Image Quality: Anti Aliasing & Anisotropic Filtering
De R520 serie beschikt over alle AA en AF methodes die de vorige generaties - die gebaseerd zijn op de R4x0 en R3x0 - ook tot hun beschikking hadden. Hier gaat het dan om de volgende instellingen:
  • Multi Sample Anti Aliasing: 2x, 4x, 6x
  • Temporal Anti Aliasing: 4x, 8x, 12x
  • Super AA (alleen in CrossFire): 8x, 10x, 12x, 14x
  • Anisotropic Filtering: 4x, 8x, 16x
Daarnaast zijn er een aantal nieuwigheden toegevoegd, waaronder een nieuw soort AA en een nieuw soort AF, namelijk Adaptive AA en Area AF (ook wel High Quality AF).

Adaptive AA
Adaptive AA (AdAA) is ATi's manier om alpha textures te ontdoen van hun karteltjes. Alpha textures zijn nooit vatbaar geweest voor Multi Sampling Anti Aliasing (MSAA). Hierdoor zag je vaak nog steeds aliasing op bv hekwerk, takken en bladeren in veel games. AdAA werkt door het beeld te analyseren en te kijken naar de plekken die niet profiteren van normale MSAA zoals in de hiervoor genoemde gevallen vaak voor komt. Wat ATi dan doet is het toepassen van Super Sampling Anti Aliasing (SSAA) op deze gebieden. Het voordeel hiervan is dat niet op het hele beeld SSAA hoeft te worden toegepast. SSAA geeft doorgaans de beste IQ, maar de performance hit is bij normaal gebruik ook enorm, omdat de hele scene twee keer moet worden gerenderd. Bij AdAA worden alleen gedeeltes met SSAA bewerkt, waardoor de performancedrop vaak te verwaarlozen is.

Hiermee is AdAA dus feitelijk de tegenhanger van nVidia's "Transparency AA" en het mooie is dat dit ook gaat werken op alle oude Radeons vanaf de Radeon 9500! Op dit moment wordt AdAA uitvoerig getest op oudere Radeons. Voordat we het in de Catalyst drivers zien voor de oudere
kaarten, zal AdAA eerst een uitgebreide Quality Assurance test moeten ondergaan. Het is de verwachting dat AdAA zijn officiele opwachting in Catalyst 6.xx zal maken. Wel is het via registry hacks al uit te proberen.

High-Quality Anisotropic Filtering (Area Aniso)
ATi was de eerste die begon met "angle dependent anisotropic filtering". Dit wil zeggen dat onder bepaalde hoeken er minder gefilterd wordt dan onder andere hoeken. De redenatie hierachter is dat
mensen dit toch niet snel door hebben en dat het de performance alleen ten goede komt. nVidia heeft tot aan de GF FX altijd non-angle dependent AF gedaan en had daarmee de beste AF qualiteit. Maar vanaf de GF6 serie ook over gestapt op hoek-afhankelijke AF vanwege de vele performancevoordelen en aangezien weinig mensen het verschil ook daadwerkelijk konden zien, leek het ook een goede oplossing.

Met de X1K serie biedt ATi echter de mogelijkheid om de Angle Dependent AF uit te zetten en echt AF aan te bieden onder alle hoeken! Deze mode heet Area Aniso oftewel High Quality AF. Activering hiervan zorgt voor de beste beeldkwaliteit terwijl de performance maar een klein beetje achteruit gaat. nVidia ondersteunt sinds de GF6 niet de mogelijkheid om angle dependent AF volledig uit te schakelen! De verwachting is dat zij wel snel zullen volgen in de nieuwe generatie. Op dit moment heeft ATi echter op het gebied van AF en AA de beste kaarten in handen.
ATi & High Dynamic Range
ATi heeft veel geinvesteerd in HDR ondersteuning in de X1K serie. HDR staat voor High Dynamic Range en wordt gebruikt om de kleuren die normaal gesproken buiten het kleurbereik van het menselijk oog zitten, toch op beeld te krijgen door middel van verschillende soorten van belichting. Te denken valt aan zonlichtreflecties in een donkere kamer.

Er zijn verschillende manier mogelijk om HDR te bewerkstelligen. De gemakkelijkste methode is volgens DX9 zoals dat in Valve's Lost Coast gebeurt of in Day Of Defeat: Source. Het voordeel hiervan is dat er AA kan worden toegepast en dat de performance niet al te veel inkakt. Een
andere methode is OpenEXR HDR zoals gebruikt in Far Cry, een hardwarematige oplossing die tot op dit moment alleen nVidia ondersteunde. OpenEXR HDR maakt gebruik van FP16 Blending waardoor de precisie net iets hoger ligt dan Valve's manier van HDR.

ATi heeft in de X1K meerdere hardwarematige vormen van HDR ondersteund. HDR op ATi kaarten is sneller dan op nVidia kaarten zeker wanneer een bv Int16 of Int10 HDR gebruikt wordt.. En het mooiste is dat alle vormen van HDR nu AA ondersteunen!! Dit is niet het geval bij de concurrentie waar bv OpenEXR HDR het moet stellen zonder AA. Hier is het dus een trade-off, je offert 1 IQ optie op om de ander aan te zetten. Bij ATi kan je dus beide aan zetten en hoef je niet meer te kiezen!

De verschillende manieren van HDR die hardwarematig ondersteunt worden:
- FP16 (64-bits)
- Int16 (64-bits)
- Int10 (32-bits)
- Custom Formats (bv Int10+L16)
Avivo
Avivo is ATi's next generation video & display platform. Het staat dus niet zoals sommige mensen onterecht denken voor "Advanced Video In Video Out". Tijdens de
developmentfase heette Avivo eerst "Kaleidoscope", maar aangezien men dacht dat bijna niemand dit goed zou kunnen uitspreken - laat staan spellen - veranderde men dit in "Clarity". Maar ook deze naam werd niet goed genoeg bevonden en men kwam met Avivo.

Avivo integreert een aantal belangrijke technologieen die allemaal tot doel hebben om de beste beeldweergave neer te zetten, ongeacht of je nu een film aan het kijken bent, een film aan het encoderen bent of een game aan het spelen bent. In het kort omvat Avivo het volgende:
  • Supports hardware MPEG-2 compression, hardware assisted decode of MPEG-2, H.264 and VC-1 video codecs, and advanced display upscaling
  • 64 times the number of colors currently available in current PCs; higher color fidelity with 10-bit processing throughout Avivo´s display engine
  • Resolutions, such as 2560x1600 or higher, on the latest digital displays using dual-link DVI, as well as high color depth support over DVI
  • Advanced up or down resolution scaling on any flat panel display using ATI´s solutions
  • Video capture with features like 3D comb filtering, front-end video scaling, and hardware MPEG video compression
  • Hardware noise reduction and 12-bit analog-to-digital conversion
  • Supports standard TV, HDTV, video input and all PC displays via digital (DVI, HDMI) and analog (VGA, Component, S-Video, composite) ports
Avivo zal een integraal onderdeel worden van alle toekomstige ATi producten. Of het nou gaat om desktop, mobile, chipset, workstation of software maakt niet uit... Avivo zal er onderdeel van zijn.



De Previews & Reviews

http://www.ixbt.com/short/images/news123080_002.jpg
Sapphire X1800XL


Hieronder staat een overzicht van alle X1K reviews.

Radeon X1K Series
Anandtech
Digit Life Tech Preview
ExtremeTech
Guru3D
HardOCP
Hardware Secrets
Hot Hardware
NeoSeeker
Noticias 3D
Overclockers.CL
PC Perspective
PC World
T-Break
Tech Report
The Tech Lounge
Xbit Labs Tech Preview

Radeon X1800
Beyond3D - Tech Preview *TIP*
Driver Heaven
Firing Squad
Hardware France
Hexus
Xbit Labs *TIP*

Radeon X1600
Xbit Labs

Radeon X1300
HardwareZone: MSI Radeon X1300Pro 256

Avivo
http://www.anandtech.com/video/showdoc.aspx?i=2536&p=1
http://www.beyond3d.com/previews/ati/avivo/
http://www.hexus.net/content/item.php?item=1622


TOEKOMSTIGE VPUs (Lange Termijn): R500 - R580 - R600
R500 ging vroeger door het leven als R400. R400 was bedoeld als opvolger van de R300 serie en zou een compleet nieuwe architectuur brengen, de zogenaamde Unified Shader Architecture. In deze architectuur zouden er geen aparte pixelshaders
en vertexshaders meer bestaan, maar zou er één grote shaderpool zijn van shaders die zowel met pixels als vertices overweg kunnen gaan. R400 bleek voor zijn tijd echter te hoog gegrepen en zou qua performance niet genoeg power hebben. Na goed beraad werd besloten om R400 naar achteren te schuiven op de roadmap en deze te hernoemen naar R500. Als vervanging voor de R400 werd de R300 architectuur nog eens flink onder handen genomen. Er werden extra pixelpipelines toegevoegd en extra vertexshaders, alsmede ook enkele tweaks in de R300 architectuur om de boel nog efficienter te maken. En zie daar... R420 was geboren, met meer performance dan de toenmalige R400 ooit had kunnen bieden.

Xbox 360 deal
In de tussentijd sloot Microsoft met ATi een deal voor het leveren van de VPU voor de Xbox360. En weer werd de roadmap aangepast. R500 werd vanaf de desktop roadmap naar de X-Box2 geduwd. In plaats van de R500 kwam nu de R520 voor de desktop te staan. De R520 is gebaseerd op de R420 architectuur, maar neemt wel enkele dingen over van de R500... Een van die dingen is dat R520 volledig FP32 is en niet FP24 zoals alle vorige kaarten. Daarnaast ondersteunt R520 Shadermodel 3.0 en meer, waardoor er eigenlijk gesproken kan worden van een soort
"SM3.5" of "SM3.0+".

De details van de R500 die in de Xbox 360 zit zijn inmiddels bekend:
  • 48-way parallel floating-point dynamically scheduled shader
    pipelines
  • 10 MB of embedded DRAM
  • Unified Shader Architecture
  • 500 million triangles per second
  • 16 gigasamples per second fillrate using 4x MSAA
  • 48 billion shader operations per second
  • 512 MB of 700 Mhz GDDR3 RAM (shared by VPU & CPU)
  • 22.4 GB/s memory interface bus bandwidth
  • 256 GB/s memory bandwidth to EDRAM
  • 21.6 GB/s FSB
  • Parentdie: 232 miljoen transistors, daughterdie: 105 miljoen transistors = 337 mln transistors
Nintendo Revolution deal
Ook Nintendo's next generation console wordt door ATi voorzien van een VPU. ATi is geen vreemde wat betreft het werken met Nintendo aangezien de Flipperchip die zich in de GameCube bevindt, ook door ATi (of beter gezegd: door het overgenomen ArtX) is ontworpen. De verwachting is dat de VPU in Revolution zich tussen R500 en R520 bevindt.

De opvolger van R520 is de R580. De R580 lijkt een meer te zijn dan een simpele refresh. De R580 is in principe 4x een RV530. Dat wil zeggen dat deze 16 ROPs heeft met elk 3 Pixelshader Processors, waardoor de R580 een totaal heeft van 48 Pixelshader Processors. Ter vergelijking,
een R520 heeft er slechts 16. Deze chip stond gepland voor eind 2005, maar zal zoals het er nu naar uit ziet in de eerste helft van 2006 gelanceerd worden.

R600 is de opvolger van R580. De R600 is de eerste desktopchip die gebaseerd is op de nieuwe architectuur van de X-Box2 chip, de R500. Hiermee heeft ATi de eerste Unified Shader Model op de markt gebracht en deze zal naar alle waarschijnlijkheid volledig SM4.0 en WFG 2.0 ondersteunen. Voor de details omtrend R500 kan je hierboven iets meer lezen. We kunnen dus minimaal 3 shaderarrays met elk 16 ALUs verwachten. De verwachting is dat R600 eind 2006 op de markt komt en waarschijnlijk minimaal 4 shaderarrays zal hebben van elk 16 ALUs.

DE GERUCHTENMOLEN
http://www.phoenixclan.nl/ati/atilogo.jpg
Gerucht: Digital Vibrance op ATi kaarten
ATi komt binnenkort met een eigen variant op Digital Vibrance, de color control applicatie van nVidia. ATi noemt het "Radiance". ATi heeft echter aangegeven dat Radiance op dit moment een low-priority feature is.
Waarheidsfactor: 70%
Update: 1-12-2004
http://www.phoenixclan.nl/ati/atilogo.jpgGerucht: RD580 Chipset Heeft Onboard Compositing Chip
Het gerucht gaat dat de nieuwe ATi mobo chipset RD580 een ingebouwde Compositing Engine heeft. Hierdoor zouden er geen aparte CrossFire edition kaarten meer nodig zijn en zouden alle PCIe Radeons geschikt zijn voor CrossFire
Waarheidsfactor: 60%
Update: 02-10-2005
http://www.phoenixclan.nl/ati/atilogo.jpgGerucht: CrossFire is beperkt tot 60 Hz op 1600x1200 op R4x0 kaarten
Helaas is dit waar..
Waarheidsfactor: 100%
Update: 02-10-2005
http://www.phoenixclan.nl/ati/atilogo.jpgGerucht: CrossFire heeft niet dezelfde 60Hz beperking op R5x0 kaarten
Waar!
Waarheidsfactor: 100%
Update: 02-10-2005


[img]http://tw.giga-b yte.com/VGA/FileList/ProductImage/photo_rx85x256v_big.jpg[/img]
 
OVERIGE ZAKEN
http://www.phoenixclan.nl/ati/atilogo.jpgX-serie in de Pricewatch
http://www.tweakers.net/p...ction=&Landfilter=Benelux

Let er wel op dat de prijzen dagelijks kunnen veranderen en dat deze pricewatch eens in de maand wordt geupdate. De prijzen kunnen dus iets anders zijn.
• Goedkoopste X300SE 128MB PCIe: ?44,00 <
• Goedkoopste X300 128MB PCIe: ?46,61 <
• Goedkoopste X300 256MB PCIe: ?53,00 <<<
• Goedkoopste X550 128MB PCIe: ?58,00 <
• Goedkoopste X550 256MB PCIe: ?64,91 <
• Goedkoopste X1300 256MB PCIe: ?97,46 NEW
• Goedkoopste X1300 512MB PCIe: ?122,83 NEW
• Goedkoopste X1300Pro 256MB PCIe: ?109,00 <
• Goedkoopste X1300 512MB PCIe: ?122,83 <
• Goedkoopste X700 128 MB PCIe: ?94,00 <
• Goedkoopste X700 256 MB PCIe: ?99,95 <
• Goedkoopste X700LE 128 MB PCIe: ?84,00 <<
• Goedkoopste X700Pro 128MB PCIe: ?123,96 >>
• Goedkoopste X700Pro 128MB AGP: [url=httphttp://www.tweakers.net/pricewatch/119392?Landfilter=Benelux]?132,00[/url] <
• Goedkoopste X700Pro 256MB PCIe: ?128,00 <<
• Goedkoopste X700Pro 256MB AGP: ?126,00 <<<
• Goedkoopste X800GT 128MB PCIe: ?135,01 >
• Goedkoopste X800GT 256MB PCIe: ?158,00 >
• Goedkoopste X800GTO 256MB PCIe: ?179,52 NEW
• Goedkoopste X800 128MB PCIe: ?166,94 <<
• Goedkoopste X800 256MB PCIe: ?179,67 <<
• Goedkoopste X800 256MB AGP: ?210,09 <<
• Goedkoopste X800Pro PCIe: ?265,65 <
• Goedkoopste X800Pro AGP: ?198,00 <<
• Goedkoopste X800XL PCIe: ?239,90 <<
• Goedkoopste X800XL AGP: ?274,00 <<
• Goedkoopste X800XT PCIe: ?259,00,- <<
• Goedkoopste X800XT AGP: ?249,00 <<<< AANRADER
• Goedkoopste X800XT PE AGP: ?440,00,- >
• Goedkoopste X800XT AIW AGP: ?445,00 <<<
• Goedkoopst X850Pro PCIe: ?229,00 <<<
• Goedkoopste X850XT PCIe: ?314,00 <<<
• Goedkoopste X850XT AGP: ?327,00 <<<
• Goedkoopste X850XT PE PCIe: ?386,90 <<
• Goedkoopste X850XT PE AGP: ?385,00 <<<
• Goedkoopste X1800XL 256MB PCIe: ?393,35 <
• Goedkoopste X1800XT 512MB PCIe: ?529,00 NEW
< lager in prijs tov vorige update (<< meer dan ?10 gezakt)
> hoger in prijs tov vorige update (>> meer dan ?10 gestegen)
= gelijk gebleven tov vorige update
Last updated: 04 November 2005

Fabrikanten van ATi Radeon kaarten
Sapphire
Abit
Asus
Gigabyte
Club3D
Powercolor
Crucial
MSI
HIS
EPoX
GeCube
Connect3D

*Hercules is gestopt met het produceren van videokaarten, maar verleent nog wel aftersale service.

ATi Tweak Tools
Rage3D Tweak - (3.9 versie)
ATiTool - TIP!! Zoek 'veilig' de max van je core en mem!
RivaTuner - Tweak utility incl. SoftRadeon
ATi Tray Tools

Handige Links
• Officiele ATi website: http://www.ati.com
• Catalyst Drivers WinXP (Cat 5.11): Windows XP - Display Drivers Only (10.1 MB)
• Catalyst Drivers WinXP (Cat 5.11): Windows XP - Met CCC (33.8MB) (.NET 1.1 en SP2 nodig)
• Catalyst 5.11 Windows XP 64-bit - Zonder CCCWinXP 64-bit (25.2MB)
• Catalyst 5.11 Windows XP 64-bit - Met CCCWinXP 64-bit (53.4MB)
Catalyst Beta 1 For Windows Vista Beta 1
• Linux x86 Drivers:
Linux X86 Driver v 8.16.20 (56.1 MB)
• Linux x86_64 Drivers:
Linux X86_64 Driver v 8.16.20 (49.3 MB)
• De grootste online ATi community: http://www.rage3d.com
• Omegadrivers: http://www.driverheaven.net/downloads/index4.htm
• Praten over de laatste 3D ontwikkelingen? http://www.beyond3d.com
[rml][ OC] X800pro naar X800XT mod topic Deel 6[/rml]



Het moge duidelijk zijn dat de meeste dingen nog gebaseerd zijn op geruchten. De first post zal ik dan ook aanpassen naar gelang er meer concrete informatie vrij komt over de nieuwe reeks kaarten van ATi. Aanvullingen, verbeteringen en opmerkingen zijn natuurlijk ook altijd
van harte welkom (via mail dan wel in het topic).

[Voor 5% gewijzigd door CJ op 11-01-2006 15:02]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

http://www.phoenixclan.nl/ati/atitopiclogo.jpg
FREQUENTLY ASKED QUESTIONS

ATi Technology FAQAlgemene FAQR520 FAQR580 FAQ
http://www.phoenixclan.nl/ati/atilogo.jpgVraag: Wat is CrossFire?

Antwoord: CrossFire is ATi's Multi VPU oplossing waarmee zoals de naam al zegt, meerdere kaarten aan elkaar gekoppeld kunnen worden om de performance te verbeteren. Wil je precies weten wat CrossFire is, kijk dan even in de First Posts van de vorige topics.
[anchor=3dc]http://www.phoenixclan.nl/ati/atilogo.jpgVraag: Wat is 3Dc?

Antwoord: 3Dc is een manier van normal map compressie. Check de firstpost van dit topic [rml][ Algemeen] ATi Nieuws & Discussie Topic - Deel 10[/rml] om te zien wat 3Dc precies is.
[anchor=3dcgames]http://www.phoenixclan.nl/ati/atilogo.jpgVraag: Welke games ondersteunen 3Dc?

Antwoord: ATi maakt binnenkort een lijst bekend met 3Dc titels.
Op dit moment zijn dit games waarvan bekend is dat ze 3Dc
ondersteunen.

- Far Cry (patch 1.3)
- Half Life 2 (ATi levels)
- Tribes Vengeance
- Sid Meier's Pirates!
- DarkSector
- Project Freedom

http://www.phoenixclan.nl/ati/atilogo.jpgVraag: Welke games vallen onder het Get In The Game programma?

Antwoord: Hieronder een greep uit het programma:.

- Axis & Allies
- Sid Meier's Pirates
- Dungeon Siege II
- Half Life 2
- Guild Wars
- Rollercoaster Tycoon 3
- Tribes Vengeance
- Freedom Force vs Third Reich
- Brothers In Arms: Road To Hill 30
- Act of War: Direct Action
- Prey
- Black & White 2
- Alan Wake

http://www.phoenixclan.nl/ati/atilogo.jpgVraag: Wat is temporal AA?

Antwoord: Temporal AA is een manier om je beeldkwaliteit te verhogen. Wanneer AA op 2x gezet wordt en TAA op 2x, krijgt men effectief 4xAA met de snelheid van 2xAA. Check de firstpost van dit topic [rml][ Algemeen] ATi Nieuws & Discussie Topic - Deel 10[/rml] om te zien wat Temporal AA precies is, of kijk in de uitgebreide Help-menu van de Catalyst Control Center!
http://www.phoenixclan.nl/ati/atilogo.jpgVraag: Wat is een "Unified Shading Architecture?

Antwoord: Unified Shading is shading van de toekomst. De uitleg wordt het beste door Sireric van ATi beantwoord:
The concept of a unified shader pipe is simply that if your vertex shader and pixel shaders have exactly the same features, then why not fold them into 1 unit, and then multi-pass through all the different datas that you need. This does not really affect your peak performance, but it allows you to do better when doing mostly one type of shading (vertex or pixel), since you can have all the unified resources working on that problem.
Er bestaan dus geen aparte vertexshaders en pixelshaders meer zoals op dit moment het geval is, maar er zijn gewoon algemene shaders die zowel overweg kunnen met pixels als met vertices. Afhankelijk van waar de bewerking om vraagt zullen deze shaders zich richten op de taak die het
voorgeschoteld krijgt. Hierdoor zal de efficientie een heel stuk beter worden.

Stel dus dat er een shaderpool is van 48 shaderALUs - zoals in R500 -, dan kan bv in bepaalde gevallen alle shaders zich richten op pixelshaderbewerkingen, maar mocht het nodig zijn dan kan er on the fly een gedeelte zich richten op vertexbewerkingen, wanneer de pixelshaders minder aandacht nodig hebben (bv 24 op pixelshaders en 24 op vertexshaders). Er is dus zelden idle-time van de shaders terwijl in de huidige generatie in bepaalde gevallen de shaders uit hun neus aan het
vreten zijn. Afhankelijk van de implementatie kan zowel de software zorgen voor resourcehandling en loadbalancing, als ook de drivers en hardware.
http://www.phoenixclan.nl/ati/atilogo.jpgVraag: Waarom was de R520 serie zo "laat" op de markt?

Antwoord: ATi's R520 was al een tijd lang klaar (rond de jaarwisseling 2004/2005), alleen hadden ze last van een 'softground' probleem. Hierdoor vielen kaarten plotseling uit en haalden ze niet de gewenste kloksnelheden. ATi loste dit probleem pas in Augustus 2005 op en kon toen pas beginnen aan het optimaliseren van de drivers. Normaal gesproken heeft ATi zo'n 6 maanden de tijd om een core te optimaliseren en finetunen voor de launch. Oorspronkelijk stond de R520 dan ook gepland voor Mei 2005. Maar omdat het softgroundprobleem toen nog niet opgelost was, werd dit uitgesteld. Tegelijkertijd werd ook de optimalisatie van de RV530 stilgelegd, omdat dit hetzelfde probleem had. Ook de eerste R580 die rond Juli 2005 gereed was had last van dit probleem. ATi wilde echter eerst het probleem in de R520 oplossen. Nadat ze dit gedaan hadden werd de oplossing ook toegepast op de RV530 en de R580.
http://www.phoenixclan.nl/ati/atilogo.jpgVraag: Heeft ATi ook "softground cores" op de markt gebracht in bv de X1800XL?

Antwoord: NEE! Het softground probleem hield in dat kaarten uitvielen EN niet de gewenste kloksnelheden haalden. Denk je dat ATi het wil riskeren om kaarten op de markt te brengen met cores die uit zouden kunnen vallen?

A14 => XL core ZONDER softground probleem
A15 => XT core ZONDER softground probleem

ATi heeft ook al aangegeven dat de A14 cores in principe dezelfde kloksnelheden zouden moeten kunnen halen als de A15. Zou me niets verbazen als straks alle XLs straks gebruik maken van de A15 core, zodat er maar 1 type geproduceerd hoeft te worden. Dan weet je wel hoe laat het is als het op overklokken aankomt.
[url=r580launch]http://www.phoenixclan.nl/ati/atilogo.jpgVraag: Wanneer komt R580 op de markt? Is deze ook te laat?

Antwoord: De R580 staat voorlopig gepland op 24 Januari 2006! Tegelijkertijd zal de nieuwe CrossFire chipset RD580 gelanceerd worden die 2x een PCIe 16x slot zal aanbieden. Hieraan is dus niets veranderd en zelfs de vertraging van R520 had hierop geen invloed. ATi heeft al sinds Augustus goed werkende R580s en is nu dus bezig met optimalisering van zowel de core als de drivers. Zoals je ziet heeft ATi voor de R580 dus wel ongeveer 6 maanden de tijd om er aan te werken alvorens het gelanceerd wordt. Doordat R580 nog gewoon op schema ligt, lijkt het er op dat R520 maar een kort leven beschoren is.
http://www.phoenixclan.nl/ati/atilogo.jpgVraag: Werkt CrossFire alleen op ATi chipsets?

Antwoord: Nee! CrossFire werkt in principe op alle chipsets die gebruikt worden op moederborden die minimaal twee fysieke 16x PCIe sloten hebben. Het punt is echter dat de drivers geoptimaliseerd moeten zijn voor het gebruik op moederborden die iets anders gebruiken dan ATi's Radeon Express chipset. Op dit moment werkt CrossFire het beste op:
- ATi Radeon Xpress 200
- Intel 955x
- Intel 975x

Daarnaast is CrossFire ook al werkend gesignaleerd op een ULI chipset en zou SiS ook ondersteuning bieden voor CrossFire. Op de vraag of CrossFire ook op nForce chipsets zou moeten werken, heeft ATi niet ontkennend gereageerd, maar ook niet rechtstreeks bevestigd. Trek hier uit je eigen conclusies maar...
http://www.phoenixclan.nl/ati/atilogo.jpgVraag: Waarom is er in het begin zo'n slechte beschikbaarheid van de X1800XT?

Antwoord: Massaproductie van de X1800XT cores (R520 revisie A15) is pas op gang gekomen na de launch op 5 Oktober. Eind Oktober/begin November begonnen fabrikanten pas grotere hoeveelheden XT cores te ontvangen. Het duurt daarna nog wel een aantal weken totdat ze dan uiteindelijk in de winkel liggen. Eind November/begin december is de XT steeds beter beschikbaargeworden en nu kan je 'm zonder al te veel moeite doen vinden in willekeurige shops.
http://www.phoenixclan.nl/ati/atilogo.jpgVraag: Waarom kon nVidia hun high end kaart wel goed bij de launch leveren en ATi niet?

Antwoord: G70 bouwt voort op NV40 en is geen complete architecturele verandering zoals R520. Hierdoor was G70 een 'veilige' kaart op een beproefd productieproces. nVidia wist dat ATi problemen had met hun R520 en kon daardoor hun launch precies zo timen dat ze voldoende voorraad hadden voor een grootschalige launch. Hetzelfde geldt voor de GTX512 die cores gebruikt uit week 35. nVidia's massaproductie werkte al op volle toeren en het was voor hun gewoon een kwestie van voorraad opbouwen door de beste cores te bewaren totdat ATi met de X1800XT lancering kwam. ATi had dus niet de tijd om een voorraad op te bouwen zoals nVidia dat in de afgelopen maanden wel heeft kunnen doen. De GTX512 blijkt echter puur een paperlaunch te zijn geweest met alleen goede beschikbaarheid in de eerste 2 weken. Nu is het een zeldzaamheid die tegen hoge prijzen over de toonbank gaat.

De X1300 serie had bijvoorbeeld geen problemen en die kan je nu in meerdere winkels krijgen. ATi had hiervan dus wel een flink voorraadje kunnen opbouwen.
http://www.phoenixclan.nl/ati/atilogo.jpgVraag: Wat is een ROP?

Antwoord: Een ROP staat voor Raster Output (sommigen zeggen dat het staat voor Raster Operation Pipeline, maar het komt op hetzelfde neer). Simpel gezegd zorgt een ROP unit voor het schrijven van het eindresultaat van de (in de pipeline) bewerkte pixels naar de geheugenbuffer. Per clockcycle kan een ROP 1 pixel outputten.

De X1800XT heeft 16 ROPs en kan dus 16 pixels per clockcycle outputten. X1600XT heeft 4 ROPs. X800Pro heeft 12 ROPs. X700Pro heeft 8 ROPs. etc


Een voordeel van het verhogen van het aantal ROPs is dat je op hogere resoluties kan werken. Een ROP bepaald dus hoeveel pixels er per klokcyclus naar je kleur of z/buffer weggeschreven kunnen worden. Heb je dus 16 ROPs, dan duurt het vullen van een 1024x768 buffer (786432 pixels) zo'n 49152 clockcyles met 16 ROPs. Je ziet dus dat als je meer ROPs hebt, je ofwel sneller de framebuffer vult op gelijke resoluties of gemakkelijk naar hogere resoluties kan gaan zonder dat de snelheid drastisch omlaag gaat.

Er is echter een grote maar.... Hoe meer ROPs je hebt hoe sneller de aanwezige bandbreedte opgeslokt gaat worden. Kort gezegd zijn 16 ROPs nog ruim voldoende en zal meer eigenlijk pas nuttig worden als we of a) sneller geklokt GDDR4 gebruiken vanaf zo'n 1.4Ghz of b) overstappen naar een 512-bit memory interface.

Als een shader unit z'n taak sneller af heeft dan een ROP, wat voorkomt in scenarios met weinig shader gebruik, dan is het aan ROPs dus de beperkende factor en zal R580 nooit sneller zijn dan R520 (behalve dan door de iets hogere kloksnelheid).

Als er echter enorm veel shaders (of lange shaders) gebruikt worden, dan zijn het de ROPs die dus moeten wachten op de shaderunits en zal de R580 in het extreme geval zelfs tot 3x sneller kunnen zijn dan R520.

Daarnaast heeft een ROP nog een aantal andere functies waaronder blending en AA.

Vroeger zat een ROP normaal gesproken aan het einde van een pipeline, maar dat is met de komst van de GF6600GT verandert. Hier koppelden ze de ROPs los van de pipelines. nVidia had toen 8 pipelines, maar deze zaten niet vast gekoppeld aan 8 ROPs, maar aan 4 ROPs. Dit bleek ruim voldoende te zijn en ook voerden ze dit door in de G70; deze had 24 pipelines en 16 ROPs.

Bij nVidia zijn de ROPs in staat om 2x zoveel pixels te outputten wanneer er alleen maar met zwart gewerkt hoeft te worden. Vandaar dat de NV40 met 16 ROPs, niet 16 pixels kan outputten, maar 32. En vandaar ook dat G70 beperkt is tot 32 pixels en niet 48.

[Voor 100% gewijzigd door CJ op 09-01-2006 14:53]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

FirefoxAG schreef op maandag 09 januari 2006 @ 18:55:
[...]
De G71 heeft 58% meer geheugenbandbreedte dan de oorspronkelijke 7800GTX... lijkt me voorlopig voldoende ;)
Dat ligt er maar net aan of er 24 ROPs in zitten en hoe efficient de memorycontroller omgaat met alles. Daar kan je nu dus nog niets over zeggen. ;)

En oh ja, de GTX was natuurlijk sneller dan de 6800U doordat er (zoals al veel vaker gezegd is): a) er 8 meer pipelines in zitten en 2 meer vertexshaders en er b) per fragment pipe nu 2 volledige ALUs in zitten die zowel een MADD als MUL aan kunnen ipv 1 MADD ALU en 1 MUL ALU.

24x2 (MADD/MUL & MADD/MUL) > 16x2 (MADD & MUL)

Dus zelfs bij gelijke snelheid zou de GTX een leuke boost krijgen (wat je ook ziet bij de GT).

[Voor 38% gewijzigd door CJ op 09-01-2006 19:07]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Ik heb ook effe wat gepost over de G71 in het goede topic.

Maar zoals voor nVidia geldt dat ze weten wat R580 ongeveer gaat brengen, zo weet ATi ook wat G71 gaat brengen. R590 zou eventueel ook nog kunnen worden uitgebracht want die stond een tijd terug als optioneel aangegeven op de roadmap.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Kunnen we de nVidia driverchat graag in het nVidia topic houden? Dit topic is niet om te bespreken wie de beste drivers heeft, wie de beste IQ heeft, wie de snelste is etc en daar dan uiteindelijk in een flame uit te monden (been there, done that zillion times). Dit topic is bedoeld om de laatste ATi nieuwtjes te bespreken. Toch fijn dat hier elke keer weer op gewezen moet worden...

@ Astennu:

24 Januari: R580
9-11 Maart: G71

Eind Zomer: R600/G80

Tussen G71 en R600 zit dus nog een grote kans dat R590 uit komt op 80nm. Het is dus gewoon steeds stuivertje wisselen. Zo lang blijft een topkaart niet meer aan de macht.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Ik vind de redenatie achter de naam Xpress 3200 een beetje.... 8)7

Eerst Radeon Xpress, dan Radeon Xpress 200 en dan Radeon Xpress 3200 alleen maar omdat er 32 PCIe lanes in zitten.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Overigens meldde The Source een tijd terug dat de X1900XT in Maart zou zakken in prijs van $599 naar $549. Alles valt nu op z'n plaats, zeker als je nu weet dat de GF7900GTX in Maart tijdens de CeBit gelanceerd zal worden.

Hier nog wat Rodin (R580) scores:
ATi RADEON X1900 XT 512MB CrossFire (625MHz VPU / 1450MHz GDDR-3) (not XTX) (AMD A64 FX-57 2.8GHz)
13,501 3DMarks

NVIDIA GeForce 7900 512MB (700MHz GPU / 1800MHz GDDR-3 (not GDDR-3+) (AMD A64 FX-60 2.8GHz)
~13,000 3DMarks (?)

NVIDIA GeForce GTX 512MB SLi (550MHz GPU / 1200MHz GDDR-3) (AMD A64 FX-57 2.8GHz)
12,200 3DMarks

ATi RADEON X1800 XT 512MB CrossFire (625MHz VPU / 1500MHz GDDR-3) (MESH Computers TITAN X1800 FIRE - AMD A64 X2 4600+ 2.4GHz)
12,050 3DMarks

ATi RADEON X1900 XTX 512MB (650MHz VPU / 1550MHz GDDR-3) (AMD A64 FX-57 2.8GHz)
11,149 3DMarks

NVIDIA GeForce GTX 512MB (580MHz VPU / 1703MHz GDDR-3) (ARMARI Pantheon-FX-2.8GHz)
10,062 3DMarks

ATi RADEON X1900 XT 512MB (625MHz VPU / 1450MHz GDDR-3) (AMD A64 FX-57 2.8GHz)
~10,000 3DMarks for $549

NVIDIA GeForce GTX 512MB (550MHz GPU / 1700MHz GDDR-3) (AMD A64 FX-57 2.8GHz)
9,608 3DMarks

ATi RADEON X1800 XT 512MB (625MHz VPU / 1500MHz GDDR-3) (AMD A64 FX-57 2.8GHz)
9,271 3DMarks

ATi RADEON X1800 XT 512MB (625MHz VPU / 1500MHz GDDR-3) (MESH Computers TITAN X1800 FIRE - AMD A64 X2 4600+ 2.4GHz)
8,544 3DMarks
http://www.hexus.net/content/item.php?item=4346

Hexus schijnt te denken dat ATi nog wel een PE uit de mouw kan schudden (als het maar niet ATi's variant van de GTX512 wordt). En ook schijnen ze veel te verwachten van de die-shrink (R590).

[Voor 26% gewijzigd door CJ op 10-01-2006 14:42]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Astennu schreef op dinsdag 10 januari 2006 @ 18:31:
Nou het is mij duidelijk Nvidia heeft ATi weer eens verslagen en niet zo zuinig ook. 13k vs 11,5K Dag behoorlijk. Maar ik schatte al dat i tussen de 13k en 14 k zou scoren.
Jezus man, waar maak je je allemaal druk om? 8)7

Je vergelijkt 2 kaarten die nog niet eens uit zijn en dan ook nog eens een kaart die al binnen/over 2 weken te krijgen is met een kaart die pas in Maart te krijgen is (dus 2 maanden later).... Het is toch logisch dat een kaart die 2 maanden later uit komt sneller is? Anders heeft het toch geen zin om het te releasen?

Het spelletje is nu eenmaal zo dat de ene fabrikant een aantal maanden de snelste heeft, dan weer de andere. En denk maar niet dat ATi een R590 gaat uitbrengen die langzamer is dan een G71. Dan brengen ze nog eerder een R600 uit met minimaal 64 unified shader engines.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

R520 is bedoeld om sneller te zijn dan 7800GTX
GTX512 is bedoeld om sneller te zijn dan R520
R580 is bedoeld om sneller te zijn dan R520XT/GTX512
GTX512 is bedoeld om sneller te zijn dan R580

Zie je het patroon? Het is niet echt meer zoals in de tijd van de 9800Pro vs 5900U dat ze tegelijkertijd uit kwamen en je dus echt kon spreken van een wedstrijd tussen de twee snelste kaarten. Er zit nu zo veel tijd tussen de releases dat er zo veel getweaked kan worden dat het gek is als de nieuwere kaart niet sneller is dan de ander.

Denk je dat ATi de R520 had uitgebracht als-ie niet op IQ settings de snelste was en geen nieuwigheden bracht zoals SM3.0/AA + HDR/Avivo/?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

The Source schreef op dinsdag 10 januari 2006 @ 21:00:
Wie o wie hebben er a.s. woensdag allemaal een afspraak met *** in Amsterdam om een bepaalde presentatie bij te wonen? >:)
R580 Tour Hits Amsterdam :) Ik dacht dat dat donderdag was? Of is het verplaatst/iets anders?

Heb je een leuk hotel uitgezocht uit het lijstje?

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Apple schreef op donderdag 12 januari 2006 @ 19:01:
[...]
Ik heb trouwens het idee dat 4launch een fout had gemaakt in de pricewatch, er stond namelijk op hun site zelf helemaal geen X1800XL voor 271 euro, wel een X800XL die precies dat bedrag moet kosten. ;)
Een Club3D X1800XL hebben ze wel op voorraad, maar die kost 422,-.
Hij stond er wel op hun site. Ik heb het gisteren ook gezien. Het was een Sapphire X1800XL en die stond er voor ongeveer €272 vermeld. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Probleem is dat je een XL alleen met een XT CF kan laten draaien. Er zijn geen XL CF kaarten. En de high end kaarten hebben niet genoeg aan alleen de PCIe bandbreedte voor communicatie. Misschien dat het bij de RD580 wel gaat lukken.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Je kan veel zeggen over 3DMark2003 / 2005, maar het gaf wel een goede weergave van hoe de 'nieuwere' DX9 games die later uit kwamen als Far Cry en Half Life 2 zouden performen op de FX serie vs de 9x00 serie van ATi.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Van VR-Zone:

FX55 + X1900XT: 10492 3DM05
FX60 + X1900XT: 11144 3DM05

Zelfde clocksnelheid, maar er zit dus zo'n 700 punten verschil tussen singlecore en dualcore. Ter vergelijking nog even de score van Hexus:

FX57 + X1900XTX: 11149 3DM05
FX57 + 1900XT: 10062 3DM05 (400 punten lager dan op een FX55?)

VR-Zone heeft de X1900XT zonder problemen op 715/855Mhz kunnen draaien en haalde toen 12152 punten. Ze gaan er van uit dat 13K op lucht geen probleem moet zijn. Sampsa is al bezig met OC-en.

Bron: http://forums.vr-zone.com.sg/showthread.php?t=53164

Het bericht op Bit Tech is trouwens aangepast. De scores zijn weg gehaald omdat Futuremark daar om gevraagd had.

Oh ja, en de core loopt op een lager voltage dan de X1800XT. 1.2Vcore voor de X1900XT vs 1.35Vcore voor de X1800XT op bijna dezelfde snelheden.

[Voor 11% gewijzigd door CJ op 13-01-2006 22:50]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Interview: ATi over Hollywood (Revolution GPU)
Revolution Report: Is Hollywood based off Flipper, a current or upcoming PC architecture, or built from the ground up?

Swinimer: Hollywood is a specific design and is in no way reflective of PC technology. Even when the Flipper chips came out, people were asking that question: "Is this a spin-off of something done on the PC?", and the answer is no. It is designed the same as the Flipper was -- from the ground up for a specific console. Totally different sort of architecture from what you might find on the PC. Certainly, there are some underlying values—you know, how you get graphics on the screen—that's there. It's not, for example, like we took a PC design and said 'oh, you know what? If we tweak this and test this, it will work in a console.' [That's] not the case.
Lees het volledige interview hier: http://www.revolutionreport.com/articles/read/254

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Kleine typo, maar voor de rest wel vrij accuraat...
The ATI Radeon X1900 XT Pro Graphics Card prepares you for the onslaught of next-generation games. It has one of the world's fastest consumer 3D graphics processors, employing an ultra-threaded engine to deliver maximum graphical detail at ultra-high frame rates. The state-of-the-art Architecture also features unparalleld shader performance and is CrossFire ready, allowing your greatest multi-GPU fantasies to come true. The Radeon X1900 ups the ante even more, with Avivo Video and display technology; it delivers movies, games and photos with stunning Color and realism. Go beyond the usual graphics with over 1 billion colors and ultra-high-speed processing.
  • 512-bit internal ring Bus for Memory reads
  • 48 Pixel shader processor and lightning-fast memory speeds
  • 90 nanometer technology delivers maximum performance
  • Combined HDR and anti-aliasing effects
  • Bring HD images to life with over 1 billion colors
  • Universal Connectivity drives high-end HD displays and projectors
  • CrossFire Multi-GPU technology with 4 modes of operation: Alternate Frame Rendering (maximum performance), Supertiling (optimal load-balancing), Scissor (compatibility), Super AA 8x/10x/12x/14x (maximum image quality)
  • 64-bit floating point HDR rendering
  • 32-Bit integer HDR (10:10:10:2) Format supported through pipeline
  • 3:2 pulldown (frame rate conversion)
  • Accelerated MPEG-2, MPEG-4, DivX, WMV9, VC-1 and H.264 decoding, encoding and transcoding
  • VGA mode support on all outputs
  • DXVA support
  • Compatible with ATI TV/Video encoder products, including Theater 550
  • Core Memory Speed: 650MHz/1.55GHz
  • Pixel Shader Processors: 48
  • Vertex Shaders: 8
  • Geomtery Transform Rate: 1.3 b vertices/sec
  • Memory Bandwidth: 49.6 GB/sec
  • Pixel Fill Rate: 10.4 GP/sec
http://images.jr.com/altimages/ATI100435805_altBOX.PNG?CELL=380,380&QLT=67&FTR=3&BGCOLOR=FFFFFF&CVT=jpeg

[Voor 3% gewijzigd door CJ op 14-01-2006 23:48]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Astennu schreef op zondag 15 januari 2006 @ 00:19:
Lees ik het goed ? X1900 XT @ 650-1550 ? Mischien is de XTX dan toch hoger geclockt ? Of is dat de typo ?
Dat is de typo. X1900XT PRO bestaat niet. Dit is de X1900XTX.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Het is precies zoals het er staat... De XTX draait op 650Mhz core en 775Mhz mem (dus 1.55Ghz effectief). XT draait op 621Mhz (er wordt geadverteerd met 625) core en 725Mhz mem (dus 1.45Ghz effectief).

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

R580 heeft 384M transistoren... dat is 64M meer dan de R520. :o

http://img29.imageshack.us/my.php?image=x1900xtx9zu.jpg

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

En er zijn weer meer leaks...

X1900XT, FX60, 3DM03: 18031
X1900XT @ 700 Mhz core / 1.6Ghz mem, FX60, 3DM03: 19526
X1900XT @ 700 Mhz core / 1.6Ghz mem, FX60 @ 2.85Ghz, 3DM03: 20069

X1900XT, F.E.A.R. FX55, 1024x768, NoAA, Trilinear, Softshadows Off
FPS:
Min: 47
Ave: 113
Max: 286

FPS Distribution
0% Below 25 fps
0% Between 25-40 fps
100% above 40 fps

X1900XT, F.E.A.R. FX60, 1024x768, NoAA, Trilinear, Softshadows Off
FPS:
Min: 54
Ave: 122
Max: 280

FPS Distribution
0% Below 25 fps
0% Between 25-40 fps
100% above 40 fps

Jammer dat ze geen hogere resoluties gelekt hebben. Bron: http://www.vr-zone.com

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Grappig feitje... De X1900 wordt in de drivers als R499 aangeduidt en dat al sinds Oktober 2005.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Astennu schreef op dinsdag 17 januari 2006 @ 19:13:
[...]


Ik ben benieuwd :D even lezen of er wat rendement uit gehaald word. Het valt me wel tegen. Juist in de 1600-1200 reso's zakt i terrug naar 25% winst. Dus valt nog veel aan de drivers te veranderen. In Fear scoort XF heel slecht. Want de game kan alle peformance gebruiken wordt alleen niet benut.
Dat kan nog eens flink tegenvallen hoor... via de drivers is er op hogere resoluties en met AA en AF weinig meer te verbeteren. Daar is die PCIe x8 echt te traag voor... hoe sneller de kaart en hoe hoger de resolutie, des te meer data moet er over de PCIe-bus vervoerd worden... iets wat kaarten met een compositing chip weinig last van hebben.

Langzamere kaarten kunnen prima via de PCIe bus CF geactiveerd hebben (zie X1300), de X1600 gaat ook nog net, maar je ziet hier al de beperkingen bij bepaalde instellingen/hogere resoluties.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Volgens mij gaat ATi dit keer de launch 'goed' doen. Gibbo bericht dat ze zowel de X1900XTX als de X1900XT van Sapphire, Powercolor en HIS ruim op voorraad hebben op launchday. Hij was verder onder de indruk van de performance en de hitte was ook aangepakt, wat zeer verrassend te noemen is aangezien er zo'n 64M meer transistoren op zitten (ter vergelijking, een 9600XT heeft 75M transistoren).

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Is Catalyst 6.1 er al met de optimalisaties voor 3DM06? :Y)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Voor zover ik weet niet.

Cat 5.13 was gewoon de 13de catalyst release van 2005. Dit was de bonus Catalyst en konden ze moeilijk iets anders noemen. De Catalyst die in Januari uit komt is de eerste Catalyst van 2006 en zal daarom Catalyst 6.1 heten.

[Voor 83% gewijzigd door CJ op 18-01-2006 16:53]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Apple schreef op woensdag 18 januari 2006 @ 16:54:
[...]


áls die optimalisatie's er zijn zou je toch verwachten dat Cat6.1 tenminste vandaag had gekomen, maar goed, Ati is meestal laat. :)

Heeft jouw vogeltje iets ingefluisterd CJ betreffende verbeteringen?
Mijn gevoel zegt me dat er wel wat veranderingen in zitten. ;) Er zouden dus wel wat verbeteringen in moeten zitten, maar voor sommige zaken in 3DM06 is moeilijk te optimaliseren. Zoals wat?

FP16 Floating Point Filtering
3DM06 gebruikt met HDR bijvoorbeeld FP16 floating-point filtering en dat ondersteunt ATi niet in de hardware. 3DM06 emuleert nu dus FP16 Filtering via de shaders om een gelijke beeldoutput te genereren (net zoals UE3 dat zal doen) en dit levert altijd een performancedrop op (maximaal zo'n 25% geloof ik).

DST & PCF Filtering niet in R520, wel in RV515/RV530
Daarnaast gebruikt 3DM06 ook D24X8 of R32F depth textures voor shadowing en dat is geloof ik DST... nVidia ondersteunt dit hardwarematig en zoals we bij de GF6 serie gezien hebben in 3DM06 zorgde dit voor zo'n 1000 punten meer. De R520 ondersteunt geen hardware 24-bit DST/Fetch4 (is ook geen onderdeel van DX9). De X1600 en X1300 aan de andere kant ondersteunen het wel!

Hardware Vertex Texture Fetch in 3DM06
Vertex Texture Fetch is een onderdeel van Vertex Shader 3.0 compliancy. Maar ATi maakt hier gebruik van een loophole in de specs, namelijk dat er geen texture formats voorgeschreven worden die ondersteunt moeten worden. ATi heeft dit heel letterlijk genomen en R520 ondersteunt dus Vertex Texture Fetch maar geen enkele texture format wordt blootgesteld in de hardware/drivers.

Mocht een applicatie wel VTF gebruiken dan dient deze ook gebruik te maken van ATi's manier van vertex texturing via de nieuwe extensie in DX, Render to Vertex Buffer (R2VB). Dit is eigenlijk superieur aan VTF omdat alle mogelijkheden van de pixelshader gebruikt kunnen worden en in de geometry pipeline terug kunnen worden gevoerd. En tevens zou de performance ook beter moeten zijn dan de huidige vertex texturing mogelijkheden in hardware omdat de pixel pipelines beter geschikt zijn om om te gaan met latency en dit beter kunnen verbergen.

ATi heeft de mogelijkheid om het developers gemakkelijk te maken door R2VB via de drivers automatisch te laten activeren wanneer een applicatie om VTF vraagt. Dit gebeurt op dit moment nog niet. Een applicatie dient nu dus specifiek geschreven te zijn voor R2VB (dit vereist ongeveer 5 regels code verandering!).

Wat heeft dit met 3DM06 te maken? Nou simpel. Die gebruikt Vertex Texture Fetch en ondersteunt geen R2VB. Ik vermoed dat Catalyst 6.1 een profiel zal hebben voor 3DM06 met R2VB.

nVidia heeft trouwens al een tijdje een profiel voor 3DM06 en ATi is fashionably late met hun optimaliseringen. Altijd last minute. ;)

Edit: en ik neem aan dat het iedereen ook opgevallen is dat PC Perspective gebruikt maakt van OC nV kaarten? (GTX @ 450/1.25, GT @ 450/1.05, 6800GS @ 485/550) vs non-OC ATi kaarten. De eindslag ziet er non-OC toch iets anders uit voor nV.... ligt dan een stuk dichter bij elkaar.

[Voor 13% gewijzigd door CJ op 18-01-2006 17:49]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Apple schreef op woensdag 18 januari 2006 @ 18:21:
[...]


Haal jij 'blending' en 'filtering' niet door elkaar? Bijv. Farcry gebruikt geen FP blending/filtering, enkel FP blending voor HDR.

Tim Sweeney zei het volgende over UE3's HDR methode;

How is High-Dynamic-Range rendering done on R300/R420 class visual processors?

"The only special consideration on that hardware is its lack of floating-point blending. To work around that, we swap to a new render target, and perform manual blending in a shader program, using the original render target as a texture. This is slower than real floating-point blending, but only affects total performance by 20% or so"


Bovenstaande gaat niet op voor X1K aangezien deze gewoon FP blending ondersteund. Mocht er FP filtering noodzakelijk zijn dan gebeurd dit idd in de shader, maar de performancehit hiervan schijnt niet groot te zijn in het geval het gebruikt wordt. Of 3DM06 het gebruikt weet ik niet.
Nee ik haal het niet door elkaar. UE3 gebruikt beide. Blending en Filtering voor zover ik weet... dus wat voor 3DM06 geldt, geldt dan ook voor UE3.

3DM06 gebruikt zowel FP16 Blending en FP16 Filtering voor HDR. FP16 Blending wordt hardwarematig ondersteunt. FP16 Filtering niet. Zie ook Elite Bastards
For boards that are missing hardware support for FP16 floating-point filtering (such as ATI's Radeon X1000 series), FutureMark have included a fallback which makes use of shader emulation of this feature to produce a comparable image and functionality, although naturally this should be slower than performing the filtering in hardware.
Shader FP Filtering zorgt in 3DM06 voor een drop van ong 10%.

Over DST is ook nog niet alles gezegd.
According to ATI, a 16-bit depth stencil texture (DST) would have been sufficient to preserve quality in 3DMark06. Futuremark does not use DSTs on current ATI cards since they do not support the D24X8 format—instead they render into a 32-bit floating point color buffer and use it as the depth texture. When generating the shadow buffers on an X1000 cards for each pixel, ATI has to read and write to a 32-bit depth buffer, and also write to a 32-bit color buffer for a total of up to 96-bits per pixel of bandwidth.

Regardless, the decision to use the 24X8 texture format for the depth stencil texture favors current Nvidia cards heavily with a significant reduction in required bandwidth.
Bron: www.extremetech.com

ATi rendert dus alles op een hogere precisie. 16 bit is vereist door DX9. 24-bit is optioneel. En toch kiest Futuremark voor de optionele 24-bit DST ondanks dat het in bijna geen enkele game gebruikt wordt.

[Voor 5% gewijzigd door CJ op 18-01-2006 18:56]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Het gebrek aan FP Filtering zorgde in Serious Sam 2 voor rendering errors met HDR. Dit is verholpen door een simpele patch zonder IQ verlies. Ik neem aan dat dit ook met UE3 mogelijk is.

Dit is echter een groter probleem:
Then there are the 24-bit depth stencil textures. This is supposedly an optional format in DX9, and yet it is required by Futuremark's new shadow algorithm. Only Nvidia supports this format, but rather than using a 16-bit depth stencil texture (required by DX9) on ATI cards, they're forced into a costly workaround. If ATI is forced into a costly workaround for the depth stencil texture format, why isn't Nvidia forced into a costly workaround for HDR + AA? Here we have a major hardware manufacturer claiming that the 24-bit format for the DST is not required to preserve shadow quality, nor that it is commonly used by game developers. Futuremark claims that it is necessary. We'd like to see the benchmark using 16-bit DSTs just to compare quality and judge for ourselves.
http://www.extremetech.com/article2/0,1697,1912123,00.asp

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Het grappige is natuurlijk nog altijd dat nVidia zei dat dit onmogelijk was tenzij je ongeveer 2GB aan geheugen had (of zelfs meer). Nu blijkt dat HDR + AA toch mogelijk is. En om eerlijk te zijn is de performancedrop niet echt groot als je kijk naar HDR -> HDR + AA. Ongeveer 25% performancedrop, terwijl de groene concurrent altijd bij hoog en laag beweerde dat dit onmogelijk was.

Ik zag dat Apple ook de vraag over filtering gesteld had op B3D en nu heb je dus hetzelfde antwoord gekregen als wat ik gezegd had. ;) De X1K serie doet FP Filtering dus via de shaders. En de "very efficient shader emulation" resulteert dus maximaal in zo'n 10% performance drop.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

X1900XT @ 3DM06, FX55
4618 3DMarks

X1900XT @ 3DM06, FX60
5348 3DMarks

Ter vergelijking GTX512 @ 3DM06, FX55
4642 3DMarks

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Boxman schreef op woensdag 18 januari 2006 @ 21:57:
@ CJ en de mensen die daarop reageren: get over it, de X1900XT is nog nieteens gemaakt. De architectuur is enkel bekend, dneken jullie nou serieus dat er nu al scores van de x1900XT zijn?
Jij volgt zeker het laatste nieuws niet? De X1900XT en X1900XTX zijn al gemaakt en liggen nu al bij verscheidene winkels te wachten totdat ze verkocht mogen worden maandag. En zoals gezegd, de reviewers hebben 'm nu al een paar weken kunnen testen.

Cat 6.1 zou zo'n 6-8% boost moeten geven op de X1K architectuur in 3DM06

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

FirefoxAG schreef op woensdag 18 januari 2006 @ 23:34:
Ik zie - hoe verrassend - langzamerhand Futuremark verketterd worden voor keuzes die ze gemaakt hebben. Laten we echter wel zijn, het was ATi die de keuze heeft gemaakt deze door futuremark gebruikte onderdelen niet te ondersteunen in hun X1800...
Even kijken... ATi volgt DX9 precies, maar volgt niet wat Future Mark graag wil...

Gamedevelopers volgen natuurlijk Futuremark als ze games developen... en ze hebben natuurlijk nu zo veel games uitgebracht met DST.
En dan hebben we het over:
* FP Filtering: foute keuze i.m.o. dit kost ze over de hele FP16 HDR linie performance (niet alleen in 06)
Net zoals het een foute keuze was om met de X800 serie alleen voor SM2.0b te gaan? We hebben allemaal gezien dat die serie het prima deed tegenover de GF6 serie. FP16 HDR is verder prima te doen zonder hardware FP Filtering. Het is geen vereiste om het hardwarematig te ondersteunen. In hoeverre kan je dan spreken van een foute keuze?

FP Filtering en FP Blending doen niets af aan de compliancy voor SM3.0. Dit heeft puur en alleen met bepaalde methodes van HDR te maken. Futuremark heeft er voor gekozen om een FP Filtering test te integreren, maar dit wil niet zeggen dat dit 'de manier' gaat worden die in elke vorm van HDR gebruikt gaat worden. Futuremark maakt wel meerdere rare beslissingen die in geen enkele game terug te vinden is.

En nVidia heeft overigens ook kaarten die geen FP16 Filtering en FP16 Blending ondersteunen zoals bv de GF6200. Maar was dit een verkeerde keuze? Nee. Die kaarten hadden toch niet genoeg power om HDR te draaien.
* Vertex Texture Fetch: foute keuze i.m.o. ook dit kost ze performance, gezien eerst omzetting naar ATi's proprity R2VB formaat moet gebeuren
En die omzetting is volgens jou veel moeite en kost veel performance? Dan moet je je toch eerst even verdiepen in R2VB (wat trouwens een door MS goedgekeurde extensie is van DX9) die dichter zit bij de unified manier van shaden dan puur VTF. 5 regels code en R2VB is flexibeler (eigenlijk een superset omdat alle pixelshader bewerkingen nu ook in de geometry pipeline kunnen worden gebruikt) en kost niet al te veel tot geen performance. Maar goed, non-issue want de test telt niet mee in de eindscore.
* D24X8 textures: betwistbaar, maar eveneens een foute keuze van ATi i.m.o. Waarom ondersteunen RV515 en RV530 dit wel en R520 niet? Als je keuzes maakt doe dat dan in ieder geval consequent (ondersteun het over de hele linie wel of niet).
In hoeverre is dit een foute keuze? Dat het in 3DM05 gebruikt werd, wil niet zeggen dat ATi het dan opeens hardwarematig moet ondersteunen. Zeker niet als er bijna geen games zijn die het gebruiken behalve dan Far Cry. Het is geen DX9 standaard.

En daar zit 'm juist de crux. Futuremark heeft gezegd dat ze standaarden volgden, maar ze volgen nu hun eigen weg. 3Dc wordt ook niet ondersteunt terwijl het een open standaard is (en ook in DX10 zit) en G7x dit ook kan via een hack. En Far Cry ondersteunt dit ook. En toch ondersteunen ze wel DST maar geen 3Dc.
2 van de 3 issues zijn dus i.m.h.o. onbetwistbaar rechtstreeks ATi's eigen schuld. De 3e is betwistbaar, maar ook hier neig ik meer richting ATi te wijzen:
"Optioneel" betekend dat het wel degelijk kan en mag worden gebruikt door dev's. Verder vind ik het ook geen onlogische keuze van FM... 16bit wordt als niet precies genoeg beschouwd, 32bit is erg precies, maar nogal zwaar, dus de tussenstap 24 bit lijkt me een erg logische, ook al is die officieel niet verplicht binnen DX9. De designteams van RV515/530 vonden dat blijkbaar ook, anders had ondersteuning daarvoor niet in die kaarten gezeten...
Hoe het zit met RV515/RV530 weet ik niet precies. Zal ik nog even uitzoeken. Waarschijnlijk al te ver heen in development. R580 ondersteunt het weer wel als ik het goed heb.

Maar tussen 'optioneel' en 'verplicht' zit een hele wereld van verschil. Optioneel betekent in dit geval niets anders dan dat iets niet hardwarematig ondersteunt moet worden. Dat devs (in dit geval geen gamedevs, maar een benchdev) hier gebruik van maken is niet ATi's fout. Het punt hier is dat 3DM een gamersbenchmark is en geen enkele game gebruikt 24-bit DST op Far Cry na (en zelfs hier zien shadows er mooier uit op ATi kaarten), zelfs niet in de maanden nadat 3DM05 is uitgekomen is er nog een game uitgekomen die het ondersteunt.

Dus het is maar net wat je verwacht van een gamersbenchmark, dat er echt dingen gebenched worden die je terug kan verwachten in games, of dat er IHV specifieke zaken worden gebruikt om ze goed uit de test te laten komen? Futuremarks reden om DST te gebruiken in 3DM05 was dat er nog een andere IHV gebruik maakte van hardware DST, namelijk S3 en we weten allemaal dat S3 een wereldspeler is op de 3D markt. G7x ondersteunt ook 3Dc (via een slimme methode), dus zijn er nu multiple IHVs die dit kunnen. Maar zien we dit terug in 3DM06? Nee. Beetje krom allemaal als je het mij vraagt en dat terwijl 3Dc onderdeel is van DX10 en DST niet.
[...]
Zonder IQ verlies, maar tevens zonder performancewinst... HDR performance van de X1800 in SS2 is echt dramatisch.
Volgens mij ging de performance ook niet echt achteruit na de patch. Een patch die IQ problemen oplost en waarmee de performance gelijk blijft is dus nog altijd iets om over te zeuren, begrijp ik.
Allereest vraag ik me dan af hoe professioneel het extremetech figuur dat deze opmerking maakt is... De nV kaarten ondersteunen hardwarematig geen FP16 HDR + AA, dus daar is ook geen "costly" workaround voor te bedenken tenzij de boel via de shaders gerenderd wordt. Dan is het echter geen FP16 HDR of vergelijkbaar meer en is de score totaal niet meer te vergelijken met FP16 HDR+AA ondersteunende kaarten... met andere woorden die score zou nergens op slaan. De 0 score in die tests is dus juist, die staat voor "hardware incompatible" wat exact de juiste definitie hiervan is.
Tja, zo kan je natuurlijk iedere reviewsite/reviewer gaan afkraken die iets anders zegt dan jou mening, net zoals toen met Bjorn3D. Extremetech is toch altijd vrij kritisch geweest en was een van de sites die aan de wieg stond van alle 3D sites. Het wordt ook gemeld op andere sites, zoals B3D door meerdere tech-site houders, maar goed, de mensen daar zullen ook wel niet echt professioneel bezig zijn.

Maar goed, even zonder sarcasme... Zowel ExtremeTech als B3D zijn lid van Futuremarks BDP (Benchmark Development Program) en ze stellen dus terecht bepaalde vragen (zoals waarom geen parallax mapping terwijl dit toch heel populair aan het worden is, zie bv FEAR, Oblivion, Far Cry, Splinter Cell etc). Dus reken maar dat ExtremeTech zeer professioneel bezig is. De vragen die ze stellen zijn dus zeer terecht. ExtremeTech is dus 1 van de 14 leden van het BDP programma en 1 van de 3 online sites die evenveel inbreng hebben in de ontwikkeling van 3DM. Maar daar is dus blijkbaar weinig mee gedaan, terwijl het toch de reviewsites zijn die voornamelijk 3DM zouden moeten gebruiken om de hardware te testen (wat nu dus niet gebeurd).
Ten tweede moet nog even aangetoont worden hoe "costly" 32bits i.p.v. 24bits renderen nu werkelijk is... ik denk dat een groot deel van deze resultaten namelijk gewoon te wijten is aan ATi's HDR problemen, ze dit gewoon niet willen erkennen, en nu FM de zwarte piet proberen toe te spelen. D24X8 werd al in 05 gebruikt, en nu het in 06 hergebruikt wordt wil ATi daar plotseling een rel op los laten... typisch he...
Je zegt net zelf dat 32 bits erg precies is, maar nogal zwaar. Lijkt me dat je zelf al hebt aangegeven hoe "costly" renderen op 32bits nu eigenlijk is vs 24 bits? En de rel was er al in 05. Zoek maar eens op in dit topic en op de verschillende tech-sites. Gelukkig zit er een optie in om te testen zonder DST, maar helaas doen veel reviewsites dit niet omdat de GF6/7 serie dan veel slechter uit de bus komt.

Kort gezegd begon 3DM als een benchmark die moest laten zien hoe een kaart in D3D performt. De laatste tijd begint het meer een benchmark te worden die zich laat leiden door allerlei optionele dingen die gestuurd worden door een bepaalde IHV. Dat is de kritiek die er altijd al is geweest en dat is de kritiek die je nu dus ziet, en niet omdat een X1800XT toevallig net iets minder presteert dan een GTX, want veel games tonen toch wel anders aan.

- Geen parallax mapping
- Geen uitvoerige dynamic branching (zeer spaarzaam gebruikt in de tests die meetellen)
- IHV specifieke ondersteuning voor depth stencils

Imo is 3DM in de huidige vorm slecht voor de hele gamingindustrie... IHVs stoppen meer tijd en geld in het optimaliseren voor 3DM dan in games...

nV bouwt zelfs voor bepaalde games en benchmarks. Dit zegt bv genoeg: http://www.beyond3d.com/f...php?p=622641&postcount=54 En ook het feit dat nVidia mailtjes rondstuurt naar reviewers waarin ze 3DM06 helemaal de hemel in prijzen en dat het blijkbaar een betere indicatie is van real-world performance dan ooit tevoren, zeggen mij genoeg... zeker na de fikse ruzie met nV na alle cheats.
As I huddled here in seclusion testing all of the latest graphics cards on this new benchmark, a little green bird fluttered in and landed on my shoulder. It sang the praises of 3DMark06, saying that this new version should do a better job of tracking with real-world game performance than past editions, noting that 3DMark05 wasn't horrible, but was simply too vertex bound, as the example of the Radeon X1600 demonstrated.
http://techreport.com/onearticle.x/9293

Wat een beetje interessanter is, is de performance van de X1600 vs de GS6800. Zelfs met HDR weet de X1600 te winnen op 800x600 en 1024x768 maar in de knoop komt op hogere resoluties door een gebrek aan bandbreedte.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

FirefoxAG schreef op donderdag 19 januari 2006 @ 14:11:
[...]
Was i.m.o. wel een foute keus, gezien gamedev's dit duidelijk wel gebruiken en het zodoende op ATi hardware geemuleerd moet worden. Dit kost nodeloos veel performance, en is iets dat ATi van tevoren had kunnen weten. In dat opzicht een foute keuze dus, en dat blijkt gezien de HDR performance van X1800 tot nu toe. Dat argument van de 6200 slaat natuurlijk nergens op, en je geeft zelf al aan waarom niet ;)
En wat betreft gebrek aan SM3.0 ondersteuning in de X800 serie: met het oog op toekomstige - zelfs huidige - games was SM3.0 ondersteuning in mijn optiek inderdaad een betere keus geweest.
Hoezo foute keuze? Hoeveel games vereisen er nu FP16 Filtering bij HDR? Woohoo, 1 game en 1 benchmark maken er nu gebruik van. Het gebrek aan hardwarematige FP Filtering doet bijna niets af aan de HDR performance zeker wanneer de shaders snel genoeg zijn. Tegen de tijd dat er games zijn die er heel erg veel gebruik van maken zijn de R600/G80 er al weer die hier veel beter voor geoptimaliseerd zijn. ATi maakt een tradeoff tussen het moment dat er software beschikbaar komt die een bepaalde functionaliteit ondersteunt, die-size en kosten. Net zoals ze dat gedaan hebben met SM3.0. En ik vind dat ze dat vanaf de R300 steeds goed gedaan hebben.

Datzelfde gold toendertijd met SM3.0. Hoeveel games hadden er nu SM3.0? Eentje. En de huidige games ondersteunen zowel het SM3.0 als SM2.0 pad, en nu blijkt dat de GF6 serie vaak net zo snel is als de X800 serie. Dus van een 'foute' beslissing kan je hier in mijn ogen niet spreken. ATi had gelijk toen ze zeiden dat SM3.0 ondersteuning in 2004 te vroeg was en dat tegen de tijd dat SM3.0 echt ingeburgerd zou zijn, die hardware te traag zou zijn wanneer er wel volop gebruik werd gemaakt van SM3.0.
Iedere omzetting kost performance, in het ene geval meer dan in het andere geval. R2VB is geen DX9 standaard, VTF wel. Unified shaden is ook geen DX9 standaard trouwens, dus geen reden om een eigen - in principe overbodig - proprity formaat te pushen...
Het zelfde geldt voor 3Dc: geen DX9 standaard, dus optioneel. Niemand kan FM verplichten het te gebruiken omdat dit ATi voordeel oplevert.
Niet iedere omzetting kost performance. Zo heeft nV kosteloze omzetting van DX8.1 calls naar DX9. En zo renderde de R3x0 serie alles intern op 32-bits, ook al kwam er 16-bits data binnen (16-bit -> data intern omgezet naar 32-bits voor bewerking -> data intern omgezet naar 24-bits voor output) en dit kostte niets. Het gebruik van R2VB zorgt helemaal niet voor een performancedrop en als die er al is, dan is het verwaarloosbaar.

Oh ja, en het leuke is dat NV40/G7x ook R2VB kunnen en dat ook deze kaarten waarschijnlijk sneller zijn met R2VB dan met hun hardwarematige Vertex Texture Fetch die niet zo snel is. Imo dus een hele rare beslissing van FutureMark om nu nog op het laatste moment voor DX10 gebruik te maken van de oude manier van VTF, terwijl R2VB meer een stap is richting de toekomst van unified shading. En 3DM was toch altijd een benchmark die ook de performance in toekomstige games moest kunnen voorspellen?

Hetzelfde geldt voor 3Dc. Open standaard, geintegreerd in Windows Graphics Foundation/DX10. Al gebruikt op de Xbox360. Eigenlijk zeer vergelijkbaar met het gebruik van FP Filtering in de test. FP Filtering is verplicht voor OpenEXR HDR, maar niet voor alle vormen van HDR. 3Dc kan gebruikt worden bij HDR maar is niet verplicht. Toch gebruikt FM FP Filtering in een test en geen 3Dc.
Dat is 't nu eenmaal met eigen proprity formaten: je loopt het risico dat dev's besluiten het niet te gebruiken en een andere oplossing kiezen... en als dat gebeurd moet je niet klagen, je hebt er immers zelf voor gekozen je eigen optionele formaat neer te zetten.
En DST24 is geen priopriatary formaat? DST is NOG geen officiele DX feature. Daar gaat je hele groene verhaal dus over het risico van het gebruiken van zelfgemaakte formaten... Feit blijft dus gewoon dat Futuremark hier 1 fabrikant bevooroordeelt boven anderen die geen DST hebben. Slechte zaak voor een gamingbenchmark. Hetzelfde geldt voor PCF.

Ter vergelijking, hardware die DST/PCF ondersteunt doet er 2 clockcycles over om iets te renderen. Hardware zonder DST/PCF kan het doen in 14 clockcycles (terwijl 1 fabrikant (ik geloof ATi) heeft aangegeven dat ze het in 7-8 clock cycles kunnen. DST/PCF heeft als voordeel dat het snel is, maar als nadeel dat schaduwen er niet soft uit kunnen zien maar harde randen hebben (zie ook Far Cry).
Ik vond de verklaring dat 16bits precisie onvoldoende was voor het door Futuremark beoogde kwaliteitsnuveau vrij plausibel. 24bits is dan ook een minimale vereiste. Kaarten die dat niet ondersteunen moeten dus de volgende stap - ofwel 32 bits - pakken. Ik zie het ook helemaal niet als onrealistisch dat dev's binnenkort hogere kwaliteit shadows dan 16bits gaan gebruiken. Dat houdt automatisch in dat de X1800 32bits in schiet, omdat die de 24bits tussenstap niet kan maken.
Foute keus dus i.m.o. omdat je dan OF nodeloos performance verliest OF lagere kwaliteit shadows aan moet zetten op een X1800.
En ook hier weer kiest FM een formaat van een bepaalde hardwareboer, terwijl ze hiermee dus 50% van de gamersmarkt weer negeren. Ze kiezen meer groene opties dan rode. Dat moet jij nu toch zelfs zien?

Het zou me niet verbazen als het trouwens ook deze "issue" is die bij FEAR SoftShadows speelt.
"Optioneel" betekent dat het door dev's gebruikt KAN en MAG worden, en ik vind dat je als IHF hierop moet anticiperen.
En niet moet huilen als het vervolgens wel gebruikt wordt en dat jou performance kost. Net als nV niet moet huilen wanneer DB gebruikt wordt... dat zijn de keuzes die je maakt.
Als je eens wist wat er allemaal wel niet optioneel is in DX, dan hebben hardware fabrikanten hier nog een flinke kluif aan om alles te integreren in hun GPUs. Die zouden dan veel te groot worden. Je moet keuzes maken en ATi heeft op safe gespeeld door in de eerste plaats alleen de verplichte opties te integreren. Dit zou ook de manier moeten zijn waarop FM hun benchmark in elkaar zou moeten zetten en zoals ze dat vroeger altijd deden, namelijk door het volgen van de D3D eisen.

Oh trouwens, FP Blending + AA is ook optioneel in DX. Staat zelfs omschreven in MS documenten. Maar toch kiest FM er voor om dit niet standaard aan te zetten, wat ze wel doen met bepaalde andere functies die alleen door NV hardware ondersteunt wordt.
Toen ongeveer een jaar geleden de Geforce FX serie definitief af ging in 3DMark05 was dat een prachtige indicatie van de toekomst - ook volgens de ATi cracks. Nu de ATi X1800 serie de 7800 serie - volkomen terecht i.m.o. - niet domineert in 3DMark06 wordt Futuremark plotseling afgeschilderd als de evil rechterhand van nVidia die met opzet nV bevoordeeld in de benchmark.
Vind je dat zelf niet - op zijn zachtst gezecht - ronduit hypocriet? Met name als je de - t.o.v. de 7800 - bedroevende X1800 HDR performance in het plaatje meeneemt? Als FM echt nV had willen bevoordelen hadden ze dit gemakkelijk kunnen doen met een zwaarder gewicht aan HDR. En gezien de performance die ik tot nu toe heb gezien van ATi in FP16 HDR games mag ATi zich misschien zelfs in zijn handjes knijpen met dit resultaat i.p.v. op Futurmark te bitchen.
Het enige wat hypocriet is is dat nVidia toendertijd met veel bombarie uit de BDP is gestapt en met rechtelijke stappen dreigde tegen FM, maar nu de grootste vriendjes is en zelfs mailtjes rondstuurt naar mensen waarin ze 3DM aanprijzen als de heilige graal van benchmarking.

En er is een heel verschil tussen toendertijd met de FX en 3DM05 en nu met 3DM06 en de huidige series. De FX was gewoon brak, maar veel nVidiots wilden toen maar niet geloven dat dit ook echt zo was "want ik kan alle games nu nog lekker snel spelen". Op zich natuurlijk prima als je het niet erg vind om om de zoveel tijd een nieuwe kaart te kopen. Het merendeel van de gamers doet het echter niet. 3DM05 gaf gewoon mooi aan wat er zou gebeuren bij veel shadergebruik (en zoveel shaders zaten er eigenlijk nog helemaal niet in). Maar ondanks dat geloofden velen het niet en toonden de games die toen uitkwamen aan dat de FX daadwerkelijk brak was (zie bv Rollercoaster Tycoon 3, Tribes Vengeance (UT2 engine met veel shaders)).

Nu heb je het geval dat FM alleen maar nV only features implementeert en geen ATi only features. Op z'n minst toch heel hypocriet. En omgekeerd zie je nu dat er nu shaderintensieve games uit komen (en nog gaan komen) die sneller zijn op ATi hardware dan op NV hardware, terwijl 3DM06 weer anders aanduidt. Laat staan dat het de CPU heel erg belangrijk is geworden.
Maar goed, zoals gezecht verbaast deze reactie me niet. Het geeft - om mij niet verrassende redenen - niet het resultaat weer dat ATi cracks verwacht hadden, dus zoekt men maar een stok om FM mee te slaan i.p.v. dat ATi de hand in eigen boezem steekt.
Het is misschien moeilijk te geloven door die groene waas van je, maar sommige mensen kunnen echt door dat verschil tussen groen en rood heen kijken en objectief kijken naar een instelling als FM en hun benchmarks.
Als de avg framerate van de X1800XT 18fps is waar de GTX TOP 38fps doet: lijkt me wel ja ;)
Dat doet er verder helemaal niet toe. Ik vroeg je indirect of het erg is dat een patch een probleem verhelpt zonder dat de IQ en performance naar beneden gaat. Ik denk namelijk niet dat dit iets is om over te klagen (ongeacht hoeveel fps er over het algemeen op het scherm wordt getoverd). Er om heen lullen kan je goed. ;)
Extremetech gaat toch wel erg ver in het verkondigen van ATi's (PR) visie op het geheel.
Ze stellen zelfs voor om de 6800/7800 in de HDR+AA tests de SM2.0 score te laten genereren, wat echt totaal nergens op slaat. Het hele idee van een benchmark is dat dergelijke scores vergelijkbaar moeten zijn, en door 2 totaal verschillende scores te baseren op 2 totaal verschillende renderpaden maak je dit scheer onmogelijk en je benchmark tot een farce. Uiteraard zou dit ATi wel goed uitkomen, omdat de 7800 serie vanwege de ontbrekende SM3.0 HDR+AA tests veel lager zou scoren dan de X1800.
"Prima" zegt Extremetech, "doen"! Ook al genereren we daarmee een volslagen bogus score die kant nog wal raakt omdat die niet vergelijkbaar is met zowel ATi's HDR+AA score, en ook niet met nV's eerdere HDR/noAA score. Met zo'n volslagen non-score voor de Gf6/7 serie lijkt ATi namelijk veel beter uit de bus te komen!
Ok, even wat dingen vetgemaakt. Komen we weer uit bij DST/PCF/FP16 Filtering. Totaal verschillende renderpaden dus voor hardware die niet de nV specifieke functies ondersteunen, scores zijn dus niet vergelijkbaar (want ene kaart doet -tig keer meer werk) en de benchmark is een farce.
Ik hoop trouwens dat het iedereen hier om bovenstaande reden ook duidelijk is dat de 3DMark06 scores van SM3.0 (+FP16 HDR) compliant kaarten totaal niet te vergelijken zijn met die van SM2.0(b) compliant kaarten? ;)
De enige vergelijking die kan worden gemaakt is SM2.0 vs SM2.0 en SM3.0 vs SM3.0, tenzij de individuele game framerates bekeken worden. De X1600 score bijv. kan niet worden vergeleken met die van de X800XT etc.
Ook heel grappig dat opeens de GF6800U in de SM2.0 tests net zo snel of zelfs sneller is dan een X850XT PE. Of dat zelfs een 6600GT sneller is dan een X800GTO. Ik heb dit al gelezen op meerdere sites, maar de nieuwe shaders zijn heel erg geoptimaliseerd voor groene hardware. ATi gaf toe dat ze dit eigenlijk min of meer aan zichzelf te danken hadden doordat de R520 zo laat was, maar FM maakt zichzelf hier wel heel erg belachelijk door nu eigenlijk 3DM05 overbodig te maken en andere resultaten te laten genereren.
Tja, ik weet niet precies wat het exacte verschil in performance is, maar dat het zwaarder is is niet zo moeilijk te bedenken. Onderzoeken zullen moeten uitwijzen wat het exacte verschil is. Feit blijft dat volgens FM 16bits precisie onvoldoende bleek voor de in 06 gebruikte shadowmaps. Zodoende hebben ze (i.m.o. terecht) 24bits als minimumvereiste gesteld voor een bepaalde door hun gewenste kwaliteit shadows. De X1800XT ondersteund dit niet, dus springt naar 32 bits... lijkt me niet dat je FM daarvan de schuld moet geven.
Je hebt het nu steeds over onderzoek en aantonen dat er verschil is... Nou, laat ze dan maar eerst aantonen dat 16-bits inderdaad niet voldoende was. En zelfs al was dat zo, dan is dat geen reden om een propriatary format te gebruiken. Dat de X1600XT en X1300Pro er van profiteren is duidelijk, gezien het feit dat de X1600XT met maar 4 pipelines (en 12 pixelshader processors) de GF6800GS verslaat en de X1300Pro in de buurt komt van de 6600GT. Maar dat wil nog niet zeggen dat de benchmark die bedoelt is om een eerlijke vergelijking te geven dit ook doet.
Even in de herhaling:
1. De GTX is zonder AA/AF over het algemeen sneller dan de X1800XT
2. De GTX is met HDR veel sneller dan de X1800XT
Echter, in een test zonder AA/AF en met HDR trekt de X1800XT nu gelijk met de GTX... volgens jouw theorie zou je bijna zeggen dat ATi bevoordeeld wordt, vergeleken met real life games :+
1. Mensen die een GTX / XT kopen spelen over het algemeen met AA/AF aan. Sommige reviews gebruiken nu alleen al die instellingen om kaarten te testen. Call of Duty, FEAR, Battlefield 2. Allemaal recente DX9 games waarin ATi sneller is. Sign on the wall?
2. Niet met alle vormen van HDR is een GTX veel sneller hoor. Je pint je te veel vast in OpenEXR HDR terwijl er al vaak genoeg gewezen is op andere vormen van HDR waar ATi prima mee kan. Zie bv (zoals al zo vaak genoemd, maar blijkbaar door jou over het hoofd gezien) Splinter Cell: Chaos Theory waar ATi gewoon veel sneller is, ondanks dat het bijna een identieke vorm van HDR is als wat gebruikt is in Far Cry. Veel hangt dus af van de developers. We zien nu games waarin ATi de boventoon voert en games waarin nV de boventoon voert. Een benchmark zou dit moeten reflecteren en ook duidelijk moeten specificeren wat voor type HDR er gebruikt wordt, zodat je met gemak kan voorspellen welke hardware ergens voordeel bij heeft. Meerdere HDR opties zou wat dat betreft een stuk beter passen bij 3DM.
]
* Parallax: Inderdaad een gebrek, maar geen ramp, want geen van beide kaarten hoeft het dus te renderen.
* DB: Waarom had er "uitvoerig" DB gebruikt moeten worden? Om ATi te bevoordelen misschien, want het is in geen enkele game te bekennen?
* Depth stencils: De test vereist 24 bits of hoger. Niets IHF specifiek dus, dat ATi's X1800 geen 24 bits ondersteunt ligt aan niemand anders dan henzelf. Volgens jou zelf ondersteunen de X1300 en X1600 het trouwens ook, dus daarmee kan het "minimaal 24bit = IHF specifiek" argument al helemaal van tafel.
* Parallax (Occlusion) Mapping: Het gaat er niet om dat beide fabrikanten het niet hoeven te renderen. Het gaat er om dat Parallax Mapping een SM3.0 optie is die in veel nieuwere games gebruikt wordt of gaat worden. 3DM als gamersbenchmark dient dit te reflecteren.
* DB: Zie ook Parallax Occlusion Mapping
* 24 bits is IHV specifiek en niet standaard DX. Dat ATi er voor kiest om dit al wel te integreren in de X1300 en X1600 doet niets af aan het feit dat FM hier nu weer een fabrikant voor trekt. ATi integreert DST24 dus mag FM het integreren van jou. NV integreert 3Dc in de drivers via een hack, dus mag het niet van jou gebruikt worden?

Dit staat dus helemaal los van het feit dat DST eventueel in de toekomst wel of niet in DX geintegreerd wordt (wat ik wel verwacht anders gaat ATi het niet ondersteunen). Als dat wel het geval was, dan had FM ook 3Dc en R2VB moeten integreren volgens dezelfde denkwijze.
Het grappige hieraan is dat iedereen hier roept dat FM wel proprity ATi formaten moet hanteren, maar tegelijk geen optionele DX9 formaten (waarvan ATi er zelf voor heeft gekozen die niet te ondersteunen) mag gebruiken. Make up your mind, en wees een beetje consequent plz...
En al met al bekeken denk ik dat dit plaatje met het oog op HDR er voor ATi een heeeeel stuk slechter uit had kunnen zien als FM werkelijk nV had willen bevoordelen.
R2VB is een officiele goedgekeurde extensie van DX9 die nV kaarten ook kunnen. Eigenlijk dus gewoon een optioneel DX9 formaat. Beide fabrikanten kunnen het aan en dat kan je niet zeggen van DST/PCF.

Wat dat betreft ben ik vrij consequent geweest, maar ben jij degene die niet consequent is. Eerst roepen dat een benchmark vergelijkbare scores moet geven en dat dit niet kan als er verschillende renderpaden gebruikt wordt. Maar blijkbaar vind je het niet erg dat dit dus wel gebeurt en geeft 3DM06 dus een goed beeld van de realiteit. Make up your mind pls. :7

[Voor 4% gewijzigd door CJ op 19-01-2006 16:31]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

De X1900XT is inmiddels op een aantal websites te koop en IN STOCK.

http://www.computers4sure...id=4183262&affid=10000483
http://www.ecost.com/ecost/shop/detail~dpno~697227.asp

De prijs ligt rond de $620-630 op deze sites, maar ik verwacht een snelle daling, vooral gezien het feit dat de X1800XL al voor minder dan $350 over de toonbank gaat (zelfs een X1800XL AIW voor $379). En de X1800XT is al aan het zakken richting $450.

Verwacht de X1700 trouwens pas na de launch van de 7600. ATi zit nu in de positie dat ze kunnen wachten om te zien in hoeverre de 7600 over de X1600XT heen gaat en voor welke prijs.

Ook verschenen op de Sapphire site:
X1900XTX
X1900XT
X1900 CF

Toch jammer dat ze adverteren met "48 pixel pipelines" terwijl er eigenlijk maar 16 in zitten. Ik kan me voorstellen dat mensen dan heel erg teleurgesteld zijn in de performance in vergelijking tot een 'ouderwetse' 16 pipelines kaart als de X1800XT.

[Voor 34% gewijzigd door CJ op 19-01-2006 17:30]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

FirefoxAG schreef op donderdag 19 januari 2006 @ 18:04:
@CJ:
Ik had gehoopt dat we ondertussen over het "FirefoxAG = groen" verhaal heen waren, maarja, blijkbaar is dat een makkelijke (doch erg goedkope) manier om je argumentatie kracht bij te zetten en je gelijk te halen als je't in de discussie moeilijk krijgt.
Als jij stopt met het continue steken onder water geven geven met de vele insinuaties dat ik niets anders kan doen dan alles met een rode gloed bekijken, dan stop ik met jou een groen ventje noemen ;)

Soms heb ik het gevoel dat ik tegen een muur aan sta te praten... Gelukkig vinden de meeste andere mensen het wel vermakelijk om te lezen... Maar ik weet niet of ik nog een keer op de rest van je argumenten in ga omdat ik dat 1) al veel te vaak gedaan heb, maar het steeds het ene oor in vliegt en het andere oor er weer uit, en 2)er een heleboel gewoonweg geen steek houden (bepaalde opmerkingen maken waaruit ik opmaak dat je je niet goed in de stof hebt verdiept).

Dat kan ik je dan nog zo vaak proberen duidelijk te maken op een normale beredenerende manier, maar het lukt het me toch niet om daar door heen te dringen. Zelfs niet als -tig mensen (die als zeer objectief beschouwd kunnen worden) op andere sites hetzelfde zeggen als ik, lukt me dat niet. Je kraakt ze meteen af door te zeggen dat het geen goede reviewers zijn of niet objectief zijn. Of je blijft maar doorhameren op 1 bepaalde vorm van HDR terwijl er -tig manieren zijn om HDR te ondersteunen (goh, wat grappig dat nV maar 1 hardwarematige vorm van HDR ondersteunt en dat dit dan meteen DE manier is volgens jou want FP16 Filtering en FP16 Blending is oh zo belangrijk). Je zegt dat VTF en FP16 Filtering al door zo veel devs gebruikt worden zonder voorbeelden te noemen.

FP16 Filtering wordt in welke games gebruikt? VTF wordt in welke games gebruikt? En dan niet met Pacific Fighters komen omdat daar de performance gigantisch ineenkakt vanwege de slome VTF implementatie van nV.

Ik zal het nog 1x zeggen. FP16 Texture Blending is zeer kostbaar en zwaar. Het kost heel erg veel geheugen en bandbreedte. Het kost veel moeite om dit te doen, vandaar dat hardwarematig FP16 Blending de voorkeur heeft. FP16 Filtering is niet zwaar. Aan de andere kant heb je wel heel erg veel transistoren extra nodig om dit hardwarematig te ondersteunen. De manier van ATi om het via de shaders te doen, kost niet erg veel en als ATi het in de caps activeert dan merken devs er helemaal niets van. Waarom ze dit nog niet gedaan hebben, zou ik eerlijk gezegd niet weten.

Ik hoorde trouwens van iemand dat de Unreal 3 Engine geen enkel probleem heeft met ATi's manier van FP Filtering. Developers willen geen boxfilters (bilinear filtering etc), maar ze willen filters die beter geschikt zijn om de taak te voldoen. Daarom gebruikt UE3 verschillende filters voor elk type kaart.

Wat ATi er zelf over te zeggen heeft:
I will gladly share our considerations for dumping FP16 texture filtering. When we analyzed promising methods of implementing HDR, we found out that 10-bit and 16-bit integer and FP16 formats are of special interest, both for storing textures as well as for rendering. What concerns FP16, in our opinion, alpha blending is the most important feature, followed by multisampling. Filtering goes only after them. The lack of alpha blending will not allow to render scenes with semitransparent objects, smoke, and other effects. Blending emulation in a shader using additional render buffers is theoretically possible, but it will be resource and performance taxing. The lack of multisampling has a negative effect on realism in rendered scenes - the main reason for using such technologies as HDR. At the same time, FP16 texture filtering is not so critical for HDR for several reasons. Let me explain. First of all, a large range of values is inexpedient at this stage of our gaming industry, it's not necessary actually. As game developers usually create their products for a wide spectrum of hardware, games must run well with high-end as well as low-end cards with practically the same set of textures and other elements of artistic design. It applies a peculiar limitation on the range of intensity values.
Bron met nog veel meer interessante info: http://www.digit-life.com/articles2/video/r520-part6.html

En ik denk dat ATi als een na grootste speler (na Intel) op zich toch wel een beter gevoel heeft voor wat er wel of niet belangrijk is voor gamen dan Futuremark. Als er echt veel devs waren die op FP Filtering hadden gevraagd in hardware, dan hadden ze dat heus wel toegevoegd.

Over HDR zelf is ook nog niet het laatste gezegd... Behardware heeft het mooi opgesomd in hun GTX512 review:
ATI and NVIDIA each support each a certain amount of different types of HDR. Here are the main differences:
- ATI supports FX10 blending, NVIDIA does not.
- ATI supports multi-sampling antialiasing in FX and FP, NVIDIA does not.
- FP16 texture filtering is free for NVIDIA not for ATI

Overall, ATI has more flexibility than NVIDIA for the number of HDR formats supported. However, as NVIDIA was the first to develop this technology, FP16 is the main format used. This can be a bit problematic for the Radeon X1K, which doesn´t normally filter FP16 textures and as long as shaders aren´t adapted to combat this deficiency.
http://www.behardware.com/art/imprimer/599/

En je mist gewoon het hele punt dat 3DM altijd een D3D benchmark is geweest en niet een benchmark die IHV specifieke extensies/formaten moet testen.

Of zoals Sapstengel zegt:
Sapstengel schreef op donderdag 19 januari 2006 @ 18:29:
Voor wat betreft de hele FM discussie:
Behoort een benchmark niet objectief te zijn en alleen die technieken testen/belonen die zowel ATi als Nv hebben?
Dat klopt dus precies. Zo was Futuremark altijd bezig met 3DM tot aan 2001, maar op de een of andere manier is dat sinds 2003 heel erg veranderd. 3DM is leuk om je systeem mee te stressen, maar er zijn nu zo veel verschillende games die allemaal weer andere technieken gebruiken dat 3DM gewoon te beperkt is om een goed beeld te geven van de 3D performance van een GPU, zeker wanneer een bepaalde fabrikant voorgetrokken wordt wat betreft functies.
Jejking schreef op donderdag 19 januari 2006 @ 18:56:
Wat ik vind over die hele 3DMark2006-affaire...

Futuremark is behóórlijk fout bezig geweest naar mijn mening, en wel om de volgende redenen:
- DST aanzetten op Nvidia-kaarten is belachelijk om de performance op niveau te houden terwijl de IQ achteruit gaat :/ (CJ, heb je btw hier ook harde bewijzen voor? Screenies e.d.?)
DST Off geeft 10.5% performance drop op de GF6 serie: http://www.elitebastards....d=10599&head=1&comments=1 En let vooral op de IQ verschillen.

Far Cry DST On/Off @ Xbit: http://www.xbitlabs.com/a...o/display/farcry30_4.html En ik geloof dat wanneer men een GF kaart zich deed voordoen als een Radeon kaart (en dus het Radeon renderpath gebruikt) de performance een stukje lager ligt, maar alles wel goed gerenderd wordt.
The Source schreef op donderdag 19 januari 2006 @ 20:34:
Voor mij is 3dmark gewoon een leuke demo net zoals vroeger de demo's op de homecomputers.
Dan vind ik ATi's Toyshop demo eigenlijk een stuk mooier en sfeervoller om naar te kijken dan 3DM. :)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Ik geloof dat er nog wat mooiere plaatjes waren van DST op guns in bv Far Cry wat kortgezegd... er niet uit zag...

En over HDR is nog lang niet alles gezegd. nV heeft bv met 32-bits op de een of andere manier ong 94% meer texture fillrate met blending dan ATi, terwijl dit op 64-bits een achterstand wordt van 46%. En zoek maar eens wat Splinter Cell vergelijkingen op bv op B3D of Anandtech. Dan is de de XT over het algemeen toch iets sneller dan de GTX met alle SM3 opties aan + HDR. Het ligt er maar net aan hoe de gamedevs HDR gebruiken.

Nogmaals:
Overall, ATI has more flexibility than NVIDIA for the number of HDR formats supported. However, as NVIDIA was the first to develop this technology, FP16 is the main format used. This can be a bit problematic for the Radeon X1K, which doesn´t normally filter FP16 textures and as long as shaders aren´t adapted to combat this deficiency.
En ik heb trouwens het gevoel dat sommige mensen GITG onderschatten. Het is misschien niet zo tastbaar als TWIMTBP, maar er wordt zeker wel wat aan gedaan en een aantal leuke games zullen onder het vaandel vallen en zelfs een aantal aankomende populaire games die hier niet onder vallen zullen goed presteren op ATi hardware dankzij de vele shaders...

Hetzelfde geldt voor 3DM en ATi's drivers. Ik verwacht daar nog wel wat verbeteringen in...


Meer X1900XTs op voorraad bij shops:

http://www.digitallyuniqu...944&cpncode=10-16007872-2 voor $559,95
http://www.computers4sure...ITE&Keyword=x1900&x=0&y=0

[Voor 16% gewijzigd door CJ op 20-01-2006 03:06]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Noem eens wat voorbeelden van niet luisteren naar gamedevs? Je maakt me heel nieuwsgierig. :)

En er is natuurlijk maar een beperkte hoogte tot waar je kan luisteren als je nieuwe functionaliteit in je GPUs wilt inbouwen. Bij het ontwerpen van een GPU komt veel tijd kijken. Een gemiddelde GPU is misschien wel 2 a 3 jaar in ontwikkeling. Aan het begin van het proces moet je overleggen met gamedevs en MS en kijken wat er over een jaar of 3 nog handig is. Zo had ATi Truform geintegreerd omdat gamedevs graag meer polygonen op beeld wilden tonen, maar de hardware er nog niet krachtig genoeg voor was (zie bv Morrowind als mooi voorbeeld). Truform verhielp dit. Helaas was een jaar later de 9700Pro op de markt die wel genoeg power in huis had zodat Truform overbodig werd.

GITG is volgens mij ook meer gericht op het sturen van ATi lui naar gamedevs om ze te helpen code beter te optimaliseren voor ATi hardware. Van wat ik begrepen heb, is dat het een wisselwerking moet zijn van luisteren naar anderen en anderen die naar jou luisteren. En ik heb gehoord dat lang niet alle gamedevs de adviezen van ATi zo maar aan nemen, ook al zou dat wel helpen om optimaler te draaien op bepaalde GPUs. Er zijn bij ATi heus wel medewerkers die willen luisteren hoor. :) Maar of ze nog veel invloed hebben op de ontwikkeling van GPUs is een andere zaak.

En ik dacht dat het juist goed was dat de CPU weinig invloed had op de eindscore van 3DM, omdat dan juist de kracht van de GPU getest werd. Maar als je 3DM neemt als test van je hele systeem dan zou het gemakkelijker zijn om de CPU wel invloed te laten hebben. Eigenlijk zou men bij reviews gewoon met en zonder CPU tests de scores moeten laten zien, en niet alleen de eindscore.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Het lijkt er op dat ATi high resolution gaming, CrossFire (+AA) en HDR heel erg gaat promoten.

http://www.hardwareoc.hu/index.php/p/news/cid/1/y/9617.html

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Benchmarks van de eigen IHV zijn altijd misleidend. ;) Zo lijkt het net alsof een X1900XT CF opstelling meer dan 100% snelheidsboost heeft bij bv CoD2. Dus wacht nog maar even tot maandag.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

OCWorkbench heeft al meer resultaten online gezet naast de 4473 in 3DM06 op een FX53.

X1900XT @ 500/600 op een FX53 in 3DM05: 10166
X1900XT op een FX53 in Doom3 met 6xAA, 16xAF, 1024x768: 85,6 fps, 1280x1024: 62,7 fps

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Astennu schreef op vrijdag 20 januari 2006 @ 20:13:
[...]


Humm ik weet het niet. Ik welk gedeelte van de chip wordt AA en AF gedaan ? Wordt dit door de shaders berekend ? of weer door iets anders ? Want alleen het aantal shaders is toegenomen en als die AA zouden doen zou je hele hoge scores moeten krijgen maar die zie ik niet echt terrug. En als SHaders dat niet doen is de X1900 niet veel sneller als een X1800 met AA en AF. Mja ik weet hier ook eigenlijk niet genoeg van. CJ kun jij het mischien een beetje toelichten ?

Any way tot maandag wachten dan zullen we het echt weten.
AA wordt op dit moment in de ROPs gedaan. Dat is een van de functies van de ROPs. In elke ROP zit een multi-sample FSAA engine. Dus de pixel wordt eerst bewerkt in de pixelshader pipeline alvorens het naar de ROP gaat. Daar worden dan overige functies uitvoerd zoals FSAA en Z/Colour Compare alvorens het naar de framebuffer gaat.

Het is wel mogelijk om AA in de shaders te laten uitvoeren, maar is voorlopig nog lang niet zo snel als hardware AA. Dit is wat nVidia naar voren schoof als vervangen voor het feit dat hun ROPs geen AA kan uitvoeren met Blending. AA wordt dus dan al in de pixelshader uitgevoerd voordat de pixel naar de ROP gaat.

Waar AF precies wordt uitgevoerd is mij niet helemaal duidelijk. Ik geloof in de Texture Unit (lijkt ook logisch omdat het om texture filtering gaat). Correct me if I'm wrong.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Er zijn al mensen die vandaag hun X1900XT binnen hebben gekregen:

http://www.hardforum.com/...p=1028882327&postcount=87

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Joepi schreef op donderdag 19 januari 2006 @ 23:34:
Ati zou bezig zijn met 4GPU.
Werkt met de RV580 in Crossfire en dual GPU-cards, zgn. X2;
tot nu toe is alleen de X1600 X2 vertoont, maar de X1900 X2 is pas echt een killer!
Nog even hierop terug komend... ATi 4GPU komt er inderdaad aan als reactie op Dell + nVidia's Quad SLi. nVidia heeft nu Quad SLI ook op de officiele roadmaps gezet dus het is niet meer een Dell Exclusive. En Quad SLi is zelfs sneller dan de "GeForce Next".

ATi had 4GPU in de planning staan mocht nVidia dit echt willen pushen. Maar in tegenstelling tot de Dell oplossing (4 PCBs waarvan 2 aan elkaar geschakeld) werkt ATi met 2 GPUs op 1 PCB (de door Joepi genoemde X2 kaart), net zoals de Asus DUALs. Hieraan wordt dus nog een andere 2GPU kaart via CrossFire aan vast gekoppeld en tadaa... 4GPU.

Asus heeft al werkende X1600 X1800 en X1900 DUALs. Ze krijgen de namen X1600 X2, X1800 X2 en X1900 X2 mee, maar op dit moment komt alleen waarschijnlijk de X1600 X2 in aanmerking voor productie. Wanneer zou de launch dan moeten zijn? Zoals het er nu naar uit ziet komt het vlak na (of gelijk met) de RD580 chipset launch om een effectieve counter te vormen tegen Quad SLi.

Edit: Plaatje er bij van Asus X1600 X2:

http://www.hardspell.com/pic/2006/1/19/21769d68-08ab-491e-8906-5e074a4e84d3.jpg

[Voor 7% gewijzigd door CJ op 21-01-2006 02:29]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Astennu schreef op zaterdag 21 januari 2006 @ 09:47:
[...]


Aha okeey. Maar dan kunnen de AA en AF resultaten nog wel een erg tegen gaan vallen aangezien dat gedeelte helmaal niet sneller is geworden. Dus hoe wil je dan veel sneller worden dan een X1800. Ik denk dat die 16 robs niet snel genoeg zijn om die 48 shaders te vullen. Vooral niet als er ook nog AA bij komt.
Je ziet het verkeerd... De shaders vullen de ROPs en niet zoals jij zegt, de ROPs de shaders. De ROPs zitten aan het einde van de pixelshaderpipeline. Zie ook de uitleg die ik in de second post heb gegeven. En op dit moment zitten de 16 ROPs vaak uit hun neus te vreten, vandaar dat zowel ATi als nVidia de shaderverwerkingskracht omhoog gooien.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Apple schreef op zaterdag 21 januari 2006 @ 15:14:
Firefox, check je hotmail ff svp. :)


[...]


Tweakers zegt afkomstig van "Anandtech"? :? Dit zijn de resultaten die we een paar dagen geleden gezien hebben van Dailytech.
Klopt. We hebben dit al dagen geleden hier in dit topic gezien.

En Dailytech = Nieuwsafdeling van Anandtech. Kijk maar eens op Anandtech naar de nieuwstracker. Dat is Dailytech. De logos zijn ook bijna hetzelfde (zelfde streepje er door heen).

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Hexus.net heeft een uitstekend artikel online gezet over de X1300Pro en X1600XT. Ze gaan diep in op de architecturele verschillen en laten ook de voordelen zien van de triple ALU configuratie in de X1600XT in shaderintensieve games (zie bv FEAR benchmarks):
A couple of things should strike you if you managed to follow the guts of the analysis. The first is that ATI have designed, even in the slightly anaemic RV515, a more efficient architecture than they've ever had. Performance losses from texturing, shader issue and memory subsystem usage are all lower than before, comparatively speaking. Going forward until things change again with Vista and D3D10, the new R5-series family seems well placed to serve the PC gamer, from bottom to very top.
http://www.hexus.net/content/item.php?item=4458&page=1

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

FirefoxAG schreef op zaterdag 21 januari 2006 @ 16:33:
[...]
Een erg mooi artikel, alleen vind ik het jammer dat men de klokfrequenties negeert bij het benchmarken en trekken van de conclusies.

X700 Pro: 425c/433m, config: 6vs, 8ps, 8rop
X1600XT: 590c/690m, config: 5vs, 12ps, 4rop
X1300Pro: 600c/400m, config: 2vs, 4ps, 4rop

Een X1600XT is op core en mem gemiddeld zo'n 50% sneller dan een X700 Pro... een X1300Pro is op core ~45% sneller en op mem ~8% trager dan een X700 Pro. In een vergelijkende "efficiencytest" zou je ook een test op gelijke clocks verwachten.

Vraagstelling: Wat voor performance zou een hypothetische 90nm X700Pro @X1600XT speeds geleverd hebben in vergelijk met een "echte" X1600XT?
Dit zullen we nooit weten, maar we kunnen wel testen hoe een X1600XT @X700 Pro speeds het doet t.o.v. een X700 Pro, om aan de hand daarvan te bepalen welke GPU de beste performance per mhz neerzet.
Klok een X700Pro naar 590Mhz en dan wint-ie het waarschijnlijk net. De X700Pro kan door z'n 8 ROPs het beeld sneller vullen, zeker als je de kloksnelheid omhoog voert van 425 naar 590Mhz. De geometry throughput zal ook aanzienlijk stijgen, want dat zijn er dan 6 op 590 vs 5 op 590 Mhz en dan net iets hoger liggen dan een X1600XT. Tel daarbij op dat er ook nog eens 8 Texture Mapping Units in zitten en dan is-ie ook bij oudere games veel sneller.

Het omlaag klokken van een X1600XT naar 425Mhz heeft eigenlijk weinig zin bij een efficientietest, omdat alle nieuwe ATi cores gebouwd zijn voor high-speed. De threading-architecture komt daarbij het beste tot z'n recht en bij het omlaag klokken doe je dit helemaal te niet.
(bijvoorbeeld een tweede vraagstelling met efficiency: Heeft de X1K een lagere performancedrop dan de oude X700 bij inschakeling van AA/AF?).
Dit is zowiezo het geval. Anandtech had een review online staan van verschillende X1K kaarten en GF6/7 kaarten en daaruit kon je zien dat de performancedrop met AA/AF veel kleiner was bij de X1600XT dan bij bv een X800 die 12 echte pipelines, 12 TMUs en 6 vertexshaders heeft. En dan merk je dit vooral op de resoluties waar deze kaart het beste voor geschikt was (dus 1024x768 en in mindere mate 1280x960 - hier begint bandbreedte al een grotere rol te spelen met AA/AF).

BF2, 1024 - 1280, 4xAA
X1600XT: 19,5% - 21,3%
X800: 20,6% - 21,9%

Day of Defeat, 1024 - 1280, 4xAA
X1600XT: 21,8% - 23%
X800: 39,9% - 46,8%

Doom3, 1024 - 1280, 4xAA
X1600XT: 30,2% - 28,2%
X800: 44,0% - 43,3%

Splinter Cell: Chaos Theory, 1024 - 1280, 4xAA
X1600XT: 23,2% - 23,2%
X800: 28,5% - 30,4%

Blijkbaar had ATi dus de goede verhoudingen (ALU:ROP:TEX en snelheid) ingebouwd in de X1600 om te zorgen dat de performance hoger ligt dan hun oude X700 mainstream generatie en tevens de ROPs zo geoptimaliseerd dat er zelfs met 4 ROPs nog een lage performancedrop was met AA.
Joepi schreef op zaterdag 21 januari 2006 @ 17:15:
Toch raak ik het gevoel niet kwijt, dat er iets niet klopt met die x1900.
Komt er nog een turbo-driver?
Het is ook z'n grote core, daar moeten zo veel tansistors zitten, die moeten toch een functie hebben?
De X1800 kun je niet als midrange verkopen, bovendien veel te duur om het PCB te maken.
Die extra 64M transistoren zitten grotendeels in de extra pixelshaderprocessors. Per pipeline moeten er nu dus 2 extra in komen te zitten, dus een totaal van 32 pixelshader processors extra in de R580. Botweg gezegd dus 2M transistoren per pixelshaderprocessor. De rest van de architectuur was al vrij goed ingesteld voor een multi-threading omgeving.

Overigens is een X1800 best als higher midrange kaart te verkopen. ATi heeft toch ook de X800GT(O) (met duur 256-bit high end PCB) naar de midrange gedrukt na verloop van tijd? Het zal dan waarschijnlijk geen lang leven hebben, totdat er een 'goedkopere' vervanging is. Zie bv ook de 9500Pro die uiteindelijk vervangen werd door de goedkoper te maken 9600Pro.
Of zit er een bluff achter, verdoezelt Ati de probs van de R520?
Krijgen we een driver als de X1800 uitverkocht is ... en de G71 op de Cebit pronkt, in maart?
Ik verwacht eerder een "X1950" met GDDR4 geheugen. We hebben gezien dat de X1600 serie enorm naar bandbreedte snakt (verhogen van geheugenspeed met 100Mhz zorgde voor meer performance winst dan de core 100Mhz overklokken is gebleken uit X1600Pro OC tests). Waar de grens ligt, is nog niet precies bekend. Maar aangezien de X1900 dezelfde architectuur heeft als de X1600, lijkt het voor de hand liggend dat ook deze dan veel baat zal hebben bij een hogere memspeed.

Bedenk je daarbij dan ook nog eens dat de memoryspeeds van de X1900XTX zeer conservatief zijn, zeker als je dit vergelijkt met de 800-900Mhz van een G71. En onthoud dat ATi ook heeft aangegeven dat de ringbus geoptimaliseerd is voor hogere snelheden (is al geschikt voor GDDR4) en dat deze daarmee echt begint uit te blinken.

ATi is al bezig met 80nm, dus zelfs van een R590 op 700-800Mhz gekoppeld aan GDDR4 geheugen als reactie op de G71 kijk ik niet echt meer op. En aangezien de R590 (voor zover ik weet) een dieshrink is van R580 past daar dus de naam X1950XT perfect bij. Maar goed, dat is natuurlijk ook afhankelijk van de release van Windows Vista, want R600 zit ook al voor de deur te wachten.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Singlekaart vergelijkingen kan je vinden op Tweaktown die Catalyst 6.1 gebruikt hebben voor een testdrive:

http://www.tweaktown.com/...1_introduction/index.html

Doom3 vertoont wat performancewinst op een X1800 net als Quake4 (10% op 1024x768). Far Cry niet.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Astennu schreef op zaterdag 21 januari 2006 @ 23:37:
Ik zat eens te denken.

Wat gebeurt er als je een X1800 XL hebt en je zet daar een X1800 XT CF naast. Lopen bijde kaarten dan op XL clock speeds of gaat de XT sneller als de XL ?

+ heeft iemand deze kaarten in nederland gezien ? En is er geen X1800 XL CF die wat goedkoper is ?
De antwoorden worden in de ATi CrossFire FAQ gegeven... ;)
8. What happens when your CrossFire Edition card and and a compatible standard Radeon (CrossFire Ready) graphics card have different clock speeds?

A. Both cards will continue to operate at their individual clock speeds.
http://www.ati.com/technology/crossfire/faq.html

D'r staat meer in dan je denkt. ;)

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Joepi schreef op zondag 22 januari 2006 @ 01:27:
Een duits blad - Game Star - heeft 'per ongeluk' het blad al aan de abonees gestuurd: _/-\o_
http://www.gamershell.com/pc/crysis/screenshots.html

had maar duits geleerd op school
>:)

en een oude bekende, maar dan hi-res ;)
Crysis Official Tech Demo (Hi-Res)
http://www.gamershell.com/download_12286.shtml
Ik had het filmpje ook gedownload en wow, dat ziet er goed uit zeg. Cry Engine 2 zit boordevol met shaders als ik dat zo bekijk (zie bv het gezicht). X1900 zou zich hiermee als een vis in het water moeten voelen.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Normaal gesproken zou je kunnen zeggen dat CryTek beide fabrikanten evenveel ondersteunt ondanks dat Far Cry TWIMTPB op de doos heeft staan en de eerste X-Isle demo bedoeld was voor nVidia. Anderen zouden zeggen dat CryTek slaapt met wie ze op dat moment het meeste geld biedt. ;)

Far Cry was TWIMTPB. Toen stak ATi wat geld onder de stoelen door en kwam patch 1.3 uit met zowel SM3.0 als SM2.0b support alsook 3Dc support. Patch 1.4 zou HDR + AA moeten brengen. En het mooie Far Cry - The Project was volledig ATi geoptimaliseerd (zelfs ATi logo's op de jetski's).

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Nieuwsflash: nVidia over de X1900XTX

Zoals te verwachten was, begint het anti-rood offensief uit het groene kamp net voordat de launch is van de X1900XTX. Ongetwijfeld zullen er nog vele slides volgen na de launch en ook omgekeerd zal dit het geval zijn.

nVidia heeft zich in een interview met Rojakpot uitgelaten over de X1900XT:
Ujesh also talked a little about the upcoming ATI Radeon X1900XTX. Somehow they had test results from external sources, which they compared against the GeForce 7800 GTX 512MB.

As you know, the X1900XTX will only come with 16 pixel pipelines while the GeForce 7800 GTX 512MB has 24 pixel pipelines. While this may seem to be a big disadvantage, ATI has assuaged that by running the X1900XTX at a higher clock speed.

In most of the benchmark comparisons NVIDIA showed us, the X1900XTX appeared to only best the GeForce 7800 GTX 512MB by about 3-5%. With such a small performance lead, NVIDIA believes there's no reason for card buyers to consider the X1900XTX.

These test results need to be confirmed by independent reviewers who are lucky enough to get the rare GeForce 7800 GTX 512MB and yet-to-be-released X1900XTX. But even if NVIDIA's test results are confirmed, that doesn't mean the X1900XTX will be a failure.

First of all, the GeForce 7800 GTX 512MB is neither cheap nor readily available. If ATI can offer the X1900XTX at a competitive price and sufficient quantities, it will still pose a serious challenge to NVIDIA's dominance. Even more so if it runs cooler and is more overclockable thanks to its 90nm process.

Ujesh did drop hints that an X1900XTX CrossFire solution will not be forthcoming as apparently, no master card will be shipped. We have no idea whether this is true since ATI did not mention anything.

Of course, all this is just speculation. We will need to wait until the X1900XTX is finally released before we can see whether what we posted about has any truth in it.
Bron: http://www.rojakpot.com/s...cle.aspx?artno=286&pgno=1

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Preview: GF7300GS vs 1300LE
HKEPC heeft een review online gezet van de 7300GS en deze tegenover een X1300LE gezet. Ondanks de 64-bit memory interface weet de 7300GS zich staande te houden, maar niet overtuigend te winnen. 3DM01, 3DM03 en HL2 gaan naar de X1300LE. 3DM05, BF2 en D3 gaan naar de 7300GS, met een note dat in D3 de scores heel erg dicht bij elkaar liggen.

Jammer dat ze het niet tegenover een X1300Pro hebben gezet, want die zit nu in precies dezelfde prijsklasse ($99) en ik als je de benchmarks vergelijkt dan denk ik dat 3DM05, D3 en misschien ook wel BF2 naar de X1300Pro gaan.

De low-end battle lijkt tot nu toe dus nog in het voordeel van ATi, zeker als je de overklokresultaten van de 7300GS bekijkt. Zo'n 580Mhz is de max (tov 550Mhz default), terwijl de X1300Pro standaard al op 600 draait en nog wel hoger wil en de LE vaak ook wel richting 550Mhz te klokken is. Dit verbaast me echt, want nVidia heeft langer op 90nm kunnen oefenen dan ATi en ze hebben ongeveer evenveel transistoren. Toch weet ATi de 600Mhz te halen en nV haalt blijkbaar met moeite de 550Mhz.

Als nV echt wat wil doen in de low-end dan moet er toch echt een 128-bit memory interface op. Of een nog sneller 7300GT uitbrengen, want een kaart die nauwelijks een X1300LE weet te verslaan is natuurlijk geen match voor een X1300Pro.

Desondanks noemt HKEPC een waardige kampioen in de lowend vanwege oa het low-profile PCBs... :/

Bron: http://www.hkepc.com/hwdb/gf7300gs-1.htm

---

Edit: The Inq komt tot een andere conclusie:
7300GS is a big, lazy GPU: Performancewise, it is a big let down as the X1300LE manages to beat it in a majority of benchmarks - 3Dmark01, 03, 05, Doom 3, HL2 and BF2.
http://www.theinquirer.net/?article=29156

[Voor 11% gewijzigd door CJ op 22-01-2006 22:21]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

http://www.ocworkbench.com/2006/ati/x1900xt/g2.htm

X1900XTX $649
X1900CF $599
X1900XT $549

^^ dat wisten we. Maar wisten jullie deze ook al? X1900 AIW $499. Als dit klopt dan kan dit wel eens een heel goed lopend kaartje worden.

De X1900 gebruikt 1.1ns geheugen itt tot de 1.2ns geheugen op de X1800XT. Of dit ook zo blijft (of op alle kaarten zo is - er zijn ook al XTXn gespot met 1.2) is nog maar de vraag omdat het geheugen natuurlijk maar op 775Mhz loopt en 1.2ns ruim voldoende is.

[Voor 7% gewijzigd door CJ op 22-01-2006 22:42]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Misschien was ik wat onduidelijk. Iedereen dacht eerst dat er 1.2ns geheugen op de X1900-kaarten zou zitten vanwege de maximale snelheid van 775Mhz bij de XTX. 1.2ns zou dan genoeg zijn. Maar er zijn dus ook kaarten gespot (zie de preview van OCW) met 1.1ns geheugen, het zgn dure geheugen wat schaars was en ook op de tevens net zo schaarse GTX512 zit.

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Even naar pagina 6 switchen en je ziet dat in al die eerste benchmarks z'n X1900XT op 500Mhz core en 600 Mhz mem heeft draaien. Als hij dan z'n CPU overklokt komt hij net over de 10k met die snelheden en dat is precies wat de overige leaks lieten zien.

Later klokt hij z'n kaart naar 600/700 (dus nog onder de 625/725) en hij scoort dan 11202 in 3DM05. Als-ie het op echte XT snelheden zet of op XTX snelheden dan moet de 12k wel in zicht komen (en met wat betere cooling en hogere voltages wellicht 13k ook wel).

Nieuw topic komt er trouwens zo aan.

Edit: En hij staat hier: [rml][ Algemeen] ATi Nieuwsdiscussie Topic - Deel 32[/rml]

Deze kan dus dicht. 8)

[Voor 8% gewijzigd door CJ op 23-01-2006 03:10]

Technical PR Officer @ MSI Europe. My thoughts and opinions may not reflect the ones of my employer.

Pagina: 1

Dit topic is gesloten.



Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True

Tweakers maakt gebruik van cookies

Bij het bezoeken van het forum plaatst Tweakers alleen functionele en analytische cookies voor optimalisatie en analyse om de website-ervaring te verbeteren. Op het forum worden geen trackingcookies geplaatst. Voor het bekijken van video's en grafieken van derden vragen we je toestemming, we gebruiken daarvoor externe tooling die mogelijk cookies kunnen plaatsen.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Forum cookie-instellingen

Bekijk de onderstaande instellingen en maak je keuze. Meer informatie vind je in ons cookiebeleid.

Functionele en analytische cookies

Deze cookies helpen de website zijn functies uit te voeren en zijn verplicht. Meer details

janee

    Cookies van derden

    Deze cookies kunnen geplaatst worden door derde partijen via ingesloten content en om de gebruikerservaring van de website te verbeteren. Meer details

    janee