|
Before there was Radeon... there was Rage.
ATI oftewel Array Technologies Incorporated, begon in 1985 als producent van geintegreerde graphicscards voor PC fabrikanten als IBM en Commodore. In 1987 introduceerde ATI de zeer succesvolle EGA Wonder serie, al snel gevolgd door de VGA Wonder. Deze videokaarten waren nog zeer afhankelijk van de CPU. Pas in Mei 1991 introduceerde ATI een videokaart die volledig onafhankelijk van de CPU kon werken. Deze chip stond bekend als de Mach8. Eén jaar later introduceerde ATI de Mach32 die ten opzichte van de Mach8 in een aantal gevallen sterk verbeterd was. Zo had deze chip veel meer bandbreedte tot z'n beschikking en kon deze zaken als Graphical User Interfaces accelereren.
In 1993 ging ATI de aandelenmarkt op om één jaar later de op de OEM markt zeer populaire Mach64 chip te lanceren. De Mach64 is de eerste ATI chip die een lichte vorm van video acceleratie aan boord had. De Mach64 chip is bij de buitenwereld vanaf 1994 bekender geworden onder de naam " Rage 3D". Onder deze naam is er een hele serie videokaarten uitgebracht. De opvolger van de Mach64 chip, was de Mach64 GT-b chip. Deze flink getweakte Mach64 chip was twee keer zo snel als z'n voorganger en kreeg de naam " Rage 3D II". De core liep op een verbazingwekkend hoge snelheid van 60Mhz, terwijl het geheugen op 83Mhz SGRAM liep. In die tijd kwam ATI ook al met All In Wonder versies van de chip, die TV mogelijkheden combineerde met 2D/3D functionaliteit.
Daar waar eerst de nadruk op 2D lag, begon 3D steeds meer naar de voorgrond te dringen. Dit werd mede gestimuleerd door concurrentie op de markt van 3dfx, S3 en nVidia. Om te concurreren met de nVidia Riva 128 en de Voodoo accelerator van 3dfx, nam ATI nogmaals de Rage3D chip onderhanden. Er werden zaken toegevoegd om de 3D performance te verbeteren en om de performance en beeldkwaliteit van video-playback te verbeteren. De Rage3D Pro was geboren! Op 3D gebied kon de chip het echter amper bolwerken tegen de concurrentie. De kaarten werden dan ook voornamelijk bij OEMs populair door de goede videoweergave en hoge IQ kwaliteit in 2D.
In 1998 probeerde ATI de performance van de Rage3D Pro te boosten door een tweetal truukjes te gebruiken die later nog vaak door nVidia gekopieerd zou worden. Ze brachten een zgn 'wonderdriver' uit die de Rage3D Pro hernoemde naar " Rage3D Turbo" en 40% meer performance zou moeten brengen. Van die 40% performancewinst was in games echter weinig te merken. Integendeel zelfs. Soms werd de chip langzamer. In benchmarks daarentegen zag je wel een erg grote boost. Uiteindelijk wist ATI er na een aantal driverreleases voor te zorgen dat de performance niet degradeerde, maar ook iets beter werd. De beloofde 40% werd echter nooit bereikt, maar de naam "Rage3D Turbo" bleef hangen.
De moordende concurrentie op 3D gebied zorgde er voor dat ATI nog eens de Rage3D chip onder handen nam. In 1999 kwam daar de Rage128 chip uit voort. De Rage128 chip werd gebruikt in videokaarten als de ATI Magnum (workstations) en de ATI Rage Fury (gamers). De chip was volledig DX6.0 en OpenGL 1.2 compliant. Op het moment dat de Rage128 chip uit kwam was 16-bit weergave de standaard. ATI koos er echter voor om zich volledig te richten op 32-bit, daar waar 3dfx slechts bij 16-bit bleef en nVidia's Riva TNT erg veel aan performance moest inboeten op 32-bit. Op 16-bit gebied bleef ATI echter achter wat betreft performance, terwijl hij op 32-bit met gemak nVidia voorbij liep. Ter vergelijking met de huidige GPUs, de Rage128 bestond uit 8M transistoren en werd gemaakt op het 0,25 micrometer proces in eigen beheer.
Als refresh van de Rage128 kwam ATI met de " Rage128 Pro". Deze chip bracht naast meer performance ook IQ verbeteringen op het gebied van texture filtering en texture compression. De chip kon zich prima meten met de nVidia Riva TNT2 Ultra en de 3dfx Voodoo 3000.
Maar helaas voor ATI bleef de concurrentie ook niet stil zitten. Met name nVidia bracht een grote verrassing uit in de vorm van de GeForce. Deze chip blies de concurrentie volledig weg. Wat nu te doen? ATI keek om zich heen en zag de strategie van 3dfx... combineer 2 chips om performance te verdubbelen. Zo gezegd zo gedaan. ATI pakte twee Rage128 Pro chips, zette deze op één PCB en liet ze samenwerken op een manier die compleet van 3dfx af week... Daar waar de 3dfx multi-chip op Scan Line Interleave gebaseerd was (chip 1 rendert regel 1/3/5/7/etc, chip 2 rendert regel 2/4/6/8/etc), daar renderde ATI volgens het door hun zelf ontwikkelde Alternate Frame Rendering methode (GPU1: frame 1/3/5/7/etc, GPU2: frame 2/4/6/8/etc), wat tot op heden de meest gebruikte multi-GPU methode is bij zowel ATI als nVidia. De allereerste X2 kaart was geboren: Rage Fury Maxx! Het grappige is dat op de eerste samples van Rage Fury Maxx, te zien is dat deze eigenlijk de naam "Rage 128 Pro X2" zou mee krijgen.
De Rage Fury Maxx kon in 1999 de GeForce SDR kaart van nVidia bijbenen, maar de GeForce DDR variant was duidelijk een maatje te groot. Ook met de Voodoo5 van 3dfx kon de ATI dual GPU oplossing redelijk meekomen. De kaart werd echter geplaagd door driverproblemen. Zo bleek onder het NT5.0 besturingssysteem geen dual GPUs op een AGP bus te worden ondersteunt. Het optimale OS voor de Rage Fury Max is Windows 98/ME. Windows 95 werd niet ondersteunt.
Hoog tijd dus voor ATI om alles over een andere boeg te gooien. De 3D markt werd steeds groter en ATI begon dit te merken in z'n verkopen, ondanks z'n sterke aanwezigheid in de OEM markt. Vaarwel tijdperk Rage, welkom tijdperk Radeon!
 |
R1x0 Generation |
Rage 6... wacht... je zei toch vaarwel tijdperk Rage?? Yep. Dat zei ik inderdaad, maar.... In 2000 kwam ATI met een GPU waar men al een tijdje aan werkte... de Rage 6. Het was immers de 6de generatie 2D/3D chips van ATI. Men besloot echter de codenaam te wijzigen in R100 en in plaats van voort te borduren op de Rage naam voor de uiteindelijke kaarten koos men daar voor de vernieuwende naam " Radeon".
De Radeon moest datgene doen waar de Rage128 chip niet snel genoeg voor was, namelijk het verslaan van de GeForce van nVidia. In termen van specificaties was de Radeon vergelijkbaar met de GeForce2 van nVidia.
Pixelpipeline: 2 (vs 4)
Texture Units: 3 per pixelpipeline (vs 2)
DX7.0
Alhoewel de Radeon minder pixelpipelines had (2 vs 4), beschikte deze in verhouding wel over meer texture units per pixelpipeline (6 vs 8 ). In die tijd gokte ATI er op dat textures een belangrijkere rol zouden spelen dan pixelshaders. Tegenwoordig is het nVidia die smijt met een berg texture units, terwijl ATI het moet doen met minder (maar wel krachtigere).
Een erg interessant feitje is dat de Radeon in eerste instantie voldeed aan de DX8.0 standaard voor wat betreft programmeerbare shaderpipelines, maar na een wijziging in specs door Microsoft, bleef het echter bij DX7.0 compliancy net zoals de GeForce en GeForce2. DX8.0 kan 99% van de capaciteiten van de programmeerbaarheid van de pixelshaders in de Radeon blootstellen.
* Nadat ATI gekozen had voor de naam Radeon 8500 voor de R200, besloot ze om de R100 GPU te hernoemen naar Radeon 7200 om aan te geven dat het een generatie ouder was en zich in een lagere performance en prijsklasse bevond. |
R2x0 Generation |
Op 14 Augustus 2001 lanceerde ATI de opvolger van de redelijk succesvolle Radeon. De concurrentie was niet stil blijven zitten en had inmiddels de volledig DX8.0 compliant GeForce3 gelanceerd. ATI kon natuurlijk niet achterblijven en ging een stapje verder. Ze lanceerden een videokaart die volledig DX8.1 compliant was. De chip die bekend stond onder de codenaam R200, werd niet op de wereld gezet als Radeon 2 zoals veel mensen hadden verwacht, maar men koos voor de naam: Radeon 8500.
Over de gekozen naamgeving bestaat wat verwarring. In 2001 zat deze 'geniale' redenatie achter de naamgeving: 8 - Generatie ATI chip, 500 - Performance tov andere chips. Wat betreft specs lijkt de Radeon verder erg op de concurrerende videokaarten:
Pixelpipeline: 4
Vertexpipeline: 2
Texture Units per pipeline: 2 (dus totaal 8 )
DX 8.1
Ten opzichte van de Radeon was het aantal pixelpipelines dus verdubbeld, terwijl het aantal texture units per pixelpipeline afgenomen was van 3 naar 2. Verder was er een vertexpipeline toegevoegd om te voldoen aan de DX8.0 standaard. In vergelijking met concurrerende DX8.0 kaarten was de Radeon 8500 flexibeler door het gebruik van Pixelshader 1.4. Dit zou echter nooit goed uit de verf komen omdat er slechts weinig games uit kwamen die DX8.1 ondersteunden. Serious Sam: The Second Encounter vertoonde echter een 16% performance winst op hoge resoluties bij het gebruik van DX8.1.
Verder bracht de Radeon 8500 nog enkele nieuwigheden zoals de allereerste TruForm engine, een oervorm van hardwarematige Tesselation wat we straks standaard in DX11 gaan zien. Helaas zorgde de eerste implementatie bij verkeerd gebruik er voor dat stoere rocketlaunchers er als dildo's uit zagen. In games als Morrowind en Neverwinter Nights zag het er echter zeer goed uit.
De Radeon 8500 werd in eerste instantie geplaagd door slechte drivers. ATI had echter rond de tijdstip van launch het gehele driverteam op de schop genomen en dat resulteerde in wat we nu kennen als de Catalyst drivers. In het begin moest de Radeon 8500 het opnemen tegen de GeForce3 van nVidia. Deze brachten echter snel een refresh uit in de vorm van een overgeklokte GeForce 3, de GeForce 3 Ti500. Na wat driverupdates wist de 8500 echter ook de GeForce 3 Ti500 te verslaan. nVidia kwam echter met de GeForce 4 serie, een nog verder overgeklokte versie van de GeForce 3. ATI had een GPU klaar staan om de GeForce4 serie van nVidia tegen te gaan. De R250 zou uit komen als refresh van de R200. Deze GPU zou hoger geklokt zijn en enkele tweaks bevatten... maar of dit voldoende zou zijn... ATI dacht blijkbaar van niet en besloot zich te richten op de drivers en hun aankomende DX9 project...
De drivers van de Radeon 8500 werden dus steeds beter en uiteindelijk wist de Radeon de GeForce 4 Ti 4200 bij te benen en zelfs te verslaan. De andere twee modellen Ti 4400 en Ti 4600 bleven echter buiten schot...
Maar ATI had een verrassing in petto.
*De Radeon 8500 werd later gerebrand in een lager segment onder de nieuwe naam Radeon 9100. Hiervoor werd het restant R200 GPUs gebruikt die oorspronkelijk voor de Radeon 8500 LE waren bedoeld. De Radeon 9100 presteerde beter dan de Radeon 9000 die gebaseerd was op de RV250 (een getweakte opgevoerde R100).
|
R3x0 Generation |
En wat een verrassing was het! nVidia had de wereld al geruime tijd lekker zitten maken met geruchten over een supersnelle DX9 GPU, genaamd de NV30... maar deze kwam er maar niet... En ineens lanceerde ATI daar... vanuit het niets in de zomer van 2002 de GPU die voorheen bekend stond onder de codenaam R300, de Radeon 9700Pro.
Pixelpipeline: 8
Vertexpipeline: 4
Texture Unit per ROP: 1 (totaal dus 8 )
DX9.0
Niemand had het verwacht, maar de wildste dromen werden waar. Het was ATI gelukt om op het inmiddels al vrij oude 0,15 micron proces, een GPU te maken met iets meer dan 100M transistoren, waarin het aantal pixelpipelines en vertexpipelines werd verdubbeld naar resp. 8 en 4. Dit alles werd gekoppeld aan een 256-bit memory interface wat er voor zorgde dat ook op hoge resoluties en met veel eyecandy als AA/AF de performance erg hoog lag. ATI introduceerde daarnaast een vernieuwde vorm van multi-sampling AA met instellingen van 2x, 4x en 6x, daar waar de concurrentie bleef hangen op 4x. Ook het AF werd dusdanig onder handen genomen waardoor textures er nog scherper uitzagen dan voorheen.
Daar waar nVidia voorheen op 3D gebied altijd heer en meester was geweest... was hier ineens de nieuwe koning. Veel mensen konden het nog niet geloven en waren erg voorzichtig met conclusies trekken... nu, na jaren, kunnen vele mensen gerust zeggen dat de R300 GPU een ommekeer betekende in de 3D wereld. nVidia probeerde de aandacht van de Radeon 9700Pro af te leiden door een aggressieve " Are You Ready" campagne te lanceren, waarin gehint werd naar een naderende launch van de GeForce FX 5800... de gamers waren er klaar voor, maar de NV30 kwam maar niet... een half jaar later verscheen pas de NV30 in de vorm van de GeForce FX5800. Hoe dit afgelopen is, weten we allemaal...
ATI pareerde de "Are You Ready" campagne met hun eigen "Get Ready For More" campagne die de refresh van de R300 aankondigde. |

De R350 is een getweakte R300 core die op een iets hogere kloksnelheid draait. De Radeon 9800Pro werd echter wel een van de meest verkochte Radeons aller tijden. Wanneer de R350 en R300 core op gelijke snelheden draaien, blijkt al snel dat ATI flink heeft zitten sleutelen onder de motorkop. Met 4xAA en 16xAF aan op hoge resoluties is de R350 al gauw zo'n 20 a 30% sneller dan z'n voorganger. |

Onder het motto, hoe melk ik m'n architectuur nog verder uit, bracht ATI in het najaar van 2003 de R360 uit onder de naam Radeon 9800XT. Gekoppeld aan een enorme Half Life 2 campagne in samenwerking met Valve, werd de kaart gelanceerd op voormalig gevangeneiland Alcatraz. Tijdens de launchpresentaties werd er vooral gehamerd op de superieure DX9 capaciteiten ten op zichte van de concurrerende FX generatie van nVidia. |
R4x0 Generation |
Na twee jaar lang geteerd te hebben op de R300 architectuur, bracht ATI de opvolger uit... die alsnog gebaseerd was op de R300 architectuur! De R420 bleek een dubbele R300 te zijn! Hoezo melkkoe?
Pixelpipeline: 16
Vertexpipeline: 6
Texture Units per ROP: 1 (dus 16 totaal)
DX9.0
De concurrentie had echter niet stil gezeten. nVidia bracht een erg sterke GPU op de markt genaamd NV40. Deze GPU stapte af van de programmeerbaarheid van de NV30 en had erg veel leentjebuur gespeeld bij ATI's super scalar achitecture. Op erg veel vlakken leek de NV40 op de R420, alleen had de NV40 wel SM3.0 support, terwijl de R420 slechts tot SM2.0b ging. ATI beargumenteerde (overigens achteraf gezien volledig terecht) dat de hardware van die tijd niet snel genoeg was voor bepaalde SM3.0 functies zoals Vertex Texture Fetch en dat hun hardware geoptimaliseerd was snelle performance in het overgrote deel van DX9 games.
Waar is R400 gebleven? Oorspronkelijk was het de bedoeling dat er een unified architecture uit zou komen, zoals we dat nu kennen in de HD4800 serie. Deze kwam er echter niet omdat bepaalde hordes op dat moment nog even onoverkoombaar waren. Het unified GPU project werd doorgeschoven naar het special projects team van ATI dat bezig was met de Xbox360... en zie daar... R400 werd R500 oftewel C1/Xenos, de GPU die nu in de Xbox360 zit.
|

In december 2003 lanceerde ATI de refresh van de X800 Serie. Deze bestond uit een geoptimaliseerde R420 GPU die beter geschikt was om op hoge snelheden te lopen, mede dankzij de dualslot cooler. Met deze serie had AMD een wat beter verweer tegen de immens populaire GF6800GT van nVidia. En ook werd met de X850 Serie een verweer geboden aan het geheime wapen van nVidia: "SLI". De X850 serie introduceerde CrossFire, een last-minute solution die gebaseerd was op technieken die ATI al sinds de Rage Fury Maxx tijd niet meer gebruikt had. |
R5x0 Generation |

2005 is het jaar van de tegenslagen bij ATI. Deze tegenslagen zouden een "ripple-effect" veroorzaken die nog tot in de R600 generatie voelbaar zou zijn. Het was ook rond deze tijd dat er een team werd aangesteld om bezig te gaan met de RV770. In deze periode wist ATI al dat nVidia met een erg snelle monsterchip zou komen (G80) en dat z'n eigen R600 de laatste mega-chip zou worden die ook nog eens wat problemen zou ondervinden.
nVidia lanceerde in Juni 2005 een flink opgevoerde en getweakte versie uit van de NV40. De GeForce 7800GTX, voorheen bekend onder de codenaam NV47 aka G70, was een supersnelle SM3.0 kaart met 24 pixelpipelines, 8 vertexshaders en 24 Texture Units. Eigenlijk was het de bedoeling dat ATI de tegenhanger, de R520, al in Mei 2005 zou lanceren... dus een maand eerder dan de competie. Problemen met third party IP binnen de GPU zorgden er echter voor dat de Radeon X1800 pas 5 maanden later in Oktober 2005 in de winkels zou liggen. Na maanden van debuggen/nieuwe revisies kwam men er achter dat het probleem niet bij ATI lag, maar aan IP (intellectual property) van een derde leverancier. Tja, dan kan je debuggen wat je wilt... als het probleem niet bij jezelf ligt, dan kan het inderdaad duren voor je er achter komt.
Het probleem deed zich ook voor bij de midrange RV530 en de refresh R580 voor. Het oplossen van dit probleem zorgde er gelijk voor dat het ook opgelost werd bij de andere varianten, waardoor de R580 nog redelijk op schema gereleased kon worden. Hierdoor leek het alsof de R520 slechts een kort leven beschoren was.
Was de R520 op schema gelanceerd, dan was deze heel anders ontvangen door de community dan nu het geval was. De X1800XT werd gezien als 'te laat' en niet interessant, terwijl deze toch niet onder deed in performance voor de competitie. Zeker na enkele driverreleases wist de R520 z'n mannetje te staan waaronder in OpenGL games, waar nVidia altijd heer en meester was. |

De refresh van de R520 kwam gewoon op schema uit in Januari 2009. De concurrentie had verwacht dat de refresh simpelweg een speedbump zou zijn van de R520, zeker gezien ATI feitelijk drie jaar lang met de R300 architectuur had gedaan en de R520 eigenlijk zelfs een R420 met Shadermodel 3.0 support was. Niets was minder waar. De midrange RV530 was een voorbode op wat komen ging. ATI koppelde drie shaderunits aan elke pixelpipeline. Aangezien deze 16 pixelpipelines had kwam de R580 uit op 48 shaderunits. Hierdoor verdrievoudigde de shadingpower van de R580 ten opzichte van de R520 en dit werd ook zichtbaar in shaderintensieve games waar een winst van 30% of zelfs meer werd geboekt op gelijke kloksnelheden.
Een leuk feitje is dat de rechtstreekse concurrenten van de X1800XT en X1900XTX, resp. de GeForce 7800GTX (512MB) en GeForce 7900GTX, het in hedendaagse games moet afleggen tegen de X1800XT en X1900XTX. ATI's slogan: "Shadermodel 3.0 done right" blijkt nu inderdaad z'n vruchten af te werpen. Zelfs een RV570 GPU weet de 7900GTX er in shaderintensieve applicaties inmiddels uit te trekken. |

In de zomer van 2006 bracht ATI de tweede refresh uit van de R520 generatie. Deze was gebaseerd op de R580 core en bevatte tweaks die de GPU efficienter lieten omgaan met het (voor het eerst op een videokaart) gebruikte GDDR4 geheugen. Het kreeg daarom geen ander nummer, maar werd als R580+ aangeduid. De GPU zelf draaide op exact dezelfde kloksnelheid als de X1900XTX, namelijk 650Mhz. Het geheugen daarentegen draaide op 1000Mhz ipv de 775Mhz van de X1900XTX. De 28% hogere geheugensnelheid resulteerde doorgaans in een 8-10% performanceboost.
Een andere trend die nu door ATI werd ingezet was de prijsdaling, iets dat we later nog vaker terug zagen komen met de lancering van de R600 en RV770! Werden de topkaarten voorheen gelanceerd in de $649 prijsklasse, de X1950XTX zou verkrijgbaar zijn vanaf $449. ATI vond dat de prijzen voor highend graphics de laatste jaren uit de pan begonnen te rijzen en wilde dit tegen gaan. Ook werd dit mede gedaan om het nVidia een beetje moeilijker te maken. Zij hadden inmiddels een dure dual-GPU op de markt gezet om de X1900XTX van zich af te houden. Het voordeel van nVidia was wel dat zij de erg kleine en goedkope G71 GPU gebruikten, terwijl de R580+ iets groter was, eigenlijk dus exact de omgekeerde situatie als zich later zou voordoen met de X2 van ATI, met als grote verschil dat ATI zich inmiddels al een jaar (zonder dat de competitie het door had) haar planning inmiddels volledig had gericht op snelle kleine compacte chips die in dual-configuraties gebruikt konden worden voor de highend.
Niet veel later na de launch van de X1950XTX maakte ATI bekend dat ze gingen fuseren met CPU fabrikant AMD. Kort daarop lanceerde nVidia de eerste DX10 GPU, de G80, in de vorm van de GeForce 8800GTX. AMD wist dat de G80 een snelle chip zou zijn, omdat ze wisten dat Jen-Hsung zich niet nog een keer wilde laten verrassen door een R580. |
R6x0 Generation |

R600, het zorgenkindje van ATI, had te lijden onder een aantal tegenslagen. Een van die tegenslagen was het golfeffect dat teweeg werd gebracht door de vertraging van de R520. Een groot gedeelte van de resources ging maandenlang naar het oplossen van het probleem binnen de R520 GPU. Hierdoor kreeg R600 een tijd lang minder aandacht en verslapte de focus. Daarnaast stuitte de R600 zelf ook nog op problemen met het productieproces en de archictuur zelf. Was de R600 oorspronkelijk gepland voor het 65nm proces bij TSMC... bleek achteraf dit proces niet rijp genoeg te zijn en moest men de R600 bouwen op het 80nm proces. De chip werd daardoor zo'n 20% groter dan verwacht. Een chip van deze grootte met de beoogde hoge snelheid van 800Mhz op het 80nm proces bleek echter last te hebben van vrij veel lekstroom. Uiteindelijk werd AMD genoodzaakt om de chip lager te klokken en er een vrij forse dualslot cooler op te plaatsen om de boel koel te houden. Tel daarbij op dat de keuzes om voor shaderbased AA resolve te gaan minder positief uit pakten... en je krijgt een nogal onder de maat presterende GPU.
AMD's eerste DX10 unified shader videokaart, de Radeon HD2900XT, kwam daardoor niet alleen weer veel later de competitie op de markt, ook was de performance lager dan de bedoeling was, mede dankzij het ontbreken van hardware AA resolve en de lagere kloksnelheid, en verbruikte het daarnaast veel meer stroom vanwege het 80nm proces. AMD besloot om de HD2900XT gewoon op de markt te zetten en z'n lage prijsstrategie in stand te houden. De kaart kwam voor $399 op de markt, terwijl nVidia zich met de 8800GTX op de $549+ markt richtte. De kaart kwam hierdoor recht tegenover de 8800GTS te staan en presteerde nagenoeg ook in die regionen. Men wist van te voren dat men veel kritiek zou krijgen, maar intern had men zich al lang weer gefocussed op de goedkopere variant, de RV670 en de opvolger de RV770.
De HD2900XT had 64 shaderunits die elk bestaan uit 5 streamprocessors voor een totaal van 320 streamprocessors. Dit alles werd gekoppeld aan een mega grote 512-bit memory interface |

De RV670 was oorspronkelijk bedoeld als midrange GPU die 3/4 van een R600 zou zijn in combinatie met een 256-bit memory interface. Toen men echter bezig was met de GPU, bleek deze pad-limited te zijn. Dit stond AMD toe om extra streamprocessors toe te voegen. In plaats van 3/4 R600, werd de RV670 wat betreft streamprocessoren een 100% kopie van de R600 met 320 streamprocessoren.
Als extra werd er DX10.1 functionaliteit toegevoegd aan de videokaarten. De 512-bit memory interface verdween voor een veel slankere 256-bit interface. De chip werd bijna twee keer zo klein als de R600, verbruikte bijna de helft minder stroom en was toch even snel of soms zelfs sneller dan de HD2900XT. Dit alles bracht AMD er toe om de RV670 een geheel nieuwe serienaam toe te dichten. De Radeon HD3800 Serie was geboren. Men hoopte zo ook van de nare bijsmaak af te komen die mensen hadden overgehouden aan de HD2900 serie.
Ook zat het ATI dit keer mee met de productie. Normaal gesproken heeft ATI twee spins nodig om tot een uiteindelijk product te komen. De A11 is de eerste sample en vaak moet deze nog terug voor een respin waardoor normaal gesproken de A12 de manufacturing versie van de GPU is. De RV670 kwam echter gelijk in de A11 foutloos terug en presteerde boven verwachting. ATI besloot hierop om de A11 als manufacturing versie in te stellen en daardoor kon men de launch met zo'n 2 maanden naar voren halen... dit tot groot ongenoegen van nVidia die hier niet op gerekend had. Haar eigen 'midrange GPU' de G94, die we later terug zagen in de GF9600GT was nog niet klaar. nVidia moest toen noodgedwongen de veel duurdere en grotere G92 GPU castreren om het AMD moeilijk te maken. De immens populaire GF8800GT werd hierdoor geboren.
Met de RV670 stapte AMD ook af van de extensies als XTX, XT, Pro, GTO, GT, XL, maar begon men te werken met het systeem dat we nu kennen. |

First there was Maxx. Then there was X2.
Toen AMD als refresh van de R600, de kleinere, minder stroomslurpende en slechts iets beter presterende RV670 lanceerde, dachten veel mensen dat ze de handdoek in de ring hadden gegooid wat betreft het highend segment. Niets bleek echter minder waar. Slechts weinigen waren op de hoogte van de nieuwe strategie waar AMD in 2005 aan begonnen was. Richt je op een snelle efficiente midrange chip en combineer dit met gelijksoortige chips om de highend te bedienen. Door kleinere chips te ontwikkelen kon de ontwikkelcyclus van GPUs drastisch verminderd worden, waardoor in sneller tempo GPUs op de markt gezet kunnen worden. Ook is het goedkoper om met multi-GPU setups te werken mits de basis er van goed is. Het eerste resultaat is de R680 die wij beter kennen als de ATI Radeon HD3870X2.
De HD3870X2 kwam begin 2008 op de markt en wist datgene te doen wat een enkele HD3870 niet wist te doen, namelijk het verslaan van de GF8800GTS 512 en GF8800GTX. Vaak gebeurde dit op een overtuigende manier en de "CrossFire-on-a-stick" oplossing zoals sommigen de X2 gekscherend noemde, bleek goed in staat z'n mannetje te staan tegen de competitie. Dat nVidia 'm al aan voelde komen, getuigd uit het feit dat men ook een aan een eigen "X2" variant genaamd de "GX2" zat te werken. Deze versie was inderdaad sneller, maar echter minder elegant en ook een stuk duurder (dubbele PCBs).
Met de R680 wist AMD weer even de performancecrown wat betreft single board videokaarten terug te winnen. En dat niet alleen, ze brachten deze performance voor een prijskaartje van $449, terwijl je nog niet lang daarvoor nog tegen de $600 moest betalen voor een GF8800GTX die gemiddeld gezien ook nog eens langzamer was. |
R7x0 Generation |

In Mei 2008 introduceerde nVidia de opvolger van de G80/G92 in de vorm van de GT200. Dit was een monsterchip die je het beste kan beschouwen als een G80 op steroiden. Bijna alles in de chip werd verdubbeld en nVidia besteedde ook een groot deel van het transistorbudget aan GPGPU. AMD gokte er al op dat nVidia een monsterchip zou produceren als opvolger van de G80... en ze gokten er ook op dat men niks wist van de strategie die ze in 2005 hadden opgesteld toen men aan de RV770 begon te werken.
nVidia bracht de GT200 uit en binnen AMD werd er na het zien van de eerste reviews een vreugdedansje gemaakt. nVidia lanceerde de GTX280 voor een prijs van $649 en de GTX260 ging voor $449 over de toonbank. AMD lanceerde een maand later haar RV770 chip. Deze bleek niet alleen 500M transistors minder te bevatten dan de GT200, ook was deze bijna de helft kleiner, maar super geoptimaliseerd waardoor er veel meer kracht in zat dan de voorloper, de RV670. De RV770 was oorspronkelijk bedoeld als G92 tegenhanger, maar wist nu zelfs een gevaar te vormen voor de veel grotere GT200. En de kicker was... AMD lanceerde de RV770 in de prijsklassen $299 en $199. nVidia kon nu niets anders dan de prijzen van z'n GTX 2x0 Serie naar beneden te halen. De GTX280 ging binnen een maand tijd van $649 naar $499 en de GTX260 ging van $449 naar $349. Gouden tijden voor de consument! Minder leuk voor de early adopters.
Toen de G80 op de markt kwam waren er een aantal mensen die de motivatie hoog moesten houden binnen ATI. Deze mensen moesten iedereen overtuigen dat ze toch echt de juiste keuze hadden gemaakt door voor klein en snel te gaan, terwijl men wist dat de GT200 een monsterchip zou worden en de R600 zou tegenvallen. Binnen ATI waren er veel twijfels van mensen die liever ook een grote chip hadden gemaakt. Toch werd door het engineersteam van de RV770 besloten om te blijven bij de besluiten die gemaakt werden in 2005. Het ontwerp van de RV770 nam 3 jaren in beslag vanaf 2005. Terwijl iedere techsite en forumbezoeker de HD2900XT zat af te kraken, vroeg het engineeringteam van de RV770 om positief te blijven over de RV770 en de R600 gewoon te negeren.
Binnen AMD geloofde men dat de RV770 het goed zou doen tegenover GPUs van dezelfde grootte (G92) en men gokte er op dat nVidia overmoedig zou worden en voor groot zou gaan om toch de snelste te blijven, waardoor men een hoge prijs moest vragen voor de GT200. Dat dit ook echt het geval zou zijn, bleek in Juni 2008.
Met de komst van de eerste echte native DX10.1 games bleek dat AMD ook nu weer gelijk had. Daar waar nVidia het gebruik van DX10.1 onderuit probeerde te halen met argumenten als "geen game gebruikt toch DX10.1" en "wij kunnen toch bijna hetzelfde", bleek met de komst van Assassin's Creed, Stalker Clear Sky, HAWX, Battleforge en Stormrise dat er wel degelijk voordelen aan DX10.1 boven DX10.0 zaten. Vaak uitte zich dit ofwel in IQ verbeteringen of performance enhancements. In HAWX was bv de HD4870 met DX10.1 zo'n 20% sneller dan op het DX10.0 path en was daardoor zelfs sneller dan een GTX285 met AA/AF aan! |

Nadat AMD begin 2008 de ATI Radeon HD3870X2 had gelanceerd was het natuurlijk slechts een kwestie van wachten op een X2 die gebaseerd was op de zojuist gelanceerde HD4870. Deze kwam er in de vorm van de R700 die wij beter kennen als de ATI Radeon HD4870X2.
Gebaseerd op hetzelfde principe als de HD3870X2 combineert de R700 twee RV770 chips om zo tot ongekende snelheden te komen. Lange tijd was de HD4870X2 de absolute king-of-the-hill. nVidia kon de R700 pas een half jaar later counteren met hun eigen dual GPU oplossing, de GeForce GTX295. Deze was weliswaar over het algemeen sneller, maar wist vaak niet overtuigend te winnen en verloor zelfs nog enkele benchmarks. Voor velen kwam de GTX295 dan ook als een mosterd-na-de-maaltijd-kaart.
De HD4870X2 bleek in 2008 een erg populair videokaartje onder de highend gamers. Mede dankzij het oprichten van een dedicated CrossFireX software team binnen AMD, werd de support voor multi-GPU binnen games steeds beter. Zo zijn bijvoorbeeld alle DX10.1 games die op dit moment uit zijn (HAWX, Stormrise, Battleforge), zo geprogrammeerd dat ze goed meeschalen met multi-GPU opstellingen. |

In April 2009 lanceerde AMD de RV790, de refresh van de RV770. Wat de Radeon HD4890 precies voor veranderingen bevat ten opzichte van de RV770, kan je hierboven lezen. Het is een kleine update van de RV770 architectuur en zou weer zo'n 6 maanden mee moeten gaan totdat het tijd is voor de echt nieuwe generatie... de DX11 generatie |
R8x0 Generation |

Voordat je je broek helemaal nat maakt van de opwinding... het plaatje hierboven is een mock-up gemaakt door een fan. Ja hij ziet er spannend uit, maar het is bijna 100% zeker dat de HD5800 Serie er niet zo gaat uit zien. Hoe dan wel? Dat zal je waarschijnlijk deze zomer wel te weten komen. Volgens de laatste berichten ligt AMD op schema voor een Q3 lancering, wat dus een lancering in Juli, Augustus of September zou kunnen betekenen. Dit zou een kwartaal eerder kunnen zijn dan de GT300 van nVidia.
Is er al wat bekend over de DX11 generatie? Ja.. het zal UVD3 bevatten, de eerste samples zouden nu inmiddels binnen moeten zijn, het wordt gemaakt op 40nm en het wordt sneller dan de HD4890.
Volgens de laatste berichten is de eerste tape-out succesvol verlopen en zou TSMC rond Juli kunnen beginnen met de massaproductie. Dit zou duiden op een lancering in Augustus, wat waarschijnlijk een aantal maanden voor de eerste DX11 videokaart van nVidia zou zijn. Mits deze geruchten kloppen kan AMD dus een voorsprong opbouwen op het gebied van DX11 games ontwikkeling, aangezien developers als eerste een AMD Radeon kunnen gebruiken om hun games op te ontwikkelen. Let wel op... dit zijn tot nu toe niets meer dan geruchten en er kan dus nog van alles veranderen.
Nawoord: Hopelijk hebben jullie je een beetje vermaakt na het lezen van deze "trip down memorylane" die ik als eenmalige bonus in elkaar heb geflanst voor het jubileum van dit topic dat al meer dan 5 jaar bestaat en nu aan deeltje 100 toe is. Hopelijk kunnen we nog een tijdje door en zal dit een topic blijven waar zowel fans van ATI als nVidia (als Intel en S3 en elke andere videokaartenfabrikant) welkom zijn en waar men elkaar met respect behandelt.
De geschiedenis van de Radeon is, net zoals de geschiedenis van dit topic, eentje van meevallers en tegenslagen. Dit zal zich ongetwijfeld ook de komende jaren nog door zetten. De competitie zal alleen maar sterker worden nu ook Intel zich weer serieus op discrete graphics-gebied zal gaan mengen. Maar zoals jullie zien is ATI al meer dan 20 jaar actief in de graphicsbusiness en zo snel zullen ze niet verdwijnen, alhoewel sommige doemdenkers ons graag anders zouden doen denken.
Ik zal dit stuk in de loop van de week even bijschaven aangezien er nogal wat schrijf- en taalvouten in zullen staan. Hopelijk kunnen jullie daar nu nog even overheen lezen. Zo niet... jammer dan.  |
[
Voor 255% gewijzigd door
CJ op 20-04-2009 18:54
]