Het lijkt er op dat GPU's plots zeer snel duurder worden. Nvidia op kop. Wat is er aan de hand?
Om dit te begrijpen heb ik de specs van high-end kaarten van Nvidia naast elkaar gezet om een globaal beeld te krijgen van de GPU evolutie in de laatste 20 jaar.Ik ben aan de slag gegaan met de high-end series van Nvidia. (lees: GTX 1080, 2080, 3080, 4080 en alles wat er voor kwam in de afgelopen 20 jaar)
Voor de nieuwgierigheid heb ik ook de PS5 en de Xbox Series X meegenomen in de statistieken. (De volledige consoleprijs is in rekening gebracht)
De data:
/f/image/NryujpzrW4WDp8yOH3tEeOLr.png?f=fotoalbum_large)
Hoe zit het met de grafische rekenkracht de afgelopen 20 jaar?
/f/image/GUjVgLWACUQKNXmaRDwJf7U0.png?f=fotoalbum_medium)
In deze grafiek zie je de ruwe TFLOPS van de Geforce 2 TI tot de RTX 4080. Het valt direct op dat de rekenkracht exponentieel toeneemt. Het lijkt er op dat we de laatste jaren getrakteerd worden op een weelde van grafische kracht. Echter moet je dit in perspectief plaatsen omdat de rekenkracht (Moore's law) elke twee jaar verdubbeld.
Als we er een logaritmische schaal er op loslaten zie je dat dit een constante is:
/f/image/tnzwYxEItW2WkTWXic34G0G2.png?f=fotoalbum_large)
Deze grafiek maakt dus duidelijk dat dit fenomeen redelijk constant is en dat voor de afgelopen 20 jaar. Met andere woorden: Dit is normaal. We leven niet in speciale tijden.
Deze grafiek bevestigd dat we steeds meer rekenkracht voor ons geld krijgen.
/f/image/BzQ044dfQQVKizg8R0TST0nM.png?f=fotoalbum_large)
Generatie op generatie betalen we steeds minder voor onze grafische rekenkracht.Om het zichtbaar te maken is de X-as ook hier logaritmisch.
Geeft de RTX 4080 ons meer rekenkracht voor ons geld?
/f/image/MR1QejUgNrQbeyHETnAeowuB.png?f=fotoalbum_large)
Duidelijk niet. Al sinds enige tijd neemt die verhouding af. De RTX 4080 is zelfs zo duur dat de curve volledig vlak wordt. Je merkt ook dt dit proces al enige tijd aan de gang is.
Is de RTX 4080 echt een duur buitenbeentje?:
/f/image/D0gfQtfjE6iSHLD7VVXjioil.png?f=fotoalbum_large)
Deze grafiek toont de prijzen gecorrigeerd voor inflatie. Je ziet duidelijk dat de prijzen zich de afgelopen jaren gestabiliseerd hebben mits wat grillen na. Wat opvalt is dat de RTX 4080 duidelijk duurder is en van de trend afwijkt.
Is het maximale vermogen (TDP) toegenomen?
/f/image/NJ4njJofrloQZZ0usnknVAiB.png?f=fotoalbum_large)
De trend is duidelijk in stijgende lijn. Waar vroeger een high-end GPU het moest doen met 100 of zelfs 45 watt TDP gaat een huidige high-end GPU van dit type ruim over de 300watt TDP. De 4090Ti zou zelfs 600 watt aantikken en opent zo een nieuwe klasse.
Zijn de chips groter of kleiner geworden de afgelopen 20 jaar?
/f/image/TnFLWM6cDNfQbUxAFbUynaDU.png?f=fotoalbum_large)
In het eerste decennium na het jaar 200 zien we dat de chips groter worden. Daarna lijkt het er op dat de chip-oppervlakten stabiliseren op enkele grillen na. Die grillen hebben vermoedelijk te maken met de marktwerking en het feit dat er toen mogelijk geen kleiner procede voor handen was maar Nvidia wel een nieuwe kaart wilde uitbrengen. Dan is de enige uitweg naar meer rekenkracht extra transistors = vergroting 'die size'.
Waarom zijn GPU's dan plots zoveel duurden?
Dat is een complex vraagstuk maar ik ga toch mijn gok wagen. Ik zie 5 grote redenen waarom de prijzen recent door het dak vliegen:
- Nood aan rekenkracht VS aanbod aan rekenkracht.
- 2023 inflatie
- Crypto bubble restant
- Duurdere wafers
- Groot stock oudere RTX 3000 series
Game consoles zijn ergens de benchmark. De meeste games worden ontwikkeld voor consoles. Consoles gaan meestel wel een paar jaar mee en game developers gaan dus de specificaties van hun game aanpassen aan die norm. Zowel de PS5 als de Xbox zitten rond de 12 Tflops en de 4080 heeft al bijna 50Tflops tot zijn beschikking. Dat is ruim 4x meer. Met andere woorden, de rekenkracht neemt toe maar het blijft moeilijk om 4X meer rekenkracht te verkopen.
Dit zet voor GPU makers de deur op een kier om GPU's duurder te verkopen. Om de extra rekenkracht te benutten heeft Nvidia Raytracing uitgebracht die PC gamers in staat stelt nog mooier beelden op hun scherm te toveren. Heel mooi maar je moet er wel een prijs voor betalen.
RTX + 4K + Ultra settings in PC games kunnen in sommige games zelfs de krachtigste GPU onder de 60fps dwingen. Ook VR fanaten zullen mogelijk zwichten voor de meerwaarde van duurdere GPU's.
duurdere wafers = duurdere chips bij gelijke grootte
/f/image/k44VhHqAtTA7tScEIXTwHNAh.png?f=fotoalbum_large)
Het is geen recente evolutie maar de wafers worden steeds duurder. Je kan oordelen dat de transistors steeds kleiner worden en zo de kostprijs compenceert maar je ziet tegelijk in de grafieken dat de afmetingen van de chips niet kleiner zijn geworden. Met andere woorden: De Chips worden duurder.
Voor een 12" wafer op 3nm betaalt Nvidia nu €16,000. Als je 300mm2 chips wil maken kan je er ongeveer 230 chips uit uw wafer uithalen = $68 per ruwe chip. Een afgewerkte chip in de RTX 4080 zou ongeveer $150 kosten. Dezelfde 300mm2 ruwe chip op 28nm kostte maar $13 ipv $68 op 5nm. Dat is 4,5X duurder. Schakel je over naar 3nm (Nvidia RTX 5000) dan stijft de prijs zelfs naar $86 per ruwe chip. Afgewerkt kom je dan op $190.
Volgens wat ik lees zou een complete RTX 4080 ongeveer $300 kosten waarvan 50% van die kost afkomstig is van de GPU chip.
Duurdere GPu's = minder verkoop
Ondanks de duurder worden chips lijkt het er op dat Nvidia zijn winstmarge vergroot. Dit lijk lucratief maar in een gezonde marktwerking van vraag en aanbod wil dat zeggen dat je minder GPU's verkoopt waardoor de totale omzet zelfs kan dalen.
De vraag is waarom Nvidia dit pad bewandeld. Het feit dat het RTX 3000 stock nog erg groot is bij de kaartproducenten kan verklaren waarom de RTX 4000 reeks voorlopig nog erg duur is. Al kan dat natuurlijk snel veranderen zodra dat stock op is.
DLSS to the rescue
Nvidia heeft er dus voordeel bij om met kleine (goedkopere) chips toch alle pracht en praal van 4K en raytracing aan te bieden op een goedkoper te produceren chip. Daar komt DLSS kijken. Deep learning Super sampling. Ondertussen zitten we al aan de 3de generatie van DLSS en niet toevallig is die boost exclusief voor de RTX 4000 reeks. Dit stelt Nvidia in staat meer fps/$ op de markt te brengen al is verre van elke game al compatibel. Toch kan Nvidia zo een halt toeroepen aan de steeds duurder wordende chipprijzen.
Het ziet er dus niet uit dat GPU's goedkoper zullen worden. Als mijn theorie rond duurdere worden wafers/chips klopt is dat mogelijk problematisch voor next gen game consoles want die doen er alles aan om hun hardware goedkoop (aan kostprijs) aan te bieden en te verdienen aan de games. Mijn vermoeden is dat de volgende generatie consoles uit noodzaak kleinere chips zullen hebben (200-250mm2) en vol inzetten op technieken zoals bijvoorbeeld DLSS zodat ze raytracing en 4K of VR voor lage prijs kunnen aanbieden.
Voila, hopelijk was het wat verhelderend en brengt het jullie op nieuwe ideeën om de huidige evoluties in GPU-land te verklaren. Wie weet hebben jullie andere inzichten die ik heb gemist. Ik besef wel dat ik verre van elk effect heb belicht maar anders zou deze post heel erg lang worden ;-)
[ Voor 7% gewijzigd door Coolstart op 04-03-2023 12:51 ]