Een deep dive in prijsstijging van GPU's

Pagina: 1
Acties:

Acties:
  • +12 Henk 'm!

  • Coolstart
  • Registratie: April 2010
  • Laatst online: 27-09 09:49

Het lijkt er op dat GPU's plots zeer snel duurder worden. Nvidia op kop. Wat is er aan de hand?

Om dit te begrijpen heb ik de specs van high-end kaarten van Nvidia naast elkaar gezet om een globaal beeld te krijgen van de GPU evolutie in de laatste 20 jaar.

Ik ben aan de slag gegaan met de high-end series van Nvidia. (lees: GTX 1080, 2080, 3080, 4080 en alles wat er voor kwam in de afgelopen 20 jaar)

Voor de nieuwgierigheid heb ik ook de PS5 en de Xbox Series X meegenomen in de statistieken. (De volledige consoleprijs is in rekening gebracht)

De data:
Afbeeldingslocatie: https://tweakers.net/i/LmiIxcuQaYrYXJG4fFYF8APC5iU=/800x/filters:strip_exif()/f/image/NryujpzrW4WDp8yOH3tEeOLr.png?f=fotoalbum_large


Hoe zit het met de grafische rekenkracht de afgelopen 20 jaar?
Afbeeldingslocatie: https://tweakers.net/i/m0yDzvnStYRPRK23c5dD6fSsBqI=/800x/filters:strip_exif()/f/image/GUjVgLWACUQKNXmaRDwJf7U0.png?f=fotoalbum_medium

In deze grafiek zie je de ruwe TFLOPS van de Geforce 2 TI tot de RTX 4080. Het valt direct op dat de rekenkracht exponentieel toeneemt. Het lijkt er op dat we de laatste jaren getrakteerd worden op een weelde van grafische kracht. Echter moet je dit in perspectief plaatsen omdat de rekenkracht (Moore's law) elke twee jaar verdubbeld.

Als we er een logaritmische schaal er op loslaten zie je dat dit een constante is:
Afbeeldingslocatie: https://tweakers.net/i/GkomavCbez0AtKG2b9rUbMulLLo=/800x/filters:strip_exif()/f/image/tnzwYxEItW2WkTWXic34G0G2.png?f=fotoalbum_large

Deze grafiek maakt dus duidelijk dat dit fenomeen redelijk constant is en dat voor de afgelopen 20 jaar. Met andere woorden: Dit is normaal. We leven niet in speciale tijden.

Deze grafiek bevestigd dat we steeds meer rekenkracht voor ons geld krijgen.
Afbeeldingslocatie: https://tweakers.net/i/yYXgk63gnxo3Uq1L2du2wkqZRyA=/800x/filters:strip_exif()/f/image/BzQ044dfQQVKizg8R0TST0nM.png?f=fotoalbum_large
Generatie op generatie betalen we steeds minder voor onze grafische rekenkracht.Om het zichtbaar te maken is de X-as ook hier logaritmisch.

Geeft de RTX 4080 ons meer rekenkracht voor ons geld?
Afbeeldingslocatie: https://tweakers.net/i/Xkq94qHmsmM1MKyc4vZfmtPqdlk=/800x/filters:strip_exif()/f/image/MR1QejUgNrQbeyHETnAeowuB.png?f=fotoalbum_large
Duidelijk niet. Al sinds enige tijd neemt die verhouding af. De RTX 4080 is zelfs zo duur dat de curve volledig vlak wordt. Je merkt ook dt dit proces al enige tijd aan de gang is.


Is de RTX 4080 echt een duur buitenbeentje?:
Afbeeldingslocatie: https://tweakers.net/i/vvlRh6662rGIKjo2-GNXFUhtY5A=/800x/filters:strip_exif()/f/image/D0gfQtfjE6iSHLD7VVXjioil.png?f=fotoalbum_large
Deze grafiek toont de prijzen gecorrigeerd voor inflatie. Je ziet duidelijk dat de prijzen zich de afgelopen jaren gestabiliseerd hebben mits wat grillen na. Wat opvalt is dat de RTX 4080 duidelijk duurder is en van de trend afwijkt.


Is het maximale vermogen (TDP) toegenomen?
Afbeeldingslocatie: https://tweakers.net/i/GpPmjFVYTxPjNfHbAZeNGPAguyc=/800x/filters:strip_exif()/f/image/NJ4njJofrloQZZ0usnknVAiB.png?f=fotoalbum_large
De trend is duidelijk in stijgende lijn. Waar vroeger een high-end GPU het moest doen met 100 of zelfs 45 watt TDP gaat een huidige high-end GPU van dit type ruim over de 300watt TDP. De 4090Ti zou zelfs 600 watt aantikken en opent zo een nieuwe klasse.

Zijn de chips groter of kleiner geworden de afgelopen 20 jaar?

Afbeeldingslocatie: https://tweakers.net/i/I9px2cIZoF9UW6jvJUidmpfMSb4=/800x/filters:strip_exif()/f/image/TnFLWM6cDNfQbUxAFbUynaDU.png?f=fotoalbum_large

In het eerste decennium na het jaar 200 zien we dat de chips groter worden. Daarna lijkt het er op dat de chip-oppervlakten stabiliseren op enkele grillen na. Die grillen hebben vermoedelijk te maken met de marktwerking en het feit dat er toen mogelijk geen kleiner procede voor handen was maar Nvidia wel een nieuwe kaart wilde uitbrengen. Dan is de enige uitweg naar meer rekenkracht extra transistors = vergroting 'die size'.


Waarom zijn GPU's dan plots zoveel duurden?
Dat is een complex vraagstuk maar ik ga toch mijn gok wagen. Ik zie 5 grote redenen waarom de prijzen recent door het dak vliegen:
  • Nood aan rekenkracht VS aanbod aan rekenkracht.
  • 2023 inflatie
  • Crypto bubble restant
  • Duurdere wafers
  • Groot stock oudere RTX 3000 series
Nood aan rekenkracht VS aanbod aan rekenkracht.
Game consoles zijn ergens de benchmark. De meeste games worden ontwikkeld voor consoles. Consoles gaan meestel wel een paar jaar mee en game developers gaan dus de specificaties van hun game aanpassen aan die norm. Zowel de PS5 als de Xbox zitten rond de 12 Tflops en de 4080 heeft al bijna 50Tflops tot zijn beschikking. Dat is ruim 4x meer. Met andere woorden, de rekenkracht neemt toe maar het blijft moeilijk om 4X meer rekenkracht te verkopen.

Dit zet voor GPU makers de deur op een kier om GPU's duurder te verkopen. Om de extra rekenkracht te benutten heeft Nvidia Raytracing uitgebracht die PC gamers in staat stelt nog mooier beelden op hun scherm te toveren. Heel mooi maar je moet er wel een prijs voor betalen.

RTX + 4K + Ultra settings in PC games kunnen in sommige games zelfs de krachtigste GPU onder de 60fps dwingen. Ook VR fanaten zullen mogelijk zwichten voor de meerwaarde van duurdere GPU's.

duurdere wafers = duurdere chips bij gelijke grootte
Afbeeldingslocatie: https://tweakers.net/i/azW4jkVJwz4RYSc7LP4J5HrLc9g=/800x/filters:strip_exif()/f/image/k44VhHqAtTA7tScEIXTwHNAh.png?f=fotoalbum_large

Het is geen recente evolutie maar de wafers worden steeds duurder. Je kan oordelen dat de transistors steeds kleiner worden en zo de kostprijs compenceert maar je ziet tegelijk in de grafieken dat de afmetingen van de chips niet kleiner zijn geworden. Met andere woorden: De Chips worden duurder.

Voor een 12" wafer op 3nm betaalt Nvidia nu €16,000. Als je 300mm2 chips wil maken kan je er ongeveer 230 chips uit uw wafer uithalen = $68 per ruwe chip. Een afgewerkte chip in de RTX 4080 zou ongeveer $150 kosten. Dezelfde 300mm2 ruwe chip op 28nm kostte maar $13 ipv $68 op 5nm. Dat is 4,5X duurder. Schakel je over naar 3nm (Nvidia RTX 5000) dan stijft de prijs zelfs naar $86 per ruwe chip. Afgewerkt kom je dan op $190.

Volgens wat ik lees zou een complete RTX 4080 ongeveer $300 kosten waarvan 50% van die kost afkomstig is van de GPU chip.

Duurdere GPu's = minder verkoop
Ondanks de duurder worden chips lijkt het er op dat Nvidia zijn winstmarge vergroot. Dit lijk lucratief maar in een gezonde marktwerking van vraag en aanbod wil dat zeggen dat je minder GPU's verkoopt waardoor de totale omzet zelfs kan dalen.

De vraag is waarom Nvidia dit pad bewandeld. Het feit dat het RTX 3000 stock nog erg groot is bij de kaartproducenten kan verklaren waarom de RTX 4000 reeks voorlopig nog erg duur is. Al kan dat natuurlijk snel veranderen zodra dat stock op is.

DLSS to the rescue
Nvidia heeft er dus voordeel bij om met kleine (goedkopere) chips toch alle pracht en praal van 4K en raytracing aan te bieden op een goedkoper te produceren chip. Daar komt DLSS kijken. Deep learning Super sampling. Ondertussen zitten we al aan de 3de generatie van DLSS en niet toevallig is die boost exclusief voor de RTX 4000 reeks. Dit stelt Nvidia in staat meer fps/$ op de markt te brengen al is verre van elke game al compatibel. Toch kan Nvidia zo een halt toeroepen aan de steeds duurder wordende chipprijzen.

Het ziet er dus niet uit dat GPU's goedkoper zullen worden. Als mijn theorie rond duurdere worden wafers/chips klopt is dat mogelijk problematisch voor next gen game consoles want die doen er alles aan om hun hardware goedkoop (aan kostprijs) aan te bieden en te verdienen aan de games. Mijn vermoeden is dat de volgende generatie consoles uit noodzaak kleinere chips zullen hebben (200-250mm2) en vol inzetten op technieken zoals bijvoorbeeld DLSS zodat ze raytracing en 4K of VR voor lage prijs kunnen aanbieden.

Voila, hopelijk was het wat verhelderend en brengt het jullie op nieuwe ideeën om de huidige evoluties in GPU-land te verklaren. Wie weet hebben jullie andere inzichten die ik heb gemist. Ik besef wel dat ik verre van elk effect heb belicht maar anders zou deze post heel erg lang worden ;-)

[ Voor 7% gewijzigd door Coolstart op 04-03-2023 12:51 ]


Acties:
  • 0 Henk 'm!

  • sbijlsma
  • Registratie: December 2013
  • Laatst online: 22:19
De wet van Moore is wel degelijk aan het aflopen. Die wet zegt dat het aantal transistors per mm2 per vaste tijdseenheid toeneemt.
De transistor zelf, sinds 2012 de FinFET, heeft sinds de introductie een kanaallengte van 16 nm en dat is onveranderd gebleven. Ook de opvolgers van de FinFET, GAA en MBFet, veranderen daar niet zoveel aan. Wel bieden deze voordelen voor schaling waardoor netto een betere dichtheid van transistoren kan worden bereikt.

De afgelopen 10 jaar is wel veel bereikt in het terugbrengen van de benodigde chipoppervlak rondom de transistoren, de metallisatie is dichter geworden en over meer lagen verdeeld. Daardoor nemen parasitaire capaciteiten en netto afstanden af waardoor de snelheid toeneemt of vermogensverbruik afneemt. Maar dit heeft ook een einde, ondanks de mooie labels als "3nm".
De wet van Moore is met andere woorden in zijn laatste stuiptrekkingen.

Een uitweg voor de chipbakkers is meer cm2 Silicium verkopen voor meer functionaliteit. Dat brengt de prijs dus omhoog.
Een andere uitweg is meer parallellisatie toepassen door chips op elkaar de plakken om zo een veel bredere geheugenbandbreedte te halen en lengte van de lijntjes te verkorten, opnieuw voor meer snelheid of minder vermogensverbruik. Dit wordt ook wel 3D packaging genoemd. Ook dit is een dure techniek.

Toevallig is maar 1 bedrijf echt goed in allebei de trucjes (optimaliseren van het oppervlak rondom de transistoren en de 3D packinging), dat is TSMC.
Zowel AMD als Nvdia, en nu zelfs Intel zijn afhankelijk van deze ene partij.

TSMC kan dus erg goede prijzen vragen.
Daarnaast is Nvidia tamelijk dominant in de GPU markt zodat ze de prijzen hoog kunnen houden.

Ik deel dus de conclusie dat GPU's niet goedkoper gaan worden, in de nabije toekomst zal ook de fps/€ nauwelijks nog verbeteren.

Misschien moeten we maar eens afkicken van meer pixels en meer fps.

Acties:
  • +1 Henk 'm!

  • Coolstart
  • Registratie: April 2010
  • Laatst online: 27-09 09:49
sbijlsma schreef op zaterdag 4 maart 2023 @ 12:02:
De wet van Moore is wel degelijk aan het aflopen. Die wet zegt dat het aantal transistors per mm2 per vaste tijdseenheid toeneemt.
De transistor zelf, sinds 2012 de FinFET, heeft sinds de introductie een kanaallengte van 16 nm en dat is onveranderd gebleven. Ook de opvolgers van de FinFET, GAA en MBFet, veranderen daar niet zoveel aan. Wel bieden deze voordelen voor schaling waardoor netto een betere dichtheid van transistoren kan worden bereikt.
Afbeeldingslocatie: https://tweakers.net/i/Xkq94qHmsmM1MKyc4vZfmtPqdlk=/800x/filters:strip_exif()/f/image/MR1QejUgNrQbeyHETnAeowuB.png?f=fotoalbum_large

In deze grafiek zie je heel duidelijk dat de wet van Moore het lastig krijgt omdat we relatief steeds meer moeten betalen voor toenemende rekenkracht. Je ziet het al aankomen maar de RTX4080 maakt de curve gewoon vlak. Dat is ongezien maar gezien de curve zeker niet onverwacht.

Grotere chips is idd geen optie, dan drijft de prijs verder op en ook het verbruik. Maar IBM lijkt nog wel wat opties te hebben om met nieuwe materialen, intercionnects en 3D stacking aan efficientie te winnen om zo naar 1nm en verder te gaan. (Ondanks dat 1nm een marketing term is, geen effectieve afstand)

[ Voor 4% gewijzigd door Coolstart op 04-03-2023 13:08 ]


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 16:25
R&D wordt ook alleen maar duurder, vervoerkosten ook en webshops pakken ook zoveel mogelijk marge waar dat mogelijk is.

Verder is de driver ontwikkeling en de vele nieuwe functies als maar meer werk en dus duurder. Er zijn legio redenen te bedenken, feit blijft wel gewoon dat zolang er genoeg consumenten bereid zijn om te betalen dit gewoon een steeds duurdere hobby wordt.

Het kunstmatig hoog houden van de prijzen van de vorige generatie is vooral een tegenvaller. Veel stock of niet, het lijkt mij dat ze dankzij crypto en corona meer dan genoeg verdiend hebben aan die generatie. Door die hoge prijzen lijken de nieuwe kaarten een "nog niet zon slechte deal".

En een 2e hands kaartje van 1 of 2 generaties terug goedkoop scoren is er ook niet meer bij.

Acties:
  • 0 Henk 'm!

  • stylezzz
  • Registratie: April 2000
  • Laatst online: 22:52
Uiteindelijk kun je alles terug brengen op vraag en aanbod. Als de consument het er niet voor over heeft zal de prijs vanzelf dalen.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 16:25
Bij cpu's kan het namelijk wel. Bij launch 525 betaald voor een 5800x die laatst even te krijgen was voor 200.

440 betaald voor de X3D in december die nu voor 300 te vinden is (en ik had hem al goedkoper dan de launch prijs).

Weet niet wat de kostprijs van een cpu is maar die prijzen gaan wel gewoon omlaag, net als geheugen etc.

Misschien dat dat straks wel dezelfde kant op gaat: gewoon prijzen gelijk houden en nieuwe generaties er boven plaatsen qua prijs en gewoon minder produceren......

Acties:
  • 0 Henk 'm!

  • Coolstart
  • Registratie: April 2010
  • Laatst online: 27-09 09:49
Een ander probleem is dat GPU chips ook nog voor andere doeleinden gebruikt worden zoals server omgevingen, Machine learning en AI.
Daar is nu een zeer grote vraag naar.

Dus vraag en aanbod van B2B heeft ook een effect op de B2C kaarten voor gamers. Net zoals de crypto miners een effect hadden.

Acties:
  • 0 Henk 'm!

  • stylezzz
  • Registratie: April 2000
  • Laatst online: 22:52
meljor schreef op zaterdag 4 maart 2023 @ 14:14:
Bij cpu's kan het namelijk wel. Bij launch 525 betaald voor een 5800x die laatst even te krijgen was voor 200.

440 betaald voor de X3D in december die nu voor 300 te vinden is (en ik had hem al goedkoper dan de launch prijs).

Weet niet wat de kostprijs van een cpu is maar die prijzen gaan wel gewoon omlaag, net als geheugen etc.

Misschien dat dat straks wel dezelfde kant op gaat: gewoon prijzen gelijk houden en nieuwe generaties er boven plaatsen qua prijs en gewoon minder produceren......
5e generatie amd is natuurlijk nu ook al ruim 2 jaar oud, en inmiddels heeft intel de 13e generatie als competitie ertegenover staan.

Bij gpu's zie je het goed bij de 7900xt, welke eigenlijk net wat te duur gelanceerd werd t.o.v. de 7900 xtx.

Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 16:25
stylezzz schreef op zaterdag 4 maart 2023 @ 14:36:
[...]


5e generatie amd is natuurlijk nu ook al ruim 2 jaar oud, en inmiddels heeft intel de 13e generatie als competitie ertegenover staan.

Bij gpu's zie je het goed bij de 7900xt, welke eigenlijk net wat te duur gelanceerd werd t.o.v. de 7900 xtx.
Dat is toch juist mijn punt? Rtx3000 en rx6000 zijn namelijk ook al 2 jaar oud.

Xtx is nu juist te duur ivm de xt maar hij verkoopt wel gewoon nog goed. Topding, heb zelf de merc xtx maar de xt is nu eigenlijk de betere deal. Althans, dat LIJKT zo want een rx 6900xt voor 700 is qua prijs/prestaties niks minder en die is na 2 jaar te duur.

[ Voor 22% gewijzigd door meljor op 04-03-2023 14:55 ]


Acties:
  • +1 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 00:23
Je geeft een aardig vertekent beeld. Voor een aantal generaties heb je de beste chip gepakt maar voor anderen juist weer niet.

Wat is daar de gedachte achter?

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • stylezzz
  • Registratie: April 2000
  • Laatst online: 22:52
meljor schreef op zaterdag 4 maart 2023 @ 14:51:
[...]


Dat is toch juist mijn punt? Rtx3000 en rx6000 zijn namelijk ook al 2 jaar oud.

Xtx is nu juist te duur ivm de xt maar hij verkoopt wel gewoon nog goed. Topding, heb zelf de merc xtx maar de xt is nu eigenlijk de betere deal. Althans, dat LIJKT zo want een rx 6900xt voor 700 is qua prijs/prestaties niks minder en die is na 2 jaar te duur.
Maar dat is juist het probleem. Na de rtx3000 launch was er geen antwoord van amd. Ja, rx6000 was er... of eigenlijk ook weer niet.... pas toen heel het minig en scalping verhaal eind vorig jaar voorbij was kreeg je een aardig spel tussen amd en nv. Zonder concurrentie zal niemand gemotiveerd zijn om de prijzen onder de loep te nemen. Ten tijde van de launch van 5e generatie amd had intel alleen de 11e generatie... die eigenlijk minder was als de 10e. Alleen tijd is geen factor om iets goedkoper te laten worden.
Pagina: 1