Laten we even inflatie niet vergeten, want dat is internationaal (de schaal waarop dit soort producten werken) gewoon vrij groot. We hebben daarnaast ook te maken met het feit dat het belang van grafische kaarten groter is geworden, ze kunnen immers "meer" en dat "meer" is nu mainstream geworden. Hadden we eerst een crypto boom, hebben we nu een enorme doorbraak in deep learning, maar ook in LLM's. Dat kanibaliseert beschikbare wafer space (ik benoem bewust niet GPU's, natuurlijk ook), en we hebben maar een paar fabrieken op aarde (waarvan de grootste bovendien een enorm risico loopt op een grootschalige inval momenteel, en altijd al geopolitiek een complexe situatie heeft gehad. Dat draagt allemaal niet bij.
De "GPU" hebben we dus meer van nodig, want ondanks dat we niet allemaal die RTX4080 meenemen, we vragen vrij massaal aan cloudsystemen of ze onze filmpjes even willen transcoden, van een filtertje willen voorzien, en even wat tekst er in willen zetten.
Daarnaast is een GPU natuurlijk niet het enige wat uit een wafer komt. Die ruimte wordt ook massaal geclaimed voor ESP32 achtige oplossingen, omvormers, load balancers, smart grid terminals, etc, etc...
Ik was laatst wat vodcasts aan het bekijken over electronica, en in wat zaken rondom vrij grote schakelingen/regelsystemen kwam de vraag naar voren: "waarom zo'n complexe schakeling maken, als je dit met een microcontroller ook kan regelen?". Gelijk hebben ze, want 'programmeerbare hardware' kan helpen bij een hoop grootschalige maatschappelijke uitdagingen, maar ook dat is allemaal waferspace die gebruikt wordt. Meestal niet de cutting edge 5nm-achtigen procede's, maar desalniettemin: capaciteit.
En fijn vinden we het allemaal. We vergrijzen, dus bepaalde beroepen (zoals achterstallig onderhoud aan bruggen) moeten slimmer, dus "met minder mensen meer werk doen, maar de wet van vraag/aanbod geld. Je GPU is duurder. Want je GPU is ook een IMMENS monolitisch stukje silicon: 609mm2 voor een RTX4090 staat niet in verhouding tot wat je er aan generieke chips voor kan bakken.
Maar geen nood. De nieuwste GPU generaties zijn doorgaans een nóg kleinere stap naar voren in rasterisen. We verzinnen al extra pixels, we verzinnen extra frames, en we zijn ook vrij goed geworden in blurry, ruis-achtige reflecties te verzinnen. Tegelijkertijd zitten we ook aan de "kop" van een console generatie, en een kleine revolutie in gamen: de nieuwere hardware is naar mijn mening minder hard nodig dan dat hij ooit was. Voor elke AAAa "abonnoment seasonpass" game die uitkomt zijn er ladingen indy-games die op een console of een steamdeck/ROG Ally goed draaien.
Los van de jaarlijkse, slecht geoptimaliseerde releases (als je d'r van houdt, alle kracht aan jou) is er gelukkig ook genoeg te spelen op mindere, goedkopere hardware.
En daarnaast mogen we denk ik ook blij zijn dat het monopolie van AMD/nVidia nu wat doorbroken wordt. Want vergeet niet dat in elke X86-game console (PS5/Xbox) ook gewoon een AMD chip zit, net zoals een nVidia chip in elke Nintendo console.
Nu Intel zowaar een goede GPU heeft gemaakt, niveautje 4060Ti, los van de absolute max settings érg goed speelbaar, voor ongeveer 60% van de prijs, worden groen/rood hopelijk OOK wakker en zullen ze hun prijzen aanpassen.