Ik denk dat het dan ook gewoon 8mm is. Van wat ik namelijk heb begrepen bouwen ze die GPU's helemaal niet vanaf de grond af op, maar doen ze het modulair. Nvidia neemt dus het standaard SM ontwerp, zorgt ervoor dat dit compatibel is met de gekozen node, idem voor andere zaken zoals de geheugen bus die ze natuurlijk in blokken van 32 bit doen. Dat is tape in waar de architectuur vast ligt.
Vervolgens maken ze van die bouwblokken chips en die complete ontwerpen gaan naar de fabrikant. Dat is tape out en in de regel is dit al een jaar voor release. In dat laatste jaar zijn ze alleen bezig met circuit validatie en optimalisatie. Gewoon testchips maken en kijken of het ook echt werkt.
Maar als je dus al twee jaar van te voren je wafer contracten sluit en onder NDA staat dat je hetzelfde ontwerp niet ook bij de concurrent mag produceren, dan is het klaar. Het is 8nm en omdat Samsung nodes al jaren gewoon merkbaar slechter zijn dan TSMC, krijgen we waarschijnlijk heethoofden.
Ik moet ook steeds meer denken aan hoe het ging in 2016-18 met AMD. Zen 1, Polaris en Vega op Samsung 14nm Low Power Plus en dat hebben we geweten. Ongetwijfeld was het goedkoper dan TSMC en AMD had ook geen keuze anders dan GoFlo, maar wat waren die chips soms bagger zeg. Allemaal lieten ze hetzelfde patroon zien van onderpresteren qua clock speeds vergeleken met TSMC 16nm gecombineerd met een vrij angstaanjagende voltagecurve. Vega is natuurlijk het ultieme voorbeeld. Alles aan die chip leek te wijzen op ruim 1600MHz+ als ontwerpdoel, maar dat deden ze niet zonder extreem verbruik. Lekstroom was enorm en schaling verschrikkelijk. Met Vega 20 op TSMC 7nm was het opeens honderden megahertz sneller en kwam Vega veel meer tot haar recht. Het werd altijd toegeschreven aan AMD die met zinloos hoge voltages, maar daar begin ik steeds meer aan te twijfelen. Je moet op een gegeven moment ook enige prestaties neerzetten en als je node gewoon slecht is, dan zit je klem.
Ik vermoed namelijk steeds meer dat we hetzelfde gaan zien met Ampère als we met Vega zagen. Die RTX3090 lijkt echt een belachelijk heethoofd te worden, veel erger dan zelfs de RX Vega 64 LE en yields gaan een groot vraagteken worden aangezien Qualcomm dit 10nm proces ook al heeft geprobeerd en verschrikkelijke yields had. Nvidia gaat alleen voor enorme chips. Andere chips zoals de RTX3080 verwacht ik minder extreem qua clock speeds, maar dan ga je ook prestatiewinst inleveren.
Een grote clock speed verbetering over Turing lijkt er ook niet in te zitten met wat we nu weten, en laat dat nu traditioneel de grootste prestatiewinstfactor zijn, maakt niet uit of je AMD, Intel, Nvidia, Qualcomm etc bent. Het is transistoren en clock speeds en relatief weinig architectuur. Zo zou het wel eens een erg teleurstellende generatie kunnen gaan worden als ze op architectuurniveau er niet heel veel uit hebben kunnen halen op shader gebied. Ook al is de RT een aantal maal beter dan Turing was, shaders zullen nog steeds belangrijker zijn en dat blijft de komende jaren ook wel zo.
Voor 4K lijken ze in ieder geval met enorme sprongen in geheugenbandbreedte te komen en daar verwacht ik wel een merkbare stap, 1440p of helemaal 1080p is denk ik twijfelachtiger hoeveel ze daar gaan winnen. Ik verwacht eigenlijk ook dat Nvidia volgende week, alleen maar gaat marketen op 4K of zelfs nog hogere resoluties om het verschil daar te benadrukken. Natuurlijk gaat 1080p een beetje irrelevant zijn voor zoiets als een RTX3090, maar 1440p denk ik al wat minder voor de mensen die 1440p/144Hz willen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.