Het gaat mij er voornamelijk om wat hij wel zegt.

HBM2, 348bit bus, Navi 22 48-64CU's etc of nu weer dat Navi 22 vergelijkbare grote als Navi 21 heeft terwijl een van de meest betrouwbare leaks in april al aangaf dat het 340mm zou zijn, iets dat ik goed mogelijk acht en zou kunnen passen met 40CU's + veel L2 cache.
Het zijn te veel zaken, te veel dingen waar ik zo gaten in kan prikken door simpele observaties van RDNA te maken zoals dat we inmiddels de configuraties van zeven RDNA based GPU's weten, vijf zitten op 10CU's per Shader Array. Dat zijn Navi 10, 12, 21, 22 en PS5. Die heeft vrijwel zeker 4CU's uitgeschakeld want ik kom anders niet op 36CU's. Eentje (Navi 14, a.k.a. terrible Navi) zit op 12CU's en de XSX op 14CU's. Microsoft lijkt die chip alleen ook te willen gebruiken in servers voor hun xCloud dienst. Vervolgens zitten er zaken tussen die publiekelijk zijn gelekt en dat brengt bij mij juist de scepsis. Ik heb het eens een keer uitgetypt op reddit waar meer mensen hun twijfels hebben. Heb er zelfs reddit gold ermee verdient.
https://www.reddit.com/r/...tm_medium=web2x&context=3
Die podcasts zijn soms echt leerzaam, maar die leaks zijn of van lage kwaliteit en slechte interpretatie en analyse, of het is van elders gehaald en aangevuld met onzin. Dat laat ik verder in het midden.
Maar ik kan bijvoorbeeld echt niet bevatten waarom AMD weer terug zou gaan naar 16CU diepe array's, maar nu zijn die CU's ook nog eens veel efficiënter, voor een chip, terwijl vrijwel alle RDNA's het niet doen. Ook zo ongeveer het eerste dat AMD deed met GCN was juist weggaan van 16CU diepe array's met Tahiti naar de efficiëntere en net iets betere Tonga. Voor Fiji en Vega werkte het gewoon niet goed en dat wist AMD waarschijnlijk zelf ook echt wel, maar het was beter dan niks. Kwam er weer 64CU voorbij bij MILD, ditmaal Navi 22, wat nu veranderd is naar 40CU's omdat de configuratie gelekt is uit een data mine en het moeilijk anders meer kon. Nee, dat geloof ik niet meer.
Die 80CU's wel goed hebben, zeggen ook weinig want die was zo makkelijk te raden dat ik denk dat ze bij AMD niet eens hebben geprobeerd dit te verhullen. MILD kwam eens met 96CU's aanzetten die ik nergens heb gezien, maar die klopt dus ook niet en is door hem ingetrokken in zijn eigen video.
Als je echt goede bronnen hebt, dan kom je eerst met het L2 cache verhaal en niet achteraf claimen dat je zulke goede bronnen hebt die het bevestigen, terwijl je elke configuratie hebt opgesomd, inclusief configuraties die eigenlijk nergens op slaan. Die L2 cache gaat overigens Red Gaming Tech maken of breken en ik denk dat het maken gaat worden. De video's zijn behoorlijk monotoon, de clickbait is real, maar dat kan heel goed kloppen omdat zoveel L2 cache twee dingen kan doen.
1) Verklaren waarom een 80CU chip blijkbaar met een 256bit bus kan werken zonder dat de RTG gigantisch voor lul staat want stupid bus op een gigantische chip .
2) Hoe ze denken enige serieuze RT prestaties eruit willen gaan halen met BVH. Daar moet waarschijnlijk nog wel iets van L1 cache of L0 cache bij zodat de CU's die ermee aan de slag moeten ook toegang hebben tot die objecten zonder naar L2 te hoeven, maar als je eenmaal je 3D objecten in L2 hebt zitten en je hebt voor een GPU eigenlijk een bezopen hoeveelheid L2 cache zodat je heel wat zaken erin kan opslaan, dan kan je ze ook makkelijker weer terughalen naar meer lokale cache halen voor BVH toepassing en RT. Dat je zo ook de geheugenbus kan verkleinen en verbruik kan verlagen, tja dat is bonus.
Maar nog vier weken en dan moeten ze bij AMD gewoon eens iets gaan zeggen over Big Navi.
En dan maar hopen dat ze er niet zo'n puinzooi van maken als Nvidia. Dat was namelijk genoeg "RTG launches" voor een jaar.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.