M-spec schreef op donderdag 10 september 2020 @ 19:35:
[...]
Kostenprijs van HBM per GB is niet echt bekend volgens mij. Dat zijn waren of zijn afspraken tussen AMD, Hynix en Samsung. De implementatie, controller en verwerking naast een GPU lijkt me kostbaar. Het heeft tot aan Radeon VII's soms voor koelproblemen gezorgd. De HBM stacks moeten namelijk op exact gelijke hoogte naast de GPU zitten voor contact met de baseplate van het koelblok en dit was niet altijd het geval. En het was in het verleden nog erger toen twee leveranciers verschillende opbouw hoogte gebruikten. Niet bepaald optimaal. Dan zijn apart geplaatste geheugenmodules met wat strookjes TIM er tussen een stuk eenvoudiger te verwerken.
Ik kan je zo wat voorbeelden kan geven van "gerenommeerde" fabrikanten die GDDR6 modules voorzien van een stukje thermal pad en verbinden aan een heatsink, verdraaid moeilijk lijken te vinden.
Maar HBM2(E) is ook niet die dramatische honderden dollars waar mensen maar vanuit lijken te gaan. Vorig jaar toen er nog meer vraag was naar geheugenchips en de prijzen nog hoger waren, koste een Samsung HBM2 wafer kennelijk ongeveer $2100 om te maken. HBM2 chips zijn dusdanig klein dan je makkelijk 500+ functionele chips uit zelfs een relatief slechte wafer kan halen. Vervolgens zou HBM2E niet alleen sneller, maar ook iets goedkoper zijn. Inmiddels is de geheugenschipmarkt weer aan het inzakken door een of ander virus en werd volgens mij gisteren ook bekend dat Samsung en Hynix binnenkort staken met de leveringen aan HiSilicon/Huawei vanwege Amerikaanse sancties. De prijstrend voor geheugenchips is gewoon negatief.
Zie ook:
DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144"
Ik zag alleen een fout die ik hierin heb gemaakt die ik hieronder verbeter.
Laten we eens ruim rekenen met $4000 per wafer omdat je iets hogere kwaliteit chips wil hebben en je krijgt hier een relatief lage 500 chips per wafer voor terug. We hebben twee stacks van elk vier HBM2E chips nodig voor Navi 21. HBM2E komt in 16Gb chips waardoor twee stacks van vier resulteert in 16GB. Je hebt er dus acht nodig. Samsung HBM2E chips gaan officieel tot maximaal 410GB/s per stack en Hynix tot 460GB/s. Onofficieel kan Samsung zelfs 538GB/s doen. Voor RX Vega 64 draaide het geheugen destijds ook out of spec want het was officieel allemaal 800MHz geheugen en niet 945MHz.
Zie:
https://graphicscardhub.com/gddr5-vs-gddr5x-vs-hbm-vs-hbm2/HBM2E operates 3.2Gbps and delivers memory bandwidth of 410GB/s. It can also attain a much higher speed of 4.2Gbps (out of specs), delivering bandwidth of 538GB/s, which is a 1.75X increase over the Aquabolt (307GB/s). HBM2E is designed for high performance computing systems (HPC), and we can also expect it to see in upcoming high-end graphics cards. Along with increased performance, HBM2E is also very power efficient.
Maar $4000 : 500 = $8 per chip. Dus $64 per GPU met twee 8GB stacks. Vervolgens komt er nog een logic die en een interposer bij die niet heel spannend zijn. Die kan je maken op nodes die tien jaar geleden al hopeloos ouderwets waren. Maak er ruim $30 van omdat je naar een flinke chip kijkt die erop moet passen. Onder de streep zit je nog steeds onder de $100.
Maak je echt geen illusies over de kosten. Je kan zelf het geheugen kopen dat op de Navi 10 of de meeste Turing videokaarten zit. Kost je iets meer dan €13 per chip, maar de prijzen zakken naarmate je meer koopt.
Zie:
https://eu.mouser.com/Pro...6PyfT74d1EzoeVTDpaw%3D%3D
Dit is dan met een keten van groothandel en tussenhandelaren ertussen. AMD en Nvidia gaan gewoon direct naar de fabrikant en kunnen onderhandelen. Die betalen echt niet meer dan de helft voor hun miljoenen oplagen. Een RX5700XT of RTX2070S van geheugen voorzien kost ze misschien $50. Dat rekenen ze door aan de AIB's met hun eigen winstmarge eroverheen. Ze knijpen hun AIB's gewoon uit en dat is geen geheim.
Als je dan $100 moet betalen voor je geheugenoplossing zodat je Navi 21, de RTX3080 verstaat, tja dan doe je dat. Vraag je er gewoon $799 voor i.p.v. $699. AMD maakt zo meer marge op de de geheugenprijs dan Nvidia. Immers zal Nvidia voor het nieuwe GDDR6X waarschijnlijk wel meer dan $50 moeten betalen voor 10GB. Komt nog eens bij dat GDDR6X een dusdanig complexe bedrading in het PCB kent dat Nvidia naar een twaalf lagen dik PCB moest gaan. Dat brengt ook kosten met zich mee. Verbruik is ook niet gratis. HBM2E is gewoon zeer efficiënt. Je kijkt makkelijk naar enkele tientallen watts minder voor een vergelijkbare GB/s en dat scheelt je weer in VRM componenten en koelingsvereisten. GDDR6X zal onder de streep goedkoper zijn per videokaart, maar het is geen honderden dollars, eerder enkele tientallen.
HBM2E heeft ook een groot voordeel naast efficiëntie. Als AMD echt wil, dan kunnen ze met HBM2E zelfs een 32GB HBM2E Navi 21 met een vrij schappelijke 1076GB/s lanceren. Dat is wat je zou krijgen met Samsung OC spec HBM2E. Hynix haar HBM2E heeft een snelle base spec en gezien de relatie tussen AMD en Hynix, verwacht ik die misschien eerder dan Samsung. Van Hynix weet ik het eventuele OC spec potentieel niet. Ik zou niet verbaast zijn als dat ook over de 1TB/s kan. Dit lijkt me toch een vrij acceptabele waarde.
Er is een reden waarom ik HBM2E denk voor Navi 21. Die 80CU's zijn nu vanuit zoveel hoeken gelekt dat je die onderhand wel mag geloven. Dat is tweemaal Navi 10. Je gaat gewoon minstens tweemaal de geheugenbandbreedte nodig hebben en een architectuurverbetering in RDNA2 om dit efficiënt te laten schalen. Ook zegt Micron dat GDDR6X nu beschikbaar is voor andere klanten. Dat zegt niet dat AMD volgende maand het op hun videokaarten heeft zitten. Nee, het is er dan misschien voor RDNA3. De Navi 2x chips zullen een jaar geleden hun tape out al hebben gehad. Die zijn allang bevroren in ontwerp en kunnen niet op het laatste moment nog aangepast worden.
[
Voor 12% gewijzigd door
DaniëlWW2 op 11-09-2020 09:40
]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.