Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
DaniëlWW2 schreef op vrijdag 5 augustus 2022 @ 23:50:
En ik moet nog steeds zien of Nvidia werkelijk zover zal gaan qua verbruik. Zeker voor AD104 vraag ik het me af wat Nvidia hiermee wil bereiken en ook hoe ze het willen doen? Want je moet een dergelijke chip ook nog kunnen koelen.

Tweede is dat ik TSE scores zo nietszeggend blijf vinden omdat de vraag bij Lovelace juist de efficiëntie (zowel perf/watt als perf/ALU van de architectuur is. Daar horen we maar niks over en dat maakt me erg sceptisch naar TSE scores. Het is immers een benchmark die veel minder problemen zal hebben met occupency en geen game.

Ergens zou ik helemaal niet verbaast zijn als het uit gaat komen op de "traditionele" 30% erbij die Nvidia zo vaak doet. Zo zou je de volle AD104 rond RTX3090 niveau krijgen met <300W, AD103 30% over de RTX3090 met >300W en AD102 iets van 60% over de RTX3090Ti voor >400W. Die laatste omdat het verschil tussen AD102 en AD103, toch 70% groot lijkt te zijn en niet circa 30% zoals AD104 naar AD103 lijkt te worden.
600W denk ik niet standaard, maar wel 450W voor de 4090/Ti, en 375W voor de 7900XT/7950XT. Met ruimte voor AIBs omhoog en natuurlijk undervolt naar beneden. Dat is alsnog een hoop warmte.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 13-09 09:39
DaniëlWW2 schreef op vrijdag 5 augustus 2022 @ 23:50:
En ik moet nog steeds zien of Nvidia werkelijk zover zal gaan qua verbruik. Zeker voor AD104 vraag ik het me af wat Nvidia hiermee wil bereiken en ook hoe ze het willen doen? Want je moet een dergelijke chip ook nog kunnen koelen.

Tweede is dat ik TSE scores zo nietszeggend blijf vinden omdat de vraag bij Lovelace juist de efficiëntie (zowel perf/watt als perf/ALU van de architectuur is. Daar horen we maar niks over en dat maakt me erg sceptisch naar TSE scores. Het is immers een benchmark die veel minder problemen zal hebben met occupency en geen game.
Maar dan zou je juist verwachten dat de 3090 beter uit de verf komt dan de 4070 & 4080 in TSE dan in een gemiddelde game.
DaniëlWW2 schreef op vrijdag 5 augustus 2022 @ 23:50:
Ergens zou ik helemaal niet verbaast zijn als het uit gaat komen op de "traditionele" 30% erbij die Nvidia zo vaak doet. Zo zou je de volle AD104 rond RTX3090 niveau krijgen met <300W, AD103 30% over de RTX3090 met >300W en AD102 iets van 60% over de RTX3090Ti voor >400W. Die laatste omdat het verschil tussen AD102 en AD103, toch 70% groot lijkt te zijn en niet circa 30% zoals AD104 naar AD103 lijkt te worden.
30% lijkt me pessimistisch en gaat in tegen de geruchten voor zowel Nvidia als AMD. In Nvidia's geval zou het ook gewoon vreemd zijn aangezien ze min of meer 2 node jumps in 1 keer doen. Moesten ze nu al op TSMC 7 zitten dan zou Ampere gewoon al veel beter zijn geweest en zou 30% niet raar zijn.

[ Voor 3% gewijzigd door napata op 06-08-2022 17:27 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

napata schreef op zaterdag 6 augustus 2022 @ 17:26:
[...]

Maar dan zou je juist verwachten dat de 3090 beter uit de verf komt dan de 4070 & 4080 in TSE dan in een gemiddelde game.


[...]

30% lijkt me pessimistisch en gaat in tegen de geruchten voor zowel Nvidia als AMD. In Nvidia's geval zou het ook gewoon vreemd zijn aangezien ze min of meer 2 node jumps in 1 keer doen. Moesten ze nu al op TSMC 7 zitten dan zou Ampere gewoon al veel beter zijn geweest en zou 30% niet raar zijn.
Ten eerste word ik inmiddels met de dag/tweet, sceptischer. Want inmiddels word er zoveel geroepen en zoveel gezegd dat het lijkt op indekken om vervolgens achteraf de scenario's die het dichtstbij kwamen, naar voren te schuiven.

Tweede is dat we eigenlijk al een halfjaar de configuraties van Lovelace weten omdat hackers dit online hebben gezet. Het is dit:
AD102: 144SM 18432FP32 ALU's
AD103: 84SM 10752FP32 ALU's
AD104: 60SM 7680FP32 ALU's
AD106: 36SM 4608FP32 ALU's
AD107: 24SM 3072FP32 ALU's

Ook weten we dat Nvidia de L2 caches fors gaat vergroten en waarschijnlijk komt er wel iets van clock speed. Clock speed is alleen geen lineaire factor waarbij 30% meer clock speed ook 30% sneller zal betekenen.

Nu zou AD104 de chip voor de "RTX4070" worden. Nou 30% sneller door een combinatie van veel grotere L2 caches en clock speed verbeteringen. Dan kom je dus op RTX3090 niveau. Omdat het een kleinere chip is zei ik <300W.

AD103 heeft vervolgens net zoveel FP32 ALU's als GA102. En omdat ik dus betwijfel of Nvidia hier ook >400W wil gaan doen, zei ik >300W en dus iets van 30% sneller dan de RTX3090 wat een 10496FP32 ALU's chip is.

Dan AD102, tja die heeft 70% meer dan GA102 en daarvoor mag je wat meer verwachten. Maar omdat die chip ook zoveel groter is, zal het verbruik alsnog fors blijven. Immers moeten al die ALU's iets doen. Daarom >400W en iets van 60% sneller. Dit omdat grotere chips in de regel ook minder perf/ALU efficiënt zijn dan kleinere chips.


En het komt ook goed uit met die TSE scores. Want 15000 is 30% meer dan een RTX3090Ti haalt en 10.000 is ongeveer RTX3080 niveau. Er is dus zeker nog een slag om de arm genomen dat die TSE scores aan de lage kant zijn. Maar het kan ook dat Nvidia helemaal weinig uit Lovelace haalt en we niet eens 30% zien. Voor de scores zie ook: https://www.tomshardware....y-rtx-4080-faster-3090-ti


En omdat je het over AMD hebt, tja daar speelt wel wat anders. In tegenstelling tot Nvidia weten we hier niks concreets over ALU aantallen. Maar waar we maar niks horen over wat Nvidia precies veranderd binnen de GPU zelf, horen we hier juist zaken van AMD van. Inmiddels duikt daar een beeld op dat AMD een aantal zaken gaat veranderen.

Komt bij dat dit de vermoede configuraties zijn:
Navi 31: 96WGP 12288ALU's
Navi 32: 60WGP 7680ALU's
Navi 33: 32WGP 4096ALU's

Als we dan bedenken dat Navi 21 "maar" 5120 ALU's is en Navi 22 zelfs maar 2560 ALU's, dan zie je hoe gigantisch het verschil zou zijn. Navi 21 naar 31 zou 140% extra zijn. Als dit het inderdaad dergelijke percentages zijn, en dat kan alleen deze generatie gebeuren omdat we weten dat AMD met een chiplet based GPU's komt, dan is het idee dat Nvidia met met 70% meer ALU's, dit wel even gaat matchen, eerlijk gezegd bespottelijk.

Dat gaat Nvidia alleen maar lukken als ze een fundamenteel andere, veel betere architectuur hebben dan Turing/Ampere. En tot dusver hebben we geen enkele indicatie dat dit eraan zit te komen. Die TSE scores bevestigen het eigenlijk dat er geen grote verbetering gaat komen ten opzichte van Ampere.

Dat verschuift de vraag voor de komende generatie dan ook naar iets heel anders. Klopt het bij AMD dat ze met zo'n monster komen? Navi 21 ten opzichte van Navi 10 was al 100% extra, maar die was zo makkelijk te voorzien omdat Navi 10 gewoon klein was en in 2019 allang duidelijk was dat AMD met "Big Navi" zou komen. Dit is heel wat anders. Dit is potentieel de grootste GPU op GPU generatiesprong ooit.

En zo ja, hoe goed executeren ze een dergelijke sprong? Want als ze dit goed doen, dan is tweemaal zo snel als Navi 21 een zeer reële mogelijkheid. Dan is het geen discussie meer wie de komende generatie "gaat winnen". En ik wacht al maanden op meer bevestiging dat dit er echt gaat komen, want de consequenties doorzag ik een halfjaar geleden al toen deze configuraties opdoken.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@DaniëlWW2

Nvidia lijkt inderdaad niet met een fundamenteel nieuwe architectuur te komen. Ik heb drie vragen bij hen:
- Hoeveel winst halen ze uit de de extra cache?
- Hoeveel kunnen ze de clockspeed verhogen?
- Wat zijn hun kosten per chip en per kaart?

Bij AMD zijn er indicaties dat ze denken dat ze nu echt kunnen concurreren. Ze werken in elk geval erg hard om qua features beter te kunnen concurreren, zoals verbeteringen aan de encoder, DirectX 11 snelheid en FSR 2. Dat is een indicatie dat ze nu echt marktaandeel willen gaan pakken en niet tevreden zijn met de status als budgetkaart die slechter is, maar zoveel goedkoper dat een klein deel van de markt bij ze wil kopen.

Sowieso is een tile-design met name voor de high end heel erg geschikt om hoge throughput te halen, omdat de schaalbaarheidsproblemen minder groot zijn met chiplets.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op zaterdag 6 augustus 2022 @ 22:57:
@DaniëlWW2

Nvidia lijkt inderdaad niet met een fundamenteel nieuwe architectuur te komen. Ik heb drie vragen bij hen:
- Hoeveel winst halen ze uit de de extra cache?
- Hoeveel kunnen ze de clockspeed verhogen?
- Wat zijn hun kosten per chip en per kaart?
-Zeker iets, maar ik vermoed dat Nvidia niet meer kan beginnen met twee blocken L2 cache in de hoeken van de chips plaatsen en het daarbij zal laten. (GA102 was 6MB, AD103 zou 64MB worden)
-Niemand die dit vooralsnog echt weet, buiten Nvidia dan.
-Veel, veel hoger dan Ampere. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
DaniëlWW2 schreef op zaterdag 6 augustus 2022 @ 18:35:


En omdat je het over AMD hebt, tja daar speelt wel wat anders. In tegenstelling tot Nvidia weten we hier niks concreets over ALU aantallen. Maar waar we maar niks horen over wat Nvidia precies veranderd binnen de GPU zelf, horen we hier juist zaken van AMD van. Inmiddels duikt daar een beeld op dat AMD een aantal zaken gaat veranderen.

Komt bij dat dit de vermoede configuraties zijn:
Navi 31: 96WGP 12288ALU's
Navi 32: 64WGP 8096ALU's
Navi 33: 32WGP 4096ALU's
2 correcties hier (op basis van je eigen post https://gathering.tweakers.net/forum/view_message/72271492 )
Navi 31: 96CU/48WGP 12288ALU's
Navi 32: 64CU/32WGP 8096ALU's
Navi 33: 32WGP 4096ALU's 40CU/20WGP en dezelfde 5120ALU's als Navi21.

Aangezien we van Navi21 naar Navi33 van 80CU naar 40CU gaan, en gezien de Linux drivers update, zal Navi31-32-33 CU's hebben met 4 SIMD per CU (ipv 2 SIMD per CU). Daardoor geen verschil in ALU's.

Verder ben ik het eens met je TDP schattingen voor Lovelace AD102 AD103 en AD104, er zullen ongetwijfeld AIB kaarten zijn die meer TDP vragen, maar voor de "Founder's Edition" verwacht ik wat conservatievere TDPs:
AD102 450W (4090)
AD103 375W (4080)
AD104 300W (4070)

waarbij AD103 en AD104 vermoed ik pas volgend jaar beschikbaar zullen zijn.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 14-09 07:40

SG

SG surft naar info hardewaren

De 4090 en 4080 en 4090 zijn de set points tenzij nvidia terug koppeling krijgt van AIB wat navi 31/32 doet. En nv dus wat voorkennis heeft.
4070 Ti en 4080Ti en 4090Ti zijn reactie middel om sku lijn te matchen met die AMD en kroon te behalen. En dat zal dus totaal afhankelijk zijn van hoe goed navi 31 gaat zijn.
Is navi 31 4090ti killer dan krijg nV FX5800 trekjes voor die 4090ti van extreem oc van papieren tijger
En dan is 800watt ook mogelijk.
Ik weet dat nV nogal dwangmatig de kroon moet hebben. En zullen dus extreem reageren op sterke navi31. Valt AMD tegen, dan zal het meevallen met de TDP van 4090 ti.
En zoals gewoonlijk zal bij nV kamp tdp dan uiteraard niet relevant zijn. Als ze op die manier de kroon moeten pakken.

AMD gaat ook voor meer vermogen omdat eenmaal de natuurwet is dat elke grote chip met elke dieshrink de grens verlegd kwa klok ceiling en de tdp mee komt. AMD gaat denk ik niet zo snel voor 600watt. Maar nV zie ik wel als nodig is om de kroon met fotofinisch te pakken de 800W wel te gaan overtreffen.

Ik heb geen benul wie gaat winnen ik hoop op AMD. Maar historisch gezien heeft AMD geen probleem om met 450W 2deplek te pakken. NV gaat heel ver voor die kroon.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@SG Dat zie ik ook als een waarschijnlijk scenario.
Ik vraag me alleen serieus af of Nvidia het deze generatie weer kan doen als Navi 31 is wat de geruchtenmodel zegt dat het is. Want de "RTX4090" zou rond de 65% sneller dan de RTX3090Ti zitten. Daar komt dan nog wat bij als Nvidia echt elke pretentie van efficiëntie uit het raam gooit, maar dan alsnog lijkt Navi 31 wel heel erg groot te worden. En als AMD daar ook marge heeft om een hoger clockende ultieme chip uit te brengen, dan kan het alsnog klaar zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Met de 6x50 heeft AMD al een refresh gedaan die eigenlijk alleen een overclock inhield, ten koste van de efficiëntie. Dus ze hebben al laten zien dat ze bereid zijn om kaarten met vrij inefficiënte kloksnelheden uit te brengen.

Ik denk dat ze echt wel de kroon willen pakken als dat kan. Qua efficiëntie is het vermoedelijk beter als er een duidelijke winnaar is, zodat er geen strijd ontstaat om net te winnen met absurd hoge wattages. Aan de andere kant is het voor de prijzen wellicht beter als ze wel dicht bij elkaar liggen. Al heeft AMD natuurlijk een achterstand qua mindshare, dus vermoedelijk hebben ze een snellere kaart nodig om door de consument als gelijkwaardig te worden gezien. Dus wellicht is het beter als AMD duidelijk wint (maar ook niet zo duidelijk dat Nvidia niet meer kan concurreren met een aantrekkelijke prijs).

AMD zou ook een poging kunnen doen om qua marketing de nadruk te leggen op de temperaturen. Het lijkt me vrij simpel om daar reclame voor te maken, bijvoorbeeld door een AMD- en Nvidia-gamer te introduceren die beide hun game-setup laten zien. En dan is de Nvidia setup letterlijk een sauna.

@DaniëlWW2

Ik vermoed dat Nvidia met de 5000 serie pas echt interessant wordt qua architectuurverbeteringen. Ik neem aan dat het bij de design-afdeling nu alle hens aan dek is om voor de volgende generatie stevig te innoveren.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 13-09 09:39
DaniëlWW2 schreef op zaterdag 6 augustus 2022 @ 18:35:
[...]


Ten eerste word ik inmiddels met de dag/tweet, sceptischer. Want inmiddels word er zoveel geroepen en zoveel gezegd dat het lijkt op indekken om vervolgens achteraf de scenario's die het dichtstbij kwamen, naar voren te schuiven.
Nvidia is gewoon aan het testen waardoor het nog niet zeker is wat een "4070" zal worden. Hierdoor zie je dus veel aangepaste specs.
DaniëlWW2 schreef op zaterdag 6 augustus 2022 @ 18:35:
Tweede is dat we eigenlijk al een halfjaar de configuraties van Lovelace weten omdat hackers dit online hebben gezet. Het is dit:
AD102: 144SM 18432FP32 ALU's
AD103: 84SM 10752FP32 ALU's
AD104: 60SM 7680FP32 ALU's
AD106: 36SM 4608FP32 ALU's
AD107: 24SM 3072FP32 ALU's

Ook weten we dat Nvidia de L2 caches fors gaat vergroten en waarschijnlijk komt er wel iets van clock speed. Clock speed is alleen geen lineaire factor waarbij 30% meer clock speed ook 30% sneller zal betekenen.

Nu zou AD104 de chip voor de "RTX4070" worden. Nou 30% sneller door een combinatie van veel grotere L2 caches en clock speed verbeteringen. Dan kom je dus op RTX3090 niveau. Omdat het een kleinere chip is zei ik <300W.

AD103 heeft vervolgens net zoveel FP32 ALU's als GA102. En omdat ik dus betwijfel of Nvidia hier ook >400W wil gaan doen, zei ik >300W en dus iets van 30% sneller dan de RTX3090 wat een 10496FP32 ALU's chip is.
Dit is te kort door de bocht aangezien je niet weet welke performance impact de kloksnelheden en L2 gaan hebben. Eigenlijk is het niet meer dan een gokje. Je weet ook niet of er nog andere aanpassingen zijn. Gerucht is dat we terug naar de Turing indeling gaan maar daar heb ik wel m'n twijfels over. Kopite heeft al gezegd dat de huidige Lovelace niet de eerste versie was die eigenlijk niet meer was dan Ampère op een betere node
DaniëlWW2 schreef op zaterdag 6 augustus 2022 @ 18:35:
[...]


En het komt ook goed uit met die TSE scores. Want 15000 is 30% meer dan een RTX3090Ti haalt en 10.000 is ongeveer RTX3080 niveau. Er is dus zeker nog een slag om de arm genomen dat die TSE scores aan de lage kant zijn. Maar het kan ook dat Nvidia helemaal weinig uit Lovelace haalt en we niet eens 30% zien. Voor de scores zie ook: https://www.tomshardware....y-rtx-4080-faster-3090-ti
Je overschat hier de TSE scores. Waar baseer je je op? De hoogste scores? Een gemiddelde 3090 haalt nog geen 10.000. Kopite zei al dat de TSE scores van een FE zijn dus dan lijkt het me eerlijker om ze tegen het gemiddelde te vergelijken en dan zit je bij een 3080 aan 8000. Dan zit je dus bijna 90% hoger met 15.000.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
napata schreef op maandag 8 augustus 2022 @ 14:55:
Nvidia is gewoon aan het testen waardoor het nog niet zeker is wat een "4070" zal worden. Hierdoor zie je dus veel aangepaste specs.
Sorry, maar nee. Ofwel de release heeft nooit op september/oktober gestaan (laat staan juli/augustus) en het ding komt op z'n vroegst laat Q4, of de "cuts" liggen al maanden lang vast. Als eind september de streef datum is/was dan heeft Nvidia inmiddels de firmware (BIOS) naar board partners gestuurd. De partners willen al een BOM hebben en wat er qua koeling op moet.

Voordat ze überhaupt zo ver zijn dat dat gebeurt, ligt ook al lang vast hoe de chips fysiek in elkaar zitten. Nvidia (en AMD, en Intel) kunnen niet 1-2 maanden vóór release nog besluiten dat ze meer of minder van een die uitschakelen. Daarvoor duurt het validatie proces te lang. het enige dat pas relatief laat vastgesteld wordt zijn de definitieve kloksnelheden/spanningen die in de BIOS gestopt worden; dat zijn dan waarden die Nvidia durft te garanderen voor elke chip van die configuratie.

Bij elke generatie wordt dit weer geclaimd en het is gewoon niet zo. Net als de verhalen van "fabrikant X is bang voor fabrikant Y dus hebben ze dit of dat nog even snel veranderd". Kan gewoon niet. Het ontwerp van Ampère stond eind 2018, begin 2019 al vast. Het algehele ontwerp van Lovelace stond ook al eind 2020 vast, als het niet eerder was. Of "Nvidia gaat GA102 van Samsung naar TSMC verplaatsen". Ik wacht nog steeds op die magische chip, waar in december 2020 al "geruchten" van rond gingen. Of de GA103 die even gehakt van GA102 ging maken, omdat die dus bij TSMC gebakken was, zeker geen mobiele chip.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Om te illustreren wat @Werelds bedoeld. Het gaat hier om het tape-in process.
Dat is het stadium waarbij de verschillende onderdelen van een IC voltooid zijn en het ontwerp bevroren word. Vervolgens worden die onderdelen gecombineerd tot een chip. Dat is de tape-out. Vervolgens begint er dan nog een lang proces om dat ontwerp daadwerkelijk productie gereed te maken, te valideren, SKU's te formuleren, BIOS schrijven etc. Dit gaat met een serie aan testchips waarbij het telkens maanden kan kosten voordat je de feedback van je vorige testchips krijgt met nieuwe wafers. Want een wafer opbouwen tot een chip is inmiddels ook een zeer langdurig proces geworden. Na elke testrun ben je weer bezig met defecten opsporen en repareren in het ontwerp alsmede kleine optimalisaties doorvoeren om de producteerbaarheid te verbeteren. En zodra je chip een beetje acceptabel is, begint het uiteindelijke eindproces naar de lancering.

Met de extreme complexiteit van moderne IC's, duurt het productie gereed maken waarschijnlijk meer dan een jaar. Misschien kan Intel dit sneller doen, maar die hebben zowel de fabrieken als de ontwerpers en die kunnen geld gooien naar problemen op een manier dat zelfs Nvidia niet kan. En laten we wel wezen, het ging niet bepaald geweldig met Intel hun executie de laatste jaren.

Zeker voor dergelijke grote chips zoals GPU's, gaat dit proces minstens een jaar kosten. En daarvoor zitten nog maanden aan onderdelen van de chip combineren tot een chip die produceerbaar zal zijn. Daarom liggen de ontwerpen al in 2021 vast en is elke speculatie over radicale aanpassingen op het laatste moment, onzin. Realiteit is gewoon dat terwijl wij wachten op Lovelace en RDNA3, "Blackwell" en RDNA4 qua architectuur al richting de afrondende fase gaan.


Overigens kom ik bij stom toeval dit net tegen. Vorig jaar heb ik eigenlijk de hele GPU markt genegeerd omdat het totaal niet interessant meer was. Maar blijkbaar noemde Nvidia het toen al Ampere Next. Dat beloofd dus veel goeds qua fundamentele veranderingen in architectuur. Want uit wat er nu uit de geruchtenmolen komt, lijkt dat het ook echt te worden.
Afbeeldingslocatie: https://static.tweaktown.com/news/7/8/78702_09_nvidia-teases-ampere-next-gpu-for-2022-2024_full.jpg

[ Voor 4% gewijzigd door DaniëlWW2 op 08-08-2022 19:54 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Om dat productie verhaal nog wat verder te illustreren: een architectuur wordt in eerste instantie puur vanuit functionaliteit ontworpen. Dat zijn die blok diagrammen die wij te zien krijgen van de hele chip, van de SM's/WGP's, enzovoort. Niet noodzakelijkerwijs hoe het fysiek op de die terecht komt, maar wel de logische indeling van hoe alles aan elkaar hangt. Dat komt voort uit de "functional requirements" (iets waar elke IT'er wel bekend mee is, of het nu hard- of software is :P). Dus zo veel pixels per cycle, zo veel vertexes per tik, zo veel texture ops, ondersteuning voor tessellation/RT/blergh, dat soort dingen. En ook al bouwt dat voort op een ouder ontwerp, daar gaat makkelijk 6 maanden in zitten; voor volledig nieuwe ontwerpen zal dat richting een jaar gaan. Maxwell en RDNA zullen beide richting dat laatste gezeten hebben, Pascal+ en RDNA2 richting dat eerste.

Dan gaan ze een floorplan maken. Dat is het ontwerp van de gates, de interconnects, al die ongein. Gebeurt allemaal nog op "papier" (dat wil zeggen, ontwerp software). Wederom zullen hier dingen hergebruikt worden; zoiets als de FP32 ALU's is gewoon een kant-en-klaar ontwerp blokje dat van het vorige ontwerp hergebruikt zal worden. En toch kost dit process ook alweer makkelijk enkele maanden. En dat wordt dan weer gesimuleerd, waarbij workloads door de ontworpen blokken worden gegooid en gecontroleerd wordt of de output correct is. Traag en zwaar proces (dat doe je niet op je laptop :P), maar goedkoper dan al meteen het ontwerp bij TSMC neerleggen. Je wil geen honderdduizenden kwijt zijn voor een test-die als die fouten bevat :+

Je bent onderhand al makkelijk 12-18 maanden kwijt en je hebt nog niets fysieks. Ga je voorlopig ook niet hebben, want nu moet je de ets maskers gaan ontwerpen. Het plannen van al het koper en dergelijke in de die. Hoppa, weer een paar maanden kwijt. Dat gaat dan naar TSMC voor een test run, waarmee je je eerste tape-out krijgt. Een enkele wafer kost zo'n 6-8 weken. Die moet dan getest worden op defecten, dit is waar je weet hoe je yields zijn. Die wafer moet dan opgedeeld worden en de dies moeten nog verpakt worden, want wat er op je PCB zit is geen kale die. Kost ook nog tijd.

En dan moet de daadwerkelijke chip nog getest en gevalideerd worden. Dat is waar ze nog spelen met spanningen en kloksnelheden (hoewel die eerder in het proces ook al deels vast gesteld en getest zijn).

Pas als dat alles gebeurd is en vast gesteld is ga je over tot massaproductie, waar Nvidia al mee bezig moet zijn als eind september het doel is. Want die chips moeten na dit alles nog naar de board partner gestuurd worden, die ook tijd nodig heeft om de PCB's te maken en alles samen te stoppen tot een grafische kaart.


Dus nee, Nvidia is nu absoluut niet nog bezig met "testen" wat een specifieke SKU gaat worden. Die dingen liggen al lang in de oven bij TSMC - mits ze dus inderdaad in september of begin oktober op de markt moeten komen. En zelfs als dat niet meer het plan is maar wel was, dan was hun planning ook al een tijd geleden er op gericht al klaar te zijn met testen.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Yup. :)

Komt ook nog eens bij dat ik weinig geloof dat het plan niet was om dit jaar met de Lovelace lancering te beginnen en dan niet alleen AD102. Ergo veel configuraties zijn waarschijnlijk allang klaar en gevalideerd terwijl de chips in productie zijn.

Nvidia lanceert immers al tijden in H2/even jaar. Als Nvidia hun target mist, dan gaat de aandeelprijs fors omlaag omdat investeerders hun nieuwe generatie verwachten. En nu met een winstwaarschuwing die Nvidia moest geven omdat het inmiddels wel duidelijk is dat ze met veel te veel inventaris zitten die ze niet gaan verkopen voor die belachelijke prijzen, nou het aandeel ging al van $189 naar $174.

[ Voor 3% gewijzigd door DaniëlWW2 op 08-08-2022 22:06 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:51
DaniëlWW2 schreef op maandag 8 augustus 2022 @ 21:19:
En nu met een winstwaarschuwing die Nvidia moest geven omdat het inmiddels wel duidelijk is dat ze met veel te veel inventaris zitten die ze niet gaan verkopen voor die belachelijke prijzen, nou het aandeel ging al van $189 naar $174.
Het aandeel staat nu op de prijs van 27 juli. Dit verschil is echt alleen relevant voor daytraders.

Afbeeldingslocatie: https://tweakers.net/i/RgDPWIBwYnI_QLwt8UH_rX4iYiw=/800x/filters:strip_exif()/f/image/paJSc1V4C3IgII7jVlokedo0.png?f=fotoalbum_large

Als ik iemand was die in losse aandelen zou beleggen en NVDA in mijn portfolio had gehad, dan zou ik dat dipje aan de rechterkant niet zo relevant achten :+. De kopers van de "tech" top rond de jaarwisseling hebben veel grotere zorgen en zij die daarvoor kochten hebben sowieso geen zorgen en het liefst verkocht rond diezelfde piek of ze zitten er echt voor de lange termijn. Al zou ik niet weten wat het specifieke doel zou zijn, gezien er vrij weinig in de pipeline zit voor alsnog wat die prognose zou ondersteunen.

[ Voor 15% gewijzigd door Paprika op 08-08-2022 23:02 ]


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Er komt wellicht een lastige tijd aan: de PC-markt was al aan het krimpen en de VS, China en Europa gaan waarschijnlijk gezamenlijk in recessie. Dat weten ze bij Nvidia en AMD ook wel, vandaar dat er bij TSMC afgeschaald moet worden. Als straks de economie helemaal door het putje gaat dan zal er veel minder verkocht worden.

[ Voor 23% gewijzigd door XWB op 08-08-2022 23:19 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
XWB schreef op maandag 8 augustus 2022 @ 23:15:
Er komt wellicht een lastige tijd aan: de PC-markt was al aan het krimpen en de VS, China en Europa gaan waarschijnlijk gezamenlijk in recessie. Dat weten ze bij Nvidia en AMD ook wel, vandaar dat er bij TSMC afgeschaald moet worden. Als straks de economie helemaal door het putje gaat dan zal er veel minder verkocht worden.
Dus, koopjes tijd 😊 tenzij je tijdens de pandemie al moest kopen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nieuwe dag, nieuwe specificaties. :P



Deze is misschien iets interessanter omdat deze normaal gesproken weinig zegt.

[ Voor 30% gewijzigd door DaniëlWW2 op 09-08-2022 15:11 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 13-09 09:39
Werelds schreef op maandag 8 augustus 2022 @ 19:03:
[...]

Sorry, maar nee. Ofwel de release heeft nooit op september/oktober gestaan (laat staan juli/augustus) en het ding komt op z'n vroegst laat Q4, of de "cuts" liggen al maanden lang vast. Als eind september de streef datum is/was dan heeft Nvidia inmiddels de firmware (BIOS) naar board partners gestuurd. De partners willen al een BOM hebben en wat er qua koeling op moet.

Voordat ze überhaupt zo ver zijn dat dat gebeurt, ligt ook al lang vast hoe de chips fysiek in elkaar zitten. Nvidia (en AMD, en Intel) kunnen niet 1-2 maanden vóór release nog besluiten dat ze meer of minder van een die uitschakelen. Daarvoor duurt het validatie proces te lang. het enige dat pas relatief laat vastgesteld wordt zijn de definitieve kloksnelheden/spanningen die in de BIOS gestopt worden; dat zijn dan waarden die Nvidia durft te garanderen voor elke chip van die configuratie.

Bij elke generatie wordt dit weer geclaimd en het is gewoon niet zo. Net als de verhalen van "fabrikant X is bang voor fabrikant Y dus hebben ze dit of dat nog even snel veranderd". Kan gewoon niet. Het ontwerp van Ampère stond eind 2018, begin 2019 al vast. Het algehele ontwerp van Lovelace stond ook al eind 2020 vast, als het niet eerder was. Of "Nvidia gaat GA102 van Samsung naar TSMC verplaatsen". Ik wacht nog steeds op die magische chip, waar in december 2020 al "geruchten" van rond gingen. Of de GA103 die even gehakt van GA102 ging maken, omdat die dus bij TSMC gebakken was, zeker geen mobiele chip.
Enkel de 4090 staat volgens mij vast voor dit jaar. Immers de laatste geruchten die ik heb gehoord over de AIBs is dat ze nog geen chips hadden ontvangen. Ik heb trouwens ooit ook al gehoord dat AIBs echt niet veel tijd krijgen. Bij de launch van Ampere was dit trouwens ook wel wat te merken met chips die eigenlijk niet voldoende getest waren en waar de boosting algoritmes moesten aangepast worden.
het zou me niet verbazen dat je AD103 chips en volgende pas tegen eind dit jaar of begin volgend jaar ziet. Dit is ook wat Kopite zelf zegt.
Afbeeldingslocatie: https://tweakers.net/i/Iw3CLeJu50L35_3L2izEzQxBL3k=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/h851M5ax4xMrSYnN3dzWOINl.png?f=user_large
Vandaar dat je ook zoveel wijzigingen op korte termijn ziet. Vandaag was er weer één. Je moet er natuurlijk ook van uit gaan dat er wel enige vertraging zit op wat hij meldt.

We spreken hier over de SKUs en niet de chips zelf die natuurlijk al heel lang vastliggen zoals je zegt. Uiteindelijk is een "4070" maar een benaming. Er is immers geen verschil tussen een 3060Ti en 3070 bijvoorbeeld. Bij Nvidia gebruiken ze zelfs dezelfde koeler. Heel laat had Nvidia even goed kunnen zeggen: we gaan beiden schrappen en gaan gewoon voor iets tussenins als 3070 met 42 SMs omdat de yields tegenvallen. Een 4070 zal waarschijnlijk AD104 gebruiken maar of die nu 60, 58 of 56 SMs gaat hebben kan volgens mij op relatief korte termijn veranderen. Uiteindelijk gaat het allemaal omdezelfde chips. De wijzigingen die geleaked worden zijn ook allemaal maar kleine aanpassingen.

Als dit niet zo was zou je ook niet al die verschillende testboards geleaked krijgen door Kopite. Ik heb ooit nog SKUs zien veranderen na de release. De 5600xt bijvoorbeeld. Je moest dan maar een bios update downloaden. Ik heb ooit zelf nog m'n specs zitten aanpassen met een bios flash dus als ik dit kan als consumer dan kan dit echt wel heel kort voor de release aangepast worden.
DaniëlWW2 schreef op dinsdag 9 augustus 2022 @ 15:02:
Nieuwe dag, nieuwe specificaties. :P
[Twitter]
[Twitter]

Deze is misschien iets interessanter omdat deze normaal gesproken weinig zegt.
[Twitter]
Die laatste is ook gewoon een testboard die al dan niet een release SKU zal krijgen. Misschien als 4080Ti, 4085, 4090SE, etc. Het zijn maar namen. In tegenstelling tot Kopite is hij wel slim genoeg om er geen naam op te plakken.

[ Voor 10% gewijzigd door napata op 09-08-2022 15:27 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
napata schreef op dinsdag 9 augustus 2022 @ 15:22:
We spreken hier over de SKUs en niet de chips zelf die natuurlijk al heel lang vastliggen zoals je zegt.
Echter hangen die twee aan elkaar vast. De yields en defect rate bepalen hoe veel chips van welke configuratie ze kunnen produceren, wat op zijn beurt cruciaal is voor de benodigde spanning en haalbare kloksnelheden. Ze schakelen niet willekeurig een aantal SM's uit puur om een nieuwe SKU (chip SKU, niet willekeurig-model-nummer SKU ;)) te maken. Ze schakelen ze uit omdat de chips anders niet werkbaar zijn. De chip die ze in een 3080 stoppen hadden ze in veel gevallen waarschijnlijk ook best met alle SM's kunnen laten draaien. Echter had die dan waarschijnlijk 1200, 1300 mV (of nog meer) nodig gehad om de beoogde kloksnelheden (performance targets) te halen. Of op zo'n lage kloksnelheden draaien dat het niet meer zinvol is.

Daarom heb je ook van die gekke dingen als de 3080 Ti, die nagenoeg identiek aan de 3090 presteert en er veel dichter op zit dan er uit hun tests en validatie kwam (wat uiteraard geen game tests zijn). Want dat ding haalt niet dezelfde kloksnelheden. Maar in de praktijk pakt dat dus anders uit en komt het de efficiëntie ten goede, waardoor de 3080 Ti de 3090 eigenlijk buitenspel zet. Ze hebben niet besloten 2 SM's te knippen omdat ze een 3080 Ti wilden; nee, ze zagen dat er een hoop dies waren die met 2 SM's minder werkbaar waren op spanningen en kloksnelheden die hem zo'n 10% achter de 3090 hadden moeten plaatsen. Dus dan maken ze er de 3080 Ti van, want er was al een 3080.
Er is immers geen verschil tussen een 3060Ti en 3070 bijvoorbeeld.
Jawel, die eerste heeft namelijk meer spanning nodig om überhaupt te functioneren (zie ook hieronder), wat uiteraard invloed kan hebben op dingen als TDP :)
Een 4070 zal waarschijnlijk AD104 gebruiken maar of die nu 60, 58 of 56 SMs gaat hebben kan volgens mij op relatief korte termijn veranderen.
Nee, want dan moeten ze het hele validatie proces opnieuw starten, omdat er dan meer of minder dies gebruikt kunnen worden die andere eisen hebben qua minimale spanning en andere haalbare kloksnelheden. Case in point: GA104. De chip in de 3060 Ti heeft makkelijk 150 mV meer nodig voor z'n minimale clocks (base + boost) dan de chip in de 3070; en de chip in de 3070 Ti zit nóg een stapje hoger. Het geheugen heeft er op dat weinig mee te maken, want al die cuts hebben alle MC's gewoon draaien. Signaling is voor de 3070 Ti als kaart anders omdat er GDDR6X aan de chip gehangen wordt (waardoor de board power omhoog gaat), maar de MC's kunnen met beide geheugen types overweg.
Als dit niet zo was zou je ook niet al die verschillende testboards geleaked krijgen door Kopite.
Ze maken niet voor elke SKU een apart bord om te testen :p

Als je door kopite's tweets heen gaat zie je hetzelfde bordnummer bij zowel de 7168 als de 7680 versie van AD104 zoals hij ze "lekt".
Ik heb ooit nog SKUs zien veranderen na de release. De 5600xt bijvoorbeeld. Je moest dan maar een bios update downloaden. Ik heb ooit zelf nog m'n specs zitten aanpassen met een bios flash dus als ik dit kan als consumer dan kan dit echt wel heel kort voor de release aangepast worden.
Jij als consument kan dat als je hem in handen hebt, maar een videokaart fabrikant kan niets meer updaten als die kaarten eenmaal van de band gerold zijn. Wat AMD met de 5600 XT deed vonden de partners ook helemaal niet leuk en ze hebben er dan ook niets mee gedaan, omdat het veel te laat kwam. Daarom lieten ze dat dus aan de consument over. Dat was overigens ook enkel hogere kloksnelheden voor het geheugen, wat dus inderdaad in de firmware zit. Wat uiteindelijk resulteerde in nieuwe SKU's van de videokaart fabrikanten, want dat kunnen ze voor meer verkopen.

Inschakelen van delen van een GPU na verkoop kan al heel lang niet meer; ik mis de potlood streepjes, maar dat gaat nooit meer terug komen. Ze doen niet meer aan lasercuts, maar het is ook niet de BIOS die bepaalt hoeveel SM's er ingeschakeld zijn ;)


Nogmaals: Nvidia heeft al lang vastgesteld welke cut van welke chip er voor het top model gebruikt gaat worden. Op basis van dat ding wordt ook vast gesteld wat de performance targets voor de modellen eronder zijn en aan de hand daarvan hebben ze al lang getest welke cuts ze daarvoor nodig hebben. Dat wordt niet weken vóór release nog aangepast. En nee, de 4080/4070 gaan ze niet pas in november of iets dergelijks aankondigen. Dan worden ze misschien uitgebracht, maar de aankondiging gaat 95% zeker weten tegelijk met de 4090 plaatsvinden, dus dan moet al vast staan wat die chips gaan worden. Ze gaan sowieso niet hun eerste halo product in z'n eentje aankondigen, dat zou echt bizar zijn en is nog nooit voorgekomen bij welke half-geleider fabrikant dan ook.

Nvidia heeft er inderdaad wel een gewoonte van gemaakt veel dingen af te dwingen bij hun partners en ze vaak ook weinig tijd te geven, maar de partners zijn alsnog gewoon gebonden aan wat er daadwerkelijk mogelijk is qua productie. Ze kunnen niet op tijd van een paar weken alles klaar hebben qua daadwerkelijke fysieke producten, laat staan het verschepen over de hele wereld en de marketing/PR. Ze krijgen geen kant en klare PCB's met chips geleverd.

Overigens is kopite's laatste tweet ook stierenpoep van het hoogste kaliber. Ze gaan niet ineens 100W (23,8%!) en 115W (38%) zakken met hun TBP. Als dat de TBP's worden dan zijn 420/300 ook nooit het doel geweest voor die SKU's ;)

Ik heb het al eerder gezegd, maar alles wat kopite tweet moet je heel zorgvuldig lezen. Heel veel is eigen natte vinger werk, niet daadwerkelijke "gelekte" data.

[ Voor 7% gewijzigd door Werelds op 10-08-2022 00:26 ]


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 13-09 09:39
Werelds schreef op woensdag 10 augustus 2022 @ 00:09:
[...]

Echter hangen die twee aan elkaar vast. De yields en defect rate bepalen hoe veel chips van welke configuratie ze kunnen produceren, wat op zijn beurt cruciaal is voor de benodigde spanning en haalbare kloksnelheden. Ze schakelen niet willekeurig een aantal SM's uit puur om een nieuwe SKU (chip SKU, niet willekeurig-model-nummer SKU ;)) te maken. Ze schakelen ze uit omdat de chips anders niet werkbaar zijn.

Ze schakelen niet willekeurig een aantal SM's uit puur om een nieuwe SKU (chip SKU, niet willekeurig-model-nummer SKU ;)) te maken.
Producten worden ook sowieso aangeboden op op basis van de verwachte vraag en moesten de yields te goed zijn dan worden wel degelijk willekeurige chips gebruikt voor de lower end products.

Moest je 100% perfecte yields hebben dan ga je nog steeds cuts zien op de markt want je wilt ook verkopen aan consumenten die bijvoorbeeld <500€ voor een GPU of CPU willen betalen zonder dat je voor elke schijf van 50-100€ een aparte chip gaat zitten maken.
Werelds schreef op woensdag 10 augustus 2022 @ 00:09:
[...]

[...]


[...]

Nee, want dan moeten ze het hele validatie proces opnieuw starten, omdat er dan meer of minder dies gebruikt kunnen worden die andere eisen hebben qua minimale spanning en andere haalbare kloksnelheden. Case in point: GA104. De chip in de 3060 Ti heeft makkelijk 150 mV meer nodig voor z'n minimale clocks (base + boost) dan de chip in de 3070; en de chip in de 3070 Ti zit nóg een stapje hoger. Het geheugen heeft er op dat weinig mee te maken, want al die cuts hebben alle MC's gewoon draaien. Signaling is voor de 3070 Ti als kaart anders omdat er GDDR6X aan de chip gehangen wordt (waardoor de board power omhoog gaat), maar de MC's kunnen met beide geheugen types overweg.
Alle Ampere kaarten hebben min of meer dezelfde v/f curve. Dit weet ik uit ervaring aangezien ik er meerdere heb gehad maar kan je ook gewoon in reviews terugvinden. Zelfs als je gaat undervolten zie je geen gigantische verschillen.
Geen verschil in v/f curve tussen 3060Ti en 3070:
https://www.techpowerup.c...-founders-edition/32.html
https://www.techpowerup.c...-founders-edition/32.html

Zelfs een 3090Ti heeft eenzelfde v/f curve.
https://www.techpowerup.c...-founders-edition/38.html

Vandaar dat ook alle Ampere GPUs min of meer eenzelfde max clock hebben. Dit was trouwens bij Turing en Maxwell niet anders.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
napata schreef op woensdag 10 augustus 2022 @ 12:03:
Producten worden ook sowieso aangeboden op op basis van de verwachte vraag en moesten de yields te goed zijn dan worden wel degelijk willekeurige chips gebruikt voor de lower end products.
Tuurlijk niet :p

Nvidia gaat niet in hun marges zitten zagen als dat niet hoeft. Als een die goed genoeg is om met 82 SM's op 1000 mV en 1950 MHz te draaien komt die van z'n leven niet terecht in een 3080. Dat is ook waarom ze met zo'n extreme gecastreerde versie van GA102 begonnen zijn, want die konden ze genoeg produceren.
Moest je 100% perfecte yields hebben
Bestaat niet. Lithografie is van nature een imperfect proces, er zitten altijd defects in een wafer. Sowieso heeft elke wafer incomplete dies aan de rand (wafer is rond, dies zijn rechthoekig), waarmee de yields al geen 100% per wafer kúnnen zijn. Vervolgens maakt de grootte van de chip ook uit, want hoe groter de chip, hoe groter de kans dat een die een defect heeft. Dat verschil tussen GA102 en Navi 21 kan bijvoorbeeld al snel 10% schelen in de yields. Vervolgens maakt het ontwerp ook nog eens iets uit, dat is waarom Fermi ook niet te leveren was (naast alle andere slechte eigenschappen van de chip), Nvidia's ontwerp trok de yields gewoon omlaag. Een defect betekent ook niet meteen dat een chip niet bruikbaar is, dit is waar de hardere cuts vandaan komen. De chips die voor de 3080 gebruikt worden hebben hoogstwaarschijnlijk een defect in de L2 waardoor ze daar een deel van uit moeten schakelen. Nogmaals: je gaat geen die met 100% functionele L2 ineens deels uitschakelen puur omdat je een SKU wil hebben, dat is letterlijk geld weg gooien. De wafer alleen al heeft je tegenwoordig $20k gekost. En om dat in perspectief te zetten: met een chip van het kaliber van GA102 komen er uit 1 wafer 80 complete dies (partial dies zijn dan al ingecalculeerd). Je moet die dingen dan al voor $250 verkopen om quitte te spelen op de wafer, laat staan de rest van het proces. Met TSMC's defect rate van 0,09 per cm² (geen idee wat het voor Samsung is) heb je met zo'n grote die echter al yields van onder de 60%, je zult zo'n 45-50 dies zonder defects over houden. Van de overige 30-35 zal een deel geheel onbruikbaar zijn en de rest zal sowieso flinke cuts nodig hebben.

En na dat alles, moet je alsnog per individuele die kijken waar hij toe in staat is - het wafer test proces geeft Nvidia/Intel/AMD al 90% van de informatie die ze nodig hebben. Zoals gezegd is lithografie een imperfect proces en op deze schaal maakt elke afwijking iets uit. Je kunt 4 dies die pal naast elkaar zaten nemen en toch grote verschillen zien. Dat is waar het andere deel van de cuts vandaan komt.

Dus nee, als Nvidia een die heeft die voor $1000 verkocht kan worden, gaan ze daar niet in zitten knippen puur omdat ze hun SKU van $449 willen leveren. Waren ze maar zo altruïstisch, zie ook hieronder.
dan ga je nog steeds cuts zien op de markt want je wilt ook verkopen aan consumenten die bijvoorbeeld <500€ voor een GPU of CPU willen betalen zonder dat je voor elke schijf van 50-100€ een aparte chip gaat zitten maken.
Heb jij niet naar Nvidia's recente releases gekeken? :P

Turing had vanaf dag 1 drie SKU's: TU102, TU104 en TU106. Ja, de 2070 was TU106 en moest toch nog $599 kosten. Ampère kwam enkel met GA102 en GA104 met 2 vrij forse cuts elk, wat hoogstwaarschijnlijk met de yields te maken had. Voor de 3060 hebben ze gewoon GA106 verzonnen, die ze pas veel later aan zijn gaan vullen met GA104. Volgens jouw theorie zouden ze al meteen besloten kunnen hebben om dat te doen, puur om aan de vraag te voldoen. In werkelijkheid hebben die GA104 dies echter, net als de GA102 in de 3080, een defect in hun L2 waardoor ze niet als 3060 Ti verkocht kunnen worden. En om er dan nog wat rendement uit te halen verkopen ze ze op die manier.

Dingen als de 3080 Ti bestaan niet omdat Nvidia nog een SKU wilde hebben. Die bestaat omdat er gewoon een surplus van chips is die nét niet goed genoeg zijn voor een 3090, maar omdat hun L2 volledig functioneel is, wel nog veel te goed voor de 3080. Wederom: volgens jouw theorie zou Nvidia er voor gekozen moeten hebben die wél te knippen om aan de vraag voor de 3080 te voldoen, die op dat moment nog steeds heel hoog was. Ik denk dat iedereen het er hier wel over eens is dat dat niet zo is :+

De realiteit is dat Nvidia maar weinig interesse meer heeft in die lagere segmenten, omdat ze (helaas) in staat zijn veel duurder te verkopen dankzij hun mindshare. Voor de grote chips móet dat haast wel om de kosten er uit te halen, maar zoiets als TU106 gaf al zo'n 115 dies per wafer (en dat was echt geen kleine chip met 445mm²), wat betekent dat je al kunt zakken richting de $180 voor je break-even punt. En om het verhaal compleet te maken, van GA106 krijgt Nvidia makkelijk zo'n 50% meer complete dies uit een wafer met dan ook nog eens betere yields. 276mm² om 392mm² lijkt niet veel, maar voor het bakproces betekent dat 150+ dies zonder defect tegenover hooguit 100. Dus niet alleen heb je veel meer volume, het is ook veel economischer om het zo te doen. Zo'n GA106 verkopen ze aan partners voor $150 en dan maken ze al lang en breed winst; een geknipte GA104 spelen ze pas quitte op als ze hem voor $200 verkopen.
Alle Ampere kaarten hebben min of meer dezelfde v/f curve. Dit weet ik uit ervaring aangezien ik er meerdere heb gehad maar kan je ook gewoon in reviews terugvinden. Zelfs als je gaat undervolten zie je geen gigantische verschillen.
Geen verschil in v/f curve tussen 3060Ti en 3070:
https://www.techpowerup.c...-founders-edition/32.html
https://www.techpowerup.c...-founders-edition/32.html

Zelfs een 3090Ti heeft eenzelfde v/f curve.
https://www.techpowerup.c...-founders-edition/38.html

Vandaar dat ook alle Ampere GPUs min of meer eenzelfde max clock hebben. Dit was trouwens bij Turing en Maxwell niet anders.
Frequentie wel, maar dat is een ander onderwerp. Ik deel niet de mening van velen dat dat aan Samsung ligt, dat is volgens mij een probleem met hun ontwerp. Maxwell had iets meer variatie in z'n kloksnelheden, maar het lag inderdaad ook al relatief dicht bij elkaar (~10% variatie). Ik zal nog een stap verder gaan want Pascal, Turing en Ampère draaien allemaal op vergelijkbare kloksnelheden. Nvidia zit al 6 jaar met hun hoofd tegen een 2 GHz muur te bonken op compleet verschillende procedé's.

Voor de spanning moet je echter niet zo zeer naar de grafieken kijken, die zijn namelijk niet precies genoeg. Moderne GPU's (Nvidia sinds Maxwell, AMD sinds Tahiti) schakelen sowieso extreem snel tussen spanningen, wat je enkel met externe apparatuur kunt zien omdat de sensors een veel te lage sample rate hebben. Dat is hoe ze het verbruik nog enigszins beteugelen. Kijk naar TPU's bredere spanning test (3D Load), waar ze over de gehele test suite meten. GA104-200 komt niet onder de 887 mV, terwijl de GA104-300 kan zakken tot 756 mV voor grofweg dezelfde kloksnelheden op meer rekeneenheden. Dat is hoe dat verbruik (en dus perf/W) van de 3070 in verhouding beter is. Dat heeft te maken met de kwaliteit van de die :)

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Werelds schreef op woensdag 10 augustus 2022 @ 14:06:
[...]

Tuurlijk niet :p

Nvidia gaat niet in hun marges zitten zagen als dat niet hoeft.
Maar in een competitieve markt waar niet elke kaart wordt opgekocht door miners, is dat wel nodig. Men kan het zich dan niet veroorloven om een segment leeg te laten waardoor de concurrent die deelmarkt pakt, of upsales te verliezen (waarbij mensen besluiten om een stapje omhoog te gaan omdat ze voor slechts X euro een betere kaart kunnen kopen).

In het verleden hebben we vaak genoeg gezien dat men kaarten kon upgraden door een firmware-update, dus dan was hardware gewoon geschikt voor een hogere segment.

De goede yields zorgen nu een beetje voor een nadeel bij een voordeel voor AMD. Ze hadden erg weinig kapotte Navi 21 chips voor de 6800 XT, terwijl de vraag wel hoog was. Straks wordt het met Navi 31 en 32 nog erger vanwege het multi-die ontwerp. De yields worden dan nog beter. Aan de andere kant kunnen de kosten ook wat omlaag door een 7800 XT minder IO dies te geven.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Ludewig schreef op woensdag 10 augustus 2022 @ 14:46:
Maar in een competitieve markt waar niet elke kaart wordt opgekocht door miners, is dat wel nodig. Men kan het zich dan niet veroorloven om een segment leeg te laten waardoor de concurrent die deelmarkt pakt, of upsales te verliezen (waarbij mensen besluiten om een stapje omhoog te gaan omdat ze voor slechts X euro een betere kaart kunnen kopen).
Echter zijn de kosten tegenwoordig zo hoog dat je dat niet met een grote, dure chip kunt doen. Je onderschat echt gigantisch hoe veel de opbrengst per wafer gedaald is ten opzichte van zelfs 28nm, laat staan eerder dan dat. Waarom bestaan TU106 en GA106 dan überhaupt? Zou toch veel makkelijker zijn om gewoon in de grotere chips te knippen?

Nogmaals: waar jij en napata het over hebben is hoe het vroeger ging, maar dat is al heel lang niet meer het geval. Toen hadden ze kleine chips die soms zelfs met honderden uit een wafer kwamen die op zijn beurt hooguit enkele duizenden dollars kostte. Op 28nm kostte een wafer iets van $1500 (dat ging later nog omhoog), wat al 50% duurder was dan 40nm. We zitten nu op meer dan tien keer zo veel en de chips zijn groter geworden.
In het verleden hebben we vaak genoeg gezien dat men kaarten kon upgraden door een firmware-update, dus dan was hardware gewoon geschikt voor een hogere segment.
Geef me dan eens een voorbeeld van de laatste 10 jaar waar een stuk hardware ingeschakeld werd met een firmware update? Want ik ken er geen. Een kleine bump in kloksnelheid telt niet, dat is niets meer dan overklokken, waarbij het voorbeeld van de 5600 XT ook heel erg cosmetisch was omdat dat ding ruim onder z'n beoogde TBP draaide.

Volgens jou en napata had Nvidia gewoon een nieuwe BIOS uit kunnen brengen voor de 970, om zo het 3,5 GB probleem op te lossen. Dat knippen is toch enkel om een SKU te maken, niet omdat de hardware niet werkt? ;)

[ Voor 3% gewijzigd door Werelds op 10-08-2022 15:06 ]


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Werelds schreef op woensdag 10 augustus 2022 @ 15:04:
[...]
Nogmaals: waar jij en napata het over hebben is hoe het vroeger ging, maar dat is al heel lang niet meer het geval. Toen hadden ze kleine chips die soms zelfs met honderden uit een wafer kwamen die op zijn beurt hooguit enkele duizenden dollars kostte. Op 28nm kostte een wafer iets van $1500 (dat ging later nog omhoog), wat al 50% duurder was dan 40nm. We zitten nu op meer dan tien keer zo veel en de chips zijn groter geworden.
Als de kosten hoger zijn veranderd er niks fundamenteels. Er is dan slechts minder ruimte om een grote cut te doen.
Waarom bestaan TU106 en GA106 dan überhaupt? Zou toch veel makkelijker zijn om gewoon in de grotere chips te knippen?
Er is natuurlijk altijd een omslagpunt waar het voordeliger is om een nieuwe chip te maken.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

Werelds schreef op woensdag 10 augustus 2022 @ 15:04:

Geef me dan eens een voorbeeld van de laatste 10 jaar waar een stuk hardware ingeschakeld werd met een firmware update? Want ik ken er geen. Een kleine bump in kloksnelheid telt niet, dat is niets meer dan overklokken, waarbij het voorbeeld van de 5600 XT ook heel erg cosmetisch was omdat dat ding ruim onder z'n beoogde TBP draaide.
Ik wilde de HD7870 XT Joker kaart zeggen, maar ook die kon dat niet meer:
https://www.techpowerup.c...7900-series-in-crossfirex

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Werelds schreef op woensdag 10 augustus 2022 @ 14:06:
[...]

Tuurlijk niet :p

Nvidia gaat niet in hun marges zitten zagen als dat niet hoeft. Als een die goed genoeg is om met 82 SM's op 1000 mV en 1950 MHz te draaien komt die van z'n leven niet terecht in een 3080. Dat is ook waarom ze met zo'n extreme gecastreerde versie van GA102 begonnen zijn, want die konden ze genoeg produceren.


[...]

Bestaat niet. Lithografie is van nature een imperfect proces, er zitten altijd defects in een wafer. Sowieso heeft elke wafer incomplete dies aan de rand (wafer is rond, dies zijn rechthoekig), waarmee de yields al geen 100% per wafer kúnnen zijn. Vervolgens maakt de grootte van de chip ook uit, want hoe groter de chip, hoe groter de kans dat een die een defect heeft. Dat verschil tussen GA102 en Navi 21 kan bijvoorbeeld al snel 10% schelen in de yields. Vervolgens maakt het ontwerp ook nog eens iets uit, dat is waarom Fermi ook niet te leveren was (naast alle andere slechte eigenschappen van de chip), Nvidia's ontwerp trok de yields gewoon omlaag. Een defect betekent ook niet meteen dat een chip niet bruikbaar is, dit is waar de hardere cuts vandaan komen. De chips die voor de 3080 gebruikt worden hebben hoogstwaarschijnlijk een defect in de L2 waardoor ze daar een deel van uit moeten schakelen. Nogmaals: je gaat geen die met 100% functionele L2 ineens deels uitschakelen puur omdat je een SKU wil hebben, dat is letterlijk geld weg gooien. De wafer alleen al heeft je tegenwoordig $20k gekost. En om dat in perspectief te zetten: met een chip van het kaliber van GA102 komen er uit 1 wafer 80 complete dies (partial dies zijn dan al ingecalculeerd). Je moet die dingen dan al voor $250 verkopen om quitte te spelen op de wafer, laat staan de rest van het proces. Met TSMC's defect rate van 0,09 per cm² (geen idee wat het voor Samsung is) heb je met zo'n grote die echter al yields van onder de 60%, je zult zo'n 45-50 dies zonder defects over houden. Van de overige 30-35 zal een deel geheel onbruikbaar zijn en de rest zal sowieso flinke cuts nodig hebben.

En na dat alles, moet je alsnog per individuele die kijken waar hij toe in staat is - het wafer test proces geeft Nvidia/Intel/AMD al 90% van de informatie die ze nodig hebben. Zoals gezegd is lithografie een imperfect proces en op deze schaal maakt elke afwijking iets uit. Je kunt 4 dies die pal naast elkaar zaten nemen en toch grote verschillen zien. Dat is waar het andere deel van de cuts vandaan komt.

Dus nee, als Nvidia een die heeft die voor $1000 verkocht kan worden, gaan ze daar niet in zitten knippen puur omdat ze hun SKU van $449 willen leveren. Waren ze maar zo altruïstisch, zie ook hieronder.
Ik was er ook verbaasd over, maar dat doen ze dus wel. 40 dies zonder defects van de 80 zouden volgens jou allemaal een 3090 worden? Dat is 50%. Maar nVidia produceert en verkoopt minstens 3x à 4x zoveel 3080 achtige kaarten als 3090's. Prijs elasticiteit, als de prijs 2x zo duur is en de prijs is ietwat inelastisch, heb je gelijk 4x minder vraag https://www.economielokaal.nl/nprijselasticiteit/.

Steam survey:
NVIDIA GeForce RTX 3090 0.53%
NVIDIA GeForce RTX 3080 1.75%
NVIDIA GeForce RTX 3080 Ti 0.80%

Ze testen de dies naast defects ook op kloksnelheid. Dies die de top frequentie niet halen, worden gewoon gesneden. Bij AMD is dat eerst -8 CU (6800XT) dan gewoon een hele shader engine d'r uit -20 CU (6800), waar ze ook makkelijk -16CU hadden kunnen doen. Maar helaas, segmentatie.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Coretek's take:



Hij denkt dat nvidia haar hand overspeeld heeft.

[ Voor 18% gewijzigd door Help!!!! op 11-08-2022 11:00 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • stin00
  • Registratie: Mei 2013
  • Niet online
Werelds schreef op woensdag 10 augustus 2022 @ 15:04:
Geef me dan eens een voorbeeld van de laatste 10 jaar waar een stuk hardware ingeschakeld werd met een firmware update? Want ik ken er geen. Een kleine bump in kloksnelheid telt niet, dat is niets meer dan overklokken, waarbij het voorbeeld van de 5600 XT ook heel erg cosmetisch was omdat dat ding ruim onder z'n beoogde TBP draaide.
Ik heb m'n RX480 6 jaar geleden geflashed van 4GB naar 8GB VRAM. Telt dat wel? 8)

https://www.gamersnexus.n...480-vbios-from-4gb-to-8gb

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sunsmountain schreef op donderdag 11 augustus 2022 @ 10:51:
Ik was er ook verbaasd over, maar dat doen ze dus wel. 40 dies zonder defects van de 80 zouden volgens jou allemaal een 3090 worden? Dat is 50%. Maar nVidia produceert en verkoopt minstens 3x à 4x zoveel 3080 achtige kaarten als 3090's.

...

Ze testen de dies naast defects ook op kloksnelheid. Dies die de top frequentie niet halen, worden gewoon gesneden.
Nope, dat eerste is geheel niet wat ik zeg, dat laatste is wat ik al de hele tijd zeg :)

Nogmaals: de yields die van de wafer komen zijn slechts deel van het verhaal. Met een chip van het formaat van GA102 zijn er pakweg 80 complete dies uit de wafer te halen. Van die 80 zullen er gemiddeld rond de 45 geen defecten bevatten met TSMC's defect rate van 0,09/mm². Een die met een defect is niet meteen volledig onbruikbaar, een deel daarvan zal wellicht kunnen functioneren met uitgeschakelde delen van de chip. Dat is waar een deel van de cuts vandaan komen - het zou echter ook best zo kunnen zijn dat elk defect meteen funest is, dat hangt heel erg van het ontwerp af.

Diezelfde probe tests waarmee ze naar defects zoeken, geven echter méér data. Voordat de dies verpakt worden en de chips überhaupt door het validatieproces gaan, weten Nvidia (en AMD, en Intel) al heel veel van de dies. Een complete die zonder defecten haalt niet per se de beoogde klokfrequenties en spanningen, wat ik jullie duidelijk probeer te maken - dat is wat "bins" zijn. Niet alle 45 complete, defectloze dies zullen 1750 MHz op 1050 mV halen (willekeurige cijfers ter illustratie). Sommige dies zullen slechts tot 1500 komen, enzovoort. Dat is het punt waarop ze delen uitschakelen zodat wat er over blijft wél die doelen haalt.

Die 45 "goede" dies zijn allemaal verschillend. Ook al hebben ze geen defecten, ze zullen variëren in wat er nodig is om bepaalde doelen te bereik, dát is wat bepaalt of ze gaan knippen of niet. En ja, dan kan er alsnog in de L2 geknipt gaan worden; L2 is geen continu blok aan transistors, dat zijn meerdere blokjes met meerdere cellen en het kan best zijn dat een aantal van die cellen gewoon dusdanig veel lekt dat het de benodigde spanning over de hele chip te veel omhoog trekt. Dat is geen defect, dat is gewoon de imperfectie van lithografie. De die komt door de logica tests heen, maar heeft daarbij zo'n hoge spanning nodig dat het verbruik de pan uit zou rijzen. Dus dan wordt er geknipt. Maar dat is dus precies wat ik al de hele tijd zeg: de die is niet bruikbaar voor de duurdere SKU's - niet per se vanwege een defect.

Ik zal mezelf maar even quoten:
Werelds schreef op woensdag 10 augustus 2022 @ 14:06:
De chip die ze in een 3080 stoppen hadden ze in veel gevallen waarschijnlijk ook best met alle SM's kunnen laten draaien. Echter had die dan waarschijnlijk 1200, 1300 mV (of nog meer) nodig gehad om de beoogde kloksnelheden (performance targets) te halen. Of op zo'n lage kloksnelheden draaien dat het niet meer zinvol is.
Je ziet dat wellicht beter bij AMD (die sowieso beter zijn met hun productie dan Nvidia; Nvidia springt doorgaans slecht in op productieproblemen). De 6800 XT is het slechtst verkrijgbaar geweest van de drie oorspronkelijke Navi 21 SKU's. Dat is een teken dat AMD's dies uniformer presteren. Zij zullen uit een wafer tegen de 100 complete dies krijgen, met een stuk of 60 defectloze dies. Het ziet er naar uit dat AMD meer van die 40 dies met defecten in kon zetten als 6800 en dat van de 60 defectloze meer dies bruikbaar waren voor de 6900 XT.


stin00 schreef op donderdag 11 augustus 2022 @ 11:24:
[...]


Ik heb m'n RX480 6 jaar geleden geflashed van 4GB naar 8GB VRAM. Telt dat wel? 8)

https://www.gamersnexus.n...480-vbios-from-4gb-to-8gb
Nee, dat is clamshell aan/uit zetten, maakt nog steeds gebruik van dezelfde MC's :P

[ Voor 5% gewijzigd door Werelds op 11-08-2022 11:30 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op donderdag 11 augustus 2022 @ 10:51:
[...]


Ik was er ook verbaasd over, maar dat doen ze dus wel. 40 dies zonder defects van de 80 zouden volgens jou allemaal een 3090 worden? Dat is 50%. Maar nVidia produceert en verkoopt minstens 3x à 4x zoveel 3080 achtige kaarten als 3090's. Prijs elasticiteit, als de prijs 2x zo duur is en de prijs is ietwat inelastisch, heb je gelijk 4x minder vraag https://www.economielokaal.nl/nprijselasticiteit/.

Steam survey:
NVIDIA GeForce RTX 3090 0.53%
NVIDIA GeForce RTX 3080 1.75%
NVIDIA GeForce RTX 3080 Ti 0.80%

Ze testen de dies naast defects ook op kloksnelheid. Dies die de top frequentie niet halen, worden gewoon gesneden. Bij AMD is dat eerst -8 CU (6800XT) dan gewoon een hele shader engine d'r uit -20 CU (6800), waar ze ook makkelijk -16CU hadden kunnen doen. Maar helaas, segmentatie.
1) Steam survey is notoir onbetrouwbaar.
2) De meerderheid van GA102 SKU's zijn niet eens voor gaming. :P
https://www.techpowerup.com/gpu-specs/nvidia-ga102.g930

Nee, heel wat zijn voor professionele doeleinden waar Nvidia nog meer per chip verdiend. Verder let ook op de enorme variatie in specificaties. Ga ik toch @Werelds beetje plagen door te stellen dat ik nog steeds denk dat Samsung 8nm ook niet zo goed is. Ik denk nog steeds dat ze aardige problemen met uniforme kwaliteit en defect density hebben, waardoor Nvidia zoveel SKU's heeft ontwikkeld. Zeker omdat TU102 en GP102 veel uniformer waren.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
DaniëlWW2 schreef op donderdag 11 augustus 2022 @ 11:35:
Ga ik toch @Werelds beetje plagen door te stellen dat ik nog steeds denk dat Samsung 8nm ook niet zo goed is. Ik denk nog steeds dat ze aardige problemen met uniforme kwaliteit en defect density hebben, waardoor Nvidia zoveel SKU's heeft ontwikkeld. Zeker omdat TU102 en GP102 veel uniformer waren.
Defect density voor 10LPP is naar het schijnt vergelijkbaar met TSMC's N10 en volgens TSMC zijn N7 en N10 nagenoeg identiek (12/16 en 20 liggen hoger). Zeker weten doen we het niet, want Samsung zegt daar bijna nooit iets over in het openbaar.

Verdere kwaliteit van de dies kunnen wij niet veel over zeggen, kan best zijn dat Samsung dat minder onder controle heeft. Kan ook zijn dat Nvidia's ontwerp gewoon gevoelig is, zou niet de eerste keer zijn ;)

Vergelijkingen trekken met Pascal en Turing is ook zinloos, geheel andere procedé's. En dan zou je de schuld bij Samsung kunnen leggen, maar wellicht had Nvidia ook problemen gehad met N7. Of wellicht weigert Nvidia iets aan te passen wat bij Samsung niet werkt en bij TSMC wel (dat was deels het probleem met Fermi, Nvidia's koppigheid). Allemaal dingen die wij niet weten.

Acties:
  • +2 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:58
DaniëlWW2 schreef op donderdag 11 augustus 2022 @ 11:35:
[...]


1) Steam survey is notoir onbetrouwbaar.
Ligt er natuurlijk wel aan wat je wil meten.

Steam Survey is best een aardige tool (volgens mij zelfs de beste beschikbaar voor consumenten / techsites / techtubers e.d., vandaar dat je ook vaak referenties ziet ernaar) om trends te bekijken in de 'Installed base' van Steam users.

Waar je de Steam Survey echter niet voor moet gebruiken (en wat sommigen wel doen) is het gebruiken als een tool om 'Market Share' te duiden. Daar is de data inderdaad totaal niet geschikt voor en krijg je dus inderdaad niet betrouwbare resultaten.

Zie bijv. in de laatste Steam Survey het verschil tussen Intel en AMD ( https://store.steampowered.com/hwsurvey/processormfg/ ). Intel loopt al tijden langzaam terug en AMD heeft een grotere Install base onder steamusers dan dat je op basis van algemene markershare cijfers misschien zou verwachten. Echter vind ik die cijfers best logisch. Immers Intel is in het client segment heel groot in de (zakelijke) OEM markt, terwijl AMD daar kleiner. Terwijl we gezien hebben in o.a. de Mind Factory data dat AMD juist in het DiY segment 'on fire' is / was. Intel komt daar weer wat terug uit het 1:9 dal van mei 2021, maar de ratio is nog altijd 1:2, AMD verkoopt bij Mind Factory dus nog altijd 2 cpu's voor iedere Intel cpu die verkocht wordt. Aangezien relatief veel gamers DiY doen zou je dus ook verwachten dat de Installed Base van AMD onder steam gebruikers groter is dan je zou verwachten op basis van marktaandeel.

Wat je dus ook terug ziet in de survey.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op donderdag 11 augustus 2022 @ 11:55:
[...]

Defect density voor 10LPP is naar het schijnt vergelijkbaar met TSMC's N10 en volgens TSMC zijn N7 en N10 nagenoeg identiek (12/16 en 20 liggen hoger). Zeker weten doen we het niet, want Samsung zegt daar bijna nooit iets over in het openbaar.

Verdere kwaliteit van de dies kunnen wij niet veel over zeggen, kan best zijn dat Samsung dat minder onder controle heeft. Kan ook zijn dat Nvidia's ontwerp gewoon gevoelig is, zou niet de eerste keer zijn ;)

Vergelijkingen trekken met Pascal en Turing is ook zinloos, geheel andere procedé's. En dan zou je de schuld bij Samsung kunnen leggen, maar wellicht had Nvidia ook problemen gehad met N7. Of wellicht weigert Nvidia iets aan te passen wat bij Samsung niet werkt en bij TSMC wel (dat was deels het probleem met Fermi, Nvidia's koppigheid). Allemaal dingen die wij niet weten.
Dat Samsung niets zegt en de potentiële klanten in de rij staan om veel duurdere N7 en N5 wafers bij TSMC te kopen, is alleen geen goed signaal. Tweede is dat het ook altijd de vraag is waarop defect density getallen precies gebaseerd zijn. Het kan Nvidia zijn die problemen veroorzaken, maar ik vermoed nog steeds dat het bij Samsung ook niet helemaal lekker zit. Komt nog eens bij dat AMD met hun uitgebreide N7 portfolio, eigenlijk maar weinig producten heeft waar SRAM of I/O uitgeschakeld word. Het is allemaal logic en meestal ook niet veel. Compleet anders dan Nvidia. Daarom heb ik die vermoedens nog steeds.

Overigens denk ik dat N7 überhaupt geen optie was geweest. Die orderboeken zaten helemaal vol waardoor Nvidia simpelweg niet afdoende chips had kunnen produceren. AMD kreeg al bij lange na niet afdoende en die kunnen het inmiddels ook vrij gemakkelijk betalen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Werelds schreef op donderdag 11 augustus 2022 @ 11:25:
[...]

Nope, dat eerste is geheel niet wat ik zeg, dat laatste is wat ik al de hele tijd zeg :)

Nogmaals: de yields die van de wafer komen zijn slechts deel van het verhaal. Met een chip van het formaat van GA102 zijn er pakweg 80 complete dies uit de wafer te halen. Van die 80 zullen er gemiddeld rond de 45 geen defecten bevatten met TSMC's defect rate van 0,09/mm². Een die met een defect is niet meteen volledig onbruikbaar, een deel daarvan zal wellicht kunnen functioneren met uitgeschakelde delen van de chip. Dat is waar een deel van de cuts vandaan komen - het zou echter ook best zo kunnen zijn dat elk defect meteen funest is, dat hangt heel erg van het ontwerp af.

Diezelfde probe tests waarmee ze naar defects zoeken, geven echter méér data. Voordat de dies verpakt worden en de chips überhaupt door het validatieproces gaan, weten Nvidia (en AMD, en Intel) al heel veel van de dies. Een complete die zonder defecten haalt niet per se de beoogde klokfrequenties en spanningen, wat ik jullie duidelijk probeer te maken - dat is wat "bins" zijn. Niet alle 45 complete, defectloze dies zullen 1750 MHz op 1050 mV halen (willekeurige cijfers ter illustratie). Sommige dies zullen slechts tot 1500 komen, enzovoort. Dat is het punt waarop ze delen uitschakelen zodat wat er over blijft wél die doelen haalt.

Die 45 "goede" dies zijn allemaal verschillend. Ook al hebben ze geen defecten, ze zullen variëren in wat er nodig is om bepaalde doelen te bereik, dát is wat bepaalt of ze gaan knippen of niet. En ja, dan kan er alsnog in de L2 geknipt gaan worden; L2 is geen continu blok aan transistors, dat zijn meerdere blokjes met meerdere cellen en het kan best zijn dat een aantal van die cellen gewoon dusdanig veel lekt dat het de benodigde spanning over de hele chip te veel omhoog trekt. Dat is geen defect, dat is gewoon de imperfectie van lithografie. De die komt door de logica tests heen, maar heeft daarbij zo'n hoge spanning nodig dat het verbruik de pan uit zou rijzen. Dus dan wordt er geknipt. Maar dat is dus precies wat ik al de hele tijd zeg: de die is niet bruikbaar voor de duurdere SKU's - niet per se vanwege een defect.

Ik zal mezelf maar even quoten:


[...]


Je ziet dat wellicht beter bij AMD (die sowieso beter zijn met hun productie dan Nvidia; Nvidia springt doorgaans slecht in op productieproblemen). De 6800 XT is het slechtst verkrijgbaar geweest van de drie oorspronkelijke Navi 21 SKU's. Dat is een teken dat AMD's dies uniformer presteren. Zij zullen uit een wafer tegen de 100 complete dies krijgen, met een stuk of 60 defectloze dies. Het ziet er naar uit dat AMD meer van die 40 dies met defecten in kon zetten als 6800 en dat van de 60 defectloze meer dies bruikbaar waren voor de 6900 XT.
Ze snijden dus wel in perfecte dies, zelfs degene die de 3090 / 6900 kloksnelheid kunnen halen, anders kunnen ze niet genoeg 3080 / 6800 XT maken. Beide komen uit dezelfde wafer, en simpelweg op basis van de verkochte aantallen weten we dat er 4x zoveel gesneden dies nodig zijn.

Ik geloof gewoon niet dat al die 3080 / 6800 dies de 3090 / 6900 XT snelheid konden halen, wat dus betekent dat ze wel snijden en "geld weggooien", wat niet zo is omdat de markt voor 3090 / 6900 gewoon een stuk kleiner is.


Voor AMD, feit: de 6800XT en 6900XT hebben dezelfde referentie clocks.

Base Clock
1825 MHz

Game Clock
2015 MHz

Boost Clock
2250 MHz
https://www.techpowerup.c...s/radeon-rx-6900-xt.c3481


Base Clock
1825 MHz

Game Clock
2015 MHz

Boost Clock
2250 MHz
https://www.techpowerup.c...s/radeon-rx-6800-xt.c3694

Voor Nvidia, feit: de clocks van een 3090 zijn lager dan die van een 3080.

3080:
Base Clock
1440 MHz

Boost Clock
1710 MHz
https://www.techpowerup.com/gpu-specs/geforce-rtx-3080.c3621

3090:
Base Clock
1395 MHz

Boost Clock
1695 MHz
https://www.techpowerup.com/gpu-specs/geforce-rtx-3090.c3622

Dus ja ze snijden een 3090 of 6900 XT tot een 3080 of 6800 XT, ook al was de die prima. Reden: afzetmarkt voor de top die is te klein.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
DaniëlWW2 schreef op donderdag 11 augustus 2022 @ 11:35:
[...]


1) Steam survey is notoir onbetrouwbaar.
2) De meerderheid van GA102 SKU's zijn niet eens voor gaming. :P
https://www.techpowerup.com/gpu-specs/nvidia-ga102.g930

Nee, heel wat zijn voor professionele doeleinden waar Nvidia nog meer per chip verdiend. Verder let ook op de enorme variatie in specificaties. Ga ik toch @Werelds beetje plagen door te stellen dat ik nog steeds denk dat Samsung 8nm ook niet zo goed is. Ik denk nog steeds dat ze aardige problemen met uniforme kwaliteit en defect density hebben, waardoor Nvidia zoveel SKU's heeft ontwikkeld. Zeker omdat TU102 en GP102 veel uniformer waren.
re 1) heb je een betere bron, of bewijs van Steam survey onbetrouwbaarheid?
re 2) hoeveel professionele kaarten zijn er vergeleken met gamer/miner kaarten, qua aantallen?

Sorry, maar je argumenten missen onderbouwing.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 13-09 09:39
sunsmountain schreef op donderdag 11 augustus 2022 @ 12:44:
[...]


Ze snijden dus wel in perfecte dies, zelfs degene die de 3090 / 6900 kloksnelheid kunnen halen, anders kunnen ze niet genoeg 3080 / 6800 XT maken. Beide komen uit dezelfde wafer, en simpelweg op basis van de verkochte aantallen weten we dat er 4x zoveel gesneden dies nodig zijn.
Natuurlijk doen ze dat. Het is gewoon niet logisch om dit niet te doen en als ze het niet zouden doen dan zou je, zoals ik al eerder zei, veel meer verschillende chips hebben dan de 3-4 die je elke generatie ziet om zo alle prijspunten te raken. Ik vermoed dat het nog steeds voordeliger is om goede chips te gebruiken voor lagere producten dan te veel soorten chips te maken vanwege opstartkosten, ontwerpkosten, enz. Ipv van 2 chips te gebruiken die misschien 50 mm² schelen gebruik je gewoon 1 chips en snij je een stuk weg om aan de vraag tegemoet te komen.

Als je Werelds z'n logica volgt met jouw voorbeeld dan zit je op een gegeven moment met een berg 3090s die niet verkocht worden. Het enige dat je dan kunt doen is de prijs te laten zaken maar dit gaat veel meer kosten dan het beetje silicon dat je verspilt door van de 3090 chips 3080s te maken. De marges op high end GPUs zijn immers enorm hoog.

Om deze logica te volgen zouden de yields zouden dan altijd 1:1 moeten lopen met de vraag maar dat kan natuurlijk nooit. De vraag kan ook nog eens enorm veranderen op termijn.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
DaniëlWW2 schreef op donderdag 11 augustus 2022 @ 12:19:
Tweede is dat het ook altijd de vraag is waarop defect density getallen precies gebaseerd zijn. Het kan Nvidia zijn die problemen veroorzaken, maar ik vermoed nog steeds dat het bij Samsung ook niet helemaal lekker zit.
Defect density = 100% fab. Daar komt het ontwerp van de die niet aan te pas. Die term staat voor "D0", wat grove defecten zijn door fouten in het productie proces. Er zijn ook kleinere defecten die niet meteen funest zijn, dat zijn de defecten waardoor je bins krijgt. Die defecten zitten niet in de defect density waar de fabs het over hebben.

Als ik een vergelijking moest trekken, zou dat met optische media (CD, DVD, Bluray) zijn. De term defect density slaat bijna op gaten die door de schijf geboord zijn, of hele diepe krassen in de leesrichting. De kleinere defecten zijn dan de krassen die iedereen wel op hun schijven heeft, door een schijf even op een tafel te leggen ofzo. Die beïnvloeden maar hoogstzelden het lezen van de schijf.

In het geval van dies zijn het dus die laatste waar je met je ontwerp wél last kun ervaren. Om de vergelijking met CD's door te trekken, kan het dus zijn dat Nvidia een matige laser gebruikt die niet door de kras heen komt en hapert. Of misschien maakt de plek van de kras wel heel veel uit.

Is dat dan de fout van Samsung als zij iets meer kleine krasjes hebben dan TSMC? Tuurlijk, want zij moeten zo min mogelijk krassen maken bij de productie. Maar dat is ook een gegeven van het proces, dus Nvidia moet er op voorbereid zijn en als dat niet zo is, ligt de fout even veel bij hen.

We zullen het allemaal wel zien als ze allebei op TSMC's N5 (of "4N") zitten. Nu AMD weer écht competitief is én grote chips bakt krijgen we voor het eerst sinds Tahiti/Kepler een relatief goede vergelijking tussen de twee als het aan komt op de productie technologie.


sunsmountain schreef op donderdag 11 augustus 2022 @ 12:44:
Ze snijden dus wel in perfecte dies, zelfs degene die de 3090 / 6900 kloksnelheid kunnen halen, anders kunnen ze niet genoeg 3080 / 6800 XT maken. Beide komen uit dezelfde wafer, en simpelweg op basis van de verkochte aantallen weten we dat er 4x zoveel gesneden dies nodig zijn.

Ik geloof gewoon niet dat al die 3080 / 6800 dies de 3090 / 6900 XT snelheid konden halen, wat dus betekent dat ze wel snijden en "geld weggooien", wat niet zo is omdat de markt voor 3090 / 6900 gewoon een stuk kleiner is.
Wel de snelheid halen, maar niet bij dezelfde spanning met dezelfde configuratie.
Voor AMD, feit: de 6800XT en 6900XT hebben dezelfde referentie clocks.
Dat maakt niet uit, want het is een andere configuratie. Die 6800 XT had die snelheid niet met die spanning gehaald als volledige chip, of er zit een defect in waardoor hij niet door de logica tests komt in volledige configuratie. Dat is juist het punt wat ik al de hele tijd probeer te maken.
Voor Nvidia, feit: de clocks van een 3090 zijn lager dan die van een 3080.

...

Dus ja ze snijden een 3090 of 6900 XT tot een 3080 of 6800 XT, ook al was de die prima. Reden: afzetmarkt voor de top die is te klein.
Zoals ik je al eerder heb gezegd zijn die geadverteerde kloksnelheden onzin bij Nvidia. De boost clock is zo'n beetje de minimale klok. Je hebt het daar ook over een verschil van 15 MHz tussen twee chips waarvan er één een zesde van z'n L2 cache mist én bijna 20% minder logica actief heeft.

En dan ga ik voor de zoveelste keer terug naar mijn punt: die 3080 mag dan wel op dezelfde klokspanning en frequentie draaien - maar hij heeft die spanning nodig voor een stuk minder transistors. Als de die van exact dezelfde kwaliteit als die 3090 was geweest, zou hij op een lagere spanning kunnen draaien. Daarnaast zou je ook een gigantisch kwaliteitsverschil tussen alle 3080's zien, waarbij sommige exemplaren bijvoorbeeld op 900 mV 1900 doen, terwijl andere 1050 nodig hebben voor 1800. En zo groot zijn die verschillen niet, althans ik heb op geen enkel forum zoiets gezien.

Ooit in een auto gereden met natte bougies? Moet je veel harder trappen om er hetzelfde uit te krijgen. Precies hetzelfde blok, maar omdat er dan één of meerdere cilinders niet goed mee lopen in de timing kakt het koppel in, waardoor je dus meer gas moet geven voor hetzelfde vermogen. Het ding zuipt dan ook stukken meer. Dat is wat er bij de dies ook speelt.

Nogmaals: ik heb nooit gezegd dat alle GA102-200 dies dusdanige defecten bevatten dat ze niet in volle configuratie kunnen functioneren. Wat ik al de hele tijd zeg is dat die dies dat niet kunnen met alles ingeschakeld, op dezelfde spanning, op dezelfde klokfrequentie als de GA102-300 dies. Dat kán door een grof defect komen, maar dat kan ook gewoon aan die-kwaliteit liggen, dat kan gewoon één van die "goede" 45 zijn. Knippen van GA102-300 (3090) naar GA102-225 (3080 Ti) zou wellicht kunnen, in een poging meer volume kwijt te kunnen; maar waarom blijft die eerste dan bestaan? Maar 20% van een chip uitschakelen en $800 (verschil tussen de 2 SKU's) pure winst weg gooien? ;)


napata schreef op donderdag 11 augustus 2022 @ 13:16:
Als je Werelds z'n logica volgt met jouw voorbeeld dan zit je op een gegeven moment met een berg 3090s die niet verkocht worden.
Wat nu precies het geval is. Hoewel je alsnog overschat hoeveel van de "goede" dies de doelen voor een 3090 halen.
Om deze logica te volgen zouden de yields zouden dan altijd 1:1 moeten lopen met de vraag maar dat kan natuurlijk nooit. De vraag kan ook nog eens enorm veranderen op termijn.
En nu zie ik waar jouw gedachtegang een beetje scheef gaat. Yields zijn niet binair. De percentages die je vaak hoort slaan op dies zonder defect. Dat wil echter niet zeggen dat de dies met een defect onbruikbaar zijn - of andersom, dat de dies zonder defect ook alle targets halen. Ik ben er hierboven al meerdere malen op in gegaan, maar er is over de gehele wafer (ongeacht enige defecten) veel variatie.

[ Voor 10% gewijzigd door Werelds op 11-08-2022 13:55 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op donderdag 11 augustus 2022 @ 13:37:
[...]

Defect density = 100% fab. Daar komt het ontwerp van de die niet aan te pas. Die term staat voor "D0", wat grove defecten zijn door fouten in het productie proces. Er zijn ook kleinere defecten die niet meteen funest zijn, dat zijn de defecten waardoor je bins krijgt. Die defecten zitten niet in de defect density waar de fabs het over hebben.

Als ik een vergelijking moest trekken, zou dat met optische media (CD, DVD, Bluray) zijn. De term defect density slaat bijna op gaten die door de schijf geboord zijn, of hele diepe krassen in de leesrichting. De kleinere defecten zijn dan de krassen die iedereen wel op hun schijven heeft, door een schijf even op een tafel te leggen ofzo. Die beïnvloeden maar hoogstzelden het lezen van de schijf.

In het geval van dies zijn het dus die laatste waar je met je ontwerp wél last kun ervaren. Om de vergelijking met CD's door te trekken, kan het dus zijn dat Nvidia een matige laser gebruikt die niet door de kras heen komt en hapert. Of misschien maakt de plek van de kras wel heel veel uit.

Is dat dan de fout van Samsung als zij iets meer kleine krasjes hebben dan TSMC? Tuurlijk, want zij moeten zo min mogelijk krassen maken bij de productie. Maar dat is ook een gegeven van het proces, dus Nvidia moet er op voorbereid zijn en als dat niet zo is, ligt de fout even veel bij hen.

We zullen het allemaal wel zien als ze allebei op TSMC's N5 (of "4N") zitten. Nu AMD weer écht competitief is én grote chips bakt krijgen we voor het eerst sinds Tahiti/Kepler een relatief goede vergelijking tussen de twee als het aan komt op de productie technologie.
Ik zie dat ik hier nog beter een zin ertussen had kunnen doen. :)
Ik bedoelde namelijk wat voor chip en welk type transistoren de fabrikant gebruikt voor hun defect berekeningen. Dat is niet iets dat ze waarschijnlijk zullen vertellen, maar een op een vergelijken tussen fabrikanten kan denk ik ook niet. Immers zijn er verschillen tussen SRAM, logic of I/O op een chip qua functie, dichtheid, ontwerp en productie. Als je een laag metaal voor logic op N7 met quad patterning (welke vorm hiervan is een discussie waar ik niet eens over wil beginnen door een gebrek aan kennis) aan het aanbrengen bent, dan moet dat meer kansen met zich meebrengen op defecten dan transistoren voor I/O aanbrengen die een merkbaar mindere dichtheid per mm2 hebben. Een waarde voor defect density klinkt mij dan ook te simplistisch.

Maar inderdaad zullen we het wel zien omdat het even geleden is sinds beiden überhaupt op dezelfde node zaten. Maar ik ben bang dat het zelfs dan nog complex gaat worden omdat AMD voornamelijk een hele hoop logic met extreme transistordichtheid zal hebben waar Nvidia juist de verschillende typen transistoren zal hebben op een beduidend grotere monolithische chip.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
DaniëlWW2 schreef op donderdag 11 augustus 2022 @ 14:15:
Maar inderdaad zullen we het wel zien omdat het even geleden is sinds beiden überhaupt op dezelfde node zaten. Maar ik ben bang dat het zelfs dan nog complex gaat worden omdat AMD voornamelijk een hele hoop logic met extreme transistordichtheid zal hebben waar Nvidia juist de verschillende typen transistoren zal hebben op een beduidend grotere monolithische chip.
Tuurlijk, de architecturen zijn geheel anders, maar vanaf Polaris en Pascal hebben ze op heel andere procedé's gezeten, waarbij AMD met RDNA ook nog eens een andere weg is ingeslagen. Fiji en Maxwell zaten wel allebei op 28nm, maar Maxwell was toen weer de grote wijziging, dus dat is ook lastig. Met N5 gaan we nu naar een situatie waar beide al meerdere generaties op min of meer dezelfde opzet zitten. We hebben volwassen architecturen op een nieuwe, identieke node. As good as it gets in deze industrie :p

Zoals het er naar uit ziet kunnen we aan Nvidia's kant in elk geval gaan zien hoe veel impact 8LPP wel/niet had ten opzichte van N7. Ik denk nog steeds niet dat die anderhalve node naar N5 zo veel uit gaat maken als sommigen denken; dichtste bij komt waarschijnlijk Vega 20 tegenover Vega 10...maar dat was ook 14LPP naar N7, met 10LPP/N10 overgeslagen. En tussen de twee kampen zullen we goed kunnen zien welke van de twee gedachtegangen nou echt effectiever is.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op donderdag 11 augustus 2022 @ 14:46:
[...]

Tuurlijk, de architecturen zijn geheel anders, maar vanaf Polaris en Pascal hebben ze op heel andere procedé's gezeten, waarbij AMD met RDNA ook nog eens een andere weg is ingeslagen. Fiji en Maxwell zaten wel allebei op 28nm, maar Maxwell was toen weer de grote wijziging, dus dat is ook lastig. Met N5 gaan we nu naar een situatie waar beide al meerdere generaties op min of meer dezelfde opzet zitten. We hebben volwassen architecturen op een nieuwe, identieke node. As good as it gets in deze industrie :p

Zoals het er naar uit ziet kunnen we aan Nvidia's kant in elk geval gaan zien hoe veel impact 8LPP wel/niet had ten opzichte van N7. Ik denk nog steeds niet dat die anderhalve node naar N5 zo veel uit gaat maken als sommigen denken; dichtste bij komt waarschijnlijk Vega 20 tegenover Vega 10...maar dat was ook 14LPP naar N7, met 10LPP/N10 overgeslagen. En tussen de twee kampen zullen we goed kunnen zien welke van de twee gedachtegangen nou echt effectiever is.
Ik vermoed eigenlijk dat we wel een verschil gaan zien met Lovelace op N5. Niet zozeer in verbruik, "gratis" verbeteringen in clock speed, maar wel in hoe die chip eruit gaat zien.

Nu heb je met GA102 een chip die gedomineerd word door logic, waar de frontend onderin zit, cache ernaast en langs de randen zit de rest gepropt. Wat ik vermoed is dat met AD102, de frontend terug naar het midden gaat, ernaast in het midden die gigantische toename naar 96MB L2 cache gaat komen en het percentage logic op de chip, fors gaat teruglopen. Dit vermoed ik omdat zoals je zelf al aangaf, latency binnen GA102 eigenlijk niet op kan tegen RDNA2 en het doet waarschijnlijk ook meer pijn in Ampere dan RDNA met haar complexere en eigenlijk betere cache structuur. Als je dan met zoveel cache komt om de druk van VRAM te halen alsmede je complexe "eilandjes" die een Nvidia architectuur eigenlijk domineren, van data te voorzien, dan lijkt het me logisch dat die latency penalty ook aangepakt word. Ik zie eigenlijk niet in waarom je zoveel L2 cache zou toevoegen als je de latency penalty niet aanpakt die je krijgt als je data van letterlijk de andere kant van de chip moet halen zoals nu met Ampere.

Eigenlijk denk ik dat Lovelace qua hardware meer gaat lijken op de block diagrammen en die L2 cache als een soort ringbus gaat figureren. Dus eigenlijk weer terug zoals het met Turing was. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Werelds schreef op donderdag 11 augustus 2022 @ 13:37:




Wel de snelheid halen, maar niet bij dezelfde spanning met dezelfde configuratie.

Dat maakt niet uit, want het is een andere configuratie. Die 6800 XT had die snelheid niet met die spanning gehaald als volledige chip, of er zit een defect in waardoor hij niet door de logica tests komt in volledige configuratie. Dat is juist het punt wat ik al de hele tijd probeer te maken.

Zoals ik je al eerder heb gezegd zijn die geadverteerde kloksnelheden onzin bij Nvidia. De boost clock is zo'n beetje de minimale klok. Je hebt het daar ook over een verschil van 15 MHz tussen twee chips waarvan er één een zesde van z'n L2 cache mist én bijna 20% minder logica actief heeft.

En dan ga ik voor de zoveelste keer terug naar mijn punt: die 3080 mag dan wel op dezelfde klokspanning en frequentie draaien - maar hij heeft die spanning nodig voor een stuk minder transistors. Als de die van exact dezelfde kwaliteit als die 3090 was geweest, zou hij op een lagere spanning kunnen draaien. Daarnaast zou je ook een gigantisch kwaliteitsverschil tussen alle 3080's zien, waarbij sommige exemplaren bijvoorbeeld op 900 mV 1900 doen, terwijl andere 1050 nodig hebben voor 1800. En zo groot zijn die verschillen niet, althans ik heb op geen enkel forum zoiets gezien.
Waar baseer je dat op?
Hoe weet je dit?

Niets zegt dat een 6800 XT niet gewoon de 6900 XT snelheden en spanning had kunnen halen. Er is gewoon minder behoefte aan 6900 XT's.
Werelds schreef op donderdag 11 augustus 2022 @ 13:37:
Ooit in een auto gereden met natte bougies? Moet je veel harder trappen om er hetzelfde uit te krijgen. Precies hetzelfde blok, maar omdat er dan één of meerdere cilinders niet goed mee lopen in de timing kakt het koppel in, waardoor je dus meer gas moet geven voor hetzelfde vermogen. Het ding zuipt dan ook stukken meer. Dat is wat er bij de dies ook speelt.

Nogmaals: ik heb nooit gezegd dat alle GA102-200 dies dusdanige defecten bevatten dat ze niet in volle configuratie kunnen functioneren. Wat ik al de hele tijd zeg is dat die dies dat niet kunnen met alles ingeschakeld, op dezelfde spanning, op dezelfde klokfrequentie als de GA102-300 dies. Dat kán door een grof defect komen, maar dat kan ook gewoon aan die-kwaliteit liggen, dat kan gewoon één van die "goede" 45 zijn.
Ik en @napata snappen wat je zegt, maar zijn het er gewoon niet mee eens. Het tegenargument is namelijk economisch: je verkoopt die GA102-300 dies niet, de afzetmarkt is er te klein voor. De GA102-200's verkoop je daarentegen wel allemaal.
Werelds schreef op donderdag 11 augustus 2022 @ 13:37:
Knippen van GA102-300 (3090) naar GA102-225 (3080 Ti) zou wellicht kunnen, in een poging meer volume kwijt te kunnen; maar waarom blijft die eerste dan bestaan? Maar 20% van een chip uitschakelen en $800 (verschil tussen de 2 SKU's) pure winst weg gooien? ;)
Ah, toch water bij de wijn? Een 3080 Ti is bijna een 3090, en die eerste blijft bestaan voor het (oorspronkelijke) halo effect. Op zich zou de 3090 weg kunnen als de 3090 Ti, maar ok, bestaande inventaris: ze verkopen niet zo snel (hoge prijs).

Ja, 20% uitschakelen en $700 binnenhalen, in plaats van $0 binnenhalen. Je verkoopt die $1500 SKU niet aan iedereen (ze kosten allebei natuurlijk voor AIB's een stuk minder, maar toch kost een GA102-300 meer dan een GA102-200). Als de vraag naar een GA-300 verzadigd is door AIBs, waarom zou je dan zijnde Nvidia nog meer GA-300's maken? Dan ga je ze toch lekker snijden tot GA-225 of GA-200?

Voor mij was het duidelijk toen AMD met de 6800 kwam, met een defect rate van 0,09/mm². De enige reden daarvoor was en is positionering, segmentering, verder nergens voor nodig. Zonde. Maar het gebeurt. Het moet wel. Anders zijn er gewoon niet genoeg GA102-200 of Navi21-215-121000177 (6800XT) geproduceerd, gegeven de te lage defect density en de te hoge yields. 3090 en 6900 XT zijn allebei (als eerste) verzadigde kaarten, je kon en je kan er (als eerste) makkelijk 1 kopen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
DaniëlWW2 schreef op donderdag 11 augustus 2022 @ 15:02:
[...]


Ik vermoed eigenlijk dat we wel een verschil gaan zien met Lovelace op N5. Niet zozeer in verbruik, "gratis" verbeteringen in clock speed, maar wel in hoe die chip eruit gaat zien.

Nu heb je met GA102 een chip die gedomineerd word door logic, waar de frontend onderin zit, cache ernaast en langs de randen zit de rest gepropt. Wat ik vermoed is dat met AD102, de frontend terug naar het midden gaat, ernaast in het midden die gigantische toename naar 96MB L2 cache gaat komen en het percentage logic op de chip, fors gaat teruglopen. Dit vermoed ik omdat zoals je zelf al aangaf, latency binnen GA102 eigenlijk niet op kan tegen RDNA2 en het doet waarschijnlijk ook meer pijn in Ampere dan RDNA met haar complexere en eigenlijk betere cache structuur. Als je dan met zoveel cache komt om de druk van VRAM te halen alsmede je complexe "eilandjes" die een Nvidia architectuur eigenlijk domineren, van data te voorzien, dan lijkt het me logisch dat die latency penalty ook aangepakt word. Ik zie eigenlijk niet in waarom je zoveel L2 cache zou toevoegen als je de latency penalty niet aanpakt die je krijgt als je data van letterlijk de andere kant van de chip moet halen zoals nu met Ampere.

Eigenlijk denk ik dat Lovelace qua hardware meer gaat lijken op de block diagrammen en die L2 cache als een soort ringbus gaat figureren. Dus eigenlijk weer terug zoals het met Turing was. :)
Behalve het verplaatsen van elementen op de AD102 die en het toevoegen van een bak L2 (eigenlijk L3 in die hoeveelheid), hoe kunnen ze de latency omlaag krijgen? Hebben ze dan niet net zoals AMD meer shared of flexibeler L1 cache geheugen nodig binnen een SM? Of in ieder geval een extra dispatch processor per SM? Dus: meer aansturing en meer data lokaal houden?

Momenteel doen ze concurrently, 4x16 FP32 + 4x16 FP32 of 4x16 INT32, met maar 1 dispatcher dus INT32 en FP32 kunnen niet tegelijkertijd geinstrueerd worden (maar wel uitgevoerd, als al eerder geinstrueerd en nog bezig).

Als ze naar 4x16 FP32 + 4x16 FP32 + 4x16 FP32 of 4x16 INT32 gaan met 2 dispatchers die zowel een FP32 als INT32 instructie kunnen verwerken uit de waves/warps, dan gaat de bezetting met Lovelace in ieder geval een stuk omhoog. In welke richting verwacht jij dat Nvidia ingenieurs de SM zullen aanpassen?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Is er al wat bekent (geruchten) over de performance van de RTX 4070 en RTX 4080. Gezien de TBP van 320W van de RTX 4080 lijkt de RTX 4080 juist erg efficiënt in performance per WATT, veel beter dan de RTX 3080 als de RTX 4080 ook echt sneller is, 30% sneller met een iets lager TBP dan de RTX 3080 is al netjes. Maar ik hoop ik dat de performance verbetering meer richting de 50% gaat zijn vergeleken met de RTX 3080. 4k met raytracing word dan ook meer mogelijk zonder DLSS of FSR. Nu haal ik in Metro Exodus met gemak 70-80 fps op 4k met ultra instellingen met alle raytracing opties vol open maar dan moet ik wel gebruik maken van DLSS. Zelfs Dying Light 2 en Spiderman zijn goed speelbaar met raytracing als je het niet erg vind om soms rond de 50 fps te zitten, wat niet echt opvalt als je geen fps meters gebruikt. Voor een toekomstige upgrade lijkt de RTX 4070 of RTX 4080 een prima videokaart voor 4k gaming met alle toeters en bellen aan. Het verbruik is dan zelfs wat lager dan de vorige generatie als het gaat om de RTX 4080 met 320W want de RTX 3080 gebruikt 350W. Het zou helemaal mooi zijn als de RTX 4080 dan ook nog eens gemiddeld 50% sneller is maar 30% is ook oké.

Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:51
sunsmountain schreef op vrijdag 12 augustus 2022 @ 00:56:
[...]
Ja, 20% uitschakelen en $700 binnenhalen, in plaats van $0 binnenhalen. Je verkoopt die $1500 SKU niet aan iedereen (ze kosten allebei natuurlijk voor AIB's een stuk minder, maar toch kost een GA102-300 meer dan een GA102-200). Als de vraag naar een GA-300 verzadigd is door AIBs, waarom zou je dan zijnde Nvidia nog meer GA-300's maken? Dan ga je ze toch lekker snijden tot GA-225 of GA-200?
Ik heb nog geen 2 jaar geleden hier een topic aangemaakt, dat inmiddels al 62.500 reacties bevat. Ik zag de eerste ± 20 maanden mensen bij de eerste berichten van voorraad met al het gemak meer dan die 1.500 USD uitgeven voor een 3080(!). Wanneer een 3090 op voorraad lag, dan was dit omdat ze voor meer dan 2.500 euro werden aangeboden. Een 3090 voor onder de 2.000 euro heb ik nog geen moment langer dan luttele seconden in voorraad gezien.

Het verhaal van liever $700 in de bank dan $0 in de bank was tot het einde van de laatste winter totaal niet van toepassing, of heel wat mensen op deze planeet hebben voor niets dagelijks zitten stressen omdat ze geen halo product konden bemachtigen. Of dat laatste gegeven niet absurd is en laat zien dat er sprake is/was van misschien wel "te veel welvaart" (hallo inflatie?) is een ander verhaal.

Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 18:48
ItalianStyle schreef op vrijdag 12 augustus 2022 @ 08:12:
Is er al wat bekent (geruchten) over de performance van de RTX 4070 en RTX 4080.
Ja, zat. Geruchten te over, je hoeft alleen maar wat pagina's terug te bladeren (en dan de langste lappen tekst van mensen die de diepte in gaan negeren :P). De vraag is wat je eraan hebt ten opzichte van wachten op het uiteindelijke product. Vooral de RTX 4070 gaat nog wel even duren, aangezien NV eerst de vlaggenschippen zal lanceren (en die zullen torenhoge vermogens etaleren, zoals altijd, maar tegelijk maakt dat weinig uit).

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Paprika schreef op vrijdag 12 augustus 2022 @ 08:53:
[...]
Ik zag de eerste ± 20 maanden mensen bij de eerste berichten van voorraad met al het gemak meer dan die 1.500 USD uitgeven voor een 3080(!). Wanneer een 3090 op voorraad lag, dan was dit omdat ze voor meer dan 2.500 euro werden aangeboden. Een 3090 voor onder de 2.000 euro heb ik nog geen moment langer dan luttele seconden in voorraad gezien.
Er zijn altijd mensen met een erg hoog budget, maar dat betekent niet dat er ook zoveel mensen zijn die dat willen betalen dat het uit kan.

Nvidia zou slechts één 4090 kunnen maken en die dan voor vele miljoenen kunnen verkopen, maar dan zouden ze gigantisch veel verlies maken, want ze moeten voor miljarden euros verkopen om winst te maken. Dat kan alleen als ze vrij veel kaarten verkopen.

Normaliter neemt de vraag steeds verder af wanneer de prijs omhoog gaat en vice versa, als er weinig aanbod is, gaat de prijs omhoog. Het komt er op neer dat verschillende mensen een verschillende prijs willen betalen. Je kunt dus ervoor kiezen om de prijs erg hoog te houden, maar dat betekent dat relatief weinig mensen die prijs willen betalen of kiezen voor een een wat lagere prijs, waardoor meer kaarten verkocht worden. In een normale markt heb je de optimale winst bij een lagere prijs dan 2000 euro, ook omdat AMD dan gewoon meer kaarten kan gaan produceren tegen een lagere prijs en marktaandeel kan gaan stelen, als Nvidia teveel vraagt.

De hoge koers van Ethereum zorgde echter dat een hoge prijs voor videokaarten goed te verantwoorden was door miners. Bij kapitaalgoederen voor bedrijfsvoering is de prijs gekoppeld aan de terugverdientijd en die terugverdientijd was ook bij een prijs van 2000 euro best redelijk. Daarnaast was de vraag onderschat door producenten en was de productiecapaciteit daardoor te laag. Er was dan ook geen echte concurrentie meer.

Nu Ethereum veel minder waard is en er straks productiecapaciteit over is, is die hoge prijs niet meer te verantwoorden en wanneer Ethereum volgende maand naar proof of stake gaat al helemaal niet meer.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:51
Dat neemt niet weg dat er geen enkele reden is geweest voor Nvidia om maar meer 3080s uit te brengen, gezien de 3090s al direct de deur uit gingen. Dat ethereum daar een grote rol in heeft gespeeld veranders niets aan de situatie, gezien we het hier puur over de 3000-series hebben.

[ Voor 3% gewijzigd door Paprika op 12-08-2022 10:33 ]


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:58
Paprika schreef op vrijdag 12 augustus 2022 @ 08:53:


Het verhaal van liever $700 in de bank dan $0 in de bank was tot het einde van de laatste winter totaal niet van toepassing, of heel wat mensen op deze planeet hebben voor niets dagelijks zitten stressen omdat ze geen halo product konden bemachtigen. Of dat laatste gegeven niet absurd is en laat zien dat er sprake is/was van misschien wel "te veel welvaart" (hallo inflatie?) is een ander verhaal.
Dat zijn natuurlijk wel verschillende, en niet te vergelijken situaties.

In een 'fomo' situatie (zoals hier bij schaarste de laatste 1,5ish jaar het geval was), zijn mensen in staat tot heel vreemde dingen. Wat jij zegt klopt dus ook zeker, mensen kochten van alles omdat ze enerzijds vanwege lockdowns veel geld overhielden en dus 'inhouse' hobbies weer wilden oppakken, terwijl aan de andere kant de miners nog harder de prijs opdreven en ieder kaart kochten die ze maar konden krijgen.

Terwijl @sunsmountain en @napata het meer lijkt te hebben over een laag conjunctuur situatie waarbij het niet vanzelfsprekend is dat iedere kaart verkoopt, eerder omgekeerd een situatie waarbij zeker voor de Halo Sku's er een aanzienlijke kans is dat ze blijven liggen. En dat is wat je nu ziet. Waarom denk je dat o.a. EVGA een 3090 Ti met $1000 in prijs verlaagde een paar dagen geleden (waardoor ze nu een 3090Ti verkopen rond het huidige MSRP van de 3080Ti, wat natuurlijk 2 weken geleden verlaagd is door Nvidia), niet omdat ze nog als zoete broodjes over de toonbank gingen. In zo'n situatie is het zeker wanneer de yields (extreem) goed zijn aan het einde van een cyclus ) (al zal dit bij AMD verwacht ik nog meer spelen dan bij Nvidia), dat chips die eigenlijk een 3090 hadden kunnen zijn uiteindelijk verkocht worden als bijv. 3080(ti) om ze toch maar te verkopen.

[ Voor 5% gewijzigd door Dennism op 12-08-2022 10:58 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op vrijdag 12 augustus 2022 @ 10:32:
Dat neemt niet weg dat er geen enkele reden is geweest voor Nvidia om maar meer 3080s uit te brengen, gezien de 3090s al direct de deur uit gingen. Dat ethereum daar een grote rol in heeft gespeeld veranders niets aan de situatie, gezien we het hier puur over de 3000-series hebben.
Nou, Nvidia heeft inmiddels wel drie "80" SKU's uitgebracht en maar twee "90" SKU's.
Flauw, I know. :P


Maar er is ook een ander scenario te bedenken voor wat Nvidia nu gaat doen. Nvidia kiest misschien voor het afschrijven van hun inventaris en/of de verkoop als Quadro kaarten over een langere termijn. Dit omdat ze deze chips niet voor bodemprijzen willen verkopen aan consumenten die hiermee verwachtingen krijgen over prijsstellingen.

Want nu lijkt de situatie te zijn dat Nvidia hun contractueel afgesproken wafers van Samsung krijgt en een flink deel van de chips niet kan verkopen aan hun partners omdat die geen idee hebben wat ze ermee moeten doen. Daarover zullen ongetwijfeld boetebedragen overheen gaan, maar het blijft staan dat ze niet afgenomen worden.

Dan heb je twee keuzes:
1) Forse prijsverlagingen doorvoeren zodat de videokaarten veel goedkoper in de markt gezet gaan worden.
2) Verlies nemen en afschrijven.

Bij dat eerste scenario speelt dat als Nvidia nu begint met inventaris dumpen voor fors lagere prijzen, de vraag naar videokaarten in de markt voor een groter deel is voorzien als de volgende generatie komt. Dan kopen weinig mensen die videokaarten en dat effect blijft dan doorgaan omdat de meeste mensen jaren met hun videokaart doen. Zeker als er ook steeds meer miningkaarten op de tweedehands markt verschijnen. Immers gebeurde hetzelfde ook aan het begin van de Turing lancering en toen waren de overschotten waarschijnlijk minder problematisch.

Bij het tweede scenario geeft Nvidia de partners een kans om hun eigen verlies te nemen door hun inventaris te verkopen voor verlies en de toestroom te beperken. Vervolgens lanceren ze de RTX40 series voor "Nvidia prijzen" en doen ze alsnog er niks gebeurd is de afgelopen twee jaar.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sunsmountain schreef op vrijdag 12 augustus 2022 @ 00:56:
Waar baseer je dat op?
Hoe weet je dit?
Omdat de industrie zo werkt en dat al heel lang zo doet? :p

Zelfs toen we soms wel nog extra cores in konden schakelen (AMD's X3's, Radeon 9x00 non-pro zijn waarschijnlijk de bekendste voorbeelden), was dat nooit gegarandeerd en als het wel werkte trok het meer sap. Nu was dat ten tijde van de 9x00 niet bepaald een zorg voor wie dan ook; een high-end system trok toen in z'n geheel hooguit zo'n 200W, waarbij zelfs een 9800 Pro slechts tot zo'n 75W kwam. Sterker nog, je had toen meestal niet eens temperatuur sensors, omdat de chips hooguit tot 70 graden ofzo kwamen met die 40mm koelertjes, dus het was niet nodig. Dat beetje meer sap maakte dus ook niemand zich zorgen over. Een harde schijf toevoegen vereistte even veel.
Niets zegt dat een 6800 XT niet gewoon de 6900 XT snelheden en spanning had kunnen halen. Er is gewoon minder behoefte aan 6900 XT's.
Huh? Je hebt dat volgens mij achterstevoren gelezen :p

De 6800 XT was vanaf dag 1 -en dat is nog steeds zo- slechter te verkrijgen dan de 6900 XT en die laatste is al heel lang gewoon ruim op voorraad. Volgens jullie denkwijze zou AMD gewoon gaan knippen om aan de vraag van de 6800 XT te voldoen en de chips kwijt te raken - wat ze overduidelijk niet gedaan hebben. De 6800 is ook altijd beter verkrijgbaar geweest en op voorraad, dus wederom zouden ze volgens jullie daar gewoon niet geknipt hebben om aan de XT vraag te voldoen.

Zowel Nvidia als AMD hebben nu te maken met een overschot, waarbij Nvidia meer overschot lijkt te hebben als je op de earnings calls af gaat. Wederom, volgens jullie zouden ze dat hebben kunnen voorkomen door gewoon meer te knippen, want die voorraad is al langer op aan het bouwen. Dan zouden ze de chips in elk geval kwijt raken. Of wellicht zelfs gewoon nadat de chips al verpakt zijn gewoon andere firmware gebruiken en daarmee delen uitschakelen, om ze zo te verkopen. Nee, in plaats daarvan laten ze dat dusdanig lang opbouwen dat het de release van de volgende generatie in de weg zit (daar lijkt het wel op) en ze dus maar even de prijzen halveren van sommige SKU's.
Ik en @napata snappen wat je zegt, maar zijn het er gewoon niet mee eens. Het tegenargument is namelijk economisch: je verkoopt die GA102-300 dies niet, de afzetmarkt is er te klein voor. De GA102-200's verkoop je daarentegen wel allemaal.
Zo lossen ze dat niet op. Niet met een cut van een vijfde van een chip. Dan verlaag je de prijs van die SKU, want je zat toch al op meer dan het dubbele (MSRP). Of als je dan toch zoals jullie suggereren gewoon lukraak kunt+wilt knippen en meer dan voldoende chips hebt, knip je een tiende weg in plaats van een vijfde en introduceer je al veel eerder een SKU ergens in die $800 verschil tussen de twee.

Laat ik het eens op z'n kop gooien. Als ze zo veel chips hadden en konden doen wat ze wilden, waarom bestaat GA102-220 (3080-12G) dan - en pas anderhalf jaar ná oorspronkelijke release? Als er zo veel (of zelfs allemaal!) GA102-200's hartstikke goede chips waren die ze hadden kunnen knippen zoals ze wilden, waarom is er dan überhaupt 1 MB L2$ + 2 MC's uitgeschakeld? Voor de prestaties maakt dat niets uit, dat hebben we wel gezien, GA102-220 is een zinloze SKU naast GA102-200. Dat uitschakelen van die dingen is echter niet zo triviaal als even een schakelaartje omgooien, dus waarom die moeite doen? Verdeling van de SM's heeft het niets mee te maken, want zowel 68 SM's op 5 MB (of 40x128 KB) als 70 SM's op 6 MB (of 48x128 KB) zijn niet netjes te verdelen, ironisch genoeg is het juist 70 op 5 MB wat het makkelijkste geweest zou zijn, zelfde verhouding als 84 op 6 MB. GA102-220 is op alle vlakken een veel logischere chip en het is ook echt niet zo dat Nvidia bang was dat een partner er 24 GB aan ging hangen. Dat kunnen ze gewoon afdwingen - en doen ze ook.
Ah, toch water bij de wijn? Een 3080 Ti is bijna een 3090, en die eerste blijft bestaan voor het (oorspronkelijke) halo effect. Op zich zou de 3090 weg kunnen als de 3090 Ti, maar ok, bestaande inventaris: ze verkopen niet zo snel (hoge prijs).
Maar waarom zouden ze die dan introduceren als de 3080 op dat moment nog steeds niet te krijgen was? Waarom een nieuwe SKU maken als ze kunnen knippen voor de bestaande SKU van een 3080 en gegarandeerd verkopen - of simpelweg de 3090 laten zakken (zoals ze nu hebben gedaan)? ;)

Waarom zijn ze de 3090 in zulke aantallen blijven produceren in plaats van te knippen als ze ze toch al niet kwijt raakten, terwijl de SKU er pal onder (de 3080 op dat moment) nog steeds niet of nauwelijks te krijgen was?
Voor mij was het duidelijk toen AMD met de 6800 kwam, met een defect rate van 0,09/mm². De enige reden daarvoor was en is positionering, segmentering, verder nergens voor nodig. Zonde. Maar het gebeurt. Het moet wel. Anders zijn er gewoon niet genoeg GA102-200 of Navi21-215-121000177 (6800XT) geproduceerd, gegeven de te lage defect density en de te hoge yields. 3090 en 6900 XT zijn allebei (als eerste) verzadigde kaarten, je kon en je kan er (als eerste) makkelijk 1 kopen.
De 6800 gemaakt puur om positionering? De MSRP van het ding was $70 minder dan de 6800 XT. Waarom zou je gaan zitten knippen en een nieuwe SKU maken voor een prijsverschil van 10% als je (wederom) gewoon de prijs kunt laten zakken? Waarom houd je die andere SKU dan überhaupt in leven? Sterker nog, prijs laten zakken van de 6800 XT zou meer impact gehad hebben, omdat ze dan beter met Nvidia zouden concurreren. Uitgerekend vanuit economisch standpunt is de 6800 volstrekt onlogisch met jullie denkwijze. Als die chips goed genoeg zijn voor een XT maar ze ze niet kwijt komen vanwege die 10% in prijsverschil, is het veel logischer de prijs met 10% te laten zakken en zo niet alleen de chips te verkopen, maar ook nog eens meer vraag te creëren omdat je concurrentie positie vele malen sterker wordt.

De 6800 bestaat en zit waar hij zit omdat ze gewoon niet genoeg chips hadden die goed genoeg waren voor een XT - daarom kwamen de twee SKU's ook tegelijkertijd op dag 1 uit. Ze moesten die chips kwijt en presto: de 6800. Maar omdat je je marges op de XT niet op wil vreten, positioneer je hem vrij hoog, zodat men nog steeds geneigd is de XT te kopen wanneer mogelijk, met als bonus dat je alsnog een hele lekkere marge op je lagere bins hebt.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Werelds schreef op vrijdag 12 augustus 2022 @ 11:52:
De 6800 XT was vanaf dag 1 -en dat is nog steeds zo- slechter te verkrijgen dan de 6900 XT en die laatste is al heel lang gewoon ruim op voorraad. Volgens jullie denkwijze zou AMD gewoon gaan knippen om aan de vraag van de 6800 XT te voldoen en de chips kwijt te raken - wat ze overduidelijk niet gedaan hebben. De 6800 is ook altijd beter verkrijgbaar geweest en op voorraad, dus wederom zouden ze volgens jullie daar gewoon niet geknipt hebben om aan de XT vraag te voldoen.
AMD maakt zelf geen kaarten, dat doen AIBs. We weten van de steam survey maar ook andere bronnen dat er veel meer 6800XTs en 3080s zijn verkocht dan 6900XTs en 3090s. Nogmaals, de afzetmarkt voor de 6900XT en 3090 is veel kleiner. Ik heb het hier niet over de absurde vraag door miners, die alles kochten ongeacht binning.

AMD/Nvidia kunnen best geknipt hebben en daardoor meer 6800XT/3080 chips aan AIBs verkocht hebben dan 6900XT/3090 chips, afhankelijk van de AIB vraag, maar nog steeds niet genoeg. Eenmaal verkocht, kan je niet achteraf een 6900XT/3090 chip snijden, dan zit die al in een kaart, die dan alleen nog maar voor $999/$1499 verkocht kan worden. Je kan wel de BIOS beperken, maar die kunnen gebruikers dan weer flashen, dat schiet niet op. Ik heb het echt over laseren van een perfecte die, om meer chips aan AIBs te verkopen.
Werelds schreef op vrijdag 12 augustus 2022 @ 11:52:
Zowel Nvidia als AMD hebben nu te maken met een overschot, waarbij Nvidia meer overschot lijkt te hebben als je op de earnings calls af gaat. Wederom, volgens jullie zouden ze dat hebben kunnen voorkomen door gewoon meer te knippen, want die voorraad is al langer op aan het bouwen. Dan zouden ze de chips in elk geval kwijt raken. Of wellicht zelfs gewoon nadat de chips al verpakt zijn gewoon andere firmware gebruiken en daarmee delen uitschakelen, om ze zo te verkopen. Nee, in plaats daarvan laten ze dat dusdanig lang opbouwen dat het de release van de volgende generatie in de weg zit (daar lijkt het wel op) en ze dus maar even de prijzen halveren van sommige SKU's.
Dat hebben ze volgens mij ook geprobeerd te voorkomen, door meer 6900 en 3090 chips te snijden naar 6800 en 3080, maar duidelijk niet genoeg. De AIBs blijven nà het snijden alsnog zitten met onverkochte 3090s en 6900s.
Werelds schreef op vrijdag 12 augustus 2022 @ 11:52:
Zo lossen ze dat niet op. Niet met een cut van een vijfde van een chip. Dan verlaag je de prijs van die SKU, want je zat toch al op meer dan het dubbele (MSRP). Of als je dan toch zoals jullie suggereren gewoon lukraak kunt+wilt knippen en meer dan voldoende chips hebt, knip je een tiende weg in plaats van een vijfde en introduceer je al veel eerder een SKU ergens in die $800 verschil tussen de twee.
Dus als ik je goed begrijp, zeg je dat AMD en Nvidia 3090 en 6900 chips verkopen aan AIBs voor de prijs van een 3080 of 6800 chip? Maar het probleem wat je dan krijgt is dat de AIB er een 3090 of 6900XT van maakt, die nog steeds een hogere MSRP heeft, en niet verkocht gaat worden. Of maken ze daar dan een soort 3080 / 6800 van met beperkte BIOS?

Hoeveel je wegknipt is niet het boeiende onderdeel. Voor welke MSRP prijs je de chip vervolgens in de markt zodat het ding verkoopt voor winst voor AIB's en AMD/Nvidia, dat boeit.
Werelds schreef op vrijdag 12 augustus 2022 @ 11:52:
Laat ik het eens op z'n kop gooien. Als ze zo veel chips hadden en konden doen wat ze wilden, waarom bestaat GA102-220 (3080-12G) dan - en pas anderhalf jaar ná oorspronkelijke release? Als er zo veel (of zelfs allemaal!) GA102-200's hartstikke goede chips waren die ze hadden kunnen knippen zoals ze wilden, waarom is er dan überhaupt 1 MB L2$ + 2 MC's uitgeschakeld? Voor de prestaties maakt dat niets uit, dat hebben we wel gezien, GA102-220 is een zinloze SKU naast GA102-200. Dat uitschakelen van die dingen is echter niet zo triviaal als even een schakelaartje omgooien, dus waarom die moeite doen? Verdeling van de SM's heeft het niets mee te maken, want zowel 68 SM's op 5 MB (of 40x128 KB) als 70 SM's op 6 MB (of 48x128 KB) zijn niet netjes te verdelen, ironisch genoeg is het juist 70 op 5 MB wat het makkelijkste geweest zou zijn, zelfde verhouding als 84 op 6 MB. GA102-220 is op alle vlakken een veel logischere chip en het is ook echt niet zo dat Nvidia bang was dat een partner er 24 GB aan ging hangen. Dat kunnen ze gewoon afdwingen - en doen ze ook.
Yields worden met de loop der tijd beter, waardoor je voor dezelfde prijs een beter chip kan bieden. Zo verving de 3080 12GB de 3080 10GB. Ja zelfs Nvidia doet dat, liever doen ze dat niet (niet gebeurd voor de RTX 1000 of RTX 2000 voor zover ik weet tenzij je de duurdere Super kaarten telt), maar ze doen het als AMD concurreert. Je kàn achteraf de GA102-200's niet knippen.

De GA102-220 is denk ik niet zinloos, met meer shaders en meer VRAM. En staat sterker tegenover de 6800XT, wordt zelfs wel eens vergeleken met de 6900XT, net als de 3080 Ti. Daarom doet Nvidia dat, zodat hun "halo" untouched blijft. Grappig dat 70 op 5 MB inderdaad de beste verdeling zou geven, maar zoals je al aangeeft, dat boeit niet. Ik denk dat de GA102-200 het beste was wat ze met de aanvankelijk slechte yields van Samsung konden doen. Maar daar zijn ze dus op teruggekomen en doet niets af aan het 3090 6900 verminken tot 3080 6800 verhaal.
Werelds schreef op vrijdag 12 augustus 2022 @ 11:52:
Maar waarom zouden ze die dan introduceren als de 3080 op dat moment nog steeds niet te krijgen was? Waarom een nieuwe SKU maken als ze kunnen knippen voor de bestaande SKU van een 3080 en gegarandeerd verkopen - of simpelweg de 3090 laten zakken (zoals ze nu hebben gedaan)? ;)

Waarom zijn ze de 3090 in zulke aantallen blijven produceren in plaats van te knippen als ze ze toch al niet kwijt raakten, terwijl de SKU er pal onder (de 3080 op dat moment) nog steeds niet of nauwelijks te krijgen was?
De 3090 en 3080 Ti laten zakken in MSRP "tijdelijke" prijs was zeker een goede move. Ze hadden de 3080 Ti geintroduceerd omdat de yields van Samsung anders teveel 3090 zou opleveren: je kan beter een 3090 snijden tot een 3080 Ti, als er voor die afzetmarkt nog vraag is, dan naar een 3080 12GB. Maar allebei het snijden gebeurt als de GA102 yields te hoog zijn, en de hogere prijs afzetmarkten verzadigd zijn.

Stel dat je gelijk zou hebben, en dat ze 3090 6900 dies niet verminken om aan vraag te voldoen, gebaseerd op de binning van September 2020. Naarmate de tijd verstrijkt, zou AMD/Nvidia met steeds meer 3090 6900XT dies komen te zitten:
  • de vraag neemt af naarmate gamers er 1 gekocht hebben of gaan wachten op de 4090 cq 7975XT lelijke naam by the way
  • de yields nemen toe waardoor er voor dezelfde klokfrequentie A, voltage B en configuratie C, steeds meer GA102-300 dies van de band rollen
  • de idiote miners laten we even buiten beschouwing
En dit weten AMD en Nvidia al zodra ze de binning doen. Als zij echter verkopen aan AIB's, en die AIB's zeggen: "Hey rooie, hey groene, geef eens wat meer 6800XT / 3080 en snel een beetje!"

dan gaat dat snij-lasertje bij TSMC/Samsung aan het werk om de Navi21 en GA102 dies toe te takelen.
Werelds schreef op vrijdag 12 augustus 2022 @ 11:52:

De 6800 gemaakt puur om positionering? De MSRP van het ding was $70 minder dan de 6800 XT. Waarom zou je gaan zitten knippen en een nieuwe SKU maken voor een prijsverschil van 10% als je (wederom) gewoon de prijs kunt laten zakken? Waarom houd je die andere SKU dan überhaupt in leven? Sterker nog, prijs laten zakken van de 6800 XT zou meer impact gehad hebben, omdat ze dan beter met Nvidia zouden concurreren. Uitgerekend vanuit economisch standpunt is de 6800 volstrekt onlogisch met jullie denkwijze. Als die chips goed genoeg zijn voor een XT maar ze ze niet kwijt komen vanwege die 10% in prijsverschil, is het veel logischer de prijs met 10% te laten zakken en zo niet alleen de chips te verkopen, maar ook nog eens meer vraag te creëren omdat je concurrentie positie vele malen sterker wordt.

De 6800 bestaat en zit waar hij zit omdat ze gewoon niet genoeg chips hadden die goed genoeg waren voor een XT - daarom kwamen de twee SKU's ook tegelijkertijd op dag 1 uit. Ze moesten die chips kwijt en presto: de 6800. Maar omdat je je marges op de XT niet op wil vreten, positioneer je hem vrij hoog, zodat men nog steeds geneigd is de XT te kopen wanneer mogelijk, met als bonus dat je alsnog een hele lekkere marge op je lagere bins hebt.
AMD had iets nodig tussen de 6800XT $649 en de 6700XT $499. De $579 van de 6800 past daar mooi tussen in, maar dan moet de performance wel significant kleiner zijn de 6800XT en significant groter dan de 6700XT.

Ik denk dat de yields van TSMC wel goed genoeg waren, maar het gat tussen 40 CU van Navi22 en 72 CU van Navi21 is en was gewoon te groot. Met 64 CU zou de performance van de 6800 te dicht bij de 6800XT hebben gezeten. Niet voor niets is dat (64 CU) nu precies de sweet spot die ze hopelijk gaan verdubbelen in Navi32 en verdriedubbelen met Navi31.

Dus 60 CU en een hele shader engine het raam uit, verminkt de performance van de 6800 net genoeg om tussen de 6700XT en 6800XT te vallen. Als gamer had ik liever de 64 CU gehad, dat zou een perfecte Navi21 koop zijn geweest. Maar helaas. Alsnog wordt de 6800 gezien als een betere koop dan de 3070 of 6700XT, voor de MSRP, die inmiddels weer gehaald wordt nu mining aan het instorten is.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
DaniëlWW2 schreef op vrijdag 12 augustus 2022 @ 11:05:
[...]


Nou, Nvidia heeft inmiddels wel drie "80" SKU's uitgebracht en maar twee "90" SKU's.
Flauw, I know. :P


Maar er is ook een ander scenario te bedenken voor wat Nvidia nu gaat doen. Nvidia kiest misschien voor het afschrijven van hun inventaris en/of de verkoop als Quadro kaarten over een langere termijn. Dit omdat ze deze chips niet voor bodemprijzen willen verkopen aan consumenten die hiermee verwachtingen krijgen over prijsstellingen.

Want nu lijkt de situatie te zijn dat Nvidia hun contractueel afgesproken wafers van Samsung krijgt en een flink deel van de chips niet kan verkopen aan hun partners omdat die geen idee hebben wat ze ermee moeten doen. Daarover zullen ongetwijfeld boetebedragen overheen gaan, maar het blijft staan dat ze niet afgenomen worden.

Dan heb je twee keuzes:
1) Forse prijsverlagingen doorvoeren zodat de videokaarten veel goedkoper in de markt gezet gaan worden.
2) Verlies nemen en afschrijven.

Bij dat eerste scenario speelt dat als Nvidia nu begint met inventaris dumpen voor fors lagere prijzen, de vraag naar videokaarten in de markt voor een groter deel is voorzien als de volgende generatie komt. Dan kopen weinig mensen die videokaarten en dat effect blijft dan doorgaan omdat de meeste mensen jaren met hun videokaart doen. Zeker als er ook steeds meer miningkaarten op de tweedehands markt verschijnen. Immers gebeurde hetzelfde ook aan het begin van de Turing lancering en toen waren de overschotten waarschijnlijk minder problematisch.

Bij het tweede scenario geeft Nvidia de partners een kans om hun eigen verlies te nemen door hun inventaris te verkopen voor verlies en de toestroom te beperken. Vervolgens lanceren ze de RTX40 series voor "Nvidia prijzen" en doen ze alsnog er niks gebeurd is de afgelopen twee jaar.
Zoveel Quadro kaarten worden er niet verkocht. Er zit wel veel meer omzet en winst op, maar Quadro kaarten gaan het inventaris probleem niet oplossen.

Wat is trouwens jouw voorspelling voor Lovelace qua SM's? Zelfde SM als nu, of verbeterd?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:58
DaniëlWW2 schreef op vrijdag 12 augustus 2022 @ 11:05:


Maar er is ook een ander scenario te bedenken voor wat Nvidia nu gaat doen. Nvidia kiest misschien voor het afschrijven van hun inventaris en/of de verkoop als Quadro kaarten over een langere termijn. Dit omdat ze deze chips niet voor bodemprijzen willen verkopen aan consumenten die hiermee verwachtingen krijgen over prijsstellingen.
Ik zie eigenlijk 'Quadro' dat niet oplossen, daar is die markt denk ik te klein voor.

het 'Professional Visualization' reporting segment waar zakelijke kaarten (Quadro wordt volgens mij niet of nauwelijks meer gebruikt) zat vorig kwartaal op $622 miljoen ($500 miljoen in de voorlopige Q2 cijfers) en geen idee hoeveel daarvan RTX A / T en Quadro is voor zowel workstation als mobile workstation). Daarnaast zie je het zakelijke segment nu ook teruglopen. Bedrijven worden ook terughoudender na de afgelopen jaren veelal versnel vervangen te hebben of zelfs flink hebben te moeten investeren in nieuwe (thuis) werkplekken.

Het zou mij eigenlijk weinig verbazen als het deel van de 'zakelijke markt' (reken ik ook universiteiten, studenten ML/AI en andere takken waar computersimulatie e.d. veelgebruikt is, miners, zzpérs e.d. onder) dat RTX gaming kaarten koopt een stuk groter is dan de daadwerkelijke omzet uit workstation grade producten bedoeld voor die markt.
Dan heb je twee keuzes:
1) Forse prijsverlagingen doorvoeren zodat de videokaarten veel goedkoper in de markt gezet gaan worden.
2) Verlies nemen en afschrijven.

Bij dat eerste scenario speelt dat als Nvidia nu begint met inventaris dumpen voor fors lagere prijzen, de vraag naar videokaarten in de markt voor een groter deel is voorzien als de volgende generatie komt. Dan kopen weinig mensen die videokaarten en dat effect blijft dan doorgaan omdat de meeste mensen jaren met hun videokaart doen. Zeker als er ook steeds meer miningkaarten op de tweedehands markt verschijnen. Immers gebeurde hetzelfde ook aan het begin van de Turing lancering en toen waren de overschotten waarschijnlijk minder problematisch.

Bij het tweede scenario geeft Nvidia de partners een kans om hun eigen verlies te nemen door hun inventaris te verkopen voor verlies en de toestroom te beperken. Vervolgens lanceren ze de RTX40 series voor "Nvidia prijzen" en doen ze alsnog er niks gebeurd is de afgelopen twee jaar.
Het eerste scenario zie je al wel een beetje gebeuren, zie o.a. Nvidia dat MSRP's verlaagd, EVGA die daar nog eens flink overheen gaat. Verder zal een groot deel van de markt inderdaad voorzien zijn (in ieder geval een groter deel dan normaal, aangezien de corona lockdowns velen hebben doen besluiten eerder dan normaal te upgraden of nieuw te bouwen).

Neemt niet weg dat ik verwacht dat optie 2 ook gedaan zal worden. Ik denk eerder aan een combinatie van 1 en 2, maar het zou mij weinig verbazen als straks blijkt dat de algemene vraag (dus niet enkel enthusiasts) naar RTX 4000 (maar ook RDNA3) minder zal zijn als de vraag naar RTX 3000 / RDNA2 de afgelopen generatie is geweest.

Of ze kunnen doen alsof er niets veranderd is weer ik dan ook niet. Investeerders zullen immers die vette marges weer willen zien (Nvidia zat op 66%, nu 46%).

[ Voor 5% gewijzigd door Dennism op 12-08-2022 14:59 ]


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Paprika schreef op vrijdag 12 augustus 2022 @ 08:53:
[...]

Ik heb nog geen 2 jaar geleden hier een topic aangemaakt, dat inmiddels al 62.500 reacties bevat. Ik zag de eerste ± 20 maanden mensen bij de eerste berichten van voorraad met al het gemak meer dan die 1.500 USD uitgeven voor een 3080(!). Wanneer een 3090 op voorraad lag, dan was dit omdat ze voor meer dan 2.500 euro werden aangeboden. Een 3090 voor onder de 2.000 euro heb ik nog geen moment langer dan luttele seconden in voorraad gezien.

Het verhaal van liever $700 in de bank dan $0 in de bank was tot het einde van de laatste winter totaal niet van toepassing, of heel wat mensen op deze planeet hebben voor niets dagelijks zitten stressen omdat ze geen halo product konden bemachtigen. Of dat laatste gegeven niet absurd is en laat zien dat er sprake is/was van misschien wel "te veel welvaart" (hallo inflatie?) is een ander verhaal.
Andere hebben het al beantwoord, maar ik kijk naar de gamer-vraag, niet de miner-vraag.

Nu de mining kaarten verkocht worden dit jaar zie je dat wederom game performance de prijs van een videokaart bepaalt (dat was in April/Mei met uitzondering van de 3080 Ti en 3090, maar door de prijsverlaging van Nvidia geldt dat nu voor alle kaarten ook de 6900XT van AMD).

Toen de miners de prijs nog bepaalden, was de Ethereum profitability doorslaggevend. Maar de MERGE naar POS gaat toch echt door, en misschien al wel 15, 16 of 20 September.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op vrijdag 12 augustus 2022 @ 14:57:
[...]


Ik zie eigenlijk 'Quadro' dat niet oplossen, daar is die markt denk ik te klein voor.

het 'Professional Visualization' reporting segment waar zakelijke kaarten (Quadro wordt volgens mij niet of nauwelijks meer gebruikt) zat vorig kwartaal op $622 miljoen ($500 miljoen in de voorlopige Q2 cijfers) en geen idee hoeveel daarvan RTX A / T en Quadro is voor zowel workstation als mobile workstation). Daarnaast zie je het zakelijke segment nu ook teruglopen. Bedrijven worden ook terughoudender na de afgelopen jaren veelal versnel vervangen te hebben of zelfs flink hebben te moeten investeren in nieuwe (thuis) werkplekken.

Het zou mij eigenlijk weinig verbazen als het deel van de 'zakelijke markt' (reken ik ook universiteiten, studenten ML/AI en andere takken waar computersimulatie e.d. veelgebruikt is, miners, zzpérs e.d. onder) dat RTX gaming kaarten koopt een stuk groter is dan de daadwerkelijke omzet uit workstation grade producten bedoeld voor die markt.
Daarom of/en.
Verder betwijfel ik in hoeverre professionele gebruikers niet de ondersteuning wil hebben voor het geval er iets misgaat. Zeker als het om clusters gaat en niet individuele kaarten in een workstation. Punt is en blijft dat Nvidia hier een deel van hun inventaris kwijt kan. Het is ook geen gekke aanname dat Nvidia inmiddels de productie heeft laten afschalen omdat het proces van wafer starten tot videokaart, makkelijk maanden kost. En wafers nu starten zijn pas videokaarten tegen de tijd dat we AD102 verwachten. Dat is te laat.
Het eerste scenario zie je al wel een beetje gebeuren, zie o.a. Nvidia dat MSRP's verlaagd, EVGA die daar nog eens flink overheen gaat. Verder zal een groot deel van de markt inderdaad voorzien zijn (in ieder geval een groter deel dan normaal, aangezien de corona lockdowns velen hebben doen besluiten eerder dan normaal te upgraden of nieuw te bouwen).

Neemt niet weg dat ik verwacht dat optie 2 ook gedaan zal worden. Ik denk eerder aan een combinatie van 1 en 2, maar het zou mij weinig verbazen als straks blijkt dat de algemene vraag (dus niet enkel enthusiasts) naar RTX 4000 (maar ook RDNA3) minder zal zijn als de vraag naar RTX 3000 / RDNA2 de afgelopen generatie is geweest.

Of ze kunnen doen alsof er niets veranderd is weer ik dan ook niet. Investeerders zullen immers die vette marges weer willen zien (Nvidia zat op 66%, nu 46%).
Heeft Nvidia de prijzen verlaagt? Want ik zie het eigenlijk niet. Ik zie vooral hier en daar wat modellen die wat lager zitten, maar dat kan ook goed de importeur, groothandel of de AIB partner zijn die nu haar verlies neemt om maar van de inventaris af te zijn.

Zeker in combinatie met de realisatie dat Nvidia inmiddels de wafer productie heeft laten afbouwen voor zeker GA102, AIB's omschakelen naar de nieuwe serie en de warenhuizen overal moeten toch leeg worden voordat er nieuwe dozen met nog duurdere videokaarten erin gelegd kunnen worden. :P

Komt bij dat Nvidia de afschrijving van Ampere inventaris kan verstoppen door deze over een aantal kwartalen uit te smeren. We weten immers dat Nvidia wel vaker wat "vrijheden" met hun kwartaalcijfers en mining neemt.
sunsmountain schreef op vrijdag 12 augustus 2022 @ 14:21:
[...]

Zoveel Quadro kaarten worden er niet verkocht. Er zit wel veel meer omzet en winst op, maar Quadro kaarten gaan het inventaris probleem niet oplossen.

Wat is trouwens jouw voorspelling voor Lovelace qua SM's? Zelfde SM als nu, of verbeterd?
Als ik nu moet voorspellen met wat we horen, tja ik verwacht dan niet veel. Dat heb ik ook al vaak duidelijk proberen te maken.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:58
DaniëlWW2 schreef op vrijdag 12 augustus 2022 @ 15:44:


Heeft Nvidia de prijzen verlaagt? Want ik zie het eigenlijk niet. Ik zie vooral hier en daar wat modellen die wat lager zitten, maar dat kan ook goed de importeur, groothandel of de AIB partner zijn die nu haar verlies neemt om maar van de inventaris af te zijn.
Nvidia zal het waarschijnlijk (net als Intel en AMD dat eigenlijk nooit doen) nooit officieel publiceren, maar het heeft er alle schijn van dat Nvidia de prijzen fors verlaagd heeft zodat partners dat ook kunnen doen.

Zie o.a. https://www.techpowerup.c...-rtx-30-series-price-cuts

en bepaalde partners, zoals dus EVGA gaan in ieder geval in de US nog wat verder. Wat dit voor onze markt zal betekenen moet mogelijk nog blijken, de sterke dollar c.q. zwakke euro zal daar mogelijk niet helpen, en vaak lopen wij hier sowieso wat achter de feiten aan qua prijzen. Mogelijk dat deze verlagingen hier dus nog niet heel erg zichtbaar zijn.

[ Voor 20% gewijzigd door Dennism op 12-08-2022 16:43 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op vrijdag 12 augustus 2022 @ 16:41:
[...]


Nvidia zal het waarschijnlijk (net als Intel en AMD dat eigenlijk nooit doen) nooit officieel publiceren, maar het heeft er alle schijn van dat Nvidia de prijzen fors verlaagd heeft zodat partners dat ook kunnen doen.

Zie o.a. https://www.techpowerup.c...-rtx-30-series-price-cuts

en bepaalde partners, zoals dus EVGA gaan in ieder geval in de US nog wat verder. Wat dit voor onze markt zal betekenen moet mogelijk nog blijken, de sterke dollar c.q. zwakke euro zal daar mogelijk niet helpen, en vaak lopen wij hier sowieso wat achter de feiten aan qua prijzen. Mogelijk dat deze verlagingen hier dus nog niet heel erg zichtbaar zijn.
Ik zie $100 voor de RTX3080Ti, $200 voor de RTX3090 en $500 voor de RTX3090Ti onder MSRP. Dat noem ik geen forse prijsdalingen. Nee dit zijn iets minder volstrekt bezopen prijzen. ;)
Immers zijn al die SKU's telkens een paar procent sneller dan trede lager. Geen daarvan is relevant tegenover de RTX3080. Als ik dan snel kijk bij Newegg, tja $750-$800 wat nog steeds over de MSRP is. Hier is het eerder €900 met wat uitzonderingen eronder.

Ondertussen kan je bij Newegg nu ook een RX6900XT voor $700 krijgen. AMD laat die prijzen denk ik veel harder zakken. Ook begrijpelijk omdat ze bij AMD waarschijnlijk minder voorraad aan Navi 21 zitten en minder zorgen hebben over marktimpact voor RDNA3. Bij AMD blijft gewoon staan dat de grote GPU waarschijnlijk een van de laagste opbrengsten per wafer heeft. Zeker tegenover Zen 3 wafers waar de beste chips naar Epyc Naples gaan.


Uiteindelijk staat dit ook los van hoe je een chip binned. Nvidia vraagt nu gewoon veel te veel voor hun chips waardoor ze blijven liggen en ze $1,4 miljard aan omzet zijn misgelopen. Omdat ik niet denk dat ze bij Nvidia dit niet doorhebben, vermoed ik dus dat het bewust is omdat ze de RTX40 series verkopen niet willen hinderen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sunsmountain schreef op vrijdag 12 augustus 2022 @ 14:18:
Dus als ik je goed begrijp, zeg je dat AMD en Nvidia 3090 en 6900 chips verkopen aan AIBs voor de prijs van een 3080 of 6800 chip?
Nee, wat ik zeg is dat dusdanig veel wegknippen niet de oplossing is die AMD of Nvidia zou kiezen. Ze gaan niet willens en wetens een vijfde van een goede die uitschakelen omdat ze niet aan de vraag van die cut kunnen voldoen. Wat de partners willen is bijna irrelevant, want zij zijn niet degenen die de facturen van TSMC/Samsung moeten betalen. Nvidia/AMD kijken dan naar hun bins en kijken of er geen middenweg is. In AMD's geval was dat niet zo, maar bij Nvidia wel. Het gat tussen die twee was meer dan de prijs van de lager gepositioneerde SKU überhaupt al was.
Yields worden met de loop der tijd beter, waardoor je voor dezelfde prijs een beter chip kan bieden. Zo verving de 3080 12GB de 3080 10GB. Ja zelfs Nvidia doet dat, liever doen ze dat niet (niet gebeurd voor de RTX 1000 of RTX 2000 voor zover ik weet tenzij je de duurdere Super kaarten telt), maar ze doen het als AMD concurreert. Je kàn achteraf de GA102-200's niet knippen.
Dus nu doen "yields" er wel toe? :p

Yields zijn ook niet echt veranderd, bij beide waren de procedé's al heel volwassen tegen de tijd dat Nvidia en AMD er mee gingen bakken. TSMC's defect density is bijvoorbeeld al sinds half/eind 2019 (!) stabiel. Daarnaast zijn het niet de yields waar het om gaat, maar de die-kwaliteit - en dat blijft variëren, ongeacht de yields.

Heb je voor de gein wel eens naar de Pascal lineup gekeken? Daar zijn maar liefst 7 verschillende cuts van 2 verschillende chips gebruikt voor de 1060. Denk je dat er vraag was naar een 1060 5 GB (geen typo)? Want die bestaat. Exact dezelfde chip als de eerste, maar nu met een stukje cache en een MC uitgeschakeld. Is gewoon 10 SM's, 1280 ALU's, maar mist een stuk L2 en een MC. Tegelijkertijd zit pal eronder nog een chip waar dat omgekeerd is en je gewoon een 192-bits bus hebt maar een SM mist.

Ze hebben de 3090 ook niet de laan uit gestuurd, zoals ze dat in het verleden wel deden. Ze hebben maar liefst 5 cuts tegelijkertijd geproduceerd, waarvan 2 op prijspunten waar je ze niet kwijt komt en 2 die dusdanig dicht bij elkaar liggen dat het nauwelijks verschil maakt. De 3080-12G heeft de 3080-10G niet vervangen, eerstgenoemde is er slechts naast geplaatst; wederom, in het verleden gingen oudere SKU's dan EOL, dat is nu niet het geval. En dat doen ze dan in 2022, anderhalf jaar na oorspronkelijke release, terwijl je je op de volgende generatie aan het voorbereiden bent. Als je van je voorraad af wil is dat niet de oplossing...tenzij je niet anders kunt.
de vraag neemt af naarmate gamers er 1 gekocht hebben of gaan wachten op de 4090 cq 7975XT lelijke naam by the way
Dat is normaal en juist ingecalculeerd als overschot aan het einde van een generatie.
de yields nemen toe waardoor er voor dezelfde klokfrequentie A, voltage B en configuratie C, steeds meer GA102-300 dies van de band rollen
Het is tegenwoordig niet meer zo dat yields veel beter worden naarmate de tijd verstrijkt. Eigenlijk vanaf 20nm al niet meer, omdat de procedé's erna stiekem allemaal heel erg op elkaar lijken en veel dingen delen. Zelfs 16FF, wat problemen had met de FinFET's, zat tegen de tijd dat Nvidia er eindelijk mee aan de slag ging al boven het niveau van 20nm. Sterker nog, 16FF gebruikte daadwerkelijk een 20nm backend. Het gevolg is dat opeenvolgende procedé's al jarenlang betere yields hebben dan hun voorganger tegen de tijd dat ze aan volume-manufacturing beginnen. Je hebt daarnaast met diminishing returns te maken, want er zijn al dusdanig weinig defecten dat het wel beter kán, maar het ook 5 keer zo veel bronnen (mankracht, onderzoek, tijd, geld) kost om daar te komen, dus dat is een afvlakkende grafiek.

Ze verbeteren wel íets, maar je hebt het voor N7 dan hooguit over 0,08 defects/mm², wat voor zo'n grote chips pakweg 2,5-3% betere yield geeft. Ofwel 1-2 chips per wafer. Dat zet geen zoden aan de dijk. Zie hier TSMC's eigen grafieken (eerste is van oktober 2019, tweede van augustus 2020). X-as is relatieve tijd; merk op hoe N7 en N10 ten tijde van HVM start al op een niveau zaten waar N20 pas na een kwartaal op zat; en na 3 kwartalen (wat nu dus bijna 3 jaar geleden is) zaten ze al op het niveau waar N20/16 pas na 1,5-2 jaar op zat toen 16 in productie zat (ietwat vertekend door het perspectief; 0,09 is de baseline voor beide). En hoe die lijn af vlakt, zelfs tegen de tijd dat Nvidia met 16ff begon was dat al nagenoeg vlak ;)

Afbeeldingslocatie: https://fuse.wikichip.org/wp-content/uploads/2019/10/tsmc-n16-7-yield.png

Afbeeldingslocatie: https://images.anandtech.com/doci/16028/Advanced%20Technology%20Leadership.mkv_snapshot_03.02_%5B2020.08.25_14.15.08%5D.jpg

Even los van het feit dat die eigenschappen meer van die-kwaliteit dan yields (D0 defects) af hangen. En dat blijft variëren.
En dit weten AMD en Nvidia al zodra ze de binning doen. Als zij echter verkopen aan AIB's, en die AIB's zeggen: "Hey rooie, hey groene, geef eens wat meer 6800XT / 3080 en snel een beetje!"

dan gaat dat snij-lasertje bij TSMC/Samsung aan het werk om de Navi21 en GA102 dies toe te takelen.
Dat zouden de partners wel willen ja, maar zo werkt het niet :p

Zij krijgen van Nvidia en AMD wat ze krijgen, basta. Daar hebben we partners al vaker over horen klagen en dat zag je ook in de leveringen in 2020 en 2021. De 3090 kwam overal regelmatiger én in grotere aantallen binnen dan de 3080, en de 3070 ook dan de 3060 Ti.
AMD had iets nodig tussen de 6800XT $649 en de 6700XT $499.
Waarom? Daar hebben ze nog nooit iets geplaatst, Nvidia ook niet. Die $70 eronder is echt een raar prijs punt. Als je door de jaren terug kijkt, zul je doorgaans verschillen van $100 zien, vaak zelfs $150. Pas als je rond de $400 komt ga je kleinere verschillen zien.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Werelds schreef op vrijdag 12 augustus 2022 @ 18:41:
[...]

Nee, wat ik zeg is dat dusdanig veel wegknippen niet de oplossing is die AMD of Nvidia zou kiezen. Ze gaan niet willens en wetens een vijfde van een goede die uitschakelen omdat ze niet aan de vraag van die cut kunnen voldoen. Wat de partners willen is bijna irrelevant, want zij zijn niet degenen die de facturen van TSMC/Samsung moeten betalen. Nvidia/AMD kijken dan naar hun bins en kijken of er geen middenweg is. In AMD's geval was dat niet zo, maar bij Nvidia wel. Het gat tussen die twee was meer dan de prijs van de lager gepositioneerde SKU überhaupt al was.
Als AIB partners de factuur niet betalen, wordt de factuur betalen aan TSMC/Samsung ook lastig. Als ze weten dat ze een goede die niet kunnen verkopen, lijkt het mij nog steeds rationeel om die te laten snijden zodat ze die wel kunnen verkopen. De bins staan vast zodra er een kaart en chip van dat type wordt uitgebracht, dus dat bepaalt vervolgens ook de vervolgvraag. Als de yields te goed worden, hoe verkoop je dan die dies? Je zegt een middenweg, maar wat bedoel je daarmee?
Werelds schreef op vrijdag 12 augustus 2022 @ 18:41:
[...]
Dus nu doen "yields" er wel toe? :p

Yields zijn ook niet echt veranderd, bij beide waren de procedé's al heel volwassen tegen de tijd dat Nvidia en AMD er mee gingen bakken. TSMC's defect density is bijvoorbeeld al sinds half/eind 2019 (!) stabiel. Daarnaast zijn het niet de yields waar het om gaat, maar de die-kwaliteit - en dat blijft variëren, ongeacht de yields.
Yields zijn juist het probleem. Als ik kijk naar die wafer calculators, komen er teveel perfecte dies uit zonder defecten. Teveel om het verschil tussen aantal verkochte 3080s en 3090s te verklaren. Wat je zegt is dat veel van die perfecte dies niet de kloksnelheid, spanning en configuratie zouden hebben gehaald van een 3090 en daarom een 3080 zijn. Maar de kloksnelheid en spanning is hetzelfde, en de configuratie van perfecte dies is dat alle GPCs en SMs enabled zijn. Dus stel dat een deel van die perfecte dies toch problemen tonen, dan zouden dat minstens de helft moeten zijn om genoeg 3080s te maken, anders produceer je teveel 3090s. En voor dat laatste zie ik geen aanwijzingen of bronnen, die dat bevestigen. Dus snijdt Nvidia (en AMD) zelf.
Werelds schreef op vrijdag 12 augustus 2022 @ 18:41:
Heb je voor de gein wel eens naar de Pascal lineup gekeken? Daar zijn maar liefst 7 verschillende cuts van 2 verschillende chips gebruikt voor de 1060. Denk je dat er vraag was naar een 1060 5 GB (geen typo)? Want die bestaat. Exact dezelfde chip als de eerste, maar nu met een stukje cache en een MC uitgeschakeld. Is gewoon 10 SM's, 1280 ALU's, maar mist een stuk L2 en een MC. Tegelijkertijd zit pal eronder nog een chip waar dat omgekeerd is en je gewoon een 192-bits bus hebt maar een SM mist.
Dat verhaal bevestigt noch ontkracht dat ze perfecte/betere dies verknippen tot slechtere dies om meer positionering te krijgen.
Werelds schreef op vrijdag 12 augustus 2022 @ 18:41:
Ze hebben de 3090 ook niet de laan uit gestuurd, zoals ze dat in het verleden wel deden. Ze hebben maar liefst 5 cuts tegelijkertijd geproduceerd, waarvan 2 op prijspunten waar je ze niet kwijt komt en 2 die dusdanig dicht bij elkaar liggen dat het nauwelijks verschil maakt. De 3080-12G heeft de 3080-10G niet vervangen, eerstgenoemde is er slechts naast geplaatst; wederom, in het verleden gingen oudere SKU's dan EOL, dat is nu niet het geval. En dat doen ze dan in 2022, anderhalf jaar na oorspronkelijke release, terwijl je je op de volgende generatie aan het voorbereiden bent. Als je van je voorraad af wil is dat niet de oplossing...tenzij je niet anders kunt.
Ik weet niet of Nvidia nog steeds de 3080-10G produceert, moeilijk te controleren. Mijn vermoeden is dat ze 3090 dies laseren om genoeg 3080 dies te produceren voor AIB partners. Omdat er gewoon veel meer van verkocht worden.
Werelds schreef op vrijdag 12 augustus 2022 @ 18:41:
Het is tegenwoordig niet meer zo dat yields veel beter worden naarmate de tijd verstrijkt. Eigenlijk vanaf 20nm al niet meer, omdat de procedé's erna stiekem allemaal heel erg op elkaar lijken en veel dingen delen. Zelfs 16FF, wat problemen had met de FinFET's, zat tegen de tijd dat Nvidia er eindelijk mee aan de slag ging al boven het niveau van 20nm. Sterker nog, 16FF gebruikte daadwerkelijk een 20nm backend. Het gevolg is dat opeenvolgende procedé's al jarenlang betere yields hebben dan hun voorganger tegen de tijd dat ze aan volume-manufacturing beginnen. Je hebt daarnaast met diminishing returns te maken, want er zijn al dusdanig weinig defecten dat het wel beter kán, maar het ook 5 keer zo veel bronnen (mankracht, onderzoek, tijd, geld) kost om daar te komen, dus dat is een afvlakkende grafiek.
Ook als yields niet zouden verbeteren, er zijn teveel perfecte dies om een verschil van 3x te verklaren. Tenzij ze een aantal van die 3090 versneden hebben tot 3080 Ti, dan kom je op 1,68% 3080 en 1,30% 3090 (0,53%) +3080Ti (0,77%).
https://store.steampowered.com/hwsurvey/videocard/
Dat scheelt maar 2 SM, maar de MSRP scheelt $300. Nog 2 SM erbij, een extra $500.

Dan is de oorspronkelijk (en huidige) yield van de chips 60-40, wat wat beter klopt met de wafer calculators.
Werelds schreef op vrijdag 12 augustus 2022 @ 18:41:
Ze verbeteren wel íets, maar je hebt het voor N7 dan hooguit over 0,08 defects/mm², wat voor zo'n grote chips pakweg 2,5-3% betere yield geeft. Ofwel 1-2 chips per wafer. Dat zet geen zoden aan de dijk. Zie hier TSMC's eigen grafieken (eerste is van oktober 2019, tweede van augustus 2020). X-as is relatieve tijd; merk op hoe N7 en N10 ten tijde van HVM start al op een niveau zaten waar N20 pas na een kwartaal op zat; en na 3 kwartalen (wat nu dus bijna 3 jaar geleden is) zaten ze al op het niveau waar N20/16 pas na 1,5-2 jaar op zat toen 16 in productie zat (ietwat vertekend door het perspectief; 0,09 is de baseline voor beide). En hoe die lijn af vlakt, zelfs tegen de tijd dat Nvidia met 16ff begon was dat al nagenoeg vlak ;)

[Afbeelding]

[Afbeelding]

Even los van het feit dat die eigenschappen meer van die-kwaliteit dan yields (D0 defects) af hangen. En dat blijft variëren.
Er kan meer fout gaan dan alleen directe defecten. Maar als het verschil in kloksnelheid en spanning nul is, heb je het nog steeds over dies zonder defecten die dan toch geknipt worden / met minder SM eindigen dan ze hadden.
Werelds schreef op vrijdag 12 augustus 2022 @ 18:41:
Dat zouden de partners wel willen ja, maar zo werkt het niet :p

Zij krijgen van Nvidia en AMD wat ze krijgen, basta. Daar hebben we partners al vaker over horen klagen en dat zag je ook in de leveringen in 2020 en 2021. De 3090 kwam overal regelmatiger én in grotere aantallen binnen dan de 3080, en de 3070 ook dan de 3060 Ti.
Tijdens een pandemie misschien, maar ik kan me niet voorstellen dat partners probleemloos alle 3090s en 3080s kopen als ze die 50%-50% krijgen aangeleverd. 66%-33% misschien, 75%-25% zou beter zijn. Die 3090s zijn bijna onverkoopbaar voor $1499.
Werelds schreef op vrijdag 12 augustus 2022 @ 18:41:
Waarom? Daar hebben ze nog nooit iets geplaatst, Nvidia ook niet. Die $70 eronder is echt een raar prijs punt. Als je door de jaren terug kijkt, zul je doorgaans verschillen van $100 zien, vaak zelfs $150. Pas als je rond de $400 komt ga je kleinere verschillen zien.
Eens dat het een rare prijs is, maar dat is het gat wat er was tussen 72 CU en 40 CU. Wat, gegeven de lage defect density van TSMC, alleen maar verder bevestigt dat ze bewust snijden in dies die meer (hadden) kunnen doen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sunsmountain schreef op zondag 14 augustus 2022 @ 21:42:
Als de yields te goed worden, hoe verkoop je dan die dies? Je zegt een middenweg, maar wat bedoel je daarmee?
Als je zo veel goede dies hebt, ga je die niet knippen voor een SKU die minder dan de helft kost dan de SKU waar ze geschikt voor zijn, wat dan ook een SKU is die je juist hebt om je écht slechte dies kwijt te komen. Dan verzin je een nieuwe SKU in dat gat van $800. Voor mijn part een 10% geknipte versie op $900 - dat is nog steeds logischer dan hetzelfde knippen als (een deel van) je D0 dies.
Yields zijn juist het probleem. Als ik kijk naar die wafer calculators, komen er teveel perfecte dies uit zonder defecten.
Te veel? Zelfs met TSMC's 0,09 zou Nvidia yields van slechts tegen de 60% halen :p
Maar de kloksnelheid en spanning is hetzelfde
Voor minder ingeschakelde delen. Mocht ik het nog niet duidelijk gezegd hebben (te lui om m'n eigen posts terug te lezen :P): als je delen van de die uitschakelt, heb je minder spanning nodig om het resterende deel draaiende te houden. In die "perfecte" dies (verkeerd woord; ze zijn hebben geen D0 defect, niet noodzakelijkerwijs perfect) zit een berg aan variatie: de ene die zal met 100% ingeschakelde onderdelen op 1050 mV z'n werk kunnen doen aan 2 GHz. Een andere die -ook "perfect", dwz defectloos- van diezelfde wafer zal voor die kloksnelheid echter wellicht 1150 mV nodig hebben, waardoor je hem dus níet kunt inzetten op dezelfde positie als de eerste want hij trekt dan al zo'n 18% meer sap (spanning = kwadratisch ;)). "Vroeger" waren die eerste de "golden samples"* en de laatste de norm, maar door de manier waarop GPU's tegenwoordig werken en dynamisch draaien op hetgeen ze kunnen trekken, zien we dat niet meer zo. Vergeet ook niet dat de productiekosten meer zijn dan enkel de wafers (die dus al heel erg duur zijn tegenwoordig). Met packaging, testen en dergelijke kun je dat zonder problemen verdubbelen, misschien zelfs meer. Dan zit je nog met die krengen verschepen, Nvidia's eigen marge op de verkoop, enzovoort. Reken maar dat ze elke die voor zo veel verkopen als ze kunnen, zo werkt dat nu eenmaal :p

* mijn 5870 bijvoorbeeld. Die deed 975 (+15% over de stock 850) op stock spanning. Op spanningen die anderen nodig hadden voor 950, ging die van mij over de GHz heen, wat gewoon bizar was. Tegenwoordig zou dat niet meer gebeuren. Het doel zou nu bijvoorbeeld 950 op spanning X zijn en alles wat dat niet haalt wordt op dezelfde hoop als werkbare dies met D0 defecten gegooid en geknipt naar een 5850. Dat is het verschil met vroeger. De doelen liggen nu vele malen hoger, tegen de limiet aan van wat zelfs de beste exemplaren kunnen halen. Die speling die er vroeger was hebben ze niet meer.

En als bijgevolg krijgen wij geen GPU's meer die we zomaar eventjes 15, 20% overklokken :(
Ik weet niet of Nvidia nog steeds de 3080-10G produceert, moeilijk te controleren. Mijn vermoeden is dat ze 3090 dies laseren om genoeg 3080 dies te produceren voor AIB partners. Omdat er gewoon veel meer van verkocht worden.
Zo moeilijk is het niet, ze zijn nergens uit de prijslijsten gehaald. Nvidia en de partners zaten echt niet in februari al met een voorraad GA102-200's die nu nog steeds niet op zou zijn, dus ze zijn blijven produceren :)


Ik zal er verder over ophouden, ik denk dat we het er over eens zijn dat we het oneens zijn ;)

Ik begrijp je denkwijze volledig, maar zo werkte het in het verleden nooit en uitgerekend nu gaat geen van beide dat doen met de extreem hoge kosten die ze hebben. De productie werkt nog steeds grotendeels zoals het 15 jaar geleden werkte. Yields zijn tegenwoordig vooral sneller op stabiel niveau dan toen, maar variatie tussen dies zal op dit niveau waarschijnlijk groter zijn dan vroeger door de kleine schaal. Wat er dus uit een wafer komt is ook niet echt veranderd. Maar ze betalen er wel fors meer voor, moeten er meer in investeren én moeten meer volume hebben. Ik zou graag geloven dat we tegenwoordig Good Guy Nvidia/AMD hebben, maar zelfs AMD is niet zó erg op de consument gericht, de centen moeten binnen blijven komen ;)

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Werelds schreef op dinsdag 16 augustus 2022 @ 14:28:
[...]

Als je zo veel goede dies hebt, ga je die niet knippen voor een SKU die minder dan de helft kost dan de SKU waar ze geschikt voor zijn, wat dan ook een SKU is die je juist hebt om je écht slechte dies kwijt te komen. Dan verzin je een nieuwe SKU in dat gat van $800. Voor mijn part een 10% geknipte versie op $900 - dat is nog steeds logischer dan hetzelfde knippen als (een deel van) je D0 dies.


[...]

Te veel? Zelfs met TSMC's 0,09 zou Nvidia yields van slechts tegen de 60% halen :p


[...]

Voor minder ingeschakelde delen. Mocht ik het nog niet duidelijk gezegd hebben (te lui om m'n eigen posts terug te lezen :P): als je delen van de die uitschakelt, heb je minder spanning nodig om het resterende deel draaiende te houden. In die "perfecte" dies (verkeerd woord; ze zijn hebben geen D0 defect, niet noodzakelijkerwijs perfect) zit een berg aan variatie: de ene die zal met 100% ingeschakelde onderdelen op 1050 mV z'n werk kunnen doen aan 2 GHz. Een andere die -ook "perfect", dwz defectloos- van diezelfde wafer zal voor die kloksnelheid echter wellicht 1150 mV nodig hebben, waardoor je hem dus níet kunt inzetten op dezelfde positie als de eerste want hij trekt dan al zo'n 18% meer sap (spanning = kwadratisch ;)). "Vroeger" waren die eerste de "golden samples"* en de laatste de norm, maar door de manier waarop GPU's tegenwoordig werken en dynamisch draaien op hetgeen ze kunnen trekken, zien we dat niet meer zo. Vergeet ook niet dat de productiekosten meer zijn dan enkel de wafers (die dus al heel erg duur zijn tegenwoordig). Met packaging, testen en dergelijke kun je dat zonder problemen verdubbelen, misschien zelfs meer. Dan zit je nog met die krengen verschepen, Nvidia's eigen marge op de verkoop, enzovoort. Reken maar dat ze elke die voor zo veel verkopen als ze kunnen, zo werkt dat nu eenmaal :p

* mijn 5870 bijvoorbeeld. Die deed 975 (+15% over de stock 850) op stock spanning. Op spanningen die anderen nodig hadden voor 950, ging die van mij over de GHz heen, wat gewoon bizar was. Tegenwoordig zou dat niet meer gebeuren. Het doel zou nu bijvoorbeeld 950 op spanning X zijn en alles wat dat niet haalt wordt op dezelfde hoop als werkbare dies met D0 defecten gegooid en geknipt naar een 5850. Dat is het verschil met vroeger. De doelen liggen nu vele malen hoger, tegen de limiet aan van wat zelfs de beste exemplaren kunnen halen. Die speling die er vroeger was hebben ze niet meer.

En als bijgevolg krijgen wij geen GPU's meer die we zomaar eventjes 15, 20% overklokken :(



[...]

Zo moeilijk is het niet, ze zijn nergens uit de prijslijsten gehaald. Nvidia en de partners zaten echt niet in februari al met een voorraad GA102-200's die nu nog steeds niet op zou zijn, dus ze zijn blijven produceren :)


Ik zal er verder over ophouden, ik denk dat we het er over eens zijn dat we het oneens zijn ;)

Ik begrijp je denkwijze volledig, maar zo werkte het in het verleden nooit en uitgerekend nu gaat geen van beide dat doen met de extreem hoge kosten die ze hebben. De productie werkt nog steeds grotendeels zoals het 15 jaar geleden werkte. Yields zijn tegenwoordig vooral sneller op stabiel niveau dan toen, maar variatie tussen dies zal op dit niveau waarschijnlijk groter zijn dan vroeger door de kleine schaal. Wat er dus uit een wafer komt is ook niet echt veranderd. Maar ze betalen er wel fors meer voor, moeten er meer in investeren én moeten meer volume hebben. Ik zou graag geloven dat we tegenwoordig Good Guy Nvidia/AMD hebben, maar zelfs AMD is niet zó erg op de consument gericht, de centen moeten binnen blijven komen ;)
Ik las toevallig net dit:
https://videocardz.com/ne...-stopping-it-2-months-ago

waarmee het klinkt alsof je GA102 3090 wafers hebt en GA102 3080 wafers. Maar er zijn alleen GA102 wafers. Ook viel me op dat de verhouding (3090+3080Ti) versus (3080 10 of 12) niet zo scheef is, en best uit 1 wafer zou kunnen komen: dan is er ook geen noodzaak om wafers vooraf (voordat de dies in een kaart belandeb) te snijden: uiteindelijk verkopen alle GA102 voor een bepaalde prijs, of het nou 3090s of 3080s zijn.

De 6800 wijkt nog steeds af, en juist bij de kleinere chips lijkt er meer verminking te gebeuren en vermoed ik nog steeds een bewuste laser, maar hard bewijs heb ik ook niet kunnen vinden. Een bepaald frequentie en TDP doel kan al genoeg reden tot genoeg snijden geven, en dat er gesneden wordt is zeker. De teveel perfecte dies vinden voor de rest vanzelf uiteindelijk een prijs waarvoor ze verkocht worden, die hoeven niet gelaserd te worden, zijn we het toch nog deels eens.

Ga ik verder met het zwembad hier in Frankrijk ;)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Werelds

Je blijft hameren op de hoge productiekosten, maar dat is juist totaal niet relevant. Een GA102 chip met een defect die in een 3080 gaat, kost evenveel om te produceren als een GA102 chip zonder defect die in een 3090 gaat.

Als de yield hoger is bij Lovelace en ze desondanks evenveel chips in de 4080 blijven stoppen dan gaat hun winst niet omlaag ten opzichte van de situatie waar ze de chip niet in de 4090 kunnen stoppen vanwege een defect. In beide gevallen verkopen ze evenveel chips voor x080 prijzen. Het verschil is alleen dat ze de chip ook duurder zouden kunnen verkopen, als de vraag er is, wanneer de chip op zich goed is.

Mijn verwachting voor de volgende generatie is dat de 4080 later beschikbaar komt en initieel in lagere hoeveelheden. En goede kans dat de 4080 en 4070 kort na elkaar geïntroduceerd worden. Je hebt kans dat de 4070 initieel dan beter te krijgen is dan de 4080, omdat ze initieel liever goedkopere AD103 chips voor 4070 prijzen verkopen, dan duurdere AD102 chips voor 4080 prijzen.

Maar wanneer het vraag en aanbod meer in balans komen, zal Nvidia zich steeds meer moeten voegen naar waar de consument voor bereid is om te betalen, ipv wat ze zelf graag zouden willen dat de consument koopt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@sunsmountain Kijk nog eens naar de base en boostclocks. :)
Die RTX3080 12GB heeft een 350W TDP, een dramatische base clock en een relatief hoge boostclock. Ergo die chip "lekt" als een malle. Verder 5MB L2 cache dus geen RTX3080Ti kwaliteit.

Kom je dus uit op een chip die misschien als RTX3080 verkocht had kunnen worden, maar waarschijnlijk niet omdat de base clock niet gehaald word. Dat zal Nvidia opgevallen zijn, waarna ze weer een bin hebben gevalideerd.

Verder stopt Nvidia niet met de productie van een bin. Ze binnen elke chip uit elke wafer en gaan een mogelijke bin niet twee maanden niet gebruiken. Wat ze wel kunnen doen is bepaalde bins opsparen en dan als een grote partij verkopen aan een of meerdere AIB's om er iets van te maken.

De RX6800 wijkt ook niet echt af. AMD heeft gewoon zelden zo'n grote chip uitgebracht en ze hebben het zichzelf vrij makkelijk gemaakt met een bin waarin ze bijna letterlijk "de rest" in kunnen dumpen. Vervolgens kost die nauwelijks minder dan de RX6800XT, waardoor de vraag ernaar niet al te hoog word en het verlies per verkochte chip ook gering blijft. Dat is eigenlijk kostenbesparing in het creëren van meer gevalideerde bins alsmede testen vs. meer marge per chip. Juist voor de producent met 20% marktaandeel is dat logisch net zoals het logisch is voor de producent met 80% om meer bins te valideren.


Dit staat overigens helemaal los wat ik hiervan vind. Van mijn part zijn bijna al die GA102 bins gewoon domme producten, maar daar ga ik helaas niet over.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
DaniëlWW2 schreef op dinsdag 16 augustus 2022 @ 19:05:
@sunsmountain Kijk nog eens naar de base en boostclocks. :)
Die RTX3080 12GB heeft een 350W TDP, een dramatische base clock en een relatief hoge boostclock. Ergo die chip "lekt" als een malle. Verder 5MB L2 cache dus geen RTX3080Ti kwaliteit.
Los van dat Ampere noch op de base noch de boost clock draait, is het argument eerder economisch. En dàt een bepaalde clock niet gehaald wordt, wil niet zeggen dat de knip passend is om een andere klok wèl te halen: mijn argument is dat die knip heftiger kan zijn dan nodig, bijvoorbeeld voor positionering. Of voor het produceren van units waarvan er, met een bijbehorend prijspunt, meer verkocht kunnen worden.

Werelds tegenargument is dat zelfs perfecte dies uiteindelijk een verkoopprijs vinden en dus nooit geknipt hoeven te worden, wat klopt maar nog steeds mijn argument niet uitsluit. De bins worden niet louter bepaald door wat een chip wel of niet kan, zet dat uit je hoofd.
DaniëlWW2 schreef op dinsdag 16 augustus 2022 @ 19:05:
De RX6800 wijkt ook niet echt af. AMD heeft gewoon zelden zo'n grote chip uitgebracht en ze hebben het zichzelf vrij makkelijk gemaakt met een bin waarin ze bijna letterlijk "de rest" in kunnen dumpen. Vervolgens kost die nauwelijks minder dan de RX6800XT, waardoor de vraag ernaar niet al te hoog word en het verlies per verkochte chip ook gering blijft. Dat is eigenlijk kostenbesparing in het creëren van meer gevalideerde bins alsmede testen vs. meer marge per chip. Juist voor de producent met 20% marktaandeel is dat logisch net zoals het logisch is voor de producent met 80% om meer bins te valideren.
Het zal je niet verbazen dat ik dit anders zie. Een hele shader engine het raam uit gooien, met een lagere defect ratio op TSMC dan Samsung? 75% voor een 6800, waar Nvidia niet lager gaat dan 80%? Dat is wat mij betreft een voorbeeld van een heftigere knip dan nodig.

Hetzelfde gebeurt nog veel meer bij kleinere chips. Kleiner, dus minder foutieve dies. Maar toch meer product segmentatie, hoe dan? Ook daar wordt meer gelaserd dan wat de chips hadden kunnen doen, zodat bij elk prijspunt een videokaart ontstaat.

Ik denk inderdaad niet meer dat 3090 Ti chips gereduceerd worden tot 3080s, als ze 3090s of 3080 Ti kloks kunnen halen. Maar voor andere SKUs zie ik dat vaak wel en als er teveel top chips zijn, zal de prijs omlaag moeten, wat je ook ziet gebeuren nu in het nieuws. Ook bij AMD, maar vooral bij Nvidia.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

NVIDIA CEO Confirms RTX 40-series "Ada" Reveal in September, Launch Aimed at Not Cannibalizing "Ampere"

'NVIDIA CEO Jen Hsun Huang, in his Q2 Fiscal-2023 Results call confirmed that the company's next-generation GeForce RTX 40-series graphics cards could be revealed at GTC Fall 2022 , to be held next month in September. NVIDIA's launch of the RTX 40-series "Ada" will be unlike those of the previous few generations, despite retaining a "top-down" launch cycle (of launching high-end SKUs first). CEO Jen Hsun says that the first products will be "layered on top" of the current-generation "Ampere" products, so they don't cannibalize the sales of current-generation products.

"Ampere is the most popular GPU we've ever created. It is in the top 15 most popular gaming GPUs on Steam. And it remains the best GPUs in the world, and it will be very successful for some time. However, we do have exciting new next-generation coming and it's going to be layered on top of that. And so, we've taken—we've done two things. We've reduced sell-in to let channel inventory correct and we've implemented programs with our partners to price position the products in the channel in preparation for our next generation," said CEO Jen Hsun Huang. This could mean that the RTX 40-series could see a ramp-up to the various mainstream market segments, and gain volumes from them, only in 2023. The remainder of 2022 could see a high-end debut of the RTX 40-series, selling alongside attractively priced RTX 30-series cards.
NVIDIA stares at slow demand in the "gaming segment" (read: demand from cryptocurrency miners for gaming graphics cards); with the recent crash in the crypto-currency market, leading to miners flooding the market with used graphics cards that some consumers may be willing to pick up. This puts NVIDIA's board partners in competition with the miners at pricing; and has impact NVIDIA's gaming revenue and guidance over the past couple of quarters. From today's release, it looks like NVIDIA expects the slip to wane only by the end of the year.'

Gaming cijfers niet goed:

NVIDIA Announces Financial Results for Second Quarter Fiscal 2023: Gaming Revenues Slashed by a Third

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 18:42
Help!!!! schreef op donderdag 25 augustus 2022 @ 11:10:
NVIDIA CEO Confirms RTX 40-series "Ada" Reveal in September, Launch Aimed at Not Cannibalizing "Ampere"

'NVIDIA CEO Jen Hsun Huang, in his Q2 Fiscal-2023 Results call confirmed that the company's next-generation GeForce RTX 40-series graphics cards could be revealed at GTC Fall 2022 , to be held next month in September. NVIDIA's launch of the RTX 40-series "Ada" will be unlike those of the previous few generations, despite retaining a "top-down" launch cycle (of launching high-end SKUs first). CEO Jen Hsun says that the first products will be "layered on top" of the current-generation "Ampere" products, so they don't cannibalize the sales of current-generation products.

"Ampere is the most popular GPU we've ever created. It is in the top 15 most popular gaming GPUs on Steam. And it remains the best GPUs in the world, and it will be very successful for some time. However, we do have exciting new next-generation coming and it's going to be layered on top of that. And so, we've taken—we've done two things. We've reduced sell-in to let channel inventory correct and we've implemented programs with our partners to price position the products in the channel in preparation for our next generation," said CEO Jen Hsun Huang. This could mean that the RTX 40-series could see a ramp-up to the various mainstream market segments, and gain volumes from them, only in 2023. The remainder of 2022 could see a high-end debut of the RTX 40-series, selling alongside attractively priced RTX 30-series cards.
NVIDIA stares at slow demand in the "gaming segment" (read: demand from cryptocurrency miners for gaming graphics cards); with the recent crash in the crypto-currency market, leading to miners flooding the market with used graphics cards that some consumers may be willing to pick up. This puts NVIDIA's board partners in competition with the miners at pricing; and has impact NVIDIA's gaming revenue and guidance over the past couple of quarters. From today's release, it looks like NVIDIA expects the slip to wane only by the end of the year.'

Gaming cijfers niet goed:

NVIDIA Announces Financial Results for Second Quarter Fiscal 2023: Gaming Revenues Slashed by a Third
RTX 40-series reveal dus pas in september... jammer ik had op augustus (gamescom) gehoopt!
De 4090 schijnt al in productie te zijn.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
20 September, dat is eerder dan ik verwacht had van Nvidia. Daadwerkelijke availability zal wel pas eind Oktober / begin November zijn.
Update 09:48 UTC: NVIDIA states that the CEO Keynote for GTC is scheduled for September 20.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Dit verklaart waarom de prijzen van de high-end kaarten zoveel meer verlaagd zijn dan de low end. Het lijkt erop dat Nvidia de 4090 relatief vroeg introduceert, maar dan lang wacht met het uitbrengen van de 4080 en lager.

De vraag is wel of de plannen van Nvidia niet doorkruist gaan worden door een flinke dump van mining-kaarten. Uiteraard willen veel mensen liever geen mining-kaart, maar als je voor de helft van de prijs die Nvidia vraagt een 2e hands miningkaart kunt kopen, wordt het wel erg lastig om een nieuwe kaart te verantwoorden.

En Nvidia moet vermoedelijk nog grote aantallen kwijt, dus dan moeten ze nog erg veel mensen gaat verleiden om nog naar de 3000 serie te upgraden.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

HugoBoss1985 schreef op donderdag 25 augustus 2022 @ 11:22:
[...]


RTX 40-series reveal dus pas in september... jammer ik had op augustus (gamescom) gehoopt!
De 4090 schijnt al in productie te zijn.
Oh die is allang in productie. Moet wel als ze dit jaar willen lanceren. Het duurt maanden voordat je een wafer kan maken, er chips uit kan halen, deze kan verpakken, dit verkopen aan een AIB die er een videokaart van maakt en vervolgens kan verschepen.

Daarom zijn al die verhalen over veranderende specificaties ook onzin. Het ligt al maanden vast en is gevalideerd zodat het ook echt werkt op een breed scala aan testchips. Het punt is dat we niet weten welke specificatie nu klopt en ik vermoed steeds meer dat dit komt omdat Nvidia zelf onzin aan het verspreiden is omdat ze niet goed weten waar ze nu staan tegenover RDNA3.

@Help!!!! Ah we gaan beginnen.
Maar zo te zien gaat Nvidia eerst met AD102 komen voor de gebruikelijke Nvidia high end prijzen en dan laten ze de Ampere producten wat in prijs zakken zodat die "voordelig" lijken. En als GA102 en GA104 chips een beetje op begint te raken, dan krijg je AD103/AD104. Zo lees ik het in ieder geval tussen alle marketing onzin. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Zo gaat het toch altijd bij een aanstaande introductie van nieuwe videokaarten: de prijzen van de huidige generatie gaan omlaag omdat de resterende voorraad weg moet. Dat was bij de Pascal en Turing niet anders.

March of the Eagles


  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 18:42
XWB schreef op donderdag 25 augustus 2022 @ 12:58:
Zo gaat het toch altijd bij een aanstaande introductie van nieuwe videokaarten: de prijzen van de huidige generatie gaan omlaag omdat de resterende voorraad weg moet. Dat was bij de Pascal en Turing niet anders.
Alleen lijkt het nu veel meer het geval... (of "een ding") of het wordt buiten proporties gebracht (door nieuwsberichten/Nvidia).

[ Voor 4% gewijzigd door HugoBoss1985 op 25-08-2022 13:07 ]


Acties:
  • +1 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 14:21
DaniëlWW2 schreef op donderdag 25 augustus 2022 @ 12:46:

Daarom zijn al die verhalen over veranderende specificaties ook onzin. Het ligt al maanden vast en is gevalideerd zodat het ook echt werkt op een breed scala aan testchips. Het punt is dat we niet weten welke specificatie nu klopt en ik vermoed steeds meer dat dit komt omdat Nvidia zelf onzin aan het verspreiden is omdat ze niet goed weten waar ze nu staan tegenover RDNA3.
Zo raar is het niet om te denken dat de nu lagere power draw als in eerdere leaks een bewuste keuze is door negatieve feedback. Dat is namelijk een kleine moeite. Clocks 150-300 Mhz naar beneden, Vcore naar benden Board VRM design naar benden schalen zodat mensen niet zelf enorm kunnen overclocken en gaan met die banaan.
Ik zie Nvidia er prima voor aan om hun hoofd zo ver in hun kont te hebben dat ze denken dat mensen 450-600+ watt per gpu prima vinden en er pas later achter komen dat dat best wel een idiote gedachtegang was.
De chip zelf zal natuurlijk niet meer echt veranderen na de design fase en eerste samples tenzij er een serieuze hardware fout gevonden word.

[ Voor 6% gewijzigd door computerjunky op 25-08-2022 13:11 ]


  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 14-09 17:50
XWB schreef op donderdag 25 augustus 2022 @ 12:58:
Zo gaat het toch altijd bij een aanstaande introductie van nieuwe videokaarten: de prijzen van de huidige generatie gaan omlaag omdat de resterende voorraad weg moet. Dat was bij de Pascal en Turing niet anders.
Ik kan mij anders herinneren dat bij de introductie van de 3xxx serie de 20xxx serie en ook de 10xxx serie ineens een stuk duurder werden. Uiteraard speelde daar mining, corona etc mee maar toch. Zekerheidjes over prijzen hebben we niet :)

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

computerjunky schreef op donderdag 25 augustus 2022 @ 13:10:
[...]


Zo raar is het niet om te denken dat de nu lagere power draw als in eerdere leaks een bewuste keuze is door negatieve feedback. Dat is namelijk een kleine moeite. Clocks 150-300 Mhz naar beneden, Vcore naar benden Board VRM design naar benden schalen zodat mensen niet zelf enorm kunnen overclocken en gaan met die banaan.
Ik zie Nvidia er prima voor aan om hun hoofd zo ver in hun kont te hebben dat ze denken dat mensen 450-600+ watt per gpu prima vinden en er pas later achter komen dat dat best wel een idiote gedachtegang was.
De chip zelf zal natuurlijk niet meer echt veranderen na de design fase en eerste samples tenzij er een serieuze hardware fout gevonden word.
Dat is helemaal geen kleine moeite. Het productievolume voor individuele GPU chips ligt in de miljoenen. Daarbinnen moet een paar configuraties gevonden worden die zowel het aantal te verkopen chips, als prestatiedoelen maximaliseren zonder rare instabiliteitsproblemen.

Zowel Nvidia als AMD moeten een statistisch model ontwikkelen waarbinnen een GPU specificatie ontwikkeld kan worden en dit moeten ze uitgebreid testen met veel preproductie chips. Dit is compleet anders dan een videokaart in de winkel kopen en die zelf undervolten. Want dat is een enkele chip en de kans dat je een chip koopt die dit kan, is altijd aanzienlijk. Het punt is juist dat er ook chips zijn die net de specificatie halen en die worden instabiel als je bijvoorbeeld voltage verlaagt. Die chip kan je dan niet verkopen als je specificatie te strak is. Daarom zit er vrijwel altijd marge op die producten.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 14:21
DaniëlWW2 schreef op donderdag 25 augustus 2022 @ 13:21:
[...]


Dat is helemaal geen kleine moeite. Het productievolume voor individuele GPU chips ligt in de miljoenen. Daarbinnen moet een paar configuraties gevonden worden die zowel het aantal te verkopen chips, als prestatiedoelen maximaliseren zonder rare instabiliteitsproblemen.

Zowel Nvidia als AMD moeten een statistisch model ontwikkelen waarbinnen een GPU specificatie ontwikkeld kan worden en dit moeten ze uitgebreid testen met veel preproductie chips. Dit is compleet anders dan een videokaart in de winkel kopen en die zelf undervolten. Want dat is een enkele chip en de kans dat je een chip koopt die dit kan, is altijd aanzienlijk. Het punt is juist dat er ook chips zijn die net de specificatie halen en die worden instabiel als je bijvoorbeeld voltage verlaagt. Die chip kan je dan niet verkopen als je specificatie te strak is. Daarom zit er vrijwel altijd marge op die producten.
Sorry maar volgens mij slaat je hele betoog nergens op. IEDERE chip kan zonder problemen lager geclockt worden en zal daardoor zuiniger worden. Ja ze zullen iets prestatie inleveren maar dat is voor dit argument een irrelevante factor.
Hoger clocken is een heel ander verhaal maar daar heb ik het dan ook niet over.
Lager clocken is relatief simpel, zelfs als ze alleen maar de base en turbo clocks naar beneden gooien is de chip als flink zuiniger. Dat kan simpelweg via de bios gedaan worden en de chip productie zelf heeft daar niets mee te maken en je hoeft in dat geval de hele Vcore niet aan te raken. Zelf advidseer ik mensen ook om gewoon de max clock te cappen ipv met Vcore te gaan lopen klooien. En als je vervolkgens gewoon de VRM minder maakt zal de kaart gewoon niet de power hebben en minder turbo gebruiken. Dat is het mooie van de laatste paar generaties kaarten. Die pakken wat ze pakken kunnen maar als het er niet is dan is dat ook geen probleem.
Ze kunnen dus zeker wel zonder al te veel poespas de kaarten zuiniger maken nadat de chips al geproduceerd zijn.
Zelfde geld voor het geheugen. Als je GDDR6 200 mhz naar beneden gooit bespaar je ook al snel 15 a 20 watt van wat ik zag in de specs met een 16 GB kaart.

genoeg te sleutelen dus zonder grote consequenties.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
HugoBoss1985 schreef op donderdag 25 augustus 2022 @ 13:07:
[...]


Alleen lijkt het nu veel meer het geval... (of "een ding") of het wordt buiten proporties gebracht (door nieuwsberichten/Nvidia).
De prijzen van videokaarten waren deze keer dan ook absurd hoog.

March of the Eagles


  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 18:42
XWB schreef op donderdag 25 augustus 2022 @ 13:39:
[...]


De prijzen waren deze keer dan ook absurd hoog.
Dat is zeker.
Ik vraag me af of het voorraad overschot nu ook absurder is t.o.v. vorige releases/generaties?

@computerjunky
Wanneer de kaarten al geproduceerd en ingepakt zijn wordt dit wel een kostbaar gebeuren... wie zal het zeggen.
De 4090 (chip/kaarten?) is dus al enige tijd in productie, hoeveel tijd gaat er van losse onderdelen tot ingepakt en gesealed in de doos?

De chip productie heeft er wellicht niets mee te maken, maar de kaarten productie wél.

Het voltage van een gpu maakt toch altijd het meeste uit qua stroomverbruik/warmte productie?
En niet de kloksnelheid?

Ik vind (hoe dan ook, buiten mijn kijk/vraag) dat @DaniëlWW2 toch wel een argument heeft.
Ook voor jou verhaal zijn argumenten, overigens ;)

[ Voor 56% gewijzigd door HugoBoss1985 op 25-08-2022 14:18 ]


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
HugoBoss1985 schreef op donderdag 25 augustus 2022 @ 13:41:
[...]

Ik vraag me af of het voorraad overschot nu ook absurder is t.o.v. vorige releases/generaties?
Dat soort aantallen zijn helaas niet bekend, maar volgens diverse bronnen gaat het om "heel veel" chips.

In elk geval gaat het om zoveel AD102 chips dat de RTX 4080 en 4070 pas volgend jaar geïntroduceerd zullen worden; normaliter volgde de x080 relatief kort na de x090. Nu lijkt het erop dat er minimaal vier maanden tijd tussen zal zitten.

[ Voor 6% gewijzigd door XWB op 25-08-2022 13:44 ]

March of the Eagles


Acties:
  • +1 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Ik hoop dat Nvidia gewoon met een hele lineup komt, wat gewoon ook mogelijk is, want wat we nu weten zijn alleen maar gerruchten en speculaties en dat kun je beter met een fliinke korrel zout nemen.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
computerjunky schreef op donderdag 25 augustus 2022 @ 13:10:
[...]


Zo raar is het niet om te denken dat de nu lagere power draw als in eerdere leaks een bewuste keuze is door negatieve feedback. Dat is namelijk een kleine moeite. Clocks 150-300 Mhz naar beneden, Vcore naar benden Board VRM design naar benden schalen zodat mensen niet zelf enorm kunnen overclocken en gaan met die banaan.
Ik zie Nvidia er prima voor aan om hun hoofd zo ver in hun kont te hebben dat ze denken dat mensen 450-600+ watt per gpu prima vinden en er pas later achter komen dat dat best wel een idiote gedachtegang was.
De chip zelf zal natuurlijk niet meer echt veranderen na de design fase en eerste samples tenzij er een serieuze hardware fout gevonden word.
Ze kunnen zeker nog het vermogen TDP verlagen/verhogen, net als AIB board partners dat kunnen en doen. Maar de binning en knip van SMs staat al vast:

AD102 144 SMs 4090 Ti (komt later)
AD102 128 SMs 4090 , 2022 Q4

AD103 84 SMs 4080 Ti (komt later)
AD103 76 SMs 4080 , 2022 Q4?

Daar hoort ook een bepaalde klokfrequentie bij, maar zoals ik in de eerdere knipdiscussie al aangaf, betekent een knip niet dat een hogere klokfrequentie niet behaald kan worden.

Zowel TDP als klokfrequentie en spanning kunnen voor het referentie model dus nog wijzigen, tot uiterlijk 1 maand voor lancering als in availability (en liever eerder).

De prijs kan nog wijzigen tot uiterlijk 1 uur voor lancering als in aankondiging.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 14:21
HugoBoss1985 schreef op donderdag 25 augustus 2022 @ 13:41:
[...]


Dat is zeker.
Ik vraag me af of het voorraad overschot nu ook absurder is t.o.v. vorige releases/generaties?

@computerjunky
Wanneer de kaarten al geproduceerd en ingepakt zijn wordt dit wel een kostbaar gebeuren... wie zal het zeggen.
De 4090 (chip/kaarten?) is dus al enige tijd in productie, hoeveel tijd gaat er van losse onderdelen tot ingepakt en gesealed in de doos?

De chip productie heeft er wellicht niets mee te maken, maar de kaarten productie wél.

Het voltage van een gpu maakt toch altijd het meeste uit qua stroomverbruik/warmte productie?
En niet de kloksnelheid?

Ik vind (hoe dan ook, buiten mijn kijk/vraag) dat @DaniëlWW2 toch wel een argument heeft.
Ook voor jou verhaal zijn argumenten, overigens ;)
True al denk ik niet dat dat zo ver van tevoren gebeurd. Maar voordat fabrikanten de GO krijgen van Nvidia denk ik dat dit een makkelijke keuze is door simpelweg een andere bios aan te leveren.

En voltage maakt ook uit voor de kloksnelheid. Kaarten clocken zichzelf tegenwoordig over met alle nieuwe boost features. Zolang er thermal headroom + power headroom (hogere vcore geeft meer power) en silicon headroom is (de chip moet het wel aan kunnen) en de board VRM het kan leveren dan kan een kaart zichzelf hoger clocken. Dat is waarom je tegenwoordig al die vage boose values hebv ala base clock, boost clock turbo clock en game clock. uiteindelijk zal een kaart zo snel mogelijk als hij kan binnen de mogelijkheid van de kaart en door de bios opgestelde temperatuur limieten willen draaien.
Daarom clocken de kaarten met de beste koeler en betere vrm ook iets hoger.

Je moet je dan als kopen van een gpu helemaal niet bezig houden met de clocks die amd en nvidia opgeven omdat die niets zeggend zijn en de realiteit er vaan 100-200 boven of onder zitten afhankelijk van de sample en de door de fabrikant gebruikte koeler en jouw kamer temperatuur.

Mijn 6900XT draaide in de winter makkelijk 2650 Mhz maar daar zijn 2 zaken op aan te merken.

1. Toen was het in de game kamer 17 graden, nu is het hier 31 graden en draait de kaart 2275 mzh met max load op de door de bios ingestelde 93 graden limiet.
2. Die 2650 Mhz die de kaart in de winter draaide was NIET de werkelijke frequentie van de kaart. Mijn kaart is namelijk een FE kaart of hoe je dat mij AMD ook wil noemen en is gewoon keihard power limited wat niet meer als een bios instelling is. dit kan je nog +45 a 50 watt gooien in de drivers maar daar gaat de kaart niet sneller van worden vanwege de cooling limieten.

Al met al heb je meerdere factoren die de frequentie en power draw van de kaart beïnvloeden en die zijn vrij eenvoudig aan te passen via de bios of zelfs de drivers. Als je driver slider niet verder gaat als 2200 Mhz gaat je kaart namelijk nooit op 2300 mhz draaien.

Dus zelfs als de kaart al in een doos zit wat ik op dit moment nog niet verwacht. Ik denk dat ze nog niet in productie zijn is er alsnog van alles aan te tweaken.
En volgens mij waren de tijden van onderdelen tot productie 4-6 weken maar na afgelopen 2 jaar kan dat maar zo langer zijn.

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 14:21
sunsmountain schreef op donderdag 25 augustus 2022 @ 15:51:
[...]


Ze kunnen zeker nog het vermogen TDP verlagen/verhogen, net als AIB board partners dat kunnen en doen. Maar de binning en knip van SMs staat al vast:

AD102 144 SMs 4090 Ti (komt later)
AD102 128 SMs 4090 , 2022 Q4

AD103 84 SMs 4080 Ti (komt later)
AD103 76 SMs 4080 , 2022 Q4?

Daar hoort ook een bepaalde klokfrequentie bij, maar zoals ik in de eerdere knipdiscussie al aangaf, betekent een knip niet dat een hogere klokfrequentie niet behaald kan worden.

Zowel TDP als klokfrequentie en spanning kunnen voor het referentie model dus nog wijzigen, tot uiterlijk 1 maand voor lancering als in availability (en liever eerder).

De prijs kan nog wijzigen tot uiterlijk 1 uur voor lancering als in aankondiging.
Ja binning dus de chip zelf zal niets meer aan veranderen. maar met geheugensnelheid en core frequentie wat in de bios geregeld word is nog een hoop te sleutelen totdat de kaarten gemaakt zijn en in de doos zitten.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Nieuw bios vlak voor launch lijkt me ook niet zo eenvoudig voor de AIB's. Stel je hebt al 10/100 duizenden kaarten ingepakt in de doos zitten.

Het opnieuw flashen is denk ik een aanmerkelijke kostenpost.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

ItalianStyle schreef op donderdag 25 augustus 2022 @ 14:01:
Ik hoop dat Nvidia gewoon met een hele lineup komt, wat gewoon ook mogelijk is, want wat we nu weten zijn alleen maar gerruchten en speculaties en dat kun je beter met een fliinke korrel zout nemen.
Ze zullen nooit de hele line up in een keer lanceren. Dat hebben ze de laatste generaties ook niet gedaan (volgens mij zelfs nooit maar dat zou ik moeten opzoeken). Nvidia is niet het type bedrijf dat dat ineens om gaat gooien. Zeker niet na dat bericht van de CEO; ze zullen eerst de highend introduceren zodat de oude Ampere kaarten die trager zijn nog verkocht kunnen worden voor de "hoofdprijs".

Het aankondigen van de hele lineup zou misschien wel kunnen.

Edit:
Was het maar 31 graden op mijn game kamer.... dat zou een luxe zijn.

[ Voor 4% gewijzigd door Sp3ci3s8472 op 25-08-2022 17:45 ]


  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 14:21
Help!!!! schreef op donderdag 25 augustus 2022 @ 17:05:
Nieuw bios vlak voor launch lijkt me ook niet zo eenvoudig voor de AIB's. Stel je hebt al 10/100 duizenden kaarten ingepakt in de doos zitten.

Het opnieuw flashen is denk ik een aanmerkelijke kostenpost.
Als ze al ingepakt zijn is het idd een ander ding maar ik denk eerlijk gezecht niet dat de kaarten nu al in massa productie zijn.
Afgaand op vorige generaties kaarten waar partners boos waren op Nvidia omdat ze pas kort voor de launch chips geleverd kregen om kaarten te gaan maken denk ik dat ze nog helemaal niet met de productie gestart zijn en hoogstens in de development fase zijn voor de kaarten zoals de koelers en pcb.

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Sp3ci3s8472 schreef op donderdag 25 augustus 2022 @ 17:44:
[...]


Ze zullen nooit de hele line up in een keer lanceren. Dat hebben ze de laatste generaties ook niet gedaan (volgens mij zelfs nooit maar dat zou ik moeten opzoeken). Nvidia is niet het type bedrijf dat dat ineens om gaat gooien. Zeker niet na dat bericht van de CEO; ze zullen eerst de highend introduceren zodat de oude Ampere kaarten die trager zijn nog verkocht kunnen worden voor de "hoofdprijs".

Het aankondigen van de hele lineup zou misschien wel kunnen.

Edit:
Was het maar 31 graden op mijn game kamer.... dat zou een luxe zijn.
Ik bedoel eigenlijk ook RTX xx70 t/m RTX xx80 er bij. Zoals het normaal gesproken ook ging. Dat het de vorige keer niet zo was betekent niet dat het nu weer gebeurt.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
ItalianStyle schreef op donderdag 25 augustus 2022 @ 18:24:
[...]


Ik bedoel eigenlijk ook RTX xx70 t/m RTX xx80 er bij. Zoals het normaal gesproken ook ging. Dat het de vorige keer niet zo was betekent niet dat het nu weer gebeurt.
Nou, je moet al terug naar de GTX 900 serie van 8 jaar geleden om een gelijktijdige launch van xx7 en xx8 te hebben:

> GTX 980: 18 september 2014
> GTX 970: 18 september 2014

> GTX 1080: 27 mei 2016
> GTX 1070: 10 juni 2016

> RTX 2080: 20 september 2018
> RTX 2070: 17 oktober 2018

> RTX 3080: 17 september 2020
> RTX 3070: 29 oktober 2020

March of the Eagles


  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Oké dat er een maand tussen zit maar geen maanden. Maar ook dat is geen gelijktijdige release. Tumbs.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
ItalianStyle schreef op donderdag 25 augustus 2022 @ 18:57:
Oké dat er een maand tussen zit maar geen maanden. Maar ook dat is geen gelijktijdige release. Tumbs.
Je hebt wel een punt dat Nvidia de (x)x80 als eerste lanceert, en relatief snel de (x)x70 er achteraan lanceerde.

Maar als je kijkt naar de populairste keuze door gamers per Nvidia generatie (Steam hardware survey), zie je dat de afgelopen jaren er steeds meer vertraging zit tussen de (x)x80 en de (x)x60, die het stokje van de (x)x70 heeft overgenomen qua psychologisch prijspunt. Dat lijkt ongeveer ~$300 te zijn, het budget voor een GPU van de meeste gamers, kennelijk, maar door de tekorten van de afgelopen 2 jaar (miners) gaat dat nu richting ~$400.


NVIDIA GeForce GTX 970 - $329 Sep 18, 2014 vs Sep 18, 2014 GTX 980 = 0 maanden
NVIDIA GeForce GTX 1060 - $249 Jul 19, 2016 vs May 27, 2016 GTX 1080 = 2 maanden (GP106)
NVIDIA GeForce RTX 2060 - $349 Jan 15, 2019 vs Sep 20, 2018 RTX 2080 = 4 maanden (TU106)
NVIDIA GeForce RTX 3060 - $329 Feb 25, 2021 vs Sep 17, 2020 RTX 3080 = 5 maanden (GA106)

Eervolle vermelding (verkoopt goed en gaat de 3060 inhalen):
NVIDIA GeForce RTX 3060 Ti - $399 Dec 2, 2020 vs Sep 17, 2020 RTX 3080 = 2,5 maanden (GA104)


Voor de RTX 4xxx series voorspel ik een meer gespreide launch, om in de tussentijd zoveel mogelijk Ampere chips te verkopen. Voornamelijk doordat miners gaan verkopen binnenkort. De 4070 en 4060 zul je pas volgend jaar zien.

4090 - 27 Okt 2022 (AD102) , $999+
4080 - 24 Nov 2022 (AD103) , $699+ (4 weken)
4070 - 19 Jan 2023 (AD104) , $499+ (12 weken)
4060 - 16 Mar / 13 Apr 2023 (AD106) , $349+ (20-24 weken)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
ItalianStyle schreef op donderdag 25 augustus 2022 @ 18:57:
Oké dat er een maand tussen zit maar geen maanden. Maar ook dat is geen gelijktijdige release. Tumbs.
En wie weet is een deel van de gelekte informatie verkeerd en komt Nvidia alsnog snel met een aankondiging van de RTX 4080.

Niemand hier die weet hoeveel AD102 chips nog op voorraad zijn.

En dan is er nog de concurrentie. AMD komt in november met nieuwe RDNA3 videokaarten, ik denk dat Nvidia dan wel iets moeten laten zien. Dus Nvidia kennende zal de RTX 4080 vlak voor de AMD launch aangekondigd worden :p

[ Voor 5% gewijzigd door XWB op 26-08-2022 00:58 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 08:40

XanderDrake

Build the future!

Dus! Etherium gaat PoS ipv PoW. Dus daar hoeft binnenkort niet meer voor gemined te worden :)
Wat denken jullie dat dit met de RTX 3000 en 4000 serie prijzen gaat doen?
Of zijn er nog genoeg andere munten die gemined kunnen worden?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • +1 Henk 'm!

  • Waah
  • Registratie: Maart 2009
  • Laatst online: 16:30
XanderDrake schreef op vrijdag 26 augustus 2022 @ 09:19:
Dus! Etherium gaat PoS ipv PoW. Dus daar hoeft binnenkort niet meer voor gemined te worden :)
Wat denken jullie dat dit met de RTX 3000 en 4000 serie prijzen gaat doen?
Of zijn er nog genoeg andere munten die gemined kunnen worden?
Er kan nog genoeg gemined worden, al zijn dat allemaal wat onbekendere en minder betrouwbare munten.
Maar de daling van Bitcoin (en alle andere munten dalen vaak veel harder dan Bitcoin, geld andersom ook) én de hogere wereldwijde energieprijzen verwacht ik inderdaad dat de 3000 series nog in prijs daalt (nvidia heeft daar al meermaals naar gehint dat er nog een price cut komt voor de 3000 series. Die zitten nog altijd boven MSRP op de belachelijk geprijsde 3090(ti) na).

De 4000 prijzen zullen afhangen van wat AMD doet. Nvidia heeft het momenteel vooral van hun Nvidia only tech maar AMD komt dichterbij in dat opzicht. Als AMD raytracing nu op 3000-niveau voor elkaar krijgt (wat niet ondenkbaar is, de 2000 serie raytracing was kwa performance het ook niet helemaal) en ze met een DLSS tegenhanger komen moet Nvidia het op enkel Price/Performance gaan doen. En dat is momenteel in het voordeel van AMD als je naar de marktprijzen kijkt. De standaard kreet die je nu al hoort is: Ga voor AMD, tenzij je Nvidia only features wil.

ALS er dan daadwerkelijk nog een hele vloedgolf van 3000-serie kaarten op de 2e hands markt komt dan kunnen we hele scherpe prijzen krijgen. Wat dat betreft hoef je enkel naar de historie te kijken en de Crypto-bubbel en downfall van 2017/2018

Acties:
  • 0 Henk 'm!

  • eL_Jay
  • Registratie: December 2010
  • Laatst online: 14-02-2023
Waah schreef op vrijdag 26 augustus 2022 @ 09:43:
[...]
De standaard kreet die je nu al hoort is: Ga voor AMD, tenzij je Nvidia only features wil.
Wat een kulkreet. Of is ray tracing tegenwoordig Nvidia only .... :+

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:51
Ik zie het toch een stuk somberder in wat betreft de prijzen. Er zit nou eenmaal een minimale prijs aan TSMC wafers en die zijn er zeker niet goedkoper op geworden de laatste jaren en dan komt daar nog eens bij dat de euro t.o.v. de dollar er niet bepaald geweldig voor staat. Waar je een jaar geleden nog 1.183038 USD terugkreeg voor iedere euro die je had, krijg je daar nu nog maar 1.015783 USD voor, oftewel er komt sowieso al een mark-up bij van 16.5%.

Dit geeft ook direct al een probleem qua "dump prijzen". Een 3080 voor $450 als list-price in de USA komt nog altijd uit op 549 euro als winkelprijs hier, of met andere woorden: een 3080 aanbieden voor $600 vandaag de dag geeft onder de streep dezelfde winkelprijs hier als wat ik in euros (incl BTW) voor een 3080 heb betaald die al sinds 18 september 2020 in mijn kast zit.

[ Voor 3% gewijzigd door Paprika op 26-08-2022 10:03 ]


Acties:
  • +3 Henk 'm!

  • Waah
  • Registratie: Maart 2009
  • Laatst online: 16:30
eL_Jay schreef op vrijdag 26 augustus 2022 @ 09:51:
[...]

Wat een kulkreet. Of is ray tracing tegenwoordig Nvidia only .... :+
DLSS is toch wel een grote, het is niet enkel Raytracing wat een Nvidia-only feature is.
  • Raytracing zonder enorme performance loss is toch wel een Nvidia dingetje nog. AMD zit meer op de eerste generatie raytracing kwa performance dip.
  • DLSS is toch best groot, zeker icm raytracing. Heeft AMD steeds méér een antwoord op, maar nog niet. Zeker niet in het oog van de massa
  • Gamestreamen is steeds populairder, en de Nvenc encoder is toch best groot.
  • CUDA accelerated graphics. Zeker met 3D rendering is er genoeg te vinden wat CUDA only is, of met CUDA sneller draait.
  • Nvidia Gamestream. Ik gebruik zelf gamestreaming hier thuis. Naar de shield, naar de TV beneden.
  • Nvidia RTX Voice
Het kan best zijn dat niets op dit lijstje je boeit of interesseert. Maar DLSS, Gamestreaming en de CUDA accelerated graphics maken mij al praktisch gebonden aan Nvidia (helaas). Dus het is zeker geen kulargument.
Dus zo'n kulargument is dat niet. Of het voor jou toepasselijk is staat daar los van.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:58
Waah schreef op vrijdag 26 augustus 2022 @ 09:43:

De standaard kreet die je nu al hoort is: Ga voor AMD, tenzij je Nvidia only features wil.
Die kreet is natuurlijk veel minder 'standaard' dan dat je misschien denkt vanuit onze 'Enthousiast bubble', als die kreet zo standaard zou zijn zou AMD wel meer marktaandeel winnen, en fors ook. Maar dat doen ze niet tot amper (soms verliezen ze zelfs nog share).

Dit is imho juist ook het issue van AMD momenteel, in de enthousiast niche zijn ze goed vertegenwoordigd, maar in de mainstream markt is dat nog een stuk minder. AMD zal niet alleen performance en feature parity nodig hebben, ik denk dat als ze met RDNA 3 ze echt een punch willen maken dat ze:

1. Raster performance overduidelijk moeten winnen van Love Lace op ieder prijspunt, zeker Halo producten.
2. Partity in raytracing met Lovelace (dus niet alsnog achter lopen, waarbij ik partity zie als +-5% verschil maximaal)
3. Efficient dan Love Lace (deze lijkt mij het makkelijkst).

Daarnaast feature parity met Love Lace vanaf de start (en liever zelfs nog zelf er nog wat features bovenop gooien die Nvidia niet heeft.

En dan voor de zakelijke markt een alternatief dat zich echt kan meten met Cuda, zodat ze ook daar grotere stappen kunnen gaan zetten.

[ Voor 5% gewijzigd door Dennism op 26-08-2022 10:17 ]


Acties:
  • +3 Henk 'm!

  • Waah
  • Registratie: Maart 2009
  • Laatst online: 16:30
Paprika schreef op vrijdag 26 augustus 2022 @ 10:01:
Ik zie het toch een stuk somberder in wat betreft de prijzen. Er zit nou eenmaal een minimale prijs aan TSMC wafers en die zijn er zeker niet goedkoper op geworden de laatste jaren en dan komt daar nog eens bij dat de euro t.o.v. de dollar er niet bepaald geweldig voor staat. Waar je een jaar geleden nog 1.183038 USD terugkreeg voor iedere euro die je had, krijg je daar nu nog maar 1.015783 USD voor, oftewel er komt sowieso al een mark-up bij van 16.5%.

Dit geeft ook direct al een probleem qua "dump prijzen". Een 3080 voor $450 als list-price in de USA komt nog altijd uit op 549 euro als winkelprijs hier, of met andere woorden: een 3080 aanbieden voor $600 vandaag de dag geeft onder de streep dezelfde winkelprijs hier als wat ik in euros (incl BTW) voor een 3080 heb betaald die al sinds 18 september 2020 in mijn kast zit.
Maar dan ga je er vanuit dat de prijs al héél scherp was die Nvidia hanteerde. En de prijzen die we daadwerkelijk betaalden waren al (veel) hoger dan MSRP.

De nvidia prijsstrategie is altijd al geweest: Zo veel mogelijk dollars eruit trekken als de gek er voor wil geven. De 3090TI is daar wel het bewijs van, met een MSRP van 2000 dollar, en nu soms al voor 1000$ in de USA op te pikken. En daar maken ze écht geen verlies op.

Nvidia zal de prijs hanteren die ze denken te kúnnen hanteren. Dat heeft verder niet veel te maken met de inkoopprijs bij TSMC, of de dollar/europrijs. Sterker: Het kan best zo zijn dat ze hem in de USA duurder maken omdat men het daar er voor over heeft, en het hier dan minder duur maken omdat men het er hier minder voor over heeft en ze kaarten over hebben (op lange termijn).

Het idee van "Kostprijs + vaste opslagpercentage = eindprijs" zou ik niet hanteren. Dat werkt alleen in een markt met veel en moordende concurrentie. Niet bij een duopolie waarbij de grootste ook nog een héle grote vinger in de pap heeft bij de boardpartners.
Pagina: 1 ... 108 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.