• Ludewig
  • Registratie: Januari 2001
  • Niet online
Werelds schreef op donderdag 15 september 2022 @ 12:13:
[...]

Nee joh, dat kan niet. Nvidia is nog allerlei dingen aan het aanpassen :+
Inderdaad, ze gooien het design nog even helemaal om....volgens de leakers.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

Mooi, laat die goedkope 2e hands kaarten maar landen. Natuurlijk zullen ook de prijzen van de nieuwe kaarten wat omlaag moeten komen.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Werelds schreef op donderdag 15 september 2022 @ 12:13:
[...]

Nee joh, dat kan niet. Nvidia is nog allerlei dingen aan het aanpassen :+
Jensen Huang spuugt er nog een paar keer op, is beter voor je performance, koeling, etc. :+

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • t0mmiiiii
  • Registratie: Oktober 2007
  • Laatst online: 13-09 20:46
Zijn er nog meer prijsvoorspellingen? Ik ben bang voor:

4080 12gb: 899
4080 16gb: 1199
4090: 1999.

Dit denk ik door: duur fabricageproces, het bestaan van de 4080 12gb, dure dollar en infatie.

Mocht dit zo zijn, dan doe ik denk ik maar wat langer met mijn 3080. Behalve voor Cyberpunk op max voldoet die uitstekend.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Oh en deze tweet is inmiddels ook aan uitgebreide analyse onderworpen. :P

Het meest logische lijkt:
2,08x TFLOPS (83,2 om 40)
629mm2
75,38B transistors (119,8M/mm2)

Die eerste twee kunnen heel goed, die laatste blijft voor mij een wat?

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
DaniëlWW2 schreef op donderdag 15 september 2022 @ 21:01:
Oh en deze tweet is inmiddels ook aan uitgebreide analyse onderworpen. :P
[Twitter]
Het meest logische lijkt:
2,08x TFLOPS (83,2 om 40)
629mm2
75,38B transistors (119,8M/mm2)

Die eerste twee kunnen heel goed, die laatste blijft voor mij een wat?
2,08 TFLOPS zou vrij weinig zijn. (83,2 om 40 wat?)

20 September om 8.00 pm zou waarschijnlijker zijn.
629 mm2 lijkt ok.
Wat is er zo raar aan 119,8M/mm2 voor N4?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sunsmountain schreef op donderdag 15 september 2022 @ 23:48:
Wat is er zo raar aan 119,8M/mm2 voor N4?
#1: Heb het al eerder gezegd, maar het is 4N, niet N4. Die laatste is een stap ná N5 en weer een lichte verbetering. N4 = "4nm", 4N = "5nm". De enige die N4 gaat gebruiken is Apple, met de A16.

#2: Het is bizar hoog. Te hoog, lijkt het.

Even een stapje terug, Apple haalde op de laatste twee nodes 82,9 MT/mm² (A12, N7), 86,3 MT/mm² (A13, N7P), 134,5 MT/mm² (A14, N5) en 139.3 MT/mm² (A15, N5). De M1 (N5) zit op 135-140. Nvidia haalt 65,6 MT/mm² (A100, N7) en 98,3 MT/mm² (H100, 4N aka N5-Nvidia). AMD komt uit op 51,5 MT/mm² (Navi 21, N7).

Acties:
  • 0 Henk 'm!

  • semi70
  • Registratie: Februari 2018
  • Laatst online: 13-09 21:32
kan je straks de nieuwe 4080/90 bestellen via de eigen nvidia site of weer via de duitse notebooksbilliger?

Acties:
  • +1 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Nog een RTX 4090 "leak":

GALAX RTX 4090 "Ada" Custom Design Leaked
The 4-slot monstrosity features not just three large fans where you'd expect them, but a fourth one at the backplate, arranged in a push-pull configuration with the third fan.

[ Voor 38% gewijzigd door XWB op 16-09-2022 12:19 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Werelds schreef op vrijdag 16 september 2022 @ 10:45:
[...]

#1: Heb het al eerder gezegd, maar het is 4N, niet N4. Die laatste is een stap ná N5 en weer een lichte verbetering. N4 = "4nm", 4N = "5nm". De enige die N4 gaat gebruiken is Apple, met de A16.

#2: Het is bizar hoog. Te hoog, lijkt het.

Even een stapje terug, Apple haalde op de laatste twee nodes 82,9 MT/mm² (A12, N7), 86,3 MT/mm² (A13, N7P), 134,5 MT/mm² (A14, N5) en 139.3 MT/mm² (A15, N5). De M1 (N5) zit op 135-140. Nvidia haalt 65,6 MT/mm² (A100, N7) en 98,3 MT/mm² (H100, 4N aka N5-Nvidia). AMD komt uit op 51,5 MT/mm² (Navi 21, N7).
H100, 4N is een verschillend procedé dan AD102 4N. Maar meestal is de density dan inderdaad lager (vergelijk GA100 65.6 M/mm² met GA102 45.1 M/mm²). De Apple N5 densities laten echter zien dat hogere dichtheden juist wel mogelijk zijn, op 5 nm.

Ik ben het met je eens dat 119,8M/mm2 hoog is (niet te hoog), maar als het wel te hoog is, wat betekent de 7538 dan?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op donderdag 15 september 2022 @ 23:48:
[...]

2,08 TFLOPS zou vrij weinig zijn. (83,2 om 40 wat?)

20 September om 8.00 pm zou waarschijnlijker zijn.
629 mm2 lijkt ok.
Wat is er zo raar aan 119,8M/mm2 voor N4?
RTX3090Ti = 40TFLOPS FP32
Verder zijn GPU's juist niet zo transistor dicht als veel andere chips. Komt nog eens bij dat juist I/O en caches niet meer goed mee schalen en Lovelace krijgt waarschijnlijk veel meer L2 cache. Daarom zei ik een paar dagen geleden meteen al "dark transistoren", ook wel bekend als dark silicon. Dat zijn transistoren die wel op de chip zitten, maar zeker niet altijd iets doen. Dat komt omdat als je daadwerkelijk met een moderne chip, vrijwel al je transistoren zou gebruiken, het energieverbruik alsmede de energiedichtheid per mm2 zo extreem zou worden dat je die chip nooit meer kan koelen.

Daarnaast is het hele N5 vs. N4 ook vrij zinloos. Node namen zijn grotendeels marketing. Het gaat erom dat er een PDK is waarbinnen elke klant hun eigen IC's moet ontwerpen. Het verschil tussen N5 en N4 is dat N4 iets hogere dichtheid kan halen. Dat is alleen een specifieke productieoptimalisatie, niet een ontwerpoptimalisatie. Het feit dat Nvidia heeft gekozen voor N4 voor GH100, zegt niks over Lovelace. Immers zijn die gespecialiseerde workstation en server GPU's die heel veel voor hun nutteloze gaming zaken verwijderen alsmede op veel lagere clock speeds draaien. Twee dingen die de extra dichtheid mogelijk maken. Voor Lovelace lijkt "N5" juist logischer omdat de verwachting was dat de dichtheid lager zou liggen. Het kan ook gewoon "4N" zijn, wat zou betekenen dat Nvidia haar eigen geoptimaliseerde ontwerpen voor hun eigen chips, graag extra speciaal willen laten lijken door er een speciale naam aan te hangen.

Het is niet alsof AMD dit niet kan of doet. Die voelen alleen niet de noodzaak er een marketingnaam aan te hangen...
YouTube: AMD Premiere: together we advance_PCs

En hierom zou een dergelijk aantal transistoren ook zo opvallend zijn. En daarom zei ik ook meteen dat als het klopt, Nvidia maar beter een gigantische verbetering in RT kan doorvoeren. Want dat zijn uiteindelijk aparte logic IC's en dat zou het gedeeltelijk kunnen verklaren.
DaniëlWW2 in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sunsmountain schreef op vrijdag 16 september 2022 @ 14:05:
H100, 4N is een verschillend procedé dan AD102 4N. Maar meestal is de density dan inderdaad lager (vergelijk GA100 65.6 M/mm² met GA102 45.1 M/mm²). De Apple N5 densities laten echter zien dat hogere dichtheden juist wel mogelijk zijn, op 5 nm.
Je mist m'n beide punten :)

Hoe je er bij komt dat H100's 4N iets anders zou zijn dan AD102's 4N weet ik niet. Dat laatste is sowieso nog niet bevestigd en zóu N4 kunnen zijn, maar dat is 99,9% zeker níet het geval omdat we dan voor het eerst in weet-ik-hoe-lang een GPU op hetzelfde (nieuwe) procedé zouden hebben als de SoC's van Apple en Qualcomm. Dus het wordt vrijwel zeker 4N, net als H100, wat gewoon N5 is, maar dan "customised for Nvidia" (hun eigen woorden). Nogmaals: dat is hetzelfde als "12FFN" was voor 12FF; N5N klinkt echter niet zo leuk als "4N".

Verder gaat het er juist om dat Apple (en bijvoorbeeld ook Qualcomm) doorgaans veel hogere dichtheden weet te behalen dan Nvidia (en AMD). Dat verschil is alleen maar groter geworden de laatste jaren. Daarnaast zijn de HPC chips nog nooit mínder compact geweest dan de consumenten chips. Daarom lijkt mij die 120 te optimistisch, want dan is AD102 20% compacter dan H100. En ja, het zijn andere architecturen, maar juist H100 zou aardig in de buurt moeten komen van een "best case", aangezien er nauwelijks I/O is en het ding bomvol logica zit.


Om het nog iets duidelijker te maken, vanaf GF100 (!) ging het van ~5,6 (40nm) -> ~13 (28nm) -> ~25 (16/12) -> ~45 (SS 8N). AMD is van ~6,8 (40nm) -> ~14 (28nm; piek tegen de 15 met Fiji XT) -> ~25 (GF 14) -> 41 (7FF) -> 51,5 (N7) gegaan. De grootste sprong die je hierin gaat vinden is Kepler met ~2,2x compacter. Navi 21 tegenover Vega 10 (GF 14LPP -> TSMC N7) is ~2x.

120 betekent dat AD102 2,7x compacter is. Ik heb ook al meer dan eens gezegd dat Samsung helemaal niet onder doet voor TSMC qua dichtheid. Hun 10 LPP procedé is net zo compact als TSMC's N10 en 8N zit daar pakweg 15% boven. Het is geen "7nm" klasse, maar het is ook meer dan "10nm" klasse. Je kunt niet naar N10 -> N5 kijken als voorbeeld, dat is te veel.

De overstap naar N5 is een grote, maar niet zó groot.
Ik ben het met je eens dat 119,8M/mm2 hoog is (niet te hoog), maar als het wel te hoog is, wat betekent de 7538 dan?
Teraflops bijvoorbeeld? Kan van alles zijn, daar ga ik niet eens over na denken.


DaniëlWW2 schreef op vrijdag 16 september 2022 @ 14:58:
Het feit dat Nvidia heeft gekozen voor N4 voor GH100
Dat hebben ze echter dus niet gedaan. GH100 is 4N. Als het N4 was geweest, had Nvidia dat ook van de daken geschreeuwd. En ze zouden 6 maanden voor hebben gelegen op Apple en Qualcomm. Nogmaals, hun eigen woorden:
Built with 80 billion transistors using a cutting-edge TSMC 4N process custom tailored for NVIDIA’s accelerated compute needs
Een typfout van N4 naar 4N zou nooit door hun marketing afdeling komen. Is het een gigantisch verschil tussen N5 en N4? Nee, maar zelfs 5% is nu al een verschil van 5+ miljoen transistors op een vierkante millimeter, dus de impact is best significant. Kan zomaar 15-20mm² schelen op zo'n grote chips als GPU's.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op vrijdag 16 september 2022 @ 15:13:
Dat hebben ze echter dus niet gedaan. GH100 is 4N. Als het N4 was geweest, had Nvidia dat ook van de daken geschreeuwd. En ze zouden 6 maanden voor hebben gelegen op Apple en Qualcomm. Nogmaals, hun eigen woorden:

Een typfout van N4 naar 4N zou nooit door hun marketing afdeling komen. Is het een gigantisch verschil tussen N5 en N4? Nee, maar zelfs 5% is nu al een verschil van 5+ miljoen transistors op een vierkante millimeter, dus de impact is best significant. Kan zomaar 15-20mm² schelen op zo'n grote chips als GPU's.
Oh dat verklaard het. Want op meerdere plekken wordt gesproken van 4nm, maar dat is dus iedereen die Nvidia hun marketing overneemt. Had het dus ook gemist dat het gewoon wel N5 is. Kan deze hele discussie ook meteen echt ophouden, hopelijk...
Bijvoorbeeld:
https://www.techpowerup.com/gpu-specs/nvidia-gh100.g1011

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:31

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
DaniëlWW2 schreef op vrijdag 16 september 2022 @ 15:18:
Oh dat verklaard het. Want op meerdere plekken wordt gesproken van 4nm, maar dat is dus iedereen die Nvidia hun marketing overneemt.
Nee, want Nvidia heeft het nooit over "4nm" gehad. Ze hebben het enkel over 4N gehad, wat iedereen klakkeloos over neemt als "4nm".

Zou het daadwerkelijk N4 kunnen zijn? Tuurlijk, maar het is gewoon extreem onwaarschijnlijk omdat ze dan voor het eerst in hun hele historie als eerste op een nieuwe node zouden zitten. Niet alleen eerder dan AMD, maar zelfs eerder dan Apple en Qualcomm.

Ik kan niet genoeg benadrukken dat N4 nog geen jaar in "risk production" zit (eind vorig jaar). N5 is in maart 2019 in "risk" gegaan en pas in April 2020 (!) naar volume; de A14 was het eerste product op N5, in oktober van dat jaar. Nu twee jaar later gaan de GPU's pas naar N5. De kans dat "4N" ook maar iets te maken heeft met "N4" is gewoon nihil.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Hey, ik probéér je tenminste te begrijpen :)
Werelds schreef op vrijdag 16 september 2022 @ 15:13:
Hoe je er bij komt dat H100's 4N iets anders zou zijn dan AD102's 4N weet ik niet.
Mmm, laten we eens kijken:
  • omdat professionele en gamer kaarten van dezelfde generatie vaak op verschillende processen worden gemaakt?
  • omdat techpowerup qua "geruchten" AD102 op 5 nm heeft staan en H100 op 4 nm?
  • omdat professionele en gamer kaarten verschillende transistor wensen hebben, qua density, speed@iso-power, power@iso-speed?
N4 = "4nm", 4N = "5nm"
Heb ik even opgezocht: 4N bestaat niet. Behalve Nvidia marketing gebruikt niemand die term. En het is zeker weten niet verschillend van N4, omdat ook die term alleen door Nvidia verzonnen is.
Wikipedia: 5 nm process
https://en.wikichip.org/wiki/5_nm_lithography_process
Werelds schreef op vrijdag 16 september 2022 @ 15:13:
Dat laatste is sowieso nog niet bevestigd en zóu N4 kunnen zijn, maar dat is 99,9% zeker níet het geval omdat we dan voor het eerst in weet-ik-hoe-lang een GPU op hetzelfde (nieuwe) procedé zouden hebben als de SoC's van Apple en Qualcomm. Dus het wordt vrijwel zeker 4N, net als H100, wat gewoon N5 is, maar dan "customised for Nvidia" (hun eigen woorden). Nogmaals: dat is hetzelfde als "12FFN" was voor 12FF; N5N klinkt echter niet zo leuk als "4N".
Volgens mij is Nvidia's "N4" gewoon N5P. Geen idee wat jij met 4N bedoelt of "eigenlijk N5". Oh kijk eens wie het met me eens is:
Werelds schreef op vrijdag 16 september 2022 @ 15:13:
Verder gaat het er juist om dat Apple (en bijvoorbeeld ook Qualcomm) doorgaans veel hogere dichtheden weet te behalen dan Nvidia (en AMD). Dat verschil is alleen maar groter geworden de laatste jaren. Daarnaast zijn de HPC chips nog nooit mínder compact geweest dan de consumenten chips. Daarom lijkt mij die 120 te optimistisch, want dan is AD102 20% compacter dan H100. En ja, het zijn andere architecturen, maar juist H100 zou aardig in de buurt moeten komen van een "best case", aangezien er nauwelijks I/O is en het ding bomvol logica zit.
Ja, dat verbaast mij ook, maar is dat genoeg reden dat het dan dus niet kan? Nee. De I/O en logica bomvol is niet relevant, het zijn gewoon volledig andere designs en processen. Er lijkt geen density 5N node te zijn zoals bij 7N, de performance node kan dan ook een hogere density halen.
Werelds schreef op vrijdag 16 september 2022 @ 15:13:
Om het nog iets duidelijker te maken, vanaf GF100 (!) ging het van ~5,6 (40nm) -> ~13 (28nm) -> ~25 (16/12) -> ~45 (SS 8N). AMD is van ~6,8 (40nm) -> ~14 (28nm; piek tegen de 15 met Fiji XT) -> ~25 (GF 14) -> 41 (7FF) -> 51,5 (N7) gegaan. De grootste sprong die je hierin gaat vinden is Kepler met ~2,2x compacter. Navi 21 tegenover Vega 10 (GF 14LPP -> TSMC N7) is ~2x.

120 betekent dat AD102 2,7x compacter is. Ik heb ook al meer dan eens gezegd dat Samsung helemaal niet onder doet voor TSMC qua dichtheid. Hun 10 LPP procedé is net zo compact als TSMC's N10 en 8N zit daar pakweg 15% boven. Het is geen "7nm" klasse, maar het is ook meer dan "10nm" klasse. Je kunt niet naar N10 -> N5 kijken als voorbeeld, dat is te veel.

De overstap naar N5 is een grote, maar niet zó groot.
Nou ja, 2,2*1,15 is toch 2,53 volgens jouw cijfers, dat komt al aardig in de buurt van die 2,7.
Werelds schreef op vrijdag 16 september 2022 @ 15:13:

Teraflops bijvoorbeeld? Kan van alles zijn, daar ga ik niet eens over na denken.
Niet iedereen houdt van puzzelen, ik snap het.


Werelds schreef op vrijdag 16 september 2022 @ 15:13:
[...]

Dat hebben ze echter dus niet gedaan. GH100 is 4N. Als het N4 was geweest, had Nvidia dat ook van de daken geschreeuwd. En ze zouden 6 maanden voor hebben gelegen op Apple en Qualcomm. Nogmaals, hun eigen woorden:


[...]


Een typfout van N4 naar 4N zou nooit door hun marketing afdeling komen. Is het een gigantisch verschil tussen N5 en N4? Nee, maar zelfs 5% is nu al een verschil van 5+ miljoen transistors op een vierkante millimeter, dus de impact is best significant. Kan zomaar 15-20mm² schelen op zo'n grote chips als GPU's.
Ik wist niet dat Nvidia de enige autoriteit was op litografisch proces gebied, en dat als hun marketing afdeling 2 processen verzint, er dan ook echt 2 processen zijn. Wat een magische krachten hebben ze daar toch bij Nvidia!

Serieus guys, laat je niet gek maken door die groene mannetjes.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +7 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Holy. :o


edit:
Het gaat er dus om dat ze eigenlijk helemaal klaar lijken te zijn met Nvidia. Nvidia controleert blijkbaar de minimale en maximale prijzen van eindproducten. Ze concurrence direct met hun partners met de FE kaarten die ze goedkoper kunnen verkopen als ze willen. Ook lijkt het erop dat board partners niet eens voor de prijs onthulling te horen krijgen hoeveel de producten die ze mede ontwikkelen, precies moeten kosten. Dat horen ze net zoals de pas bij de presentatie. Prijzen van de chips die ze van Nvidia kopen, horen ze ook niet.

[ Voor 66% gewijzigd door DaniëlWW2 op 16-09-2022 22:04 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Cloggs
  • Registratie: April 2004
  • Laatst online: 14-09 17:12
EVGA was hier in Europa niet zo groot maar was in de VS verreweg de meest populaire AIB voor Nvidia vanwege de voor de VS ongekend goede service en garantie die ze daar aanboden.

Acties:
  • +1 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Nu online

rapture

Zelfs daar netwerken?

Wat een arrogantie, Nvidia wilt van de "niks bijdragende AIB's" afgeraken en 3dfx achterna gaan.

Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 10:09
Damn son. Respect voor de EVGA leiding; meestal is het toch gewoon slikken of stikken als de AIB's weer eens wat onzin van NV voorgeschoteld krijgen waar ze maar mee te dealen hebben. Want ja, het geld is het geld. Maar hier heeft toch echt iemand gezegd "tot hier en niet verder, nou is het leuk geweest, wij gaan wel wat anders doen".

Heb zelf ook een EVGA kaart, ik zal maar alvast een mooie doorkijkdoos ervoor regelen zodat het uiteindelijk een museumstuk kan worden. :P

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • SinergyX
  • Registratie: November 2001
  • Laatst online: 12:07

SinergyX

____(>^^(>0o)>____

Denk dat Nvidia een te grote, te hoge status heeft om zich hier echt druk om te maken. MSI, Gigabyte, Asus, noem ze maar op, die pakken die verkoopcijfers wel op, per saldo haalt Nvidia z'n geld wel binnen.

En zolang AMD nu, en zeker straks, geen antwoord heeft.. dan zal een Nvidia ook een gedachte 'nothing of value has been lost' hebben. Uiteindelijk zal de grote val van GPU vraag (zeker nu PoW), dat ze enkel nog met verlies kunnen gaan verkopen. Dan je hoop niet meer op een 4series zetten, waar nu al genoeg over te zeggen is.

[ Voor 21% gewijzigd door SinergyX op 16-09-2022 22:10 ]

Nog 1 keertje.. het is SinergyX, niet SynergyX
Im as excited to be here as a 42 gnome warlock who rolled on a green pair of cloth boots but was given a epic staff of uber awsome noob pwning by accident.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sunsmountain schreef op vrijdag 16 september 2022 @ 20:26:
• omdat professionele en gamer kaarten van dezelfde generatie vaak op verschillende processen worden gemaakt?
Hoe kom je daar bij joh? Dat is enkel met A100 en H100 zo geweest :)

V100 was gewoon 12FFN (en hier kom zo op terug :P), GP100 was gewoon 16FF net als GP102, 104 en 106 (107 was Samsung's 14LPP ;)), enzovoort.
• omdat techpowerup qua "geruchten" AD102 op 5 nm heeft staan en H100 op 4 nm?
Dat zijn ook grotendeels gokjes totdat de specs officiëel worden en zelfs dan nog door mensen ingevuld. En in dat geval gaat mijn punt nog veel meer op, want met H100 haalt Nvidia de 100 niet eens en dat zou dan "4nm" in plaats van "5nm" zijn ;)
• omdat professionele en gamer kaarten verschillende transistor wensen hebben, qua density, speed@iso-power, power@iso-speed?
Dat valt reuze mee. Verschillen in dichtheid komen vooral doordat de Tesla kaarten doorgaans vrijwel niets aan I/O hebben en al eerder met meer cache kwamen. Dus daardoor valt dat vaak iets hoger uit dan voor de consumenten chips.
Heb ik even opgezocht: 4N bestaat niet. Behalve Nvidia marketing gebruikt niemand die term. En het is zeker weten niet verschillend van N4, omdat ook die term alleen door Nvidia verzonnen is.
Wikipedia: 5 nm process
https://en.wikichip.org/wiki/5_nm_lithography_process
4N is inderdaad een pure Nvidia marketing term, net zoals 12FFN. 12FFN is door niemand anders dan Nvidia gebruikt, de rest van het gepeupel moest het met "gewoon" 12FF doen. N4 bestaat echter weldegelijk en is wel iets anders: https://www.tsmc.com/engl...ry/technology/logic/l_5nm
In addition, TSMC plans to launch 4nm (N4) technology, an enhanced version of N5 technology. N4 provides further enhancement in performance, power and density for the next wave of N5 products. The development of N4 technology is on schedule with good progress, and volume production is expected to start in 2022.
Het is hetzelfde als 12FF voor 16FF, of N6 voor N7. Er is zelfs al een N4P.
Volgens mij is Nvidia's "N4" gewoon N5P. Geen idee wat jij met 4N bedoelt of "eigenlijk N5". Oh kijk eens wie het met me eens is:
[Twitter]
Dat zeg ik toch al de hele tijd? :P

Of het nu N5 of N5P is doet er verder niet geweldig toe; althans niet voor de dichtheid, de "P" procedé's geven enkel betere performance of efficiëntie (N7P is +7 of +10, N5P is +7 of +15). En of AMD N5 gebruikt in plaats van N5P weet niemand, ik denk het echter niet, zou onlogisch zijn. De "P" procedé's zijn 100% compatible met hun non-P tegenhangers en AMD is nooit zo specifiek over welke variant ze precies gebruiken. Het zou me niets verbazen als Navi 2x gewoon N7P is.
Ja, dat verbaast mij ook, maar is dat genoeg reden dat het dan dus niet kan? Nee. De I/O en logica bomvol is niet relevant, het zijn gewoon volledig andere designs en processen. Er lijkt geen density 5N node te zijn zoals bij 7N, de performance node kan dan ook een hogere density halen.
Welke "density node" bij N7 heb je het over (je verwisselt de cijfers en letters :P)? N7+? Dat is namelijk iets heel anders, want dat is EUV en geheel niet compatible met N7(P), wat DUV is.
Nou ja, 2,2*1,15 is toch 2,53 volgens jouw cijfers, dat komt al aardig in de buurt van die 2,7.
Neem je nu die 2,2 omdat ik dat als maximum aan duid? Dat was ook 40nm naar 28nm, wat een gigantische sprong was (op meerdere vlakken) én Nvidia kwam van Fermi af, die behoorlijk "los" was. Evergreen was bijna 20% compacter dan Fermi. AMD's stap van 40 naar 28 was pakweg 1,8x. Wat TSMC toen aan gaf voor hun dummy weet ik niet meer, maar het was veel meer dan 2x. Node sprongen waren toen veel groter dan tegenwoordig :)
Niet iedereen houdt van puzzelen, ik snap het.
Heeft weinig met puzzelen te maken, alles met hype. Die cijfers komen misschien helemaal niet terug ;)
Ik wist niet dat Nvidia de enige autoriteit was op litografisch proces gebied, en dat als hun marketing afdeling 2 processen verzint, er dan ook echt 2 processen zijn. Wat een magische krachten hebben ze daar toch bij Nvidia!

Serieus guys, laat je niet gek maken door die groene mannetjes.
Er zíjn ook 2 procedé's, N4 bestaat. Maar 4N is geen N4 ;)





@DaniëlWW2 holy shit. Dat is gigantisch. Gelukkig staan zij denk ik iets steviger in de schoenen dan BFG, dus ze zullen niet meteen onderuit gaan. Dit is wel een heel krachtig signaal dat er iets heel erg mis zit.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Ik vraag mij af wat EVGA dan nog verwacht te kunnen verkopen qua volume daar AMD slechts ~ 20% van de discrete GPU markt controleert. Of gaat het bedrijf stoppen met bestaan, of simpelweg downsizen?

[ Voor 8% gewijzigd door XWB op 16-09-2022 23:15 ]

March of the Eagles


Acties:
  • +1 Henk 'm!

  • SinergyX
  • Registratie: November 2001
  • Laatst online: 12:07

SinergyX

____(>^^(>0o)>____

XWB schreef op vrijdag 16 september 2022 @ 23:15:
Ik vraag mij af wat EVGA dan nog verwacht te kunnen verkopen qua volume daar AMD slechts ~ 20% van de discrete GPU markt controleert. Of gaat het bedrijf stoppen met bestaan, of simpelweg downsizen?
Zover ik video van Nexus begreep, gaan ze zich focussen op wat ze hebben, dus voedingen, moederborden en wat randzaken (zoals koeling), maar helemaal geen GPU's meer. En hoewel 80% van hun omzet GPU's waren, de marge daarop was bizar klein (tot nu zelfs verlies).

Nog 1 keertje.. het is SinergyX, niet SynergyX
Im as excited to be here as a 42 gnome warlock who rolled on a green pair of cloth boots but was given a epic staff of uber awsome noob pwning by accident.


Acties:
  • +1 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 13:21

OMD

En dan te bedenken dat hun naam extreme video graphic adapter is (of zoiets)
Voor mij persoonlijk is dit een grote f*ck you moment naar nVidia en ik stap af van nVidia kaarten. Ik zit namelijk een beetje in hetzelfde schuitje met mijn bedrijf qua undecutting en directly selling to customers verhaal. NVidia is een heel naar bedrijf. Heb veel nVidia kaarten versleten.

[ Voor 10% gewijzigd door OMD op 16-09-2022 23:52 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
SinergyX schreef op vrijdag 16 september 2022 @ 23:17:
[...]
En hoewel 80% van hun omzet GPU's waren, de marge daarop was bizar klein (tot nu zelfs verlies).
Het verlies is pas sinds kort, maar ze zeggen wel honderden dollars verlies te maken op alles vanaf de 3080, wat ik toch wel apart vind.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • PP_Sound
  • Registratie: Januari 2021
  • Niet online
Ludewig schreef op vrijdag 16 september 2022 @ 23:52:
[...]


Het verlies is pas sinds kort, maar ze zeggen wel honderden dollars verlies te maken op alles vanaf de 3080, wat ik toch wel apart vind.
Die hebben ze waarschijnlijk nog voor de oude prijs ingekocht

Acties:
  • +1 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Laatst online: 12:39

Thomg

Aww yiss

Wat ik hier vooral uithaal is dat Nvidia jaloers is op Apple en dat zij ook de volledige supply chain in handen willen hebben. Zij snappen ook wel dat ze dit niet cold turkey kunnen doen door alle AIBs weg te trappen, maar het lijkt er dus wel op dat Nvidia dus AIBs aan het pesten is en hoopt dat ze over tijd zelf gewoon weg gaan. Kunnen zij mooi zelf in het gat zitten.

Door dat gepest van Nvidia heeft de CEO van EVGA ook even naar binnen gekeken en besloten de handdoek in de ring te gooien en meer tijd met zijn familie door te brengen.

Ik denk eerlijk gezegd niet dat Nvidia dit jammer vind. Sterker nog... Ik denk integendeel :X

Komende generaties verwacht ik nog wel wat meer AIBs hebben die ermee kappen.

[ Voor 4% gewijzigd door Thomg op 17-09-2022 00:19 ]


Acties:
  • +4 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Het is in het verleden al eerder gebeurd dat een AIB wegliep van Nvidia, dit soort momenten roepen weer herinneringen op:

XFX
Club3D

March of the Eagles


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@PP_Sound

Ja, maar Nvidia heeft het over prijs-acties. Dan lijkt het mij logisch dat ze (ook) een soort geld-terug actie doen, waarbij Nvidia geld terug geeft aan de AIBs.

Sowieso zal Nvidia nu lagere prijzen hanteren die de AIBs moeten betalen, dus dan kunnen ze dat ook met terugwerkende kracht doen voor kaarten die de AIBs al hebben gekregen maar nog niet hadden verkocht.

Dan verwacht ik wel dat ze de pijn verdelen tussen zichzelf en de AIBs. Als ze dan rond de MSRP verkopen, zou ik denken dat ze dan hoogstens een verlies maken van tientjes per kaart.

Maar ja, misschien zijn mijn ethische normen wel te hoog en knijpt Nvidia de AIBs nu echt stevig uit. We zagen in elk geval wel dat ze eerder een maximumprijs afdwongen, waardoor je de vreemde situatie kreeg dat watergekoelde EVGA kaarten even duur werden als kaarten die normaal 200 dollar minder kosten.

@Thomg

Ik zie echt geen enkel bewijs dat Nvidia dit wilde. Veel fabrikanten willen ook helemaal niet het gedoe van de directe verkoop aan consumenten. Dan moeten ze een helpdesk hebben, RMA's doen, omgaan met alle lokale regels en wetten, allerlei niches gaan bedienen met aparte modellen, etc. Ik denk dat Nvidia juist heel blij is dat ze al dat vervelende werk kunnen overlaten aan AIBs en dat die AIBs daar dan nog weinig aan overhouden ook. Bovendien kunnen ze als het helemaal mis gaat met de markt, de AIBs daar voor een flink deel voor laten opdraaien.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Thomg
  • Registratie: September 2010
  • Laatst online: 12:39

Thomg

Aww yiss

Ludewig schreef op zaterdag 17 september 2022 @ 00:49:
@Thomg

Ik zie echt geen enkel bewijs dat Nvidia dit wilde. Veel fabrikanten willen ook helemaal niet het gedoe van de directe verkoop aan consumenten. Dan moeten ze een helpdesk hebben, RMA's doen, omgaan met alle lokale regels en wetten, allerlei niches gaan bedienen met aparte modellen, etc. Ik denk dat Nvidia juist heel blij is dat ze al dat vervelende werk kunnen overlaten aan AIBs en dat die AIBs daar dan nog weinig aan overhouden ook. Bovendien kunnen ze als het helemaal mis gaat met de markt, de AIBs daar voor een flink deel voor laten opdraaien.
Even heel bot. Heb je de video gekeken? Steve haalt best wel stevig bewijs* aan voor wat ik geschreven heb en Nvidia heeft al een lange geschiedenis hiermee.

Natuurlijk zei Steve niet letterlijk wat ik zei, dat zijn flinke statements om te maken op een neutrale channel, maar ik had wel het vermoeden dat hij er ook zo over denkt.

Huang denkt dat alle AIBs waardeloze parasieten tussenpartijen zijn die winst wegsnoepen ;w

* Nja, technisch gezien anekdotes van betrouwbare bronnen...

Edit: Of doel je op Nvidia != Huang?

[ Voor 4% gewijzigd door Thomg op 17-09-2022 01:03 ]


  • PP_Sound
  • Registratie: Januari 2021
  • Niet online
Nvidia is geen vrienden aan het maken dat lijkt me wel duidelijk.

  • derx666
  • Registratie: Februari 2004
  • Laatst online: 11-09 07:27

derx666

mecker ende blaet

Brengt mij als consument wel aan het denken of ik nog hw van Nvidia wil kopen als zij zo met hun partners omgaan. Als de volgende AMD generatie weer gewoon in de buurt blijft van Nvidia dan zal ik eerder naar het rode kamp teruggaan ipv bij het groene kamp blijven. Zal m'n 1e AMD kaart worden dan. M'n laatste niet Nvidia was een Ati Radeon 9700pro ergens rond 2004 ofzo. Daarna 5 of 6 generaties Nvidia gehad.

BMC Roadmachine Two (2024)
Colnago CLX evo di2 (2021)
Cube Nuroad Race (2022)


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

XWB schreef op zaterdag 17 september 2022 @ 00:36:
Het is in het verleden al eerder gebeurd dat een AIB wegliep van Nvidia, dit soort momenten roepen weer herinneringen op:

XFX
Club3D
Klopt, ik wilde het gaan posten maar gezien ik zo laat ben :P.

Nvidia heeft board partners volgens mij altijd minder goed behandeld dat blijkt maar weer. XFX was eerst een Nvidia only partner en ging ineens naar AMD.

Met EVGA verliest Nvidia de meest highend kaart maker. De kwaliteit van EVGA heb ik eigenlijk nooit iets negatiefs over gehoord.

[ Voor 8% gewijzigd door Sp3ci3s8472 op 17-09-2022 02:33 ]


  • SG
  • Registratie: Januari 2001
  • Laatst online: 14-09 07:40

SG

SG surft naar info hardewaren

Ludewig schreef op zaterdag 17 september 2022 @ 00:49:
@PP_Sound

Ja, maar Nvidia heeft het over prijs-acties. Dan lijkt het mij logisch dat ze (ook) een soort geld-terug actie doen, waarbij Nvidia geld terug geeft aan de AIBs.

Sowieso zal Nvidia nu lagere prijzen hanteren die de AIBs moeten betalen, dus dan kunnen ze dat ook met terugwerkende kracht doen voor kaarten die de AIBs al hebben gekregen maar nog niet hadden verkocht.

Dan verwacht ik wel dat ze de pijn verdelen tussen zichzelf en de AIBs. Als ze dan rond de MSRP verkopen, zou ik denken dat ze dan hoogstens een verlies maken van tientjes per kaart.

Maar ja, misschien zijn mijn ethische normen wel te hoog en knijpt Nvidia de AIBs nu echt stevig uit. We zagen in elk geval wel dat ze eerder een maximumprijs afdwongen, waardoor je de vreemde situatie kreeg dat watergekoelde EVGA kaarten even duur werden als kaarten die normaal 200 dollar minder kosten.

@Thomg

Ik zie echt geen enkel bewijs dat Nvidia dit wilde. Veel fabrikanten willen ook helemaal niet het gedoe van de directe verkoop aan consumenten. Dan moeten ze een helpdesk hebben, RMA's doen, omgaan met alle lokale regels en wetten, allerlei niches gaan bedienen met aparte modellen, etc. Ik denk dat Nvidia juist heel blij is dat ze al dat vervelende werk kunnen overlaten aan AIBs en dat die AIBs daar dan nog weinig aan overhouden ook. Bovendien kunnen ze als het helemaal mis gaat met de markt, de AIBs daar voor een flink deel voor laten opdraaien.
Nvidia is erg berucht. Gezien die yt grootheden industrie connecties hebben die dat ook zeggen.
Dat apple laat AMD radeon ditch heeft meer te maken dat ze zelf de gpu kant willen invullen. Maar dat zij nvidia nog eerder keihard dumpen en nog met AMD doorgingen zegt meer iets van hou niet fijn het zaken doen is met nV . Dus dat kut bedrijf is mee zaken te doen is algemeen bekend. Als je nVidia fan bent is dat eigenlijk goed nieuws ivm prijzen een AIB is middle man die gebypassed wordt.
Kan mogelijk ook een wanshoop sprong van nVidia. Misschien is over suply toch gigantische druk wat grote invloed heeft op bedrijfs beleid. En gezien nv mogelijk wat duurder in productie is. Is Reference iets wat ondanks lagere prijs duur te producerende sku je toch wat marge behoudt.
Mogelijk meer zelf behoud of grote druk aandeelhouders.

Het maakt nv met hun zwaar concurrerende reference kaarten betaalbaar tot niveau dat AIB niet kunnen mee komen. Wat je wel zal gaan missen is meer custom kaarten en nu afwachten wie volgt.
De nV klanten zullen minder keuze krijgen van custom designs.
Op deze manier zou door zelf de productie op te nemen mogelijk wel beter tegen productie efficiëntere RDNA3 lijn kunnen concurreren.

Zelf mijd ik nV wat voor mij heel makelijk is. Als ATI / AMD 2 plaats of flink achterloop dan is de prijs ook erna dan ga ik voor midrange. Lopen zie minder achter dan sub high-end is dan optie. Halo sku boven 1000,- is to much dus daarme is voor mij minder relevant wie de kroon heeft maar wat er te vinden is tussen de 400 en 750 euro heb nu Vega 56.

Voor consumenten is reference wat door nv zelf voor msrp geleverd kan worden. Wat voor consument een pro is. Houd ook in dat custom en AIB kaarten stuk duurtder kunnen zijn dat er ook minder keuze zal zijn , dat is een con.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 14-09 14:03

CMT

E VGA ? ;w

Wat ontzettend jammer dat er weer een uit stapt en nog wel een van de goede zowel in kwaliteit als principieel.
Het enige bedrijf dat zich tot de gamers richtte met een heuse inschrijf-/wachtlijst in tijd van nood.

Ik wist niet dat AIB's in zo'n wurgcontract zaten van Nvidia. Geen wonder dat ze met 101 modellen komen om het risico van een verkeerde gok te verkleinen.

Weet iemand of er AIB's onderling nog privéleges krijgen van Nvidia?
Je had het mislukte GPP, maar ik vraag mij af of de grote partners niet voorgetrokken worden met o.a. meer ontwerp vrijheid, meer inspraak krijgen over de chipprijs e.d.

  • Moonspring
  • Registratie: November 2020
  • Laatst online: 14-09 09:19
De inschrijflijst maakt dit erg. Evga verkocht (als een van de weinige) gpus zonder belachelijke winst. Ik snap overigens heel goed dat nvidia de andere AIBs niet zielig vindt. Zij hebben ook mega winsten gepakt. Dat ze nu met te veel kaarten zitten die nog steeds net boven msrp verkocht worden lijkt me ook geen ramp, terwijl er soms net wordt gedaan of een aib of webshop zielig is nu de belachelijke marge eruit is.

  • Damic
  • Registratie: September 2003
  • Laatst online: 12:44

Damic

Tijd voor Jasmijn thee

XWB schreef op vrijdag 16 september 2022 @ 23:15:
Ik vraag mij af wat EVGA dan nog verwacht te kunnen verkopen qua volume daar AMD slechts ~ 20% van de discrete GPU markt controleert. Of gaat het bedrijf stoppen met bestaan, of simpelweg downsizen?
ALs ik de GN video kijk, lijkt het wel dat ze de GFX afdeling volledig opzeggen, dus ook geen graka's van AMD. Er zijn al een hoop mensen dat een andere job mochten zoeken want hun afdeling is opgedoekt.

Kingpin en zijn buddy zijn naar ergens anders in korte tijd.

[ Voor 15% gewijzigd door Damic op 17-09-2022 08:42 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • +6 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

DaniëlWW2 schreef op vrijdag 16 september 2022 @ 21:14:
Holy. :o
[YouTube: EVGA Terminates NVIDIA Partnership, Cites Disrespectful Treatment]

edit:
Het gaat er dus om dat ze eigenlijk helemaal klaar lijken te zijn met Nvidia. Nvidia controleert blijkbaar de minimale en maximale prijzen van eindproducten. Ze concurrence direct met hun partners met de FE kaarten die ze goedkoper kunnen verkopen als ze willen. Ook lijkt het erop dat board partners niet eens voor de prijs onthulling te horen krijgen hoeveel de producten die ze mede ontwikkelen, precies moeten kosten. Dat horen ze net zoals de pas bij de presentatie. Prijzen van de chips die ze van Nvidia kopen, horen ze ook niet.
Steve heeft geprobeerd het neutraal te presenteren en gaf o.a. in feite aan dat EVGA zelf de (crypto)markt ook verkeerd inschatte. Echter ik las ook het volgende comment (fwiw) onder de video:

'Rabott:
When it comes to evga over ordering when demand is high, Nvidia uses allocation to pressure companies to continue to buy more even when demand starts to die down. I've seen reports saying even as the crypto market crashed Nvidia was threatening partners with slashing their lovelace supply if they cut down their Ampere orders. It wasn't until all the partners actually took a stand together that Nvidia was forced to change tactics with buy backs and the current price cuts to sell off of stock. Maybe this decision from Evga was part of that push back, June lines up with those rumors.
Nvidia has used these tactics for a long time too, a similar thing happened with XFX back when they decided to make AMD cards. Nvidia refused to sell them the upcoming Fermi generation, and pressured channel partners so it became impossible for them to make and sell the older boards. That ended in XFX making the decision to never work with Nvidia again.'

Dit sluit wel aan bij verhalen die al langer rondgaan.

Anyway, na alles wat ik de afgelopen ruim 20jr al 'meegemaakt' heb met nvidia ben ik er wel van overtuigd dat het echt een nogal vervelend bedrijf/ceo is :X (/understatement).

Kan me voorstellen dat de EVGA CEO hier na twee decennia ook helemaal zijn buik van vol heeft :o

ps: Wel cool dat Steve dus Mandarin spreekt !

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Sp3ci3s8472 schreef op zaterdag 17 september 2022 @ 02:26:
[...]

***
Met EVGA verliest Nvidia de meest highend kaart maker. De kwaliteit van EVGA heb ik eigenlijk nooit iets negatiefs over gehoord.
Volgensmij waren er o.a. wel wat issues met EVGA in het begin van de 30 serie.

Maar goed niemand is perfekt.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Thomg schreef op zaterdag 17 september 2022 @ 00:18:
[...]

Wat ik hier vooral uithaal is dat Nvidia jaloers is op Apple en dat zij ook de volledige supply chain in handen willen hebben. Zij snappen ook wel dat ze dit niet cold turkey kunnen doen door alle AIBs weg te trappen, maar het lijkt er dus wel op dat Nvidia dus AIBs aan het pesten is en hoopt dat ze over tijd zelf gewoon weg gaan. Kunnen zij mooi zelf in het gat zitten.

Door dat gepest van Nvidia heeft de CEO van EVGA ook even naar binnen gekeken en besloten de handdoek in de ring te gooien en meer tijd met zijn familie door te brengen.

Ik denk eerlijk gezegd niet dat Nvidia dit jammer vind. Sterker nog... Ik denk integendeel :X

Komende generaties verwacht ik nog wel wat meer AIBs hebben die ermee kappen.
Nvidia zou nooit jaloers zijn. Hun logo is ook echt zeker geen boos groen oog dat met afgunst geassocieerd kan worden. :z


Maar die vermoedens dat Nvidia een tweede Apple wil worden, zijn er al langer. Nvidia positioneert zichzelf steeds meer als een software bedrijf dat ook alle hardware zelf wil leveren. Daarom hebben ze ook ARM CPU's die ze nu koppelen aan hun datacenter GPU's. Hierom leken ze ook interesse te hebben in ARM zelf, iets waar werkelijk elke andere speler die iets met ARM te maken had, van gruwelde. Als je Samsung, Qualcomm en Apple op een lijn krijgt, dan weet je dat er iets mis is. :P

GPP was ook een pareltje waarbij Nvidia probeerde om de merknamen van hun partners, exclusief voor Nvidia probeerde te maken. En we zagen al de "speciale AMD merknamen" even verschijnen voordat dit programma implodeerde over publieke druk.

Ook gaan de verhalen over dat Nvidia extra veel prijsdruk plaatste op de partners voor de RTX30 serie, ook al even. Bij launch schijnt het zo erg te zijn geweest dat de partners eigenlijk niks meer verdiende op de RTX3080. Ik vermoed ook nog steeds dat het hele "POSCAP" verhaal, gedeeltelijk voortkwam uit bepaalde AIB's die slecht geïnformeerd waren of noodgedwongen zijn gaan afwijken van specificatie omdat ze anders verlies gingen maken. Dat er nu ook verliezen gemaakt worden op GA102 SKU's, verbaast me ook niks.

Ik denk alleen niet dat Nvidia hierin kan slagen. Ik zie ze zeker meer partners wegduwen, maar er zijn er denk ik vier simpelweg te groot of te machtig. ASUS, MSI, Gigabyte en Palit. Die eerste drie spreken voor zich met hun enorme moederbord divisies alsmede andere divisies zoals monitoren of laptops. Die vierde kennen mensen niet goed, maar is de leverancier van heel veel OEM videokaarten. Nvidia is uiteindelijk afhankelijk van dit soort bedrijven om hun chips in producten te krijgen omdat deze bedrijven hun eigen marktmacht hebben. Daarnaast heb je nog een paar grote spelers zoals Dell en HP die waarschijnlijk weinig tolerantie hebben voor Nvidia. Daar hoeven ze waarschijnlijk ook niks te proberen.
Help!!!! schreef op zaterdag 17 september 2022 @ 11:30:
[...]


Steve heeft geprobeerd het neutraal te presenteren en gaf o.a. in feite aan dat EVGA zelf de (crypto)markt ook verkeerd inschatte. Echter ik las ook het volgende comment (fwiw) onder de video:

'Rabott:
When it comes to evga over ordering when demand is high, Nvidia uses allocation to pressure companies to continue to by more even when demand starts to die down. I've seen reports saying even as the crypto market crashed Nvidia was threatening partners with slashing their lovelace supply if they cut down their Ampere orders. It wasn't until all the partners actually took a stand together that Nvidia was forced to change tactics with buy backs and the current price cuts to sell off of stock. Maybe this decision from Evga was part of that push back, June lines up with those rumors.
Nvidia has used these tactics for a long time too, a similar thing happened with XFX back when they decided to make AMD cards. Nvidia refused to sell them the upcoming Fermi generation, and pressured channel partners so it became impossible for them to make and sell the older boards. That ended in XFX making the decision to never work with Nvidia again.'

Dit sluit wel aan bij verhalen die al langer rondgaan.

Anyway, na alles wat ik de afgelopen ruim 20jr al 'meegemaakt' heb met nvidia ben ik er wel van overtuigd dat het echt een nogal vervelend bedrijf/ceo is (/understatement).

Kan me voorstellen dat de EVGA CEO hier na twee decennia ook helemaal zijn buik van vol heeft :o

ps: Wel cool dat Steve dus Mandarin spreekt !
Ze moeten dan ook beter opletten bij Nvidia evenementen. :+


Maar het zou me ook niks verbazen als Nvidia heeft geprobeerd om hun eigen inventaris die ze zelf te veel besteld hebben, maar te wimpelen op de AIB's. Het verklaard ook goed waarom de prijzen voor Nvidia videokaarten zo lang maar niet daalden. Verder weten we Nvidia hun strategie om van de rest af te komen. De zoveelste reden waarom we concurrentie in deze markt nodig hebben.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Ik denk dat nvidia groot en kapitaalkrachtig genoeg is om, net als Apple, uiteindelijk alles rechtstreeks aan de eindgebruiker te verkopen indien ze dat echt zouden willen.

Echter, ik denk ook dat ze gewoon helemaal geen zin hebben om de benodigde inspanning te leveren en al het gezeur dat je dan ook krijgt erbij te accepteren. Bovendien kost zo'n business model ook gewoon (veel) geld. Misschien wel meer dan het oplevert.

Het huidige model waarbij ze de AIB's lekker uitknijpen en zeuren dat die eigenlijk 'geld verdienen waar ze geen recht op hebben om dat ze eigenlijk amper iets bijdragen' bevalt hun veel beter.

[ Voor 3% gewijzigd door Help!!!! op 17-09-2022 12:43 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Nu online
DaniëlWW2 schreef op zaterdag 17 september 2022 @ 12:18:

Ook gaan de verhalen over dat Nvidia extra veel prijsdruk plaatste op de partners voor de RTX30 serie, ook al even. Bij launch schijnt het zo erg te zijn geweest dat de partners eigenlijk niks meer verdiende op de RTX3080. Ik vermoed ook nog steeds dat het hele "POSCAP" verhaal, gedeeltelijk voortkwam uit bepaalde AIB's die slecht geïnformeerd waren of noodgedwongen zijn gaan afwijken van specificatie omdat ze anders verlies gingen maken. Dat er nu ook verliezen gemaakt worden op GA102 SKU's, verbaast me ook niks.
Een paar chipjes per kaart met hoogstens een paar cent verschil gaat echt niet zorgen voor wel of niet winst maken. Als dat het geval is hadden ze helemaal geen kaarten gemaakt.
Was het een gebrek aan testen? Zeker weten want dat konden ze niet zonder drivers. Maar was het ook maar enigszins gerelateerd aan kosten? Wat mij betreft absoluut niet.


En wat betreft de prijs van je product niet weten bij launch. Het is simpel als AMD je 150 euro undercut dan moet je alsnog de prijs laten zakken dus wat doet het er in de praktijk toe. Het is de concurrentie die de prijs gaat bepalen. En ook bij AMD weten ze de prijzen niet tot de launch want ook AMD heeft al vaker op het laatste moment de prijs veranderd.
Bij deze high end gpu's zijn zoiezo het grootste deel van de producten meer kde overige kosten zoals energie, panden, werknemers, verzekering, transport en overige infrastructuur en kosten. Net als dat je een 1400 euro kostende iPhone maakt voor 250 euro in materialen is het bij deze gpu's niet heel veel anders. Het zou mij verbazen als een 3080 75 euro meer kost om te maken als een 3060 terwijl de retail prijs juist enorm verschilt tussen de 2.
En ook op de 3060 zit gewoon winst anders maken ze ze niet eens.
De winsten van deze bedrijven spreekt boekdelen en daar hoef je al 20 jaar geen medelijden mee te hebben. Maar we leven in een tijd waar het graaien nooit genoeg is.

Daarnaast heeft zeker EVGA afgelopen generaties direct aan de consument verkocht en dus de stap van transport naar distributeur en hun winst en de eind winkel en hun winst al in eigen zak gestoken. Extra winst dus waar je ze ook niet over gehoord heb.

En als de AIB het echt zo zwaar hadden kunnen ze ook stoppen met 320 modellen te leveren en het gewoon bij de 5 basis modellen houden met allemaal dezelfde koeler om kosten van mallen en dergelijke te betalen. Die kosten honderd duizenden dollars om te maken. Zat te besparen dus als ze het echt zo zwaar hadden als ze zichzelf aanpraten.

[ Voor 12% gewijzigd door computerjunky op 17-09-2022 13:08 ]


Acties:
  • +3 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Help!!!! schreef op zaterdag 17 september 2022 @ 12:37:
Het huidige model waarbij ze de AIB's lekker uitknijpen en zeuren dat die eigenlijk 'geld verdienen waar ze geen recht op hebben om dat ze eigenlijk amper iets bijdragen' bevalt hun veel beter.
Het uitknijpen zit hem niet in de scenario's waar alles volgens plan gaat. Je kan vooral ook leuk bedrijfsrisico's afwentelen op AIB's.

Als je direct aan de eindklant verkoopt krijg je gewoon marktwerking. Chipcrisis, economische recessie? Je ziet het direct in je verkopen en daarmee in je marges of voorraden waar je niet vanaf komt. Maar verkoop in bulk aan een tussenpartij en je kan ineens minimale afnames regelen, en je kan prijsfluctuaties stabilizeren met vastgelegde prijzen voor de lange termijn.

Maar als je dit te lang flikt gaan die AIB's die bedrijfsrisico's natuurlijk ook kennen en dat wegen ze natuurlijk wel mee in hun toekomstplannen. Als NVidia-AIB ga je financiële klappen incalculeren, dus als je daarmee niet alsnog op winst uitkomt kun je je zaken met NVidia beter gewoon van tevoren al schrappen.

Heeft geen speciale krachten en is daar erg boos over.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

bwerg schreef op zaterdag 17 september 2022 @ 13:06:
[...]

Het uitknijpen zit hem niet in de scenario's waar alles volgens plan gaat. Je kan vooral ook leuk bedrijfsrisico's afwentelen op AIB's.

Als je direct aan de eindklant verkoopt krijg je gewoon marktwerking. Chipcrisis, economische recessie? Je ziet het direct in je verkopen en daarmee in je marges of voorraden waar je niet vanaf komt. Maar verkoop in bulk aan een tussenpartij en je kan ineens minimale afnames regelen, en je kan prijsfluctuaties stabilizeren met vastgelegde prijzen voor de lange termijn.

Maar als je dit te lang flikt gaan die AIB's die bedrijfsrisico's natuurlijk ook kennen en dat wegen ze natuurlijk wel mee in hun toekomstplannen. Als NVidia-AIB ga je financiële klappen incalculeren, dus als je daarmee niet alsnog op winst uitkomt kun je je zaken met NVidia beter gewoon van tevoren al schrappen.
Inderdaad en dat vatte ik samen met uitknijpen. :P :) nVidia snapt dit natuurlijk als geen ander en gaat daarmee tot het gaatje.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
computerjunky schreef op zaterdag 17 september 2022 @ 12:39:
[...]
Het zou mij verbazen als een 3080 75 euro meer kost om te maken als een 3060 terwijl de retail prijs juist enorm verschilt tussen de 2.
Het prijsverschil in productiekosten zal echt wel meer zijn. Zeker als die 3060 een GA106-chip heeft, met minder dan half de grootte van de GA102. Dan komen de meerkosten van GDDR6X er nog bij en de extra hardware om een hoger wattage te ondersteunen.

Ik zie de 3060 juist als zwaar overpriced relatief tot de productiekosten, niet zozeer de 3080. Mijn verwachting is dat Nvidia straks stopt met de 3090 en 3080, en de 3060 dan een prijsverlaging geeft en blijft verkopen naast de 4090 en 4080. Ze kunnen daar dan zowel hun overtollige GA104 en GA106-chips in kwijt.

De geruchten zijn dat ze bezig zijn met een 8 GB 3060 versie, dus ik verwacht dat dit de 3060 Super wordt. Nvidia houdt er niet van om de prijs te verlagen van een bestaand model, maar door het introduceren van de Super-variant kunnen ze die een nieuwe MSRP geven.

[ Voor 3% gewijzigd door Ludewig op 17-09-2022 13:36 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Overigens, als ik het goed hoorde was behalve GamersNexus ook John Pedie Research en JayzTwoCents aanwezig bij het gesprek met EVGA.

Jayz noemt de relatie van nvidia met haar partners "abusive".
Linus is ook heel duidelijk over het gedrag van nvidia. Hij gebruikt zelfs het woord maffia-tactics (15:59).
Je kan veel zeggen over Linus maar hij is hier brutal en leveraged zijn subscribed base zoals het eigenlijk hoort bij zo'n positie.


Zij geven aan zich niet alleen te baseren op deze evga story maar op off the record gesprekken met vele bronnen in de industrie door de jaren heen.

Jayz's take:


En Linus' take:
[1:56] Topic #1: EVGA leaves the GPU market.
4:20 EVGA's sales revenue,
5:52 No plans to work with AMD or Intel.
7:11 NVIDIA controlling prices & projects.
9:12 CEO claims no employees to be laid off.
10:44 NVIDIA's shady history, Linus's notes.
18:24 Advantages of NVIDIA having many AIBs.
21:08 Discussing EVGA's move & products
22:40 Linus called it 12 years ago.
24:05 Reading EVGA's quote, NVIDIA the bully.
28:02 Recalling NVIDIA blocking Hardware Unboxed.
34:42 More of NVIDIA's shady history.
42:22 NVIDIA is hard to work with, RIP EVGA.
46:22 With EVGA GPUs gone, which AIB to buy from?

[ Voor 80% gewijzigd door Help!!!! op 17-09-2022 18:00 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

bwerg schreef op zaterdag 17 september 2022 @ 13:06:
[...]

Het uitknijpen zit hem niet in de scenario's waar alles volgens plan gaat. Je kan vooral ook leuk bedrijfsrisico's afwentelen op AIB's.

Als je direct aan de eindklant verkoopt krijg je gewoon marktwerking. Chipcrisis, economische recessie? Je ziet het direct in je verkopen en daarmee in je marges of voorraden waar je niet vanaf komt. Maar verkoop in bulk aan een tussenpartij en je kan ineens minimale afnames regelen, en je kan prijsfluctuaties stabilizeren met vastgelegde prijzen voor de lange termijn.

Maar als je dit te lang flikt gaan die AIB's die bedrijfsrisico's natuurlijk ook kennen en dat wegen ze natuurlijk wel mee in hun toekomstplannen. Als NVidia-AIB ga je financiële klappen incalculeren, dus als je daarmee niet alsnog op winst uitkomt kun je je zaken met NVidia beter gewoon van tevoren al schrappen.
Daar komt ook nog eens bij of ze bij EVGA niet een bredere macro economische analyse hebben gemaakt en besluiten dat het genoeg is geweest. De Russische markt bestaat eigenlijk niet meer. Het gaat economisch slecht in China en in Europa is de euro zoveel waarde verloren bovenop de torenhoge inflatie, waardoor een van de grootste markten waarschijnlijk veel minder bereidheid of financiële middelen heeft voor luxeproducten zoals videokaarten. De VS is minder erg dan de rest van de wereld, maar ook daar zal de financiële draagkracht inzakken. Komt er ook nog eens bij dat ETH PoS is gegaan om de cryptomining crash nog verder te versterken.

Ik vraag me eigenlijk al even af hoe Nvidia nog precies 60% marges wil halen met de veel duurdere N5 wafers, vrij grote chips alsmede een overschot aan RTX30 GPU's en dan ook nog eens een groot tweedehands aanbod. Ik zie de interesse voor AD102 gewoon niet zo groot zijn omdat die chip veel te duur zal zijn en AD103 misschien ook niet. Komt ook nog eens bij dat de games om een update af te dwingen, er niet echt zijn.

Het probleem daarmee is ook dat AD104/106/107 waarschijnlijk helemaal niet beter gaan presteren dan hoger gepositioneerde Ampere GPU's die waarschijnlijk niet duurder zijn om te maken, want Samsung 8nm. En die krijgen ook te maken met tweedehands videokaarten.

De laatste factor blijft RDNA3 want ik weet echt niet wat AMD van plan is. Ze kunnen twee dingen doen met hun waarschijnlijke voordeel in productiekosten. Nvidia volgen of voor marktaandeel gaan. En nog steeds vermoed ik dat als AMD ooit eens voor marktaandeel zal gaan, het de komende tijd zal moeten gebeuren. Want voor RDNA1/2 waren hun chips waarschijnlijk niet goedkoper, eerder duurder dan Turing/Ampere.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Werelds schreef op vrijdag 16 september 2022 @ 22:24:
[...]

Hoe kom je daar bij joh? Dat is enkel met A100 en H100 zo geweest :)

V100 was gewoon 12FFN (en hier kom zo op terug :P), GP100 was gewoon 16FF net als GP102, 104 en 106 (107 was Samsung's 14LPP ;)), enzovoort.
Ook al kan de process node hetzelfde zijn, de dichtheden zijn altijd verschillend tussen gamer en professionele kaarten. Dat zit niet per se (alleen) in de process node, maar in de PDK (process design kit).

Je schreef:
N4 = "4nm", 4N = "5nm".
en vervolgens geef je toe dat 4N niet bestaat, terwijl N4 eigenlijk N5P is, in de URL van TSMC staat ook gewoon 5 nm https://www.tsmc.com/engl...ry/technology/logic/l_5nm
Dus er is geen 4 nm wat dat betreft.
Werelds schreef op vrijdag 16 september 2022 @ 22:24:
Het is hetzelfde als 12FF voor 16FF, of N6 voor N7. Er is zelfs al een N4P.
En ook die hoort bij de 5 nm familie van PDKs.
Werelds schreef op vrijdag 16 september 2022 @ 22:24:

Welke "density node" bij N7 heb je het over (je verwisselt de cijfers en letters :P)? N7+? Dat is namelijk iets heel anders, want dat is EUV en geheel niet compatible met N7(P), wat DUV is.
Ik bedoel het volgende (wat ongelukkig verwoord): binnen een proces heb je vaak een high density cell of een high performance cell
https://en.wikichip.org/w...ography_process#Std_Cells
Vaak wordt de HD bij workstation kaarten gebruikt, en HPP bij gaming kaarten.
Bij 5nm zie ik dat niet terug.
Werelds schreef op vrijdag 16 september 2022 @ 22:24:
Neem je nu die 2,2 omdat ik dat als maximum aan duid? Dat was ook 40nm naar 28nm, wat een gigantische sprong was (op meerdere vlakken) én Nvidia kwam van Fermi af, die behoorlijk "los" was. Evergreen was bijna 20% compacter dan Fermi. AMD's stap van 40 naar 28 was pakweg 1,8x. Wat TSMC toen aan gaf voor hun dummy weet ik niet meer, maar het was veel meer dan 2x. Node sprongen waren toen veel groter dan tegenwoordig :)
Alles is relatief, en ik probeer er alleen maar mee aan te geven dat de kans bestaat, dat 75,38 10^6 transistors correct kan zijn. Ook als de density jump dan historisch ongekend zou zijn.
Werelds schreef op vrijdag 16 september 2022 @ 22:24:
Heeft weinig met puzzelen te maken, alles met hype. Die cijfers komen misschien helemaal niet terug ;)
Fair enough, ik kijk altijd graag terug of mijn voorspellingen uit zijn gekomen of niet :)
Werelds schreef op vrijdag 16 september 2022 @ 22:24:
Er zíjn ook 2 procedé's, N4 bestaat. Maar 4N is geen N4 ;)
Nee die zijn er niet, er is alleen een "N4" die bij 5 nm hoort qua procesfamilie. "4N" is Nvidia onzin. En tot nu toe was dat alleen een N5P, die N4P is nog niet gedefinieerd.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Technisch gezien is er ook geen 5 nm, want TSMC N5 is geen 'echte' 5 nanometer maar eerder een marketingterm :p

March of the Eagles


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sunsmountain schreef op zaterdag 17 september 2022 @ 14:02:
Ook al kan de process node hetzelfde zijn, de dichtheden zijn altijd verschillend tussen gamer en professionele kaarten. Dat zit niet per se (alleen) in de process node, maar in de PDK (process design kit).
Nee, op dezelfde "node" (lees even het volgende stuk voordat je hierop reageert :p) is de PDK altijd hetzelfde. Verschillen in dichtheid op dezelfde node komen door verschillen in ontwerp. Nvidia, AMD, Apple, Qualcomm krijgen allemaal dezelfde PDK. Een PDK is een set specificaties en tools om een chip mee te ontwerpen, simuleren en valideren.

Dichtheden verschillen verder nauwelijks tussen de consumenten en HPC chips bij Nvidia, juist omdat de architecturen heel sterk aan elkaar verwant zijn. V100 en P100 kwamen uit op 25,9 en 25,1; hun consumenten varianten in TU102 en GP102 kwamen uit op 24,7 en 25,5. V100 kwam dus 4,86% hoger uit en P100 1,57% lager. AMD is nu een ander verhaal, omdat CDNA en CDNA radicaal anders in elkaar zitten.
en vervolgens geef je toe dat 4N niet bestaat, terwijl N4 eigenlijk N5P is, in de URL van TSMC staat ook gewoon 5 nm https://www.tsmc.com/engl...ry/technology/logic/l_5nm
Dus er is geen 4 nm wat dat betreft.
Nee, je moet even goed lezen. 12FF, N6 en N4 zijn respectievelijk 12nm, 6nm en 4nm "class" procedé's - ze zijn een klasse beter dan hun voorgangers omdat de dichtheid ietsjes hoger kan komen, ook al zijn ze wel slechts "tweaks" van hun voorganger. Ze zijn dan ook níet compatible met 16FF, N7 en N5 respectievelijk. Voor N4 heb je een andere PDK dan voor N5. Maar N5P gebruikt dezelfde PDK als N5. Dat is waarom TSMC die cijfertjes vermindert. Als je het vanuit PDK's wil bekijken heb je 16FF, 12FF, N7/N7P, N7+, N6, N5/N5P, N4/N4P (10nm sla ik even over omdat dat voor GPU's nooit gebruikt is).

De "basis" procedé's zijn 16FF, N7 en N5. Die hebben elk meerdere varianten; dichtheid, performance, verbruik, waarbij elke variant z'n eigen PDK krijgt omdat je je aan andere regels moet houden om het gewenste resultaat te bereiken. Intussen maakt TSMC dan vaak ook wat ze tegenwoordig "P" varianten noemen: dat zijn verbeteringen in het productie proces, waarbij de ontwerp regels (PDK) hetzelfde blijven voor de respectievelijke varianten maar ze kleine verbeteringen maken in het daadwerkelijke productie proces. Dat zijn dus N7P, N5P en N4P en je kunt een ontwerp zonder meer van non-P naar P gooien. Als laatste krijg je dan doorontwikkelingen, waar ze de apparatuur strakker afstellen, andere materialen gebruiken, de lagen anders opbouwen, enzovoort - daardoor is ook een hogere dichtheid te realiseren. De ontwerp regels veranderen dan echter wel, waardoor ze die een nieuwe naam willen geven. Dat zijn dus 12FF, N6 en N4. Je kunt een ontwerp van 16/7/5 niet zomaar op 12/6/4 gooien, je moet daarvoor terug naar de tekentafel omdat de regels anders zijn. In het geval van N4 gebruikt TSMC bijvoorbeeld meer EUV lagen, zijn de standaard cellen compacter en is het BEOL proces anders (BEOL = Back End Of Line, de stap waar ze alle transistors daadwerkelijk aan elkaar hangen met koper enzo). We kunnen het tegenwoordig niet echt meer over nodes en half-nodes hebben, maar die "getweakte" procedé's zijn min of meer wat we vroeger half-nodes noemden (maar met minder impact dan half-nodes hadden). 55nm was een afgeleide van 65nm, 40nm was eigenlijk een afgeleide van 45nm, 28nm was eigenlijk 32nm (de sprong van 40 naar 28 was inderdaad een full-node sprong, net als 55 naar 40). En daarna wordt het allemaal de zooi die we tegenwoordig hebben, want 22/20 en alles daarna loopt bij alle fabs hartstikke door elkaar qua eigenschappen :p

Wat ik dus bedoel met N4 = "4nm" en 4N = "5nm" is dat N4 een andere PDK gebruikt dan N5(P) en dat de dichtheid iets hoger kan dan met N5(P). 4N zoals in Nvidia's marketing daarentegen is vrijwel zeker een 5nm "class" procedé en gebruikt de N5(P) PDK. Nogmaals: het zou best kunnen dat Nvidia's "4N" daadwerkelijk gebaseerd is op TSMC's N4, maar het is extreem onwaarschijnlijk omdat ze dan ruimschoots de eerste zouden zijn, wat nog nooit eerder is gebeurd.

Echter, als ik dan even jou volg en aan neem dat H100 op TSMC N4 zit en AD10x op TSMC N5, dan zit H100 op een procedé met een hogere dichtheid, wat wil zeggen dat AD10x ineens iets heel anders moet worden om op een míndere node maar liefst 20% meer dichtheid te halen. En dat moet dan met een berg aan low-density I/O in de chip. Zelfs op dezelfde node is dat een heel groot verschil en zie je dat enkel bij RDNA <> CDNA. Tegelijkertijd is H100 geen radicaal andere architectuur dan A100 en lijkt Lovelace ook niet radicaal anders te worden dan Ampère.
Ik bedoel het volgende (wat ongelukkig verwoord): binnen een proces heb je vaak een high density cell of een high performance cell
https://en.wikichip.org/w...ography_process#Std_Cells
Vaak wordt de HD bij workstation kaarten gebruikt, en HPP bij gaming kaarten.
Bij 5nm zie ik dat niet terug.
Aha, ok, nu snap ik het. Maar je neemt aan dat dat bij N5 niet bestaat omdat het niet in de tabel staat? Dat is enkel omdat die cijfers nergens publiekelijk terug te vinden zijn en er nog niemand de daadwerkelijke specs gelekt heeft zoals bij N7 (dat is daar op echte PDK's gebaseerd ;)). N5 heeft weldegelijk gewoon HD+HP varianten (LV waarschijnlijk ook wel). Staat overigens ook op wikichip, maar dan moet je de tekst lezen, ze hebben het niet in de tabellen ingevuld omdat de exacte specs niet bekend zijn.

Waar je het vervolgens vandaan haalt dat workstation kaarten HD zouden gebruiken weet ik niet. Nogmaals: die chips verschillen helemaal niet qua dichtheid. A100 en H100 kunnen we (nog) niet vergelijken omdat dat Samsung vs. TSMC is, maar alles daarvoor was gewoon dezelfde dichtheid omdat het ook gewoon dezelfde chips waren. Ze kunnen een chip niet met zowel HD als HP produceren, dat werkt niet :p
Alles is relatief, en ik probeer er alleen maar mee aan te geven dat de kans bestaat, dat 75,38 10^6 transistors correct kan zijn. Ook als de density jump dan historisch ongekend zou zijn.
Alles kan en ik laat me graag verrassen en geheel fout zitten. Het is echter gewoon heel onwaarschijnlijk. Juist ook omdat we het over Nvidia hebben, die gewoon nooit de beste of eerste zijn geweest in het daadwerkelijke bakwerk.
Nee die zijn er niet, er is alleen een "N4" die bij 5 nm hoort qua procesfamilie. "4N" is Nvidia onzin. En tot nu toe was dat alleen een N5P, die N4P is nog niet gedefinieerd.
N4P is weldegelijk gedefiniëerd: https://pr.tsmc.com/english/news/2874

Het procesfamilie stuk heb ik hierboven al uitgelegd.


XWB schreef op zaterdag 17 september 2022 @ 14:36:
Technisch gezien is er ook geen 5 nm, want TSMC N5 is geen 'echte' 5 nanometer maar eerder een marketingterm :p
Geheel waar, maar het loont zich wel om het over "class" te hebben zoals de fabs dat doen, omdat dingen als N4, N6 of bij Samsung bijvoorbeeld 8LPP toch net even iets anders zijn dan hun "ouders". En ook al gaat het met N4 om slechts 7-8% dichtheid, in het geval van bijvoorbeeld H100 betekent het dat ze ofwel op N4 105,2 MT/mm² zouden kunnen halen, of dat het op N5 91,9 MT/mm² geweest zou zijn (als het nu wél N4 is), wat toch best wel fors is. Dat zou de chip namelijk ~760mm² of ~870mm² maken in plaats van de 814mm² die het nu is :)

Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Even kort samengevat waarom EVGA ermee stopt. O-)

Afbeeldingslocatie: https://cdn.arstechnica.net/wp-content/uploads/2022/09/evgagraph.png
https://www.jonpeddie.com...er-nvidia-next-gen-series

Ja Jon Peddy was er ook bij EVGA.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

Er blijft wel heel weinig marge over inderdaad. Snap ook wel dat EVGA een keer een grens trekt. Het zou mij niks verbazen als andere AIB's ook eens hard gaan nadenken. De grote MSI, Asus en Gigabyte houden gpu's er waarschijnlijk naast als een prestige product voor naamsbekendheid. De kleinere AIB's, geen idee met zo'n weinig marge.

Uit datzelfde artikel:
Slowly, over time, the relationship between EVGA and Nvidia changed from what EVGA considered a true partnership to customer–seller arrangement whereby EVGA was no longer consulted on new product announcements and briefings, not featured at events, and not informed of price changes. On September 7, Nvidia offered via Best Buy an RTX 3090 Ti for $1,099.99, undercutting EVGA and other partners that were offering their products at $1,399.99. There was no warning of the price cut, and it left the partners with little choice but to sell their inventory at below cost to meet the Nvidia price. MSI dropped their price to $1,079.99 on New Egg, and EVGA dropped theirs to $1,149.
Nvidia kan makkelijk de prijzen verlagen want die hebben een lagere overhead. Waardoor hun "partners" in feite de sjaak zijn.
EVGA dropping Nvidia will put a big hole in Nvidia’s North American sales of AIBs (where EVGA enjoyed 40% market share) and EVGA fans in Western Europe. Nvidia can overcome that by adjusting the allocation levels for the remaining AIB partners, as well as direct sales through Best Buy, but it will take a quarter or two. Given the inventory overhang that partners and Nvidia are having, there seems to be no rush.
Mooi gat voor AMD en Intel? Kijken of die er profijt uit kunnen halen.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
DaniëlWW2 schreef op zaterdag 17 september 2022 @ 15:21:
Even kort samengevat waarom EVGA ermee stopt. O-)

[Afbeelding]
https://www.jonpeddie.com...er-nvidia-next-gen-series

Ja Jon Peddy was er ook bij EVGA.
Wel jammer dat ook hij mee gaat in de MSRP onzin. MSRP van $150 in '99? Zelfs het gemiddelde lag niet zo laag, want er was toen nauwelijks aanbod. Een TNT2 Ultra was $299, GeForce 256 was $249 of $299. Die $299 is met inflatie zo'n $533 in 2022. Nog veel gekker is de periode van '06-'09. Rond de $150 in '07/'08? In welke fantasie wereld en van welke fabrikant (zelfs ATI kwam daar niet bij in de buurt)? Een 7900 GTX was $499 (~$750 in 2022 USD). 8800 GTX was $599, dat zou nu zo'n $880 zijn. GT200 was $650, GF100 was $499.

MSRP's zijn enkel met de laatste generatie echt fors gestegen. Veel dingen waren vroeger juist duurder dan ze enkele jaren geleden waren; $649 voor de 980 Ti en $699 voor de 1080 Ti was helemaal niet gek vergeleken met de 8800 GTX.

Waren de MSRP's vroeger maar zo laag als hij aan geeft. Dan had kleine/tiener Werelds veel meer GPU's gehad :p

Alhoewel...de eerste paar generaties waarschijnlijk niet, dankzij de Voodoo magie ;)

  • OMD
  • Registratie: September 2003
  • Laatst online: 13:21

OMD

Werelds schreef op zaterdag 17 september 2022 @ 21:22:
[...]

Wel jammer dat ook hij mee gaat in de MSRP onzin. MSRP van $150 in '99? Zelfs het gemiddelde lag niet zo laag, want er was toen nauwelijks aanbod. Een TNT2 Ultra was $299, GeForce 256 was $249 of $299. Die $299 is met inflatie zo'n $533 in 2022. Nog veel gekker is de periode van '06-'09. Rond de $100-$150 in '08? In welke fantasie wereld en van welke fabrikant (zelfs ATI kwam daar niet bij in de buurt)? Een 7900 GTX was $499 (~$750 in 2022 USD). 8800 GTX was $599, dat zou nu zo'n $880 zijn. GT200 was $650, GF100 was $499.

MSRP's zijn enkel met de laatste generatie echt fors gestegen. Veel dingen waren vroeger juist duurder dan ze enkele jaren geleden waren; $649 voor de 980 Ti en $699 voor de 1080 Ti was helemaal niet gek vergeleken met de 8800 GTX.

Waren de MSRP's vroeger maar zo laag als hij aan geeft. Dan had kleine Werelds veel meer GPU's gehad :p

Alhoewel...de eerste paar generaties waarschijnlijk niet, dankzij de Voodoo magie ;)
Waarschijnlijk lees ik er over heen maar waar staat die 150 dollar msrp?
Neem aan dat je dat niet uit die grafiek trekt, dat is geen 150 dollar zoals ik de grafiek lees. Erg onduidelijke grafiek wel :X

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
OMD schreef op zaterdag 17 september 2022 @ 21:58:
[...]


Waarschijnlijk lees ik er over heen maar waar staat die 150 dollar msrp?
Neem aan dat je dat niet uit die grafiek trekt, dat is geen 150 dollar zoals ik de grafiek lees. Erg onduidelijke grafiek wel :X
Jawel, uit de grafiek. Het is sowieso is een logaritmische schaal*, wat even wennen kan zijn. Daarnaast betekenen de cijfers uiteraard iets anders voor elke lijn.

Heb wel even opnieuw gekeken en het is geen $150, maar $250 voor '99, wat dus wel ongeveer klopt. '06 echter nog steeds niet.

* logaritmisch betekent dat de schaal verandert, naar mate je hoger komt. In dit geval gaat de schaal elke 10 stappen met een factor 10 omhoog (wat ook het meest voorkomende gebruik van zo'n schaal is).

Dus onderaan is het 1, met 10 stappen naar 10. Vanaf 10 tot 100 gaat het met stappen van 10; elk lijntje is dus 10 meer, vanaf 100 met stappen van 100, enzovoort. Dus het eerste lijntje boven 100 is 200, lijntje daar weer boven is 300; en de MSRP begint er precies tussenin. Had de eerste keer even scheef gekeken :p

Acties:
  • +1 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 13:21

OMD

Werelds schreef op zaterdag 17 september 2022 @ 22:05:
[...]

Jawel, uit de grafiek. Het is sowieso is een logaritmische schaal*, wat even wennen kan zijn. Daarnaast betekenen de cijfers uiteraard iets anders voor elke lijn.

Heb wel even opnieuw gekeken en het is geen $150, maar $250 voor '99, wat dus wel ongeveer klopt. '06 echter nog steeds niet.

* logaritmisch betekent dat de schaal verandert, naar mate je hoger komt. In dit geval gaat de schaal elke 10 stappen met een factor 10 omhoog (wat ook het meest voorkomende gebruik van zo'n schaal is).

Dus onderaan is het 1, met 10 stappen naar 10. Vanaf 10 tot 100 gaat het met stappen van 10; elk lijntje is dus 10 meer. Dus het eerste lijntje boven 100 is 200, lijntje daar weer boven is 300; en de MSRP begint er precies tussenin. Had de eerste keer even scheef gekeken :p
Ik las dus ook 250, ligt dus niet aan mij :) vandaar dat ik vroeg waar je die 150 vandaan had.

250 klopt denk ik wel. Dollar prijs ex btw toen. Ik betaalde voor mij 4890 destijds rond de 270 euro dacht ik. Mijn 3870 kaarten waren 250 euro. Dit was echter al beduidend later dan 1999. Mij voodoo kaarten, riva tnt kaarten en geforce 256 kaarten weet ik echt niet meer. Dat is echt te lang geleden.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
OMD schreef op zaterdag 17 september 2022 @ 22:11:
[...]


Ik las dus ook 250, ligt dus niet aan mij :) vandaar dat ik vroeg waar je die 150 vandaan had.

250 klopt denk ik wel. Dollar prijs ex btw toen. Ik betaalde voor mij 4890 destijds rond de 270 euro dacht ik. Mijn 3870 kaarten waren 250 euro. Dit was echter al beduidend later dan 1999. Mij voodoo kaarten, riva tnt kaarten en geforce 256 kaarten weet ik echt niet meer. Dat is echt te lang geleden.
4890 was ook richting het einde van die generatie, dus die kwam inderdaad goedkoop in de markt ;)

Iets soortgelijks geldt voor de 3870 (en 8800 GT), want dat was een die shrink, wat toen nog betekende dat ze zuiniger, kleiner en goedkoper werden. Echter kwam RV770 ook een maand of 7-8 daarna - en ATI had enkele zware jaren achter de rug, waardoor ze hard moesten concurreren met Nvidia en de 4870 veel goedkoper op de markt brachten dan GT200. En hun voorgangers kostten gewoon $600. Was het maar zo dat een 8800 GTX slechts €300-400 was :P

Voodoo kan ik je wel vertellen, dat was 500 gulden - althans, dat is wat mijn broertje en ik er in '96 of '97 voor hebben betaald. Dat zou nu ruim boven de €350 zijn - en dan was de Voodoo juist heel goedkoop in de markt gezet om marktaandeel te grijpen. De concurrentie was een stuk duurder. Achteraf gezien was dat misschien niet eens nodig geweest omdat ze zo snel waren :p

Vergeet echter niet dat de dollar in de eerste 5 jaar van deze eeuw enorm gekelderd is - en MSRP's worden in dollars bepaald. Dus voor ons fluctueerden die prijzen altijd wel, maar in USD zijn ze enkel met inflatie mee gegaan en eigenlijk heel lang vrij stabiel geweest. Los van halo producten (ongein als Titans zijn ook halo producten) zaten de MSRP's voor de top chips altijd tussen de $500 en $700. Dat is alsnog een groot bereik, maar dat verandert mee met inflatie en concurrentie. Fermi had bijvoorbeeld vast meer moeten kosten dan $499, maar als je 6 maanden te laat bent en een matig product af levert, kun je niet zo ver boven de concurrent gaan zitten (5870 was $379 uit m'n hoofd).

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Werelds schreef op zaterdag 17 september 2022 @ 23:15:
[...]
Voodoo kan ik je wel vertellen, dat was 500 gulden - althans, dat is wat mijn broertje en ik er in '96 of '97 voor hebben betaald. Dat zou nu ruim boven de €350 zijn - en dan was de Voodoo juist heel goedkoop in de markt gezet om marktaandeel te grijpen.
De US MSRP van de Voodoo was $299 en de wisselkoers 1:1,6, dus dat kan wel kloppen. Maar zowel de Voodoo en de Voodoo2 kregen vrij snel prijsverlagingen, zoals hier gememoreerd wordt:

https://hardforum.com/thr...d-voodoo-2-price.1470509/

Ik weet ook wel zeker dat ik geen 500 gulden voor de Voodoo2 betaald heb die nog steeds in de Mac G3 zit die ik ergens op zolder heb liggen. Zoveel geld ging ik er echt niet aan uitgeven. Maar ik kocht vermoedelijk op de dip.

Ik vraag me wel af of jullie meenemen dat de prijzen nu minder dalen dan vroeger. Voor de mensen die direct kopen zijn de prijstoenames dan minder dan mensen die gewoon waren om te wachten op veel lagere prijzen.

[ Voor 11% gewijzigd door Ludewig op 17-09-2022 23:53 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 14-09 14:03

CMT

DaniëlWW2 schreef op zaterdag 17 september 2022 @ 15:21:
Even kort samengevat waarom EVGA ermee stopt. O-)

[Afbeelding]
https://www.jonpeddie.com...er-nvidia-next-gen-series

Ja Jon Peddy was er ook bij EVGA.
Heilige poep!
Nou, dan is het ook gelijk duidelijk dat we de hoge kunstmatige prijzen puur aan Jensen/Nvidia te danken hebben. +65% dat gaat toch nergens meer over.
Zelfs Apple heeft niet zoveel brutto winstmarge: https://www.macrotrends.n...s/AAPL/apple/gross-margin

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 13:21

OMD

Werelds schreef op zaterdag 17 september 2022 @ 23:15:
[...]

4890 was ook richting het einde van die generatie, dus die kwam inderdaad goedkoop in de markt ;)

Iets soortgelijks geldt voor de 3870 (en 8800 GT), want dat was een die shrink, wat toen nog betekende dat ze zuiniger, kleiner en goedkoper werden. Echter kwam RV770 ook een maand of 7-8 daarna - en ATI had enkele zware jaren achter de rug, waardoor ze hard moesten concurreren met Nvidia en de 4870 veel goedkoper op de markt brachten dan GT200. En hun voorgangers kostten gewoon $600. Was het maar zo dat een 8800 GTX slechts €300-400 was :P

Voodoo kan ik je wel vertellen, dat was 500 gulden - althans, dat is wat mijn broertje en ik er in '96 of '97 voor hebben betaald. Dat zou nu ruim boven de €350 zijn - en dan was de Voodoo juist heel goedkoop in de markt gezet om marktaandeel te grijpen. De concurrentie was een stuk duurder. Achteraf gezien was dat misschien niet eens nodig geweest omdat ze zo snel waren :p

Vergeet echter niet dat de dollar in de eerste 5 jaar van deze eeuw enorm gekelderd is - en MSRP's worden in dollars bepaald. Dus voor ons fluctueerden die prijzen altijd wel, maar in USD zijn ze enkel met inflatie mee gegaan en eigenlijk heel lang vrij stabiel geweest. Los van halo producten (ongein als Titans zijn ook halo producten) zaten de MSRP's voor de top chips altijd tussen de $500 en $700. Dat is alsnog een groot bereik, maar dat verandert mee met inflatie en concurrentie. Fermi had bijvoorbeeld vast meer moeten kosten dan $499, maar als je 6 maanden te laat bent en een matig product af levert, kun je niet zo ver boven de concurrent gaan zitten (5870 was $379 uit m'n hoofd).
Ik heb zeker niet zoveel betaald voor de Diamond voodoo banshee ( jaja, de echte Diamond :P )Introductie prijs was 299 dollar zie ik net. Dat was in 1998. Wat daarvoor zat is voor de grafiek niet zo relevant denk ik. Die gaat niet verder terug.

Ik zou alleen zweren dat de voodoo add-on kaarten niet zo duur waren maar ik kan er naast zitten. Ik was rond de 14 tot 17 destijds. Ik had echt geen geld voor hele dure kaarten en had ze toch.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:58
CMT schreef op zondag 18 september 2022 @ 06:07:
[...]

Heilige poep!
Nou, dan is het ook gelijk duidelijk dat we de hoge kunstmatige prijzen puur aan Jensen/Nvidia te danken hebben. +65% dat gaat toch nergens meer over.
Zelfs Apple heeft niet zoveel brutto winstmarge: https://www.macrotrends.n...s/AAPL/apple/gross-margin
Dat is dan natuurlijk ook niet direct een eerlijke vergelijking, zou dat je dat willen vergelijken zou je moeten kijken naar de omzetten en marge's van Apples chip divisie voor deze intern verkocht worden aan de andere afdelingen. Maar zelfs dan zal het denk ik geen 100% eerlijke vergelijking zijn, omdat een deel van Nvidia's marge komt uit datacenter producten die de marge normaal gesproken enorm stuwen als je ze vergelijk met consumenten producten. En Apple heeft geen datacenter producten in haar chip mix. Verder dan de workstation markt komen ze (nog) niet.

Apple als geheel zal al snel lagere marges hebben om ze ook businesses hebben waar de marges sowieso lager liggen. Maar dan nog is 44%, gezien de markten waarin Apple zit, enorm hoog.

[ Voor 17% gewijzigd door Dennism op 18-09-2022 10:30 ]


Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 09:58
Ik kocht de voodoo1 voor 100 gulden toen de voodoo2 zo'n 300 kostte. Best upgrade EVER (en veel later de ssd als goede 2e).

Diamond was echt een premium merk maar veel te duur, volgens mij was die toen nog 189 ofzo terwijl de prestaties compleet gelijk waren van mijn dikke vette HELIOS3D 4mb pci

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 09:58
Evga ziet gewoon kansen. Ze kregen een sample van een 4090 met weer nieuwe power connectors en een max. Boardpower van 600w!

Vervolgens zagen ze de "leaks" van Raptor lake met een "unleashed" power van 340w!

No way dat die 4090 veel verkocht gaat worden dachten ze, maar iedereen die er WEL eentje koopt heeft hoe dan ook een 1,5kw psu nodig!

En een hittebestendig moederbord met zelfblusfunctie....

[ Voor 7% gewijzigd door meljor op 18-09-2022 11:18 ]


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

CMT schreef op zondag 18 september 2022 @ 06:07:
[...]

Heilige poep!
Nou, dan is het ook gelijk duidelijk dat we de hoge kunstmatige prijzen puur aan Jensen/Nvidia te danken hebben. +65% dat gaat toch nergens meer over.
Zelfs Apple heeft niet zoveel brutto winstmarge: https://www.macrotrends.n...s/AAPL/apple/gross-margin
Dat was het al jaren als je naar Nvidia hun kwartaalcijfers keek. ;) :P
Maar hierom ben ik ook zo benieuwd wat er de komende maanden gaat gebeuren. Want Nvidia heeft op zijn zachts gezegd wat problemen in aantocht zoals: Waarschijnlijk aardig richting 3x prijs per wafer, problematische macro-economische omstandigheden, de realisatie dat de $2000 RTX3090Ti eigenlijk verkrijgbaar was omdat zowel gamers als miners dat te belachelijk vonden en het vermoeden dat ze ditmaal het heel erg zwaar gaan krijgen in high end en nu ook niet meer het voordeel hebben dat hun chips waarschijnlijk goedkoper te produceren zijn dan die van AMD.

Oh en cryptomining, nou dat is helemaal klaar. Zoals te verwachten viel, stortte de 900+ TH/s al snel in naar nul. Vervolgens probeerde iedereen over te stappen op andere PoW coins die letterlijk in enkele uren compleet instortte in winstgevendheid door de gigantische hoeveelheid hardware. Zelfs als je op een of andere manier het voor elkaar krijgt om maar $0,1kWh te betalen, maak je alsnog fors verlies. En die verliezen worden met de dag groter. :z

En om het in perspectief te plaatsen. Als ik die 900TH/s omreken naar 55MH/s voor een RTX3060Ti, tja dan zit ik over de 16 miljoen videokaarten. Natuurlijk is er van alles in gebruik voor mining, zowel sneller als langzamer, maar ik denk dat ruim 10 miljoen videokaarten wel een voorzichtige schatting is. Die gaan onherroepelijk op de markt komen omdat ze nu waardeloos zijn voor mining. Dat is zo'n gigantisch aantal dat de DIY markt het waarschijnlijk niet eens kan verwerken als mensen zich geen zorgen hoefde te maken over de energierekening en inflatie.


Ik ben dus zeer benieuwd of de arrogantie bij Nvidia gaat blijven dat ze 60%+ marges willen hebben op hun GPU's. AD102 zal zeer duur worden om te maken, maar het is de vraag of mensen nog meer prijsverhogingen willen of kunnen betalen. AD103 presteert waarschijnlijk ook beter dan de tweedehands mining kaarten, maar de vraag is of het prijsverschil niet al te groot zal zijn. AD104 zie ik niet beter presteren dan GA102. Die krijgt dus met de realiteit te maken. Nog een reden waarom ik een AD104 based "RTX4080" echt pure waanzin zou vinden. AD106/AD107 zijn kleinere chips die waarschijnlijk beter tot hun recht komen in laptops dan de aankomende videokaartenmarkt. Die gaan dan ook voorlopig niet verschijnen in de DIY markt denk ik zo.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
OMD schreef op zondag 18 september 2022 @ 09:57:
Ik heb zeker niet zoveel betaald voor de Diamond voodoo banshee ( jaja, de echte Diamond :P )Introductie prijs was 299 dollar zie ik net. Dat was in 1998. Wat daarvoor zat is voor de grafiek niet zo relevant denk ik. Die gaat niet verder terug.

Ik zou alleen zweren dat de voodoo add-on kaarten niet zo duur waren maar ik kan er naast zitten. Ik was rond de 14 tot 17 destijds. Ik had echt geen geld voor hele dure kaarten en had ze toch.
De Banshee was dan ook weer een ander beest (2D + slechts 1 TMU en ontworpen om goedkoop te zijn). Het ging toen allemaal veel sneller dan tegenwoordig, de Voodoo, Rush, Voodoo 2, Banshee en Voodoo 3 zaten allemaal binnen pakweg 2,5 jaar :p

Ik had het echter vooral over de concurrenten: Nvidia (Riva), ATI (Rage) en tot zekere hoogte ook Matrox (Gx00) en S3 (Savage3D). Die laatste twee gingen vrij hard op hun bek tegenover de rest, dus daar hebben we het maar niet over. Maar toen de oorspronkelijke Voodoo op de markt kwam, kostte de rest vele malen meer. Nu konden die ook 2D doen in tegenstelling tot 3DFX, maar dat was juist een nadeel want daar kon 3DFX op besparen en iedereen had toch al een 2D kaart. Niet altijd het allerbeste (ATI Mach64 <3), maar dat was ook niet nodig. Een Cirrus kaartje was al genoeg, doorlussen naar de Voodoo en klaar was Kees.

En omdat ze nieuw op de markt waren, zetten ze dus ook heel laag in. Gevolg was dat de rest ook ging knippen en zagen en je heel veel verschillende chips en prijzen zag; waarbij de goedkope chips vaak ook echt ruk waren. En dan kwamen ze weer met een nieuw "monster" (vergeleken met tegenwoordig nog steeds minuscule chips) en schoot de prijs voor de top chips weer gigantisch omhoog. 3DFX heeft wel wat harder geconcurreerd op prijs dan Nvidia en AMD, terwijl zij juist meer in OEM zaten.

Mijn punt is echter dat de top chips weldegelijk pokkeduur waren, de kans is echter groot dat je dat inderdaad niet hebt hoeven betalen omdat de concurrentie toen moordend was en de ontwikkeling bliksemsnel. Een nieuwe chip kwam op hoge MSRP binnen, om vervolgens binnen 6 maanden te kelderen (vaak naar minder dan de helft) omdat de volgende chip uit kwam.

Acties:
  • +4 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Anandtech: EVGA and NVIDIA To Split: EVGA Won’t Make Next-Gen NVIDIA Cards

Schijnbaar had EVGA 40% vd markt in Noord Amerika. Zal nvidia dit zelf naar zich toe gaan trekken via FE of toch overlaten aan de resterende AIB's. ?

'All of this, in turn, is making vertical integration look more and more appealing. While the AIBs in one form or another have played pivotal roles in the video card market since the dawn of the PC era, offering retail reach and support that the GPU vendors didn’t have or didn’t want to bother with, the actual value they add is, unfortunately, diminishing. Video cards are becoming so complex that, especially at the high end, the best move may very well be to stick with the reference designs. All of which further reduces the value (and uniqueness) AIBs can provide.'

Ik heb echt veel liever mijn huidige ASUS 3080 dan de FE editie. Dus bovenstaande conclusie/mening zie ik nog niet echt.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 09:35
Help!!!! schreef op zondag 18 september 2022 @ 15:49:
Anandtech: EVGA and NVIDIA To Split: EVGA Won’t Make Next-Gen NVIDIA Cards

Schijnbaar had EVGA 40% vd markt in Noord Amerika. Zal nvidia dit zelf naar zich toe gaan trekken via FE of toch overlaten aan de resterende AIB's. ?

'All of this, in turn, is making vertical integration look more and more appealing. While the AIBs in one form or another have played pivotal roles in the video card market since the dawn of the PC era, offering retail reach and support that the GPU vendors didn’t have or didn’t want to bother with, the actual value they add is, unfortunately, diminishing. Video cards are becoming so complex that, especially at the high end, the best move may very well be to stick with the reference designs. All of which further reduces the value (and uniqueness) AIBs can provide.'

Ik heb echt veel liever mijn huidige ASUS 3080 dan de FE editie. Dus bovenstaande conclusie/mening zie ik nog niet echt.
Dit dus. En we zullen dan veel variatie kwijtraken en nog weer minder optie's qua behuizingen en dergelijke. Of er komt een hele nieuwe markt van custom cooling optie's beschikbaar waarbij de gebruiker de (betere) koeler zelf installeert zoals nu al gebruikelijk met is met custom waterkoeling.

Wie goed doet, die goed ontmoet.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Help!!!!

De grap is natuurlijk ook dat Nvidia de AIBs steeds meer is gaan behandelen als franchisers, die precies de formule van Nvidia moeten volgen. Ze kunnen dan inderdaad steeds minder waarde toevoegen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Ja, alleen dat is niet de reden die Ryan Smith geeft. Hij geeft als reden de toegenomen complexiteit van (high-end) gpu's.

De AIB oplossingen high-end oplossingen zijn iha juist beter ondanks de toegenomen complexiteit vd GPUs. Wat wel erg lastig is voor de AIB's is het gebrek aan tijdige info, drivers etc.

[ Voor 3% gewijzigd door Help!!!! op 18-09-2022 17:30 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op zondag 18 september 2022 @ 15:49:
Anandtech: EVGA and NVIDIA To Split: EVGA Won’t Make Next-Gen NVIDIA Cards

Schijnbaar had EVGA 40% vd markt in Noord Amerika. Zal nvidia dit zelf naar zich toe gaan trekken via FE of toch overlaten aan de resterende AIB's. ?

'All of this, in turn, is making vertical integration look more and more appealing. While the AIBs in one form or another have played pivotal roles in the video card market since the dawn of the PC era, offering retail reach and support that the GPU vendors didn’t have or didn’t want to bother with, the actual value they add is, unfortunately, diminishing. Video cards are becoming so complex that, especially at the high end, the best move may very well be to stick with the reference designs. All of which further reduces the value (and uniqueness) AIBs can provide.'

Ik heb echt veel liever mijn huidige ASUS 3080 dan de FE editie. Dus bovenstaande conclusie/mening zie ik nog niet echt.
Komt bij dat Nvidia zichzelf de vrijheid geeft om met een behoorlijk complex en duur ontwerp te komen terwijl de AIB partners dit niet kunnen betalen. Dat het resultaat van een Nvidia FE op haar best "redelijk" is, zegt ergens ook wel iets. Het is beter dan de meeste "goedkope" videokaarten die gedwongen op MSRP verkocht moeten worden, maar een beetje AIB model is al snel beter. Dat is eigenlijk ook al een tijdje iets dat Nvidia stiekem doet. MSRP is vaak helemaal niet zo goed. Nee je moet ook extra betalen voor een fatsoenlijke videokaart omdat er geen marges meer zijn.

Daarnaast heb je alsnog te maken met transient response omdat er alsnog iets niet goed zit met PCB ontwerpen en/of de GPU zelf. Ook wil ik opmerken dat ASUS, MSI, Gigabyte en ook EVGA moederborden ontwikkelen en dus echt wel wat kunnen als het om PCB ontwerp gaat. Waarschijnlijk niet minder dan wat Nvidia zelf kan doen. Qua koeloplossingen kunnen sommigen van die het ook zeker beter dan Nvidia...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 14-09 14:03

CMT

Dennism schreef op zondag 18 september 2022 @ 10:27:
[...]


Dat is dan natuurlijk ook niet direct een eerlijke vergelijking, zou dat je dat willen vergelijken zou je moeten kijken naar de omzetten en marge's van Apples chip divisie voor deze intern verkocht worden aan de andere afdelingen. Maar zelfs dan zal het denk ik geen 100% eerlijke vergelijking zijn, omdat een deel van Nvidia's marge komt uit datacenter producten die de marge normaal gesproken enorm stuwen als je ze vergelijk met consumenten producten. En Apple heeft geen datacenter producten in haar chip mix. Verder dan de workstation markt komen ze (nog) niet.

Apple als geheel zal al snel lagere marges hebben om ze ook businesses hebben waar de marges sowieso lager liggen. Maar dan nog is 44%, gezien de markten waarin Apple zit, enorm hoog.
Dat is ook wel zo, maar het geeft wel aan dat ze héél dik verdienen. In andere bedrijfstakken worden ook niet zulke hoge bruttowinsten behaald (nou ja, farmaceuten lijken mij nog erger dan Nvidia wat dat betreft).
Misschien is AMD een betere tegenhanger met haar groot aandeel in datacenter cpu's: https://www.macrotrends.n...arts/AMD/amd/gross-margin.
Een bruttowinst van 48% is ook heel hoog imho. Maar nog altijd ca. 15% minder dan Nvidia.

Het is ook frappant om te zien hoe veel Nvidia geprofiteerd heeft van de 1e cryptoboom en corona + 2e cryptoboom: https://www.macrotrends.n.../NVDA/nvidia/gross-margin

Maar goed het is duidelijk waar het naartoe gaat. Een kwestie van wanneer andere AIB er ook genoeg van hebben en mocht het helemaal 'verappelt' zijn, wanneer consumenten eindelijk eens durven nee te zeggen door niet te kopen.

Edit:
Ok, ik had wat verder moeten rondkijken. Bij Intel was het net zo erg tijdens de dominantieperiode: https://www.macrotrends.n...s/INTC/intel/gross-margin. Wat goede concurrentie allemaal doet.
DaniëlWW2 schreef op zondag 18 september 2022 @ 17:56:
[...]


Komt bij dat Nvidia zichzelf de vrijheid geeft om met een behoorlijk complex en duur ontwerp te komen terwijl de AIB partners dit niet kunnen betalen. Dat het resultaat van een Nvidia FE op haar best "redelijk" is, zegt ergens ook wel iets. Het is beter dan de meeste "goedkope" videokaarten die gedwongen op MSRP verkocht moeten worden, maar een beetje AIB model is al snel beter. Dat is eigenlijk ook al een tijdje iets dat Nvidia stiekem doet. MSRP is vaak helemaal niet zo goed. Nee je moet ook extra betalen voor een fatsoenlijke videokaart omdat er geen marges meer zijn.

Daarnaast heb je alsnog te maken met transient response omdat er alsnog iets niet goed zit met PCB ontwerpen en/of de GPU zelf. Ook wil ik opmerken dat ASUS, MSI, Gigabyte en ook EVGA moederborden ontwikkelen en dus echt wel wat kunnen als het om PCB ontwerp gaat. Waarschijnlijk niet minder dan wat Nvidia zelf kan doen. Qua koeloplossingen kunnen sommigen van die het ook zeker beter dan Nvidia...
De complexiteit's argument is een gewoon kul en Nvidia marketing praat.
Alsof AIB's plotseling niet meer weten hoe ze een fatsoenlijke stroomvoorziening en pcb voor communicatie van de diverse onderdelen moeten ontwerpen. Dat EVGA haar eigen moederborden ontwerpt, zegt genoeg over de kunde. Bij het ontwerpen speelt vaak het KISS principe (keep it stupid, simple) om de kosten te drukken en onnodige complexiteit te vermijden. Iets wat simpel is en werkt / voldoet, is vaak ook goedko(o)p(er)
Complexiteit is meer een teken van hoeveel geld je bereid bent er tegenaan te gooien.

[ Voor 3% gewijzigd door CMT op 19-09-2022 00:16 ]


Acties:
  • +1 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 14-09 07:40

SG

SG surft naar info hardewaren

Als de marges krap worden zal uiteindelijk wel een AIB kosten besparing op PCB en BOM
En koeler. En de kans op RMA vergroten. Garantie afhandelingen ook strenger kunnen zijn.
Denk ook dat nVidia niet in huidige markt flink de prijzen kan verhogen. En dus zelf meer op Founders edition zet. AIB het zwaar krijgen met die nextgen. Ik zou net als de 30 serie ook release kwaliteit problemen verwachten vooral met marge probleem wat AIB hebben. Dacht ook dat founder edition deze problemen niet hadden maar al bij de 30 series was de marge laag voor AIB. Gezien zij zelden een RTX3080 / RTX3090 in de Founders edition prijs klasse aanboden.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • feebl
  • Registratie: November 2019
  • Laatst online: 14-08 12:53
Er is een twitch-stream de lucht in gegaan met een countdown timer. Presentatie van de 40xx serie kaarten?

https://www.twitch.tv/nvidia

Nog 1 dag, 7 uur en 25 minuten. 20 september 17:00 dus.

[ Voor 17% gewijzigd door feebl op 19-09-2022 09:35 ]


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
feebl schreef op maandag 19 september 2022 @ 09:34:
Er is een twitch-stream de lucht in gegaan met een countdown timer. Presentatie van de 40xx serie kaarten?

https://www.twitch.tv/nvidia

Nog 1 dag, 7 uur en 25 minuten. 20 september 17:00 dus.
Ja, dat is de GTC keynote. Het is vrijwel zeker dat in elk geval de 4090 daar wordt aangekondigd.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

CMT schreef op zondag 18 september 2022 @ 23:43:
Dat is ook wel zo, maar het geeft wel aan dat ze héél dik verdienen. In andere bedrijfstakken worden ook niet zulke hoge bruttowinsten behaald (nou ja, farmaceuten lijken mij nog erger dan Nvidia wat dat betreft).
Misschien is AMD een betere tegenhanger met haar groot aandeel in datacenter cpu's: https://www.macrotrends.n...arts/AMD/amd/gross-margin.
Een bruttowinst van 48% is ook heel hoog imho. Maar nog altijd ca. 15% minder dan Nvidia.

Het is ook frappant om te zien hoe veel Nvidia geprofiteerd heeft van de 1e cryptoboom en corona + 2e cryptoboom: https://www.macrotrends.n.../NVDA/nvidia/gross-margin

Maar goed het is duidelijk waar het naartoe gaat. Een kwestie van wanneer andere AIB er ook genoeg van hebben en mocht het helemaal 'verappelt' zijn, wanneer consumenten eindelijk eens durven nee te zeggen door niet te kopen.

Edit:
Ok, ik had wat verder moeten rondkijken. Bij Intel was het net zo erg tijdens de dominantieperiode: https://www.macrotrends.n...s/INTC/intel/gross-margin. Wat goede concurrentie allemaal doet.
Marges op CPU's zijn altijd zeer hoog. Het zijn meestal kleinere chips dan GPU's, volumes zijn enorm en niemand kan om ze heen voor wat voor computer dan ook. Marges in de tientallen procenten zijn normaal. Moet wel gezegd worden dat zeker een x86-64 CPU behoorlijk complex is. Zelfs als die licenties vrij verkrijgbaar zouden zijn, dan alsnog zijn er waarschijnlijk maar weinig bedrijven die werkelijk goede CPU's ermee kunnen maken. Ze ontwikkelen is dan ook niet goedkoop. Maar als je naar de trend van AMD kijkt, dan zie je ook hoe enorm veel ze er op verdienen. Het is denk ik geen toeval dat ze hun GPU verdiensten ergens hebben weggestopt tussen de inkomsten uit de CPU's. Ik vermoed dat ze daar veel minder verdienen en niet willen dat investeerders vragen gaan stellen of ze hier nog door mee moeten gaan i.p.v. meer CPU's.

En qua GPU's speelt ook mee dat Ampere stiekem weer veel duurder was dan Turing. Bijna elke tier ging in prijs omhoog. En die ene die nog redelijk leek, de RTX3080 tja daar heeft Nvidia er wel voor gezorgd dat er weinig chips overbleven voor die bin en zijn de prijzen stiekem ook hoger geweest dan MSRP. Dat EVGA aangaf dat ze ook verlies maken op de RTX3080 zegt ook alles.
[...]

De complexiteit's argument is een gewoon kul en Nvidia marketing praat.
Alsof AIB's plotseling niet meer weten hoe ze een fatsoenlijke stroomvoorziening en pcb voor communicatie van de diverse onderdelen moeten ontwerpen. Dat EVGA haar eigen moederborden ontwerpt, zegt genoeg over de kunde. Bij het ontwerpen speelt vaak het KISS principe (keep it stupid, simple) om de kosten te drukken en onnodige complexiteit te vermijden. Iets wat simpel is en werkt / voldoet, is vaak ook goedko(o)p(er)
Complexiteit is meer een teken van hoeveel geld je bereid bent er tegenaan te gooien.
Wat ik eigenlijk zei is dat ik vermoed dat sommige partners het beter kunnen dan Nvidia. Nvidia referentie PCB's zijn nooit echt goed. Het is meestal niet meer dan afdoende en inmiddels kan je daar ook vraagtekens bij stellen na de RTX30 series. De belachelijke transient responses zijn niet bepaald fraai en ik plaats nog steeds twijfels bij de RTX3090 waarbij de helft van de VRAM aan de andere kant van het PCB zit zonder fatsoenlijke koeling. Ik zou ook nooit iemand die kijkt naar een ex miningkaart, een RTX3090 aanraden. RTX3090Ti heeft dat probleem niet meer omdat er inmiddels ook 16Gb GDDR6X chips zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Igor heeft er een iets andere blik op het EVGA verhaal.

Tja hij is niet erg verbaast dat EVGA ermee stopt. Hij typeert EVGA als een kleine speler zonder eigen productiecapaciteit die hierom rond de 5% marges zat. De grote spelers met hun eigen productiefaciliteiten zouden rond de 10% zitten en die redden het wel. Ook worden EVGA hun extra programma's door andere AIB's beschreven als "zelfmoord". Ook is EVGA zeker niet zonder technische fouten in hun producten. Die zijn er ook zeker. Laatste is dat Igor blijkbaar ook wat ervaringen met EVGA heeft gehad en een tijdje geen review samples kreeg.
https://www.igorslab.de/e...-has-long-been-editorial/

Tweede is dit al wat oudere artikel over het er soms aan toegaat. Alles van Nvidia Green Light, AMD die AIB partners beschermen alsmede verdelen waar welke partner iets verkoopt alsmede niet officiële videokaartproducten blokkeert, het stappenplan hoe een GPU naar een partnermodel videokaart ontwikkeld word etc.
https://www.igorslab.de/e...sights-behind-the-scenes/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
DaniëlWW2 schreef op maandag 19 september 2022 @ 10:04:
Marges op CPU's zijn altijd zeer hoog. Het zijn meestal kleinere chips dan GPU's, volumes zijn enorm en niemand kan om ze heen voor wat voor computer dan ook.
Voorbeeldje voor diegenen die niet beseffen hoe veel kleiner:

Een Zen 3 CCD is 80,7mm², I/O die is 125mm². Bij Zen 2 was dat 74 en 124. Een 8-core Zen 1 (1700, 1800) was 213mm².

Bij GPU's gaat het dan echt al over "bottom of the barrel" chips. TU117 (1650) was 200mm², GA106 276mm². Je moet al terug naar Pascal voor kleiner, GP107 was 132mm².

Dus hoewel AMD voor bijvoorbeeld een 5900X wel 2 CCD's en een I/O die nodig heeft, heb je het dan alsnog over slechts zo'n 285mm² aan wafer oppervlak dat ze kwijt zijn. Minder dan GP104, TU106 (!) en ongeveer even veel als die GA106 hierboven dus.

Uit één wafer krijgt AMD tegen de 750 CCD's, of tegen de 475 I/O dies. Zelfs van zoiets als GA106 krijgt Nvidia tegen de 210 stuks uit een wafer.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:31
@DaniëlWW2, de FE board ontwerpen zijn de laatste jaren toch gewoon goed, dus ze kunnen het wel. Wat betreft koelers, design over functie, maar ik ken wel meer merken die dat doen. :+

[ Voor 43% gewijzigd door Paprika op 19-09-2022 11:54 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op maandag 19 september 2022 @ 11:30:
[...]

Voorbeeldje voor diegenen die niet beseffen hoe veel kleiner:

Een Zen 3 CCD is 80,7mm², I/O die is 125mm². Bij Zen 2 was dat 74 en 124. Een 8-core Zen 1 (1700, 1800) was 213mm².

Bij GPU's gaat het dan echt al over "bottom of the barrel" chips. TU117 (1650) was 200mm², GA106 276mm². Je moet al terug naar Pascal voor kleiner, GP107 was 132mm².

Dus hoewel AMD voor bijvoorbeeld een 5900X wel 2 CCD's en een I/O die nodig heeft, heb je het dan alsnog over slechts zo'n 285mm² aan wafer oppervlak dat ze kwijt zijn. Minder dan GP104, TU106 (!) en ongeveer even veel als die GA106 hierboven dus.

Uit één wafer krijgt AMD tegen de 750 CCD's, of tegen de 475 I/O dies. Zelfs van zoiets als GA106 krijgt Nvidia tegen de 210 stuks uit een wafer.
Zen 2/3/4 is natuurlijk ook wel een extreem voorbeeld. De APU's van AMD alsmede menig Intel CPU zit alsnog rond de 200mm2 op dure nodes. Maar het is nog steeds niks vergeleken met menig GPU. :)

offtopic:
En dat is ook meteen waarom RDNA3 me zo intrigeert. N33 als een 200mm2 chip op N6 die "Navi 21 niveau prestaties" zou doen, zou echt spectacular zijn. Een dergelijke chip met 50% marge kan rond of zelfs nog onder de $50 uitkomen. Eindproduct kan zeker onder de $400 blijven. Idem voor een N32 met 200mm2 (N5) + 4x 38mm2 (N6) die met 50% marge nog rond de $150 kan zitten. Je zit hier net boven monolithische CPU formaten en het zou gaan over serieuze prestatiepunten gaan.
Paprika schreef op maandag 19 september 2022 @ 11:49:
@DaniëlWW2, de FE board ontwerpen zijn de laatste jaren toch gewoon goed, dus ze kunnen het wel. Wat betreft koelers, design over functie, maar ik ken wel meer merken die dat doen. :+
Daar ben ik het ook niet helemaal mee eens. Het GA102 FE PCB was netjes. maar het referentiebord voor de AIB's leende zich wel heel erg voor uitkleden en dat gebeurde dan ook meteen. Bij AMD zit er vervolgens wel de moeite in de PCB's zodat je geen 500W+ transient spikes krijgt. Die houden het tot circa 50% over TBP rating. En dat lijkt daar ook een verplichte specificatie te zijn.

Qua koelers is het gewoon een puinzooi ja. :P
Mijn voorkeur voor AMD hangt inmiddels voor een aardig deel op Sapphire. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op maandag 19 september 2022 @ 11:30:
Hij typeert EVGA als een kleine speler zonder eigen productiecapaciteit die hierom rond de 5% marges zat.
40% van de markt in NA is niet bepaald klein.
Ook worden EVGA hun extra programma's door andere AIB's beschreven als "zelfmoord".
Ik zou de mening van de concurrenten niet per se vertrouwen. Extra kosten hoeft op zich geen probleem te zijn als het product zo'n goed reputatie krijgt dat ze meer kunnen vragen.

Maar deze argumenten lijken ervan uit te gaan dat EVGA stopt vanwege financiële redenen, maar volgens henzelf is dat niet het geval.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op maandag 19 september 2022 @ 12:51:
[...]


40% van de markt in NA is niet bepaald klein.
40% DIY markt. Dat is dus veel kleiner dan je denkt. Laptops, OEM en system integrator desktops zitten er niet tussen.
Ik zou de mening van de concurrenten niet per se vertrouwen. Extra kosten hoeft op zich geen probleem te zijn als het product zo'n goed reputatie krijgt dat ze meer kunnen vragen.

Maar deze argumenten lijken ervan uit te gaan dat EVGA stopt vanwege financiële redenen, maar volgens henzelf is dat niet het geval.
Het punt is juist dat EVGA zichzelf wou onderscheiden met betere en unieke producten en dit niet kon doen door Nvidia. Die dicteren namelijk de prijzen en knijpen AIB's uit. Betrouwbaarheid staat daar overigens los van. Ook komt zeker het idee naar voren dat Nvidia alsmede resterende partners, weinig interesse hebben in klantvriendelijkheid en/of ondersteuning. Want met EVGA vertrekt eigenlijk de laatste die nog een goede reputatie had. Wat nu rest zijn meer de grote dozenschuiven en als ik zie wat voor rommel er vaak in die dozen zit, tja dan ben ik ook niet erg verbaast met die houding. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:58
Ludewig schreef op maandag 19 september 2022 @ 12:51:
[...]


40% van de markt in NA is niet bepaald klein.
Volgens mij is dat genuanceerd naar 40% van de DiY markt en dan alleen het door Nvidia bezette segment van de markt dus niet eens de hele markt.
Ludewig schreef op maandag 19 september 2022 @ 12:51:
en.

Maar deze argumenten lijken ervan uit te gaan dat EVGA stopt vanwege financiële redenen, maar volgens henzelf is dat niet het geval.
Ze geven daar de dooddoener 'wil meer tijd met familie besteden' normaal gesproken een eufemisme in de zakelijke wereld voor 'we willen niet dat de buitenwereld de echte reden komt te weten'. Het zou bijvoorbeeld dus ook mogelijk zijn dat er NDA's in het spel zijn binnen de breuk over de werkelijke toedracht, waarbij kosten en marge, en uiteindelijk dus geld een voorname reden lijkt te zijn als je alle berichtgeving ontleed tot nu toe. Maar dat ze simpelweg hebben afgesproken met deze dooddoener te komen.

[ Voor 54% gewijzigd door Dennism op 19-09-2022 13:43 ]


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

Dit hele debacle is voor mij weer bevestiging dat het heel goed is dat Nvidia niet ARM heeft kunnen kopen.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Werelds schreef op zaterdag 17 september 2022 @ 15:14:
[...]
Wat ik dus bedoel met N4 = "4nm" en 4N = "5nm" is dat N4 een andere PDK gebruikt dan N5(P) en dat de dichtheid iets hoger kan dan met N5(P). 4N zoals in Nvidia's marketing daarentegen is vrijwel zeker een 5nm "class" procedé en gebruikt de N5(P) PDK. Nogmaals: het zou best kunnen dat Nvidia's "4N" daadwerkelijk gebaseerd is op TSMC's N4, maar het is extreem onwaarschijnlijk omdat ze dan ruimschoots de eerste zouden zijn, wat nog nooit eerder is gebeurd.
Ok, gesteld dat zowel N4 als 4N zouden bestaan, dan nog vind ik je indeling 4 nm en 5 nm te streng: de ene zou dan een half node (4nm) van dezelfde familie zijn als de volledige node (5nm) zou zijn. Je mag ze dus best bij elkaar gooien op dezelfde hoofdnode (5nm) of node familie. Verschillende processen, ok, maar zelfde node familie.
Werelds schreef op zaterdag 17 september 2022 @ 15:14:
Aha, ok, nu snap ik het. Maar je neemt aan dat dat bij N5 niet bestaat omdat het niet in de tabel staat? Dat is enkel omdat die cijfers nergens publiekelijk terug te vinden zijn en er nog niemand de daadwerkelijke specs gelekt heeft zoals bij N7 (dat is daar op echte PDK's gebaseerd ;)). N5 heeft weldegelijk gewoon HD+HP varianten (LV waarschijnlijk ook wel). Staat overigens ook op wikichip, maar dan moet je de tekst lezen, ze hebben het niet in de tabellen ingevuld omdat de exacte specs niet bekend zijn.
Mmm, dat maakt het wel moeilijk om uitspraken van bedrijven zoals Nvidia te kunnen toetsen. 4N is in ieder geval nergens bij TSMC terug te vinden, maar het zou dus kunnen bestaan zeg je. Het is nog niet gelekt.
Werelds schreef op zaterdag 17 september 2022 @ 15:14:
Waar je het vervolgens vandaan haalt dat workstation kaarten HD zouden gebruiken weet ik niet. Nogmaals: die chips verschillen helemaal niet qua dichtheid. A100 en H100 kunnen we (nog) niet vergelijken omdat dat Samsung vs. TSMC is, maar alles daarvoor was gewoon dezelfde dichtheid omdat het ook gewoon dezelfde chips waren. Ze kunnen een chip niet met zowel HD als HP produceren, dat werkt niet :p
Ik zocht een verklaring voor het verschil in dichtheid, maar het meeste daarvan is terug te vinden in de verschillende ontwerp densities. HD wordt meer gebruikt bij smartphones e.d. als ik me niet vergis. Gamer en professionele kaarten kunnen gewoon wel op dezelfde node (en PDK) gemaakt worden, even los van bij welke volledige node of bij welke half node je het proces vindt horen.
Werelds schreef op zaterdag 17 september 2022 @ 15:14:
N4P is weldegelijk gedefiniëerd: https://pr.tsmc.com/english/news/2874
Het procesfamilie stuk heb ik hierboven al uitgelegd.
Ja, nu nog 4N. Je weet niet dat 4N = "5 nm", want de PDK is nog niet gelekt en 4N ook niet bevestigd door TSMC. Alleen N4 hebben ze benoemd als een halfnode (4 nm).
Werelds schreef op vrijdag 16 september 2022 @ 10:45:
#1: Heb het al eerder gezegd, maar het is 4N, niet N4. Die laatste is een stap ná N5 en weer een lichte verbetering. N4 = "4nm", 4N = "5nm". De enige die N4 gaat gebruiken is Apple, met de A16.
Het zou dus nog best kunnen dat N4="4nm", 4N="4nm". We weten het gewoon nog niet van 4N.
En dan nog gooi ik ze allebei met gerust hart op de "5 nm" hoop. Zelfde laser, zelfde spiegels, zelfde lenzen. Andere materialen en afstelling, ok, maar zelfde hoofd node familie.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Nu online

rapture

Zelfs daar netwerken?

meljor schreef op zondag 18 september 2022 @ 11:17:
Evga ziet gewoon kansen. Ze kregen een sample van een 4090 met weer nieuwe power connectors en een max. Boardpower van 600w!

Vervolgens zagen ze de "leaks" van Raptor lake met een "unleashed" power van 340w!

No way dat die 4090 veel verkocht gaat worden dachten ze, maar iedereen die er WEL eentje koopt heeft hoe dan ook een 1,5kw psu nodig!

En een hittebestendig moederbord met zelfblusfunctie....
Met Zen 3 en een RTX 3080 of 6800XT kan je nu nog met 850 W voeding wegkomen. Straks is het inderdaad 1,6 kW EVGA voeding (vanaf 199 dollar).

En ze hebben nog een jaar aan huidige generatie GPU's om hun personeel tijdens de overgangsperiode bezig te houden.
DaniëlWW2 schreef op zondag 18 september 2022 @ 13:05:
[...]

Dat was het al jaren als je naar Nvidia hun kwartaalcijfers keek. ;) :P
Maar hierom ben ik ook zo benieuwd wat er de komende maanden gaat gebeuren. Want Nvidia heeft op zijn zachts gezegd wat problemen in aantocht zoals: Waarschijnlijk aardig richting 3x prijs per wafer, problematische macro-economische omstandigheden, de realisatie dat de $2000 RTX3090Ti eigenlijk verkrijgbaar was omdat zowel gamers als miners dat te belachelijk vonden en het vermoeden dat ze ditmaal het heel erg zwaar gaan krijgen in high end en nu ook niet meer het voordeel hebben dat hun chips waarschijnlijk goedkoper te produceren zijn dan die van AMD.
Dat wordt een interessante veldslag in de high-end. AMD levert ook meer performance per Watt en de gamers kunnen 200 dollar aan voedingupgrade uitsparen. Nvidia duwt helemaal tegen de limiet van de Amerikaanse stopcontacten. 120V * 15A = 1800W. Dit is waarom Europese waterkokers met meer vermogen sneller werken dan de Amerikaanse. Om nu een groep voor een lasapparaat naar je bureau aan te leggen.

Afbeeldingslocatie: https://i0.wp.com/makezine.com/wp-content/uploads/2016/10/figure_4.jpg?resize=620%2C320&ssl=1
Oh en cryptomining, nou dat is helemaal klaar. Zoals te verwachten viel, stortte de 900+ TH/s al snel in naar nul. Vervolgens probeerde iedereen over te stappen op andere PoW coins die letterlijk in enkele uren compleet instortte in winstgevendheid door de gigantische hoeveelheid hardware. Zelfs als je op een of andere manier het voor elkaar krijgt om maar $0,1kWh te betalen, maak je alsnog fors verlies. En die verliezen worden met de dag groter. :z

En om het in perspectief te plaatsen. Als ik die 900TH/s omreken naar 55MH/s voor een RTX3060Ti, tja dan zit ik over de 16 miljoen videokaarten. Natuurlijk is er van alles in gebruik voor mining, zowel sneller als langzamer, maar ik denk dat ruim 10 miljoen videokaarten wel een voorzichtige schatting is. Die gaan onherroepelijk op de markt komen omdat ze nu waardeloos zijn voor mining. Dat is zo'n gigantisch aantal dat de DIY markt het waarschijnlijk niet eens kan verwerken als mensen zich geen zorgen hoefde te maken over de energierekening en inflatie.

Ik ben dus zeer benieuwd of de arrogantie bij Nvidia gaat blijven dat ze 60%+ marges willen hebben op hun GPU's. AD102 zal zeer duur worden om te maken, maar het is de vraag of mensen nog meer prijsverhogingen willen of kunnen betalen. AD103 presteert waarschijnlijk ook beter dan de tweedehands mining kaarten, maar de vraag is of het prijsverschil niet al te groot zal zijn. AD104 zie ik niet beter presteren dan GA102. Die krijgt dus met de realiteit te maken. Nog een reden waarom ik een AD104 based "RTX4080" echt pure waanzin zou vinden. AD106/AD107 zijn kleinere chips die waarschijnlijk beter tot hun recht komen in laptops dan de aankomende videokaartenmarkt. Die gaan dan ook voorlopig niet verschijnen in de DIY markt denk ik zo.
De combinatie van een jaar aan huidige generatie GPU's op voorraad en 10 miljoen grafische kaarten in de tweedehandsmarkt zorgt ervoor dat next-gen mid-end niet vroeger dan zomer volgend jaar uitgebracht wordt.

AMD kan hieraan ontsnappen, meer performance per Watt dan Intel en Nvidia zorgt ervoor dat AMD een voorsprong in de laptopmarkt heeft. Er kan meer CPU en/of GPU performance uit 15 tot 28 W, 35 tot 45 W of 55+ W vermogen gehaald worden. Tot nu toe kan je naar de AMD-laptop reviews kijken, maar niet kopen wegens te weinig productiecapaciteit toewijzen. Niemand stopt een tweedehandse GPU in een laptop en het nut van AMD's diversificatiestrategie wordt weer bewezen.


Afbeeldingslocatie: https://tweakers.net/i/Hr6Ppa2_Rc8JPtmLKFhdMf6AH-8=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/wgkLtDJCEWAMjxWOahCcK3hu.jpg?f=user_large

Geef de miners en Nvidia half jaar tijd om door de 5 fasen van de rouw te gaan.

De prijsonderhandelingen moet nog beginnen. In een markt heb je de bied-zijde en de laat-zijde. Nvidia en AMD zullen next-gen high-end tijdens de feestdagen (Thanksgiving, Sinterklaas en Kerstmis) aanbieden met een zo hoog mogelijke laat/ask en kijken hoeveel mensen toehappen, hoeveel volume dat erdoor gedraaid wordt,...

Dit is de laatste keer dat de mensen nog geld over de balk kunnen smijten. De reissector heeft laten weten dat de mensen dit jaar extra luxe bijbestelden (meer dan voor de Corona) en de horeca heeft een goede zomer (het record van 2019 verbroken). Een ouderwetse Kerst en Nieuw moet nog uitbundiger dan voor de Corona gevierd worden.

Na nieuwjaar is het geld op en het is tijd om schulden af te betalen of nog dieper in de schulden te gaan. De seizoenen in het jaar bepaalt de drukte in de winkels en verkoopcijfers. In Q4 kunnen de verkopers het jaar nog goed maken en in Q1 staan ze in lege winkels.

Na een slechte eerste kwartaal of maand volgend jaar zal Nvidia de prijzen moeten verlagen om de verkoopcijfers op te drijven. Hoge prijs * weinig volume = te weinig omzet en cashflow om het bedrijf draaiend te houden. De prijzen moeten dermate laag gezet worden, dat de mensen weer grafische kaarten kopen in voldoende grote volume.

Bij te weinig volume storten de prijzen voor alle componenten (dat je op een printplaat kan solderen) in elkaar. Chipindustrie, PC hardware,... zijn cyclische industrieën zoals de scheepvaart, luchtvaart,... De scheepvaartbeleggers zeggen dat enkele schepen te weinig is champagne en enkele schepen teveel is huilen. De chiptekort was veroorzaakt door 25% meer vraag.

Hoe hard kan de macro-economie de GPU-prijzen drukken?
Holiday 2008 GPU Guide: Price Cuts Galore
by Derek Wilson on December 18, 2008 12:00 AM EST
Afbeeldingslocatie: https://tweakers.net/i/iLZ97aLT_BzH694_yphtkUdjphw=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/3yvzD3avSvTzJZNzFaQC6gPC.jpg?f=user_large
https://www.anandtech.com/show/2689/6
Release date: June 17, 2008
MSRP: $650 (dropped to $430 after 3 months[52])
6 maanden na de release was de snelste GPU op de helft van MSRP te koop. 3 maanden na de release was 1/3 van de MSRP eraf gegaan.

3 maanden na midden november 2022 is midden februari 2023, dan hebben ze de slechte januari verkoopcijfers gezien en moeten de prijzen verlagen om de omzet en cashflow in het eerste kwartaal te redden.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:31
De GTX 280 prijsdrop was nodig door de 4870, niet door de aantallen die verkocht werden in de eerste 2.5 maanden.

[ Voor 23% gewijzigd door Paprika op 19-09-2022 23:47 ]


Acties:
  • 0 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Nu online

rapture

Zelfs daar netwerken?

Paprika schreef op maandag 19 september 2022 @ 23:47:
De GTX 280 prijsdrop was nodig door de 4870, niet door de aantallen die verkocht werden in de eerste 2.5 maanden.
De jaarovergang tussen 2008 en 2009 zorgde voor 20% minder goederen dat door de Antwerpse haven ging en in bepaalde delen van de haven ging het aantal containers met de helft naar beneden.

Het was economische zware tijden dat invloed op alles heeft.

Een GTX 280 is 24% sneller dan een 4870. Voor extra performance kan een stevige premium aangerekend worden, tenzij als de mensen te arm voelen en in het algemeen is de consumptie in het land sterk gedaald.

[ Voor 17% gewijzigd door rapture op 20-09-2022 00:03 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:31
De historische grafiekjes over hun omzet zijn het niet met je verhaal eens, maar laten we vooral de haven van Antwerpen aanhouden als de benchmark.

Afbeeldingslocatie: https://miro.medium.com/max/1206/1*Mi0YwXqea2ErO4Iowgr_rg.png

[ Voor 6% gewijzigd door Paprika op 20-09-2022 00:03 ]


Acties:
  • 0 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Nu online

rapture

Zelfs daar netwerken?

Paprika schreef op dinsdag 20 september 2022 @ 00:03:
De historische grafiekjes over hun omzet zijn het niet met je verhaal eens, maar laten we vooral de haven van Antwerpen aanhouden als de benchmark.

[Afbeelding]
De year on year drop in revenue tussen 2008 en 2009 is duidelijk te zien in je grafiek.

Een rood kader errond gezet voor het geval dat je het niet kan zien.

Afbeeldingslocatie: https://tweakers.net/i/oPp1fi5bHUxCG0691v1LHYUINu0=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/iI1t1j2iiMAqAm7plibTZtGW.jpg?f=user_large

Acties:
  • 0 Henk 'm!

  • PP_Sound
  • Registratie: Januari 2021
  • Niet online
rapture schreef op maandag 19 september 2022 @ 22:57:

Met Zen 3 en een RTX 3080 of 6800XT kan je nu nog met 850 W voeding wegkomen. Straks is het inderdaad 1,6 kW EVGA voeding (vanaf 199 dollar).
Dat is een beetje overdreven een RTX 3080 en 6800XT werken zonder probleem op een 750W Seasonic gold met een Intel 14 core 9940x , 4 x SSD, 2x HD en 7 fans en AOI pomp.
6900XT was op het randje en 3090 lukte alleen met undervolt.

[ Voor 6% gewijzigd door PP_Sound op 20-09-2022 00:10 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12:31
rapture schreef op dinsdag 20 september 2022 @ 00:06:
[...]

De year on year drop in revenue tussen 2008 en 2009 is duidelijk te zien in je grafiek.

Een rood kader errond gezet voor het geval dat je het niet kan zien.
2005: GF7-series
2006: GF8-series (die heel succesvolle reeks)
2008: GF9-series & 200-series
2010: een veel te laat uitgekomen (en slecht uitgevoerde) 400-series

AMD komt na jaren eindelijk met een antwoord (de 4870) en er is net iets minder revenue. Ieder artikel uit 2008 en de prijzen gaat toch echt over de 4870 release. Niet heel toevallig dat de prijzen draaien wanneer AMD z'n kaarten uitbrengt.

https://www.techpowerup.c...x-price-cuts-now-official
https://www.cnet.com/scie...-260-280-graphics-boards/
https://hothardware.com/n...280-price-dropping-to-499

Zelfs het Tweakers bericht gaat erover nieuws: Nvidia verlaagt prijzen GTX 260 en GTX 280, maar prima, we negeren het maar gewoon, want het past niet in je verhaal. 8)7

[ Voor 6% gewijzigd door Paprika op 20-09-2022 00:16 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
sunsmountain schreef op maandag 19 september 2022 @ 21:24:
Ok, gesteld dat zowel N4 als 4N zouden bestaan, dan nog vind ik je indeling 4 nm en 5 nm te streng: de ene zou dan een half node (4nm) van dezelfde familie zijn als de volledige node (5nm) zou zijn. Je mag ze dus best bij elkaar gooien op dezelfde hoofdnode (5nm) of node familie. Verschillende processen, ok, maar zelfde node familie.
Niet mijn indeling, zo doet TSMC (en de rest van de industrie) dat :p

Als je het niet over 4nm "klasse" procedé's wil hebben, dan moet je het ook niet over "12nm" hebben, of "8nm". Dan moet je naar Intel's onzin met 14nm++++++++ enzo ;)

Sterker nog, dan moet je TSMC's 28nm ook 32nm noemen, want 28nm is een doorontwikkeling van 32nm, pakweg 15% compacter. Minder dan N6 ten opzichte van N7.

Je moet die namen niet al te letterlijk nemen, het wordt enkel gebruikt om aan te geven dat N4 compacter is dan N5, net zoals N6 dat is voor N7, 12FF voor 16FF, enzovoort. Het betekent dat een chip op N4/N6/12FF compacter is dan N5/N7/16FF. Of wellicht correcter gezegd: de maximale haalbare dichtheid op die eerste groep is hoger dan op die laatste groep.

Het grote punt is dat 4N een naam is die Nvidia geeft aan (hoogstwaarschijnlijk) N5 met wat aanpassingen voor hen. Het soort aanpassingen waar je dan aan moet denken is dat ze bijvoorbeeld bredere cellen gebruiken, wat meer performance geeft maar minder dichtheid. Dat is min of meer wat 12FFN was; die chips (Turing) hadden compacter moeten zijn dan 16FF (Pascal) maar waren juist iets mínder compact. Normaal gesproken zouden die bredere cellen voor een hoger verbruik zorgen, maar omdat ze dus op 12FF zaten was dat niet het geval.
Mmm, dat maakt het wel moeilijk om uitspraken van bedrijven zoals Nvidia te kunnen toetsen. 4N is in ieder geval nergens bij TSMC terug te vinden, maar het zou dus kunnen bestaan zeg je. Het is nog niet gelekt.
Nee, 4N gaat niet "aangeboden" worden door TSMC. Nogmaals: dat is vrijwel zeker hetzelfde als 12FFN - dat vind je ook nergens bij TSMC terug, maar is wel wat Nvidia zegt dat ze gebruiken. Die N in 12FFN staat voor "Nvidia" en dat is voor 4N 99,9% zeker ook het geval.

Kijk eens even verder: alles heet nu N<cijfer><suffix>, waarbij cijfer 3 t/m 7 is en de (optionele) suffix P (performance) of + (voor N7 met EUV ipv DUV) is. 4N past niet in dat rijtje ;)
Ik zocht een verklaring voor het verschil in dichtheid, maar het meeste daarvan is terug te vinden in de verschillende ontwerp densities. HD wordt meer gebruikt bij smartphones e.d. als ik me niet vergis. Gamer en professionele kaarten kunnen gewoon wel op dezelfde node (en PDK) gemaakt worden, even los van bij welke volledige node of bij welke half node je het proces vindt horen.
Yep. En dat is waarom Apple en Qualcomm zo veel hoger zitten qua dichtheid. Voor een GPU kan dat ook wel, maar dan gaan ze niet de kloksnelheden halen die ze willen hebben.
Het zou dus nog best kunnen dat N4="4nm", 4N="4nm". We weten het gewoon nog niet van 4N.
En dan nog gooi ik ze allebei met gerust hart op de "5 nm" hoop. Zelfde laser, zelfde spiegels, zelfde lenzen. Andere materialen en afstelling, ok, maar zelfde hoofd node familie.
Heb ik al eerder gezegd, kan zeker. Echter staat mijn eerdere statement dan ook nog steeds: als 4N daadwerkelijk een variant van N4 is, en AD102 daar níet op gebakken wordt (zoals jij stelde), dan moet die chip dus (met die 75 miljard op 629mm² die gesuggereerd werd) een 20% hogere dichtheid halen op een procedé dat zo'n 7-8% minder dichtheid kan leveren (dus 28,4% verbetering totaal) én dat doen zonder de efficiëntie van dat procedé volledig te verneuken :)

Overigens is het wel meer dan materialen en afstelling, daarom is er een nieuwe PDK en is het niet compatibel. Ze zijn er tegenwoordig meestal behoorlijk cryptisch over, maar ze noemden in het pers bericht onder andere "standard cell innovation" als een verbetering voor N4 ten opzichte van N5. In het verleden* betekende die uitdrukking dat ze de cellen compacter konden maken zónder aan efficiëntie in te boeten. Zelfde apparatuur, maar een ander transistor/cel ontwerp.

We zullen het morgen waarschijnlijk wel zien, wat er wel of niet klopt ;)

* Welke node dat precies was moet ik je schuldig blijven, dit was al heel lang geleden (10-15 jaar), maar het had iets met de tracks te maken. Misschien was het de eerste keer dat ze 6-track deden? Ik meen dat ze ook een keer van 9 naar 8 zijn gegaan. Weet het echt niet meer!

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

PP_Sound schreef op dinsdag 20 september 2022 @ 00:07:
[...]

Dat is een beetje overdreven een RTX 3080 en 6800XT werken zonder probleem op een 750W Seasonic gold met een Intel 14 core 9940x , 4 x SSD, 2x HD en 7 fans en AOI pomp.
6900XT was op het randje en 3090 lukte alleen met undervolt.
Inderdaad, die 850 Watt is nergens voor nodig als je een goede 750 Watt voeding hebt (en geen 12900k).

Goede voedingen kan je alleen vinden door reviews te lezen; die 850 Watt die AMD/Nvidia bedoelen zijn waarschijnlijk de wat goedkopere varianten.

Acties:
  • 0 Henk 'm!

  • PP_Sound
  • Registratie: Januari 2021
  • Niet online
Sp3ci3s8472 schreef op dinsdag 20 september 2022 @ 00:57:
[...]


Inderdaad, die 850 Watt is nergens voor nodig als je een goede 750 Watt voeding hebt (en geen 12900k).

Goede voedingen kan je alleen vinden door reviews te lezen; die 850 Watt die AMD/Nvidia bedoelen zijn waarschijnlijk de wat goedkopere varianten.
De 3090 die 850W echt wel nodig heeft is wat mij betreft en vele met mij denk ik wel de grens in de huidige tijdgeest. Die 350W vereist al 3 slots koelers en nog groter en hoger gaat nergens meer over.
Daarnaast gaat de prijs van de koeler inmiddels ook enorm toenemen omdat aluminium produceren nogal wat energie kost en de koelblokken steeds groter worden.

[ Voor 11% gewijzigd door PP_Sound op 20-09-2022 01:11 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13:16

Sp3ci3s8472

@ 12 graden...

PP_Sound schreef op dinsdag 20 september 2022 @ 01:06:
[...]


De 3090 die 850W echt wel nodig heeft is wat mij betreft en vele met mij denk ik wel de grens in de huidige tijdgeest. Die 350W vereist al 3 slots koelers en nog groter en hoger gaat nergens meer over.
Dat laatste ben ik met je eens (en daar heb ik mij in beide nieuwstopics al een aantal keer over uitgelaten :P), maar het in niet waar dat 850W echt nodig is. Ik heb zelf een RX 6900 XT en een 3950x wat met gemak op een 750W voeding draait. Het is dan wel een Corsair RM750x (2018); ik lees dat mensen het zelfs goed krijgen draaien op een Corsair SF 750W (small form factor); die type voedingen hebben doordat ze kleiner zijn veel meer last van transient spikes.
Als je punt is dat 850W de kans dat het goed draait voor veel voedingen verhoogt dan wil ik je daar best gelijk in geven.

Acties:
  • 0 Henk 'm!

  • PP_Sound
  • Registratie: Januari 2021
  • Niet online
Sp3ci3s8472 schreef op dinsdag 20 september 2022 @ 01:19:
[...]


Dat laatste ben ik met je eens (en daar heb ik mij in beide nieuwstopics al een aantal keer over uitgelaten :P), maar het in niet waar dat 850W echt nodig is. Ik heb zelf een RX 6900 XT en een 3950x wat met gemak op een 750W voeding draait. Het is dan wel een Corsair RM750x (2018); ik lees dat mensen het zelfs goed krijgen draaien op een Corsair SF 750W (small form factor); die type voedingen hebben doordat ze kleiner zijn veel meer last van transient spikes.
Als je punt is dat 850W de kans dat het goed draait voor veel voedingen verhoogt dan wil ik je daar best gelijk in geven.
De 6900 XT lukt ook nog wel met die redelijk zware setup maar een OC zat er niet meer in met de 750W Seasonic voeding, bij de 3090 was alleen undervolt stabiel.
Zoals het nu lijkt is voor 4090 minimaal 1000W nodig

Acties:
  • +3 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 13-09 09:39
PP_Sound schreef op dinsdag 20 september 2022 @ 01:24:
[...]


De 6900 XT lukt ook nog wel met die redelijk zware setup maar een OC zat er niet meer in met de 750W Seasonic voeding, bij de 3090 was alleen undervolt stabiel.
Zoals het nu lijkt is voor 4090 minimaal 1000W nodig
Ja, bij Seasonic maar dit geldt niet voor alle merken van 750W voedingen. Ik heb zelfs verhalen gehoord van 1000W Seasonic voedingen waarbij OCP werd getriggered met een AIB 3090. Die voedingen zijn gewoon heel slecht met hoge transients. Het kan gemakkelijk dat 850W van Seasonic meer problemen oplevert dan een high end 650W PSU van een ander merk.

Igor deed een test en de Straight Power 11 650W kon een OC'd MSI 3090 Gaming X Trio aan in gaming. Bij de torture test faalde hij wel met een OC maar dit zijn ook extreem onrealistische test met Prime95 en furmark tegelijkertijd.

Conclusie is dat je niet puur op max Watt van een PSU kan afgaan.

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Nu de nieuwe RTX 4xxx uitkomen. Wat denken jullie wat de MSRP zullen zijn van die kaarten en voor hoeveel we ze in de winkel kunnen verwachten?

Zit nog met een 3090FE, geen idee of het nut heeft te upgraden naar de 4090, zal wel benchmarks afwachten maar ben bang dat misschien mijn 9700k een beetje bottleneck zal gaan vormen.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Xtr3me4me schreef op dinsdag 20 september 2022 @ 10:00:
Nu de nieuwe RTX 4xxx uitkomen. Wat denken jullie wat de MSRP zullen zijn van die kaarten en voor hoeveel we ze in de winkel kunnen verwachten?

Zit nog met een 3090FE, geen idee of het nut heeft te upgraden naar de 4090, zal wel benchmarks afwachten maar ben bang dat misschien mijn 9700k een beetje bottleneck zal gaan vormen.
Ik vermoed de volgende prijzen:
4090 €1499 +80-100%
4080 16GB €999 +15-20%
4080 12GB €699 +0-5%
met de performance verschillen t.o.v je 3090FE.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes

Pagina: 1 ... 111 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.