• Amos_x
  • Registratie: Januari 2021
  • Laatst online: 11-06-2024
@sunsmountain , super post (y)
sunsmountain schreef op zaterdag 12 maart 2022 @ 14:23:
  • Vraag naar videokaarten neemt al jarenlang af sinds 2007, van 20 miljoen verkocht per kwartaal naar 10 miljoen. De pandemie heeft dat misschien tijdelijk 10% verhoogd, maar de meeste nieuwe gamers gaan niet voor desktop zelfbouw. Die gaan voor consoles en tablets, of ze laten een gamer vriendje een systeem samen stellen.
Dit sluit een beetje aan bij een vraag die ik in, verkeerdelijk, in het pricewatch topic heb gesteld. Ik weet nog dat je vroeger elke 2 jaar wel kon gaan upgraden, omdat de ontwikkeling van games zo snel ging. Nieuwe technieken, nieuwe physics, destruction physics, particle effects, ... noem maar op.

Ofwel speel ik niet meer de juiste games (of liggen mijn interesses helemaal verkeerd), ofwel zit ik niet meer in de bleeding edge bubbel en krijg ik er ook geen nieuws over binnen, want wat zijn nu de games die GPU aankopen zouden moeten veroorzaken?

Ik ben ook aan het kijken voor een upgrade, maar meer omdat het kan en leuk is (hobby), dan omdat het echt nodig is. ("kan", binnen bepaalde redelijke grenzen natuurlijk, 1000+ euro voor een GPU is absoluut off limits).

Volgens mij is het grootste deel van de gamer-markt vooral sidegrades, vervangaankopen (kapotte GPU's -> 1650/1660), lichte mid range naar mid range upgrades (1060 -> 2060/3060), of upgrades vanaf 2 of 3 gens geleden (970 ,...) naar ultra kaarten. Dus buiten miners en een klein clubje die hard gamers en streamers, en 3D of AI-professionals gerekend.

Ik zit zelf op een 1060, en kan ik eigenlijk alles wel spelen wat ik wil. Ultra settings doe ik al lang niet meer aan, en is vaak puur placebo (vaak genoeg bewezen op youtube). Ultra staat garant voor 100-150 Watt extra verstoken voor 0,0 waarneembare 'gain' tov 'very high' of gelijkwaardig. Ook 4K gaming zet ik vaak onder dezelfde noemer. In beweging, en als je 'in de game' zit, maakt resolutie me echt heel weinig uit.

off-topic:
Maar waarschijnlijk game ik al te lang, en vind ik het moderne gamen algemeen vaak weinig meer aan (op een paar uitzonderingen na, vooral sims dan). Het pixelpeepen, en FPS-obsessie (140+Hz) had je vroeger veel minder. Vreemd, want ik wilde vroeger ook erg hard far cry en crysis kunnen spelen en was daarvan zeer onder de indruk toen ik het ook effectief kon. En die sprongen voelden aan als gigantische leaps in graphics en gameplay. Anyway, /off-topic


De reden voor een upgrade ligt 'm hier eerder in het comfortabel FS2020 kunnen spelen, en later eventueel VR. Dus ik mik op 3060Ti of 3070. Ik heb meerdere hobby's, gaming is niet m'n primaire hobby, dus het moet 'leuk' blijven.



In stel dan ook de volgende (oprechte) vraag, welke workload draaien jullie dat iedereen meteen naar de 3080/3080ti of 3090 wil? Een groot deel is natuurlijk de bias van dit soort forums, waar gebruikers vaker naar de hoogste hardware grijpen.

Vermoedelijk (?):
  • 3D modelling
  • AI (universiteit, werk)
  • VR (lijkt me wel een driver voor stevige hardware)
  • 7 a 8 jaar 'toekomstbestendig' willen zijn en op groei kopen. Ik weet dat dit een ding is voor velen, maar ik heb daar nooit in geloofd. Liever net onder de high end zitten, en vaker upgraden, is me steeds beter bevallen.
  • nieuwe games?
  • 1440p 144+ Hz competitieve twitch-games (fighters, CS:GO, overwatch, Apex, ...)
  • Simulatie setups (triple screen racing, triple screen MS FS2020?)
  • RDR2 aan 4k 120 hz 8) Idem cyberpunk


Persoonlijk hecht ik weinig belang aan RTX, omdat de kaarten die voor ogen heb, waarschijnlijk niet over genoeg 'power' beschikken om RTX 'correct' te draaien (3060/3060ti). Ook DLSS heb ik geen behoefte aan. Ik verkies liever 'agnostische' upscaling, dan upscaling die volledig afhangt van AI-datasets (games draaien bij nividia) en die afhankelijk zijn van de beschikbaarheid van die datasets. (over 10 jaar ook nog het geval? Zit die interpolatie data in de driver? Zal dit forwards en backwards compatibel zijn?)

Ik heb dan liever rauwe rasterization performance, met een goede power/watt ratio (zuinigheid, zeker nu, is ook belangrijk). Heeft het zin om me te verdiepen in het rode kamp? 6600XT/6700XT?

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01-01 15:58
Amos_x schreef op zaterdag 12 maart 2022 @ 21:03:
@sunsmountain , super post (y)


[...]


Dit sluit een beetje aan bij een vraag die ik in, verkeerdelijk, in het pricewatch topic heb gesteld. Ik weet nog dat je vroeger elke 2 jaar wel kon gaan upgraden, omdat de ontwikkeling van games zo snel ging. Nieuwe technieken, nieuwe physics, destruction physics, particle effects, ... noem maar op.

Ofwel speel ik niet meer de juiste games (of liggen mijn interesses helemaal verkeerd), ofwel zit ik niet meer in de bleeding edge bubbel en krijg ik er ook geen nieuws over binnen, want wat zijn nu de games die GPU aankopen zouden moeten veroorzaken?

Ik ben ook aan het kijken voor een upgrade, maar meer omdat het kan en leuk is (hobby), dan omdat het echt nodig is. ("kan", binnen bepaalde redelijke grenzen natuurlijk, 1000+ euro voor een GPU is absoluut off limits).

Volgens mij is het grootste deel van de gamer-markt vooral sidegrades, vervangaankopen (kapotte GPU's -> 1650/1660), lichte mid range naar mid range upgrades (1060 -> 2060/3060), of upgrades vanaf 2 of 3 gens geleden (970 ,...) naar ultra kaarten. Dus buiten miners en een klein clubje die hard gamers en streamers, en 3D of AI-professionals gerekend.

Ik zit zelf op een 1060, en kan ik eigenlijk alles wel spelen wat ik wil. Ultra settings doe ik al lang niet meer aan, en is vaak puur placebo (vaak genoeg bewezen op youtube). Ultra staat garant voor 100-150 Watt extra verstoken voor 0,0 waarneembare 'gain' tov 'very high' of gelijkwaardig. Ook 4K gaming zet ik vaak onder dezelfde noemer. In beweging, en als je 'in de game' zit, maakt resolutie me echt heel weinig uit.

off-topic:
Maar waarschijnlijk game ik al te lang, en vind ik het moderne gamen algemeen vaak weinig meer aan (op een paar uitzonderingen na, vooral sims dan). Het pixelpeepen, en FPS-obsessie (140+Hz) had je vroeger veel minder. Vreemd, want ik wilde vroeger ook erg hard far cry en crysis kunnen spelen en was daarvan zeer onder de indruk toen ik het ook effectief kon. En die sprongen voelden aan als gigantische leaps in graphics en gameplay. Anyway, /off-topic


De reden voor een upgrade ligt 'm hier eerder in het comfortabel FS2020 kunnen spelen, en later eventueel VR. Dus ik mik op 3060Ti of 3070. Ik heb meerdere hobby's, gaming is niet m'n primaire hobby, dus het moet 'leuk' blijven.



In stel dan ook de volgende (oprechte) vraag, welke workload draaien jullie dat iedereen meteen naar de 3080/3080ti of 3090 wil? Een groot deel is natuurlijk de bias van dit soort forums, waar gebruikers vaker naar de hoogste hardware grijpen.

Vermoedelijk (?):
  • 3D modelling
  • AI (universiteit, werk)
  • VR (lijkt me wel een driver voor stevige hardware)
  • 7 a 8 jaar 'toekomstbestendig' willen zijn en op groei kopen. Ik weet dat dit een ding is voor velen, maar ik heb daar nooit in geloofd. Liever net onder de high end zitten, en vaker upgraden, is me steeds beter bevallen.
  • nieuwe games?
  • 1440p 144+ Hz competitieve twitch-games (fighters, CS:GO, overwatch, Apex, ...)
  • Simulatie setups (triple screen racing, triple screen MS FS2020?)
  • RDR2 aan 4k 120 hz 8) Idem cyberpunk


Persoonlijk hecht ik weinig belang aan RTX, omdat de kaarten die voor ogen heb, waarschijnlijk niet over genoeg 'power' beschikken om RTX 'correct' te draaien (3060/3060ti). Ook DLSS heb ik geen behoefte aan. Ik verkies liever 'agnostische' upscaling, dan upscaling die volledig afhangt van AI-datasets (games draaien bij nividia) en die afhankelijk zijn van de beschikbaarheid van die datasets. (over 10 jaar ook nog het geval? Zit die interpolatie data in de driver? Zal dit forwards en backwards compatibel zijn?)

Ik heb dan liever rauwe rasterization performance, met een goede power/watt ratio (zuinigheid, zeker nu, is ook belangrijk). Heeft het zin om me te verdiepen in het rode kamp? 6600XT/6700XT?
Ik was van het rode kamp, maar zou bij gelijke prijzen en rasterization performance toch nVidia kiezen, de software (DLSS, streaming encodering, etc.) is voorlopig nog beter. AMD en Intel zullen die achterstand op enig moment inhalen. Het vervelende is echter optimalisaties in spellen die alleen voor nVidia hardware zijn aangebracht. "The way it's meant to be played" waarbij nVidia developers betaalt voor dit soort geintjes. AMD betaalt inmiddels ook sommige developers, maar minder vaak.

===

Voor je informatie: nVidia DLSS 1.0 had training nodig per spel, DLSS 2.0 en hoger heeft geen data sets meer nodig om getraind te worden op de nVidia driver, alleen de developers van elk spel moeten DLSS upscaling code in de temporele anti-aliasing code meenemen.

AMD en Intel zullen spel onafhankelijk oplossingen zoeken, momenteel is AMD FSR 1 gebaseerd op alleen spatial upscaling en inferieur, terwijl Intel XeSS en AMD FSR 2 gebaseerd zullen worden op spatial + temporal upscaling. Zoals nVidia al heeft met DLSS 2.0+, maar wel spel afhankelijk.
  • Intel zal voor XeSS gebruik maken van Shader Model 6.4, met op hun eigen videokaarten (Alchemist, Battlemage, Intel Arc) hardware versnelling geoptimaliseerd voor hun aanpak, maar AMD en nVidia zullen XeSS kunnen draaien.
  • AMD FSR 2 is nog onbekend welke techniek gebruikt zal worden. Maar wederom Intel en nVidia kaarten zullen FSR 2 kunnen draaien.
===

Minder stroomverbruik is wel milieuvriendelijk, maar uiteindelijk toch een nice to have voor mij. Gezien de huidige subsidiëring van stroom maar niet van gas is het alleen maar verleidelijker om meer stroom te verbruiken in plaats van minder.

===

Eigenlijk alleen Cyberpunk dwingt oudere videokaarten op de kniëen... eens dat Ultra weinig meerwaarde heeft. Andere grafisch zware games: Red Dead Redemption 2, AC: Valhalla en Watch Dogs: Legion.

Ik kan het proberen met m'n oude R9 290 en een 1ste generatie (jawel) Core i5 750. Waarschijnlijk moet ik alles op Low zetten dan. AC: Odyssey speel ik met gemak op 45 FPS, meeste settings High :)

"upgrades" zijn vaak side-grades ja. Ik probeer generaties te "leap froggen", dus van m'n oude quad core naar een nieuwe octa core, 8GB naar 64GB is het plan. 1x in de 10 jaar een CPU upgrade, 1x in de 4-6 jaar een GPU upgrade, ik vind het best.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Het lijkt erop dat AMD een doorbraak heeft gemaakt met z'n multi-die GPU, waardoor die extreem goede yields kunnen behalen (die toch al erg hoog lijken te zijn bij 5 nm) in combinatie met extreem goede performance. Daar komt ook het nieuws vandaan dat de volgende generatie van Nvidia extreem veel stroom gaat gebruiken, want om bij te blijven moeten ze dan wel extreem hoog gaan clocken (wat alleen kan bij een hoog voltage).

Het zou mij niet verbazen als we straks massaal overstappen naar AMD omdat die zoveel beter presteert voor dezelfde prijs. Ik verwacht ook dat de achterstand op DLSS dan ook voor een groot deel is ingehaald. Als dat alleen kan met tensor cores, dan komen die vast wel in RDNA 2 (en met multi-die is dat ook relatief makkelijk).

Voor mij is PC VR trouwens de reden dat ik wil gaan upgraden. Flight simmen in VR voelt zo goed, maar vereist echt stevige hardware. Om het Quest 2 scherm volledig te benutten moet er meer dan 4k gerendered worden.

Ik denk dat 4k en/of 144+ hz ook een belangrijke reden is voor mensen om te upgraden. 4k op 60 hz of 1440p op 144-260 hz vereist ook nogal wat.

[ Voor 12% gewijzigd door Ludewig op 12-03-2022 23:49 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Wat achtergrond-info:

De chip-dies worden in grote aantallen op een plaat silicium ge-etst. Die plaat heet een wafer. Die wafer is rond, maar de chips zijn vierkant. Dat betekent dat je altijd verlies hebt, maar hoe groter de die, hoe meer verlies. Bij een multi-die chip zijn de losse dies veel kleiner en is er dus minder snijverlies. Je kan dan trouwens ook verschillende nanometer-processen gebruiken voor verschillende dies, wat ook efficiënter is.

Bij het etsen gaat er altijd wel wat fout en hoe groter de die, hoe groter de kans dat er een fout zit in een die. Dat lossen fabrikanten dan vaak op door die te verkopen als een lager model waarbij een deel van de chip uitgeschakeld is (bijvoorbeeld als een 3080, terwijl een perfecte die als een 3090 wordt verkocht). Dat is wel duurder dan als je een hele hoge yield hebt. Dan kun je namelijk een kleinere chip gebruiken voor de 3080, die goedkoper is om te maken, i.p.v. een relatief dure 3090-chip te verkopen als een 3080.

Multi-die chips hebben natuurlijk ook nadelen. Ten eerste moet je verbindingen maken tussen de losse chips (packaging), wat vrij duur was (en er is nu ook een tekort aan een vloeistof die daarvoor wordt gebruikt). Die verbindingen zorgen ook voor latency, waardoor de chip trager is.

Vermoedelijk heeft AMD (en Intel & Apple) daar een oplossing voor gevonden om die verbindingen tussen de dies op een goedkopere manier te maken, met minder latency. De oplossing van Intel is de Embedded Multi-die Interconnect Bridge. AMD lijkt iets vergelijkbaars te hebben.

Een grote hoeveelheid cache speelt mogelijk ook een belangrijke rol om de extra latency tussen de dies een veel kleiner probleem te laten zijn. Intel lijkt er ook helemaal in te geloven.

Ik heb het idee dat Nvidia deze keer de slag heeft gemist, voor de komende generatie.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01-01 15:58
Ludewig schreef op zondag 13 maart 2022 @ 00:35:
Wat achtergrond-info:

De chip-dies worden in grote aantallen op een plaat silicium ge-etst. Die plaat heet een wafer. Die wafer is rond, maar de chips zijn vierkant. Dat betekent dat je altijd verlies hebt, maar hoe groter de die, hoe meer verlies. Bij een multi-die chip zijn de losse dies veel kleiner en is er dus minder snijverlies. Je kan dan trouwens ook verschillende nanometer-processen gebruiken voor verschillende dies, wat ook efficiënter is.

Bij het etsen gaat er altijd wel wat fout en hoe groter de die, hoe groter de kans dat er een fout zit in een die. Dat lossen fabrikanten dan vaak op door die te verkopen als een lager model waarbij een deel van de chip uitgeschakeld is (bijvoorbeeld als een 3080, terwijl een perfecte die als een 3090 wordt verkocht). Dat is wel duurder dan als je een hele hoge yield hebt. Dan kun je namelijk een kleinere chip gebruiken voor de 3080, die goedkoper is om te maken, i.p.v. een relatief dure 3090-chip te verkopen als een 3080.

Multi-die chips hebben natuurlijk ook nadelen. Ten eerste moet je verbindingen maken tussen de losse chips (packaging), wat vrij duur was (en er is nu ook een tekort aan een vloeistof die daarvoor wordt gebruikt). Die verbindingen zorgen ook voor latency, waardoor de chip trager is.

Vermoedelijk heeft AMD (en Intel & Apple) daar een oplossing voor gevonden om die verbindingen tussen de dies op een goedkopere manier te maken, met minder latency. De oplossing van Intel is de Embedded Multi-die Interconnect Bridge. AMD lijkt iets vergelijkbaars te hebben.

Een grote hoeveelheid cache speelt mogelijk ook een belangrijke rol om de extra latency tussen de dies een veel kleiner probleem te laten zijn. Intel lijkt er ook helemaal in te geloven.

Ik heb het idee dat Nvidia deze keer de slag heeft gemist, voor de komende generatie.
Best wat statements voor achtergrond info. :)

Ik denk dat je geen 6 en 7nm op dezelfde wafer kunt gebruiken, de EUV laser is voor een run vrij precies afgesteld. De grafische en geheugen chiplets worden dus op aparte wafers gebrand en achteraf samengevoegd.

AMD gebruikt voor het verbinden van de grafische chiplets vermoed ik geen Interconnect bridges, maar eerder dat 3D V-Cache geheugen die de 5800X3D ook heeft. Sterker nog, misschien gebruiken ze wel gewoon die geheugen chiplets. Dan kunnen de grafische chiplets samen werken op dezelfde L3 cache, voordat er een compleet frame naar de buffer gaat. Dat zou vet zijn.

nVidia zal het met de RTX 4000 chips moeten doen met een monolitische grote L3 cache. Ook geen straf, maar inderdaad foutgevoeliger.

https://www.tomshardware....-minimum-latency-increase

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
En om mijn punt van 3 weken geleden (in het andere topic) maar even wat kracht bij te zetten:
Werelds schreef op woensdag 2 maart 2022 @ 13:30:
Nee, groter omdat die 1,8 dichtheid nooit gehaald gaat worden :)
- V100 (12FF): 25,9m T/MM²
- A100 (N7): 65.4m T/MM² (~2,5x, optimaal volgens TMSC zou 3,0x zijn)
- H100 (N4): 98.3m T/MM² (~1,5x, optimaal volgens TMSC zou 1,8x zijn)

Dit zijn allemaal chips die pakweg een derde groter zijn dan GA102, maar twee van de drie hebben ook iets dat bij een shrink voor bovengemiddelde cijfers zorgt: bergen aan L2$. A100 heeft 40 MB, H100 zelfs 50. Cache is SRAM en dat is over het algemeen met veel hogere dichtheid te produceren dan eender welk ander onderdeel. Dat is deels waarom A100 pakweg een 50% (!) hogere dichtheid heeft dan GA102. Een groot deel van die transistors zitten simpelweg in de 40 MB L2$, in plaats van de magere 6 MB in GA102 (L1$ is overigens ook groter).

Ik ga niet speculeren over performance, want ik heb de whitepaper nog niet gelezen en de cijfers die Nvidia heeft gegeven komen in de verste verte niet overeen met het bovenstaande, dus ik vermoed dat er weer wat slimmigheid in zit waardoor die 60 TF enkel te halen is met heel specifieke workloads. Net zoals de 35 TF van GA102 grote bullshit is en er in de praktijk (in games) zo'n 20 uit te halen valt.

Deze chips zijn sowieso niet te vergelijken met hun gaming tegenhangers, maar als we betrouwbare cijfers hadden konden we in elk geval zinvol speculeren over het potentiële voordeel van N4.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
En van deze chip komt ook geen gaming tegenhanger, Ada Lovelace wordt N5 en is ook een ander architectuur.

March of the Eagles


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
XWB schreef op woensdag 23 maart 2022 @ 12:24:
En van deze chip komt ook geen gaming tegenhanger, Ada Lovelace wordt N5 en is ook een ander architectuur.
N4(P) en N5(P) zijn hetzelfde procedé, enkel met wat tweaks (meer EUV lagen, andere richtlijnen voor floorplan) waardoor de chip marginaal compacter zou kunnen worden. Uit m'n hoofd was het 6%. Dat maakt dus niet echt iets uit, ze vallen allebei onder TSMC's 5nm noemer, net zoals N6 en N7 onder 7nm vallen.

Andere architectuur, maar wel met dezelfde onderdelen. A100 is ook radicaal anders ingedeeld (vergeleken met GA102) en had best een andere naam kunnen hebben, maar de actieve onderdelen worden gedeeld tussen de twee. Voor de fysieke chips kan er dus wel het één en ander afgeleid worden. Qua aantallen heeft A100 vooral meer Tensor Cores (30% geloof ik? 400+ tegenover 328) en iets minder FP32 ALU's. Het zijn de TC's waar het grootste deel van de extra 200mm naartoe gaat. Die paar FP32 ALU's minder scheelt niet veel qua ruimte, die zijn piepklein.

Met H100 en Lovelace (GL102? :P) zal dat niet veel anders zijn; de Tensor cores zullen hetzelfde zijn, het zullen er wel minder zijn. Dat scheelt een hoop ruimte, maar maakt voor de haalbare dichtheid niet veel uit.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Werelds schreef op woensdag 23 maart 2022 @ 13:33:
[...]

N4(P) en N5(P) zijn hetzelfde procedé, enkel met wat tweaks (meer EUV lagen, andere richtlijnen voor floorplan) waardoor de chip marginaal compacter zou kunnen worden. Uit m'n hoofd was het 6%. Dat maakt dus niet echt iets uit, ze vallen allebei onder TSMC's 5nm noemer, net zoals N6 en N7 onder 7nm vallen.
Dat zou overeenkomen met de geruchten dat die monster chip eerst haast 900mm2 zou zijn ipv de nu volgens mij 817mm2.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:01
Werelds schreef op woensdag 23 maart 2022 @ 13:33:
[...]

N4(P) en N5(P) zijn hetzelfde procedé, enkel met wat tweaks (meer EUV lagen, andere richtlijnen voor floorplan) waardoor de chip marginaal compacter zou kunnen worden. Uit m'n hoofd was het 6%. Dat maakt dus niet echt iets uit, ze vallen allebei onder TSMC's 5nm noemer, net zoals N6 en N7 onder 7nm vallen.
Als wat @Sp3ci3s8472 klopt, dan zou ik toch niet direct spreken van Marginaal. Bij deze chip groottes lijkt dat voor yields toch wel degelijk wat uit te maken.

Bij een defect density van 0.1 (uit dit artikel, enige waarde die ik zo bevestigd kan vinden voor een TSMC N5 klasse procedé) https://www.anandtech.com...te-on-defect-rates-for-n5

Bij even snel spelen met een wafer calculator haal ik met een chip van +-814 mm2 28 goede dies uit een wafer en 32 (deels) defecte.
Ga je 6% groter zitten is dat nog 23 goede dies, 29 (deels) defecte en 12 dies die maar deels op de wafer passen.
Ga je naar de 900mm2 die @Sp3ci3s8472 ook noemde uit het geruchten circuit is het nog steeds 23 goede dies, 29 (deels) defecte, maar nu 0 dies die deels op de wafer passen.

Gemiddeld 5 meer goede dies en 3 mogelijk verkoopbare als lager gepositioneerde sku, is bij chips van deze (prijs) klasse toch denk ik vrij significant. Geen idee wat een H100 qua omzet zal doen voor de goedkoopste sku, maar dit zal om serieuze bedragen gaan.

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09:45
Werelds schreef op woensdag 23 maart 2022 @ 13:33:
[...]

N4(P) en N5(P) zijn hetzelfde procedé, enkel met wat tweaks (meer EUV lagen, andere richtlijnen voor floorplan) waardoor de chip marginaal compacter zou kunnen worden. Uit m'n hoofd was het 6%. Dat maakt dus niet echt iets uit, ze vallen allebei onder TSMC's 5nm noemer, net zoals N6 en N7 onder 7nm vallen.

Andere architectuur, maar wel met dezelfde onderdelen. A100 is ook radicaal anders ingedeeld (vergeleken met GA102) en had best een andere naam kunnen hebben, maar de actieve onderdelen worden gedeeld tussen de twee. Voor de fysieke chips kan er dus wel het één en ander afgeleid worden. Qua aantallen heeft A100 vooral meer Tensor Cores (30% geloof ik? 400+ tegenover 328) en iets minder FP32 ALU's. Het zijn de TC's waar het grootste deel van de extra 200mm naartoe gaat. Die paar FP32 ALU's minder scheelt niet veel qua ruimte, die zijn piepklein.

Met H100 en Lovelace (GL102? :P) zal dat niet veel anders zijn; de Tensor cores zullen hetzelfde zijn, het zullen er wel minder zijn. Dat scheelt een hoop ruimte, maar maakt voor de haalbare dichtheid niet veel uit.
GA100 heeft gewoon 50+% meer TPCs/SMs dan GA102. Het is gewoon op alle vlakken een veel grotere GPU. Als je INT32+FP32 ALUS vergelijkt dan is het repectievelijk 16384 ALUs tegenover 10752 ALUs. Alleen bij GA100 kunnen de INT32 ALUs niet ingezet worden voor FP32, vandaar dat GA102 meer FP32 ALUs heeft. Het is niet zomaar dat TSMC 7 werd gebruikt voor GA100 want op Samsung's 8nm zou hij waarschijnlijk te groot zijn geweest.

Van het volgende ben ik niet zeker maar ik meen me te herinneren dat de interposers voor HBM ook meer plaats innemen dan wat er nodig is voor GDDR.

Het heeft dus absoluut niets te maken met de Tensor Cores die relatief weinig plaats innemen. Beide GPUs hebben er trouwens 8 per TPC.

Lovelace = AD102. Volgens KopiteKimi zou het Hopper een geheel andere architecture zijn dan Lovelace en zou Nvidia nog even getwijfeld hebben om Lovelace te schrappen en direct naar Hopper te gaan voor de gaming GPUs.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01-01 15:58
Werelds schreef op woensdag 23 maart 2022 @ 12:20:
En om mijn punt van 3 weken geleden (in het andere topic) maar even wat kracht bij te zetten:


[...]


- V100 (12FF): 25,9m T/MM²
- A100 (N7): 65.4m T/MM² (~2,5x, optimaal volgens TMSC zou 3,0x zijn)
- H100 (N4): 98.3m T/MM² (~1,5x, optimaal volgens TMSC zou 1,8x zijn)

Dit zijn allemaal chips die pakweg een derde groter zijn dan GA102, maar twee van de drie hebben ook iets dat bij een shrink voor bovengemiddelde cijfers zorgt: bergen aan L2$. A100 heeft 40 MB, H100 zelfs 50. Cache is SRAM en dat is over het algemeen met veel hogere dichtheid te produceren dan eender welk ander onderdeel. Dat is deels waarom A100 pakweg een 50% (!) hogere dichtheid heeft dan GA102. Een groot deel van die transistors zitten simpelweg in de 40 MB L2$, in plaats van de magere 6 MB in GA102 (L1$ is overigens ook groter).

Ik ga niet speculeren over performance, want ik heb de whitepaper nog niet gelezen en de cijfers die Nvidia heeft gegeven komen in de verste verte niet overeen met het bovenstaande, dus ik vermoed dat er weer wat slimmigheid in zit waardoor die 60 TF enkel te halen is met heel specifieke workloads. Net zoals de 35 TF van GA102 grote bullshit is en er in de praktijk (in games) zo'n 20 uit te halen valt.

Deze chips zijn sowieso niet te vergelijken met hun gaming tegenhangers, maar als we betrouwbare cijfers hadden konden we in elk geval zinvol speculeren over het potentiële voordeel van N4.
n5 n4 densities zijn nu nog estimate, geen actual.
https://en.wikichip.org/w...thography_process#Density

Haal je die 3x density uit 16nm -> 7nm of uit 12FFC -> 7nm? Bronvermelding graag.

Je zou eigenlijk de geïmplementeerde density moeten vergelijken met de max theoretische density, en die kan per chip design variëren. Alleen als de relatieve chip density, laten we dat de design efficiency noemen, gelijk blijft tussen chips, dan pas kan je die density verwachtingen waar maken.

https://www.reddit.com/r/..._navi_21_die_speculation/

Zonder de design efficiency erbij te zetten van de V100 A100 en H100, kan je niet goed de theoretische density vermenigvuldigingen ontkrachten of bevestigen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Dennism schreef op woensdag 23 maart 2022 @ 15:51:
Als wat @Sp3ci3s8472 klopt, dan zou ik toch niet direct spreken van Marginaal. Bij deze chip groottes lijkt dat voor yields toch wel degelijk wat uit te maken.
Oh, voor yields absoluut, maar ik had het over de performance. Er gaan heel veel speculaties rond over hoe snel de volgende generatie chips zou kunnen worden door N5, want dan kunnen ze er zo veel meer shaders in kwijt, lager verbruik/hogere frequentie en blablabla. Dat is iets waar ik toen over viel, want dat was allemaal gebaseerd op wat TSMC zei dat N5 zou kunnen doen. Die cijfers zijn echter altijd gebaseerd op SRAM, wat extreem compact gemaakt kan worden. Het gevolg is dat we nog nooit de sprongen hebben gezien die in theorie mogelijk zouden zijn bij nieuwe nodes.
napata schreef op woensdag 23 maart 2022 @ 15:52:
Het heeft dus absoluut niets te maken met de Tensor Cores die relatief weinig plaats innemen. Beide GPUs hebben er trouwens 8 per TPC.
De SM's zijn vanaf Turing een flink stuk groter geworden, zonder dat de ALU's wezenlijk zijn veranderd. Dat zit hem in de Tensor cores. Het probleem met opschalen zit niet zo zeer in de TC's zelf, maar vooral in het floorplan van het geheel, want die krengen moeten ook data lezen/schrijven ;)

Overigens besef ik zojuist dat ik de FP64 ALU's niet uit had getypt. Had ze wel in m'n hoofd, maar vergeten te vermelden. Ik heb ook heel bewust de RT cores niet vermeld, want hoewel die ook relatief groot zijn (vergeleken met INT/FP ALU's), "verrekent" zich dat grofweg met de extra L2$.
sunsmountain schreef op woensdag 23 maart 2022 @ 15:55:
n5 n4 densities zijn nu nog estimate, geen actual.
https://en.wikichip.org/w...thography_process#Density

Haal je die 3x density uit 16nm -> 7nm of uit 12FFC -> 7nm? Bronvermelding graag.
Bronvermelding zou ik even moeten zoeken, simpelweg persberichten van TSMC. Historisch gezien kloppen hun cijfers - ze zijn echter simpelweg niet van toepassing op grote monolitische dies ;)

16FF en 12FFC behoren overigens tot dezelfde familie, zelfde verhaal als 7/6 en 5/4. Mag je in de "14nm" familie scharen bij andere fabs. Qua dichtheid zit er nauwelijks verschil in, vergelijk Pascal maar eens met Turing :)

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Igor lijkt weer eens een PCB ontwerp, maanden voor release, te pakken hebben gekregen. AD-102 referentieontwerp. :)

Kort samengevat:
-TBP lijkt tot 600W te gaan.
-Ruimte voor 12x GDDR6X dus 384 bit bus.
-Ruimte voor 24 powerstages.

https://www.igorslab.de/e...r-voltage-converter-orgy/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
En daar is de RTX 3090 Ti dan:

reviews: Nvidia GeForce RTX 3090 Ti - Nóg meer Ampere, nóg meer watts

Stroomverbruik is absurd hoog :X

Stroomverbruik

[ Voor 8% gewijzigd door XWB op 29-03-2022 20:43 ]

March of the Eagles


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Er zijn twee voordelen van de 3090 Ti. Allereerst bestaat het geheugen nu uit 2 GB modules, waardoor de modules nu niet meer tegenover elkaar zitten. Daardoor kan het VRAM beter gekoeld worden.

Daarnaast zit de IO plaat (waar de video uitgangen in zitten) nu zowel aan de backplate als aan de koeler. Daardoor heeft de kaart veel meer ondersteuning van de achterkant van de kast en is er veel minder risico op GPU sag (het zakken van de achterkant van de kaart, die zelfs je PCIe slot van je moederbord kan trekken).

Ze leveren trouwens een (vrij korte) kabel mee waarmee je de achterkant van de kaart kan ophangen aan de bovenkant van je kast.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Gelukkig krijg je voor die 35% extra stroomverbruik wel 7% hogere prestaties. Oh, behalve als we het over idle-verbruik hebben, natuurlijk, dan is het stroomverbruik 74% hoger.

Vergeleken met de RX 6900XT is het verschil 16% extra prestaties voor 65% extra stroomverbruik onder load en 301% idle.

Euh. Ja. Leuk voor de PR-afdeling dat deze kaart nu bovenaan staat in de prestatie-grafiekjes.

Heeft geen speciale krachten en is daar erg boos over.


  • alexbl69
  • Registratie: Maart 2001
  • Laatst online: 31-01 20:07
bwerg schreef op woensdag 30 maart 2022 @ 09:41:
[...]

Gelukkig krijg je voor die 35% extra stroomverbruik wel 7% hogere prestaties. Oh, behalve als we het over idle-verbruik hebben, natuurlijk, dan is het stroomverbruik 74% hoger.

Vergeleken met de RX 6900XT is het verschil 16% extra prestaties voor 65% extra stroomverbruik onder load en 301% idle.

Euh. Ja. Leuk voor de PR-afdeling dat deze kaart nu bovenaan staat in de prestatie-grafiekjes.
Bij alle reviews van deze kaart gaat men er vanuit dat deze verbruikscijfers de nieuwe norm zullen worden.

Wordt (bijna) tijd voor een soort van procentuele BPM heffing op videokaarten gerelateerd aan hun verbruik. Dan komt er tenminste een incentive voor de fabrikanten om hier wat aan te doen.

If buying doesn’t mean ownership Then pirating isn’t stealing / iRacing Profiel


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
alexbl69 schreef op woensdag 30 maart 2022 @ 11:09:
[...]

Bij alle reviews van deze kaart gaat men er vanuit dat deze verbruikscijfers de nieuwe norm zullen worden.
Wat op zich niet gek is om te verwachten, de eerste leaks over de volgende RTX-40 generatie suggereren maximaal 600W board power :X

March of the Eagles


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
En deze custom 3090 Ti piekt over de 500W heen:

Afbeeldingslocatie: https://tpucdn.com/review/msi-geforce-rtx-3090-ti-suprim-x/images/power-maximum.png
https://www.techpowerup.c...-3090-ti-suprim-x/38.html

March of the Eagles


  • alexbl69
  • Registratie: Maart 2001
  • Laatst online: 31-01 20:07
XWB schreef op woensdag 30 maart 2022 @ 11:11:
[...]


Wat op zich niet gek is om te verwachten, de eerste leaks over de volgende RTX-40 generatie suggereren maximaal 600W board power :X
Zo dadelijk verbruik je in een race-sim meer stroom per kilometer dan in real-life 8)7.

If buying doesn’t mean ownership Then pirating isn’t stealing / iRacing Profiel


  • Paprika
  • Registratie: September 2007
  • Laatst online: 14:28
alexbl69 schreef op woensdag 30 maart 2022 @ 11:09:
[...]

Bij alle reviews van deze kaart gaat men er vanuit dat deze verbruikscijfers de nieuwe norm zullen worden.

Wordt (bijna) tijd voor een soort van procentuele BPM heffing op videokaarten gerelateerd aan hun verbruik. Dan komt er tenminste een incentive voor de fabrikanten om hier wat aan te doen.
Die heffing vindt al plaats bij je stroomrekening. Verder is het aan de consument om te bepalen wat men acceptabel acht en niet de fabrikant. Voor mij is het verbruik van mijn 3080 (< 300W, voltage curve) de max die ik ooit in een pc wil hebben (want verbruik = warmte en warmte = niet chill :+), maar als anderen 400, 500, of zelfs 600W GPUs in hun kast accepteren, lekker zelf weten toch?

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Nou ja, "de nieuwe norm". Niemand verplicht je om het vlaggenschip te kopen, natuurlijk. Het zou me verbazen als de RTX 3090Ti populair wordt. Dit is leuk voor het rijkeluiszoontje dat wil patsen maar iedereen die een serieuze kosten/baten-afweging maakt koopt zo'n ding natuurlijk niet.

Al verbruikt het vlaggenschip 3kW. Er bestaan ook auto's met 1800pk, boeien.

De kaarten voor de grote massa blijven natuurlijk van het kaliber RTX3060 / RX6600. En vooral die laatste heeft echt een heel schappelijk stroomverbruik.

[ Voor 8% gewijzigd door bwerg op 30-03-2022 11:49 ]

Heeft geen speciale krachten en is daar erg boos over.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Paprika schreef op woensdag 30 maart 2022 @ 11:42:
[...]

Die heffing vindt al plaats bij je stroomrekening. Verder is het aan de consument om te bepalen wat men acceptabel acht en niet de fabrikant. Voor mij is het verbruik van mijn 3080 (< 300W, voltage curve) de max die ik ooit in een pc wil hebben (want verbruik = warmte en warmte = niet chill :+), maar als anderen 400, 500, of zelfs 600W GPUs in hun kast accepteren, lekker zelf weten toch?
Uiteraard. Maar als het nieuwe RTX-40 topmodel inderdaad 600W zou verbruiken, dan kan dat ook een teken zijn dat de hele lijn opschuift en gaat de toekomstige 4080 misschien wel over je grens van 300W heen.

March of the Eagles


  • Paprika
  • Registratie: September 2007
  • Laatst online: 14:28
XWB schreef op woensdag 30 maart 2022 @ 11:51:
[...]


Uiteraard. Maar als het nieuwe RTX-40 topmodel inderdaad 600W zou verbruiken, dan kan dat ook een teken zijn dat de hele lijn opschuift en gaat de toekomstige 4080 misschien wel over je grens van 300W heen.
Tja, dan wordt het zien wat voor prestaties worden geleverd door een exemplaar dat niet over die 300W gaat en als er geen enkele kaart onder de 300W weet te blijven dan is de 3080 nog altijd prima, want dan moet de prestatie/watt van de nieuwe reeks wel zeer belabberd zijn. Gelukkig komen er sinds ik de 3080 in 2020 kocht toch 0 goede spellen meer uit (op Elden Ring na misschien en Valheim die geen rekenkracht kostte), dus ik zou het niet eens missen.

[ Voor 14% gewijzigd door Paprika op 30-03-2022 11:58 ]


  • Waah
  • Registratie: Maart 2009
  • Laatst online: 14:23
Paprika schreef op woensdag 30 maart 2022 @ 11:56:
[...]

Tja, dan wordt het zien wat voor prestaties worden geleverd door een exemplaar dat niet over die 300W gaat en als er geen enkele kaart onder de 300W weet te blijven dan is de 3080 nog altijd prima, want dan moet de prestatie/watt van de nieuwe reeks wel zeer belabberd zijn. Gelukkig komen er sinds ik de 3080 in 2020 kocht toch 0 goede spellen meer uit (op Elden Ring na misschien en Valheim die geen rekenkracht kostte), dus ik zou het niet eens missen.
Dit is IMHO nog altijd het belangrijkst. Buy what you need...
Ik wil ook wel een RTX3080 ipv mijn GTX1070. Maar meestal game ik op een 1080p beamer, 60hz. oftewel met 1080p60hz voldoe ik prima.

Veel review focussen veel op "Ja 10% sneller!". Maar het verschil tussen 80FPS op 4k, of 88FPS op 4K gaat niemand zien :+ en met een 60hz monitor is dat eigenlijk nog 20FPS teveel (al is een buffer wel nice natuurlijk).

600 watt voor een videokaart mein gott... Het geeft IMHO vooral aan dat de concurrentie nu goed is losgebarsten tussen AMD en Nvidia. En dat de laatste strohalm die men nog heeft om te verbeteren, Moar Powah is....

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Waah schreef op woensdag 30 maart 2022 @ 12:28:
Veel review focussen veel op "Ja 10% sneller!". Maar het verschil tussen 80FPS op 4k, of 88FPS op 4K gaat niemand zien :+ en met een 60hz monitor is dat eigenlijk nog 20FPS teveel (al is een buffer wel nice natuurlijk).
Helaas merk je dat in VR wel heel snel :P

Dit onding is gewoon een cashgrab waarvan we anderhalf jaar geleden al wisten dat hij ging komen. Ik moet wel toe geven dat ik niet had verwacht dat ze het zó moeilijk zouden hebben met het verbruik. Die twee clustertjes vereisen buitensporig veel meer sap.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01-01 15:58
XWB schreef op woensdag 30 maart 2022 @ 11:51:
[...]


Uiteraard. Maar als het nieuwe RTX-40 topmodel inderdaad 600W zou verbruiken, dan kan dat ook een teken zijn dat de hele lijn opschuift en gaat de toekomstige 4080 misschien wel over je grens van 300W heen.
Er zullen altijd grafische kaarten of in ieder geval losse GPU chips blijven met laag TDP (niet geïntegreerd), vanwege laptops en consoles. Die kunnen de hitte eenvoudig weg anders niet afvoeren.

Wat betreft de bovenkant voor de desktop is er niet echt een maximum, dat gaat met stappen van 150W per keer + 75W van de PCIe Express slot. Elke stap stelt meer eisen aan de koeling van het gehele systeem. Dus ook voor desktops is er een maximum aan koeling dat een behuizing kan afvoeren. Dat maximum wordt stap voor stap opgezocht, ATX v3.0 PSU's gaan nu voor 600W dus 675W in totaal voor 1 GPU met 1 aansluiting, max.

Tot nu toe is 630W gelukt.

https://cdn.mos.cms.futur...FoD9ngDNm-970-80.png.webp
With the new 1,000W BIOS installed, and a hefty overclock the RTX 3090 HOF reached a peak power consumption of a whopping 630W. But the extra 200W of power resulted in the beefy triple-fan cooler being completely overwhelmed and forced the GPU to sit at 96 degrees Celsius, which is the card's maximum temperature limit before it will shut down to prevent damage. However, the core clocks were very stable at 2,010 MHz.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Werelds schreef op woensdag 30 maart 2022 @ 13:32:
[...]

Helaas merk je dat in VR wel heel snel :P

Dit onding is gewoon een cashgrab waarvan we anderhalf jaar geleden al wisten dat hij ging komen. Ik moet wel toe geven dat ik niet had verwacht dat ze het zó moeilijk zouden hebben met het verbruik. Die twee clustertjes vereisen buitensporig veel meer sap.
Heeft dat ook niet met de yields te maken. Normaal zouden die clusters die minder waren uitgeschakeld worden toch? Nu gooien ze het voltage omhoog om ze toch te laten werken?

Wat betreft stroomgebruik; dat is ook nog eens zonder het extra verbruik mee te rekenen van de cpu die met een Nvidia kaart zwaarder wordt belast gezien ze een grotere overhead hebben.

Persoonlijk zou ik voor een kaart gaan een verbruik tussen de 200-250Watt; mijn huidige kaart zou ik nooit meer nemen.

[ Voor 7% gewijzigd door Sp3ci3s8472 op 30-03-2022 18:08 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Sp3ci3s8472 schreef op woensdag 30 maart 2022 @ 18:07:
Heeft dat ook niet met de yields te maken. Normaal zouden die clusters die minder waren uitgeschakeld worden toch? Nu gooien ze het voltage omhoog om ze toch te laten werken?
Ja en nee. Spanning moet wel iets omhoog, maar gezien de frequenties niet zo heel veel hoger liggen en het verbruik wel enorm is gestegen hebben ze de spanning behoorlijk op moeten voeren. Geen idee waar de core van een 3090 en 3090 Ti op draaien (vooral omdat ik er nooit naar gezocht heb omdat ik ze totaal niet boeiend vind :D), maar ik vermoed dat die laatste minstens 150 mV hoger draait.
Persoonlijk zou ik voor een kaart gaan een verbruik tussen de 200-250Watt; mijn huidige kaart zou ik nooit meer nemen.
400W+ wordt het voor mij ook niet. Met de custom loop is m'n PC fluisterstil en dat wil ik graag zo houden, gezien het aantal uren dat ik er pal naast zit. Met zo'n verbruik zal zelfs een custom loop toch een tandje bij moeten zetten :p

offtopic:
Wel de power limit op m'n 1080 Ti iets omlaag bij moeten stellen :(

Kreeg BSOD's op vreemde momenten en dat lijkt het vooralsnog opgelost te hebben, zonder dat de kloksnelheden lager zijn. Hij boost nog steeds even hard, dus ik vermoed dat het geheugen af en toe wat te veel trok en te warm werd. Dat is in elk geval het onderdeel dat er waarschijnlijk uiteindelijk voor zorgt dat hij de deur uit móet. Inmiddels wel de langst dienende GPU in m'n onderdelen historie :P

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dus blijkbaar hebben Intel en Nvidia een samenwerking afgesloten over een gestandaardiseerde SDK voor verschillende upscaling technologieën (Streamline). :)
https://developer.nvidia....-development-at-gdc-2022/

En ja, FSR werkt hier in theorie ook mee. Uiteraard kan Nvidia dit niet gewoon zeggen, want Nvidia...
Afbeeldingslocatie: https://developer-blogs.nvidia.com/wp-content/uploads/2022/03/Streamline_Diagram-625x415.png

De implicaties zijn denk ik ook wel duidelijk. XeSS is vooralsnog Intel exclusief met de belofte dat het later ook beschikbaar zal komen. DLSS is helemaal gesloten en FSR2 is beschikbaar voor alle vendors. Tenzij er iets enorm mis is met FSR2, zal dit gewoon de standaard worden omdat je zo het hele PC landschap + in ieder geval Xbox bereikt. Sony blijft wat vaag, maar in principe zou FSR2 daar ook moeten werken.

Op deze manier kan je als developer eerst FSR2 implementeren en dan in theorie ook gemakkelijk DLSS of XeSS ernaast implementeren.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op zondag 3 april 2022 @ 11:50:
En ja, FSR werkt hier in theorie ook mee. Uiteraard kan Nvidia dit niet gewoon zeggen, want Nvidia...
"Hardware Vendor #3" verwijst duidelijk naar AMD. Dit is inderdaad de standaard kinderachtige manier waarop Nvidia verwijst naar AMD.

Ik zie dit als een poging van Nvidia om te zorgen dat DLSS gebruikt zal blijven worden, want voor ontwikkelaars wordt het met FSR 2 wel erg aantrekkelijk om die techniek te gebruiken, want daarmee ondersteunen ze meteen alle kaarten. En ik denk dat AMD meer marktaandeel gaat veroveren met de volgende generatie.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Ludewig schreef op zondag 3 april 2022 @ 13:05:
[...]


"Hardware Vendor #3" verwijst duidelijk naar AMD. Dit is inderdaad de standaard kinderachtige manier waarop Nvidia verwijst naar AMD.

Ik zie dit als een poging van Nvidia om te zorgen dat DLSS gebruikt zal blijven worden, want voor ontwikkelaars wordt het met FSR 2 wel erg aantrekkelijk om die techniek te gebruiken, want daarmee ondersteunen ze meteen alle kaarten. En ik denk dat AMD meer marktaandeel gaat veroveren met de volgende generatie.
Inderdaad, maar niet alleen AMD is een bedreiging voor Nvidia; Intel komt ook met een DLSS tegenhanger die net zoals FSR op alle kaarten gaat werken.
Uiteindelijk is Nvidia de enige fabrikant die technieken ontwikkeld die alleen op hun kaarten werken; ik hoop dat DLSS over gaat in meer open variant zoals GSync of een stille dood sterft. Nvidia kan dit natuurlijk blijven doen, tot dat ze niet meer de grootste zijn in marktaandeel.
De adoptie van FSR is behoorlijk rap en ik vermoed dat dit deels komt doordat het opensource is en makkelijker te implementeren is. Met 2.0 zal de adoptie waarschijnlijk sterk in lijn liggen met console spellen.

Als streamline zo goed zou zijn als het enige wat je hoeft te doen is een DLSS/FSR/Intel dinges plugin mee te leveren dan zou dat mooi zijn. Ik vermoed alleen dat dit er voor zorgt dat bepaalde dingen te generiek worden waardoor speficieke tweaks aan de algoritmes (op een per game basis) misschien niet mogelijk zijn.

  • Cloggs
  • Registratie: April 2004
  • Laatst online: 02-02 20:58
Ludewig schreef op zondag 3 april 2022 @ 13:05:
[...]


"Hardware Vendor #3" verwijst duidelijk naar AMD. Dit is inderdaad de standaard kinderachtige manier waarop Nvidia verwijst naar AMD.

Ik zie dit als een poging van Nvidia om te zorgen dat DLSS gebruikt zal blijven worden, want voor ontwikkelaars wordt het met FSR 2 wel erg aantrekkelijk om die techniek te gebruiken, want daarmee ondersteunen ze meteen alle kaarten. En ik denk dat AMD meer marktaandeel gaat veroveren met de volgende generatie.
Of AMD heeft geen toestemming gegeven om hun merknaam te gebruiken. Beetje onzin om meteen aan te nemen dat het onwil van Nvidia is. Nvidia heeft nauwelijks wat te duchten van AMD.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Cloggs schreef op zondag 3 april 2022 @ 17:31:
[...]

Of AMD heeft geen toestemming gegeven om hun merknaam te gebruiken. Beetje onzin om meteen aan te nemen dat het onwil van Nvidia is. Nvidia heeft nauwelijks wat te duchten van AMD.

Denk dat ze vooral Intel niet willen nadoen :+ :+ .

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Sp3ci3s8472 schreef op zondag 3 april 2022 @ 15:55:
[...]
Intel komt ook met een DLSS tegenhanger die net zoals FSR op alle kaarten gaat werken.
Dat is XeSS, maar de eerste versie werkt alleen op Intel. Het is maar de vraag wanneer de versie beschikbaar komt die overal op werkt. Ik heb het idee dat AMD voorop loopt. Sowieso hebben ze met FSR 1 al praktijk-ervaring opgedaan en bewezen dat ze iets bruikbaars kunnen leveren. Daarnaast is AMD een bekende speler bij spel-ontwikkelaars.

Het lijkt erop dat de desktop-kaarten van Intel ook pas richting Q3 of zelfs Q4 komen, wat het lastig maakt voor ontwikkelaars om er snel mee aan de slag te gaan. Eigenlijk alleen ontwikkelaars die van Intel wat kaarten krijgen toegestopt kunnen er dan mee aan de slag, wat er niet zoveel zijn.
Cloggs schreef op zondag 3 april 2022 @ 17:31:
[...]
Of AMD heeft geen toestemming gegeven om hun merknaam te gebruiken. Beetje onzin om meteen aan te nemen dat het onwil van Nvidia is. Nvidia heeft nauwelijks wat te duchten van AMD.
Zo werkt het niet. Er is geen wet die het verbied om een merknaam te noemen. Dit is ook vrij typisch gedrag dat je vaker ziet, waarbij de koploper de nummer 2 niet wil noemen, om te voorkomen dat mensen op het idee komen om die concurrent eens even te gaan bekijken.

En ik voorspel alvast dat AMD bij de volgende generatie een erg goed product neerzet. RDNA2 is al erg competitief. Sowieso was het probleem in het verleden dat AMD te weinig investeerde in R&D, maar ze hebben besloten om dat wel te gaan doen. Juist door de crisis hebben ze een flinke oorlogskas kunnen opbouwen, dus dit is hun kans om een gooi te doen naar de kroon.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Ludewig schreef op zondag 3 april 2022 @ 19:39:
[...]


Dat is XeSS, maar de eerste versie werkt alleen op Intel. Het is maar de vraag wanneer de versie beschikbaar komt die overal op werkt. Ik heb het idee dat AMD voorop loopt. Sowieso hebben ze met FSR 1 al praktijk-ervaring opgedaan en bewezen dat ze iets bruikbaars kunnen leveren. Daarnaast is AMD een bekende speler bij spel-ontwikkelaars.
Inderdaad, de naam bekt niet zo lekker als DLSS of FSR en was het om die reden alweer kwijt :P, het was iets met de X erin. Had dat niet te maken met het feit dat de versie die ze beschikbaar willen maken voor andere kaarten nog niet af was en een andere instructieset gebruikt?

Overigens niet erg dat de kaarten van Intel nog even op zich laten wachten, Intel drivers waren niet altijd super. Beter dat ze iets uitbrengen wat direct goed is gezien eerste impressie belangrijk is. Kijk maar hoe lang AMD de naam heeft van slechte drivers terwijl Nvidia net zo vaak of niet vaker onzin heeft met drivers.
Helaas zit ik met een Nvidia kaart op Linux... voor mijn werk laptop; een ander merk kiezen kon helaas niet anders had ik om de driver reden AMD genomen.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op zondag 3 april 2022 @ 13:05:
[...]


"Hardware Vendor #3" verwijst duidelijk naar AMD. Dit is inderdaad de standaard kinderachtige manier waarop Nvidia verwijst naar AMD.

Ik zie dit als een poging van Nvidia om te zorgen dat DLSS gebruikt zal blijven worden, want voor ontwikkelaars wordt het met FSR 2 wel erg aantrekkelijk om die techniek te gebruiken, want daarmee ondersteunen ze meteen alle kaarten. En ik denk dat AMD meer marktaandeel gaat veroveren met de volgende generatie.
Uh, dat zei ik toch? :P
Sp3ci3s8472 schreef op zondag 3 april 2022 @ 15:55:
[...]


Inderdaad, maar niet alleen AMD is een bedreiging voor Nvidia; Intel komt ook met een DLSS tegenhanger die net zoals FSR op alle kaarten gaat werken.
Uiteindelijk is Nvidia de enige fabrikant die technieken ontwikkeld die alleen op hun kaarten werken; ik hoop dat DLSS over gaat in meer open variant zoals GSync of een stille dood sterft. Nvidia kan dit natuurlijk blijven doen, tot dat ze niet meer de grootste zijn in marktaandeel.
De adoptie van FSR is behoorlijk rap en ik vermoed dat dit deels komt doordat het opensource is en makkelijker te implementeren is. Met 2.0 zal de adoptie waarschijnlijk sterk in lijn liggen met console spellen.

Als streamline zo goed zou zijn als het enige wat je hoeft te doen is een DLSS/FSR/Intel dinges plugin mee te leveren dan zou dat mooi zijn. Ik vermoed alleen dat dit er voor zorgt dat bepaalde dingen te generiek worden waardoor speficieke tweaks aan de algoritmes (op een per game basis) misschien niet mogelijk zijn.
XeSS is voorlopig alleen Intel exclusief met de belofte dat het later open zou worden. Dan is het eigenlijk ook heel simpel. Het moet beduidend beter zijn dan FSR2, want anders gaat het nooit wat worden. Intel haar effectieve marktaandeel is immers nul. AMD kwam denk ik ook echt niet zomaar net voordat Intel met haar eerste ARC chips kwam, met FSR2 inclusief korte demo.

Bij FSR2 is het denk ik de vraag hoe goed het zal zijn in zowel frameratewinst als kwaliteit van beeld. Als het echt DLSS gaat matchen, dan is DLSS eigenlijk ook klaar. Maar aangezien Nvidia zoveel transistoren spendeert aan voor shader based gaming eigenlijk vrij nutteloze "tensor cores", zou ik niet verbaast zijn als Nvidia een klein voordeel zal behouden. Misschien niet zozeer in kwaliteit van frames als in winst qua framerates.

FSR2 hangt waarschijnlijk zwaar op halve precision berekeningen waar juist RDNA en ook Vega zo goed in zijn. Het is ook geen toeval dat FSR2 blijkbaar ook een wave 64 mode heeft die volgens AMD, soms sneller is dan wave 32. De specialistische hardware in Intel ARC of Turing/Ampere word waarschijnlijk niet aangesproken en dat kan wel eens een prestatievoordeel gaan opleveren voor AMD. Maar als je al een console achter je hebt staan alsmede een aardig marktaandeel in de laptopmarkt, integratie in de grote game engines en vendor agnostisch bent, tja dan gaat het lastig worden voor DLSS of XeSS als FSR2 vrijwel hetzelfde doet voor je scherm.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Sp3ci3s8472 schreef op zondag 3 april 2022 @ 20:18:
Inderdaad, de naam bekt niet zo lekker als DLSS of FSR
Toen ik het voor het eerst las dacht ik dat het de bedoeling was dat het als "excess" uit werd gesproken. Blijkbaar niet want het is overal "eks ie es es". Mijn manier bekt een stuk lekkerder :p

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op zondag 3 april 2022 @ 20:34:
[...]

Toen ik het voor het eerst las dacht ik dat het de bedoeling was dat het als "excess" uit werd gesproken. Blijkbaar niet want het is overal "eks ie es es". Mijn manier bekt een stuk lekkerder :p
Ik dacht gewoon dat het een van de minder mislukte namen van een Intel product was. Want Intel hun line-up zijn soms, laten we zeggen "bijzonder" in hun benoeming. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Werelds schreef op zondag 3 april 2022 @ 20:34:
[...]

Toen ik het voor het eerst las dacht ik dat het de bedoeling was dat het als "excess" uit werd gesproken. Blijkbaar niet want het is overal "eks ie es es". Mijn manier bekt een stuk lekkerder :p
Precies! Alleen "teveel" leek mij niet een goede naam voor een nieuwe techniek :P.

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op zondag 3 april 2022 @ 20:30:
[...]
Bij FSR2 is het denk ik de vraag hoe goed het zal zijn in zowel frameratewinst als kwaliteit van beeld. Als het echt DLSS gaat matchen, dan is DLSS eigenlijk ook klaar. Maar aangezien Nvidia zoveel transistoren spendeert aan voor shader based gaming eigenlijk vrij nutteloze "tensor cores", zou ik niet verbaast zijn als Nvidia een klein voordeel zal behouden. Misschien niet zozeer in kwaliteit van frames als in winst qua framerates.
AMD heeft vrij uitgebreid beschreven hoe het werkt: https://gpuopen.com/gdc-p..._Super_Resolution_2_0.pdf

Zo verschuift hij het beeld een heel klein beetje voor opvolgende frames. Op basis van de verschillen kun je dan meer detail genereren dan de resolutie waar hij op rendert. Verder worden er allemaal trucjes gedaan om fijne details niet kwijt te raken en zo.

Als ik naar Nvidia's beschrijving kijk van DLSS heb ik het idee dat dit grotendeels hetzelfde werkt. Ik vermoed dat de kwaliteit dan ook sterk vergelijkbaar is en het verschil inderdaad vooral gemaakt wordt door de tensor cores.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 02-02 16:32
Ludewig schreef op maandag 4 april 2022 @ 11:27:
[...]


AMD heeft vrij uitgebreid beschreven hoe het werkt: https://gpuopen.com/gdc-p..._Super_Resolution_2_0.pdf

Zo verschuift hij het beeld een heel klein beetje voor opvolgende frames. Op basis van de verschillen kun je dan meer detail genereren dan de resolutie waar hij op rendert. Verder worden er allemaal trucjes gedaan om fijne details niet kwijt te raken en zo.

Als ik naar Nvidia's beschrijving kijk van DLSS heb ik het idee dat dit grotendeels hetzelfde werkt. Ik vermoed dat de kwaliteit dan ook sterk vergelijkbaar is en het verschil inderdaad vooral gemaakt wordt door de tensor cores.
Voor compleet stilstaande beelden zijn de verschillen tussen DLSS2.0, FSR2.0, TSR en TAAU klein. Maar stilstaand beeld is makkelijk. Hoe ze met bewegende beelden omgaan is wel heel anders, en bewegende beelden is traditioneel juist het zwakste punt van temporal upscaling en antialiasing.

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
cnieuweboer schreef op maandag 4 april 2022 @ 18:40:
[...]
Voor compleet stilstaande beelden zijn de verschillen tussen DLSS2.0, FSR2.0, TSR en TAAU klein. Maar stilstaand beeld is makkelijk. Hoe ze met bewegende beelden omgaan is wel heel anders, en bewegende beelden is traditioneel juist het zwakste punt van temporal upscaling en antialiasing.
Bewegende beelden zijn juist een voordeel omdat je dan informatie uit de eerdere frames kan halen. Daarom doen de algoritmes op basis van temporal upscaling het beter dan algoritmes zoals DLSS 1 en FSR 1 die dat niet doen.

De screenshots die je ziet zijn in principe allemaal screenshots uit bewegend beeld, geen upscaling van stilstaande beelden, dus dan is de vraag meer of de screenshots die ze gepakt hebben wel representatief zijn. Maar op zich kun je heel veel uit de screenshots halen, als je er oog voor hebt. Nu hebben veel mensen er geen oog voor...

Uiteindelijk vindt ik de vergelijking met native ook het minst interessant, omdat dit is als het vergelijken van een 3060 met een 3090 en dan te concluderen dat de 3090 beter is. Als straks heel veel mensen de keus hebben voor behoorlijk goede upscaling en daardoor veel meer kunnen genieten van een relatief goedkope kaart is dat grote winst.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 02-02 16:32
Ludewig schreef op maandag 4 april 2022 @ 20:04:
[...]
Bewegende beelden zijn juist een voordeel omdat je dan informatie uit de eerdere frames kan halen. Daarom doen de algoritmes op basis van temporal upscaling het beter dan algoritmes zoals DLSS 1 en FSR 1 die dat niet doen.
We hebben het over verschillende dingen. Met zwakst punt bedoel ik de upscaling per frame bij bewegend beeld. Het bewegende beeld maakt het veel moeilijker om meerdere frames te gebruiken om meer informatie over een object samen te voegen. Voor een duidelijke uitleg zie bv YouTube: GTC 2020: DLSS - Image Reconstruction for Real-time Rendering with D...

De "temporal stability" (zoals bv subpixel shimmering) is idealiter inderdaad een sterk punt.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op maandag 4 april 2022 @ 11:27:
[...]


AMD heeft vrij uitgebreid beschreven hoe het werkt: https://gpuopen.com/gdc-p..._Super_Resolution_2_0.pdf

Zo verschuift hij het beeld een heel klein beetje voor opvolgende frames. Op basis van de verschillen kun je dan meer detail genereren dan de resolutie waar hij op rendert. Verder worden er allemaal trucjes gedaan om fijne details niet kwijt te raken en zo.

Als ik naar Nvidia's beschrijving kijk van DLSS heb ik het idee dat dit grotendeels hetzelfde werkt. Ik vermoed dat de kwaliteit dan ook sterk vergelijkbaar is en het verschil inderdaad vooral gemaakt wordt door de tensor cores.
Ik had hun presentatie al gezien. ;)
Maar mij gaat het uiteindelijk om het resultaat op het scherm. Want eigenlijk ben ik die wildgroei van eigen, (semi) gesloten oplossingen nu al helemaal zat en zou ik graag zien dat FSR2 slaagt en de rest snel verdwijnt. Want ik hoef bijvoorbeeld niet de herhaling van GPU physics technologieën waar Nvidia er eentje kocht, Intel een ander en er maar weinig mee gebeurde. Zeker omdat dit van een dusdanig ander niveau is dan veel andere "eye catching" technologieën die we de afgelopen jaren hebben gezien.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
cnieuweboer schreef op maandag 4 april 2022 @ 20:23:
[...]
Met zwakst punt bedoel ik de upscaling per frame bij bewegend beeld. Het bewegende beeld maakt het veel moeilijker om meerdere frames te gebruiken om meer informatie over een object samen te voegen. Voor een duidelijke uitleg zie bv YouTube: GTC 2020: DLSS - Image Reconstruction for Real-time Rendering with D...
Dit gaat dus om ghosting, waar je bij bewegende beelden juist niet de informatie van eerdere frames wil gebruiken voor het bewegende deel. De presentatie van Nvidia legt dit probleem beter uit dan de AMD presentatie, maar de AMD presentatie geeft juist veel meer informatie over hoe je dit kan oplossen zonder veel in te boeten op de kwaliteit.

Bijvoorbeeld door gebruik van motion vectors waarbij je bijhoudt hoe een deel van het beeld beweegt. Dan kun je dus vaststellen dat het pistool van de bewegende vijand dat bij het eerste beeld op pixel 5 staat, bij het volgende beeld op pixel 7 staat, dus kun je de informatie van pixel 5 dan koppelen aan pixel 7, om zo alsnog de voordelen te hebben van historische data.

Door het gebruik van machine learning weet Nvidia mogelijk ook niet welke trucjes hun algoritme precies gebruikt. Het voordeel van machine learning is dat je dit niet hoeft te weten, maar het nadeel is dat het veel minder goed te tunen is en dat je ook niet goed weet welke input het beste werkt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op maandag 4 april 2022 @ 21:56:
[...]
Maar mij gaat het uiteindelijk om het resultaat op het scherm. Want eigenlijk ben ik die wildgroei van eigen, (semi) gesloten oplossingen nu al helemaal zat en zou ik graag zien dat FSR2 slaagt en de rest snel verdwijnt.
Het beste lijkt me als meerdere algoritmes met elkaar gaan concurreren, waarbij de ontwikkelaars vrijwel geen extra werk hebben om meerdere te ondersteunen. Dan wordt men gestimuleerd om te blijven doorontwikkelen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01-01 15:58
Cloggs schreef op zondag 3 april 2022 @ 17:31:
[...]

Of AMD heeft geen toestemming gegeven om hun merknaam te gebruiken. Beetje onzin om meteen aan te nemen dat het onwil van Nvidia is. Nvidia heeft nauwelijks wat te duchten van AMD.
Qua marketing en discrete GPUs heb je gelijk, verkoop is al een tijdje 80%-20% in het voordeel van nVidia. Neem je de PS5 en XSX mee? Dan is het meer 50%-50%.

Game developers zullen dus voorlopig rekening met AMD en nVidia moeten houden, niet per se Intel. Maar net als nVidia zal Intel gewoon developer implementatie kopen, en dus is AMD er het meest aan gelegen een open standaard te creëren.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:01
sunsmountain schreef op zondag 10 april 2022 @ 19:04:
[...]

Qua marketing en discrete GPUs heb je gelijk, verkoop is al een tijdje 80%-20% in het voordeel van nVidia. Neem je de PS5 en XSX mee? Dan is het meer 50%-50%.

Game developers zullen dus voorlopig rekening met AMD en nVidia moeten houden, niet per se Intel. Maar net als nVidia zal Intel gewoon developer implementatie kopen, en dus is AMD er het meest aan gelegen een open standaard te creëren.
Zelfs dan haal je dat volgens mij niet, maar je komt wel redelijk in de buurt als je niet alles meeneemt.

Als ik kijk naar 2021 cijfers kom ik de volgende cijfers tegen:

dGPU's 49 miljoen
PS5 12,8 miljoen
Xbox X|S 10,3 miljoen

Als AMD van die 49 miljoen 20% heeft is dat 9,8 miljoen units, en dus 39.2 miljoen voor Nvidia.

23,1 miljoen consoles met 9,8 miljoen dGPU's is 32,9 miljoen units, Nvidia verscheept dan in 2021 nog altijd 19% meer units.

En het marktaandeel zou dan zijn +-45% voor AMD en +-55% voor Nvidia.
Echter als we de PS5 en Xbox meenemen in marktaandeel kunnen we eigenlijk ook de Switch niet overslaan als we kijken naar marktaandeel.

Die was in 2021 schijnbaar goed voor 23 miljoen units als we Nintendo mogen geloven.

Wat in units maakt 32.9 miljoen voor AMD en 62.2 voor Nvidia, of wel een +- 35% share voor AMD in de gaming markt en +-65% voor Nvidia.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Is de Switch erbij betrekken geen appels met peren vergelijken gezien dat een ARM cpu is :?

Vanuit developers gezien heb je PS + XBox +dGPU die allemaal combineren met x86. Waarbij de PS + XBOX cpu en gpu + AMD dGPU allemaal bij dezelfde fabrikant vandaan komen.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:01
Help!!!! schreef op maandag 11 april 2022 @ 10:22:
^
Is de Switch erbij betrekken geen appels met peren vergelijken gezien dat een ARM cpu is :?

Vanuit developers gezien heb je PS + XBox +dGPU die allemaal combineren met x86. Waarbij de PS + XBOX cpu en gpu + AMD dGPU allemaal bij dezelfde fabrikant vandaan komen.
Dat ligt eraan waar je naar kijkt, maar als je zoals de post waar ik op reageer puur naar marktaandeel (en dus verkopen kijkt) lijkt te kijken moet je ook alle spelers in dat markt segment meenemen, en kan je imho niet echt gaan 'cherry picken'. Om marktaandeel binnen het 'Gaming segment' of de 'Console markt' te bepalen maakt het niet niet veel uit of een apparaat een x86 APU heeft of een ARM SoC.

Als het gaat om apparaten die FSR supporten hoef je de switch, zo lijkt het, ook niet uit te sluiten, zie o.a. https://www.tomshardware....gra-amd-fsr-switch-sports

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Ik zie de Switch meer als een mobiele gaming oplossing, in min of meer dezelfde categorie als gamen op je telefoon en misschien de Quest 2. Dat is voor mij toch een andere categorie dan PC's en consoles.

De Steam Deck zou ik eerder zien als de ondergrens van de de PC/console categorie. Dat is daadwerkelijk een volwaardige computer die dezelfde soort spellen kan spelen die je op de PC en console hebt (terwijl er geen ports zijn van console/PC games naar de Switch omdat die hardware dat gewoon niet aankan). De Steam Deck heeft dan weer een AMD oplossing (maar nog weinig marktaandeel).

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01-01 15:58
Dennism schreef op maandag 11 april 2022 @ 09:16:
[...]


Zelfs dan haal je dat volgens mij niet, maar je komt wel redelijk in de buurt als je niet alles meeneemt.

Als ik kijk naar 2021 cijfers kom ik de volgende cijfers tegen:

dGPU's 49 miljoen
PS5 12,8 miljoen
Xbox X|S 10,3 miljoen

Als AMD van die 49 miljoen 20% heeft is dat 9,8 miljoen units, en dus 39.2 miljoen voor Nvidia.

23,1 miljoen consoles met 9,8 miljoen dGPU's is 32,9 miljoen units, Nvidia verscheept dan in 2021 nog altijd 19% meer units.

En het marktaandeel zou dan zijn +-45% voor AMD en +-55% voor Nvidia.
Echter als we de PS5 en Xbox meenemen in marktaandeel kunnen we eigenlijk ook de Switch niet overslaan als we kijken naar marktaandeel.

Die was in 2021 schijnbaar goed voor 23 miljoen units als we Nintendo mogen geloven.

Wat in units maakt 32.9 miljoen voor AMD en 62.2 voor Nvidia, of wel een +- 35% share voor AMD in de gaming markt en +-65% voor Nvidia.
Klopt, het is eigenlijk 55-45% als je kijkt naar de nieuwste nodes. Ga je oude nodes meetellen (20 nm, 16nm), kom je nog veel meer AMD tegen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01-01 15:58
Dennism schreef op maandag 11 april 2022 @ 11:03:
[...]


Dat ligt eraan waar je naar kijkt, maar als je zoals de post waar ik op reageer puur naar marktaandeel (en dus verkopen kijkt) lijkt te kijken moet je ook alle spelers in dat markt segment meenemen, en kan je imho niet echt gaan 'cherry picken'. Om marktaandeel binnen het 'Gaming segment' of de 'Console markt' te bepalen maakt het niet niet veel uit of een apparaat een x86 APU heeft of een ARM SoC.

Als het gaat om apparaten die FSR supporten hoef je de switch, zo lijkt het, ook niet uit te sluiten, zie o.a. https://www.tomshardware....gra-amd-fsr-switch-sports
Als je alleen kijkt naar nieuw verkochte actief geproduceerde consoles komt nVidia er misschien iets veel beter van af maar vergeet de ps4 pro dan niet. Die volledige analyse heb ik nog niet in detail gedaan.

Echter, game developers kijken naast nieuwe units ook naar de installed base, met name de afgelopen 3 jaar, voor het kiezen van een platform (en performance target).

Laten we je Nintendo Switch meenemen. Hoeveel PS4, Nintendo Switch en Xbox One zijn er verkocht?

Afbeeldingslocatie: https://tweakers.net/i/Sa5RenswxBtABpe7UC7Q1p-uiTc=/800x/filters:strip_exif()/f/image/EnMD1P1FHNBVA6wSthSUxGxV.png?f=fotoalbum_large

Sept 2021
PS4: 116M (AMD GCN2.0)
NS: 90M (nVidia Maxwell)
Xbox One: 80M (AMD GCN1.0)

+ nieuwe sales (jouw cijfers) 2021
PS5 12,8M (AMD RDNA2)
Xbox X|S 10,3M (AMD RDNA2)
9,8M (AMD RDNA2)
39.2M (Nvidia Ampere)

Laten we de dGPU's verdrievoudigen (in het voordeel van nVidia), want game developers kijken naar de afgelopen 3 jaar, voor het gemak. Orde van grootte zal dat kloppen:

PS4: 116M (AMD GCN2.0)
NS: 90M (nVidia Maxwell)
Xbox One: 80M (AMD GCN1.0)
+
PS5 12,8M (AMD RDNA2)
Xbox X|S 10,3M (AMD RDNA2)
29,4M (AMD RDNA1 + RDNA2)
117,6M (Nvidia Turing + Ampere)

The grand total:
AMD = 238,2M
nVidia = 207,6M

Dat is 53%-47% in het voordeel van AMD. Dus laten we het houden op 50%-50% ;)

[ Voor 43% gewijzigd door sunsmountain op 11-04-2022 23:05 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op dinsdag 5 april 2022 @ 16:38:
[...]


Het beste lijkt me als meerdere algoritmes met elkaar gaan concurreren, waarbij de ontwikkelaars vrijwel geen extra werk hebben om meerdere te ondersteunen. Dan wordt men gestimuleerd om te blijven doorontwikkelen.
En als die algoritmen dan ook vendor agnostisch zouden zijn, dan zou ik er geen probleem mee hebben. Realiteit is anders.

-Nvidia heeft van DLSS een marketingmiddel gemaakt en het werkt op basis van hun eigen hardware. Die gaan het niet zomaar openstellen met een shaderversie, als dit al gemakkelijk kan.
-XeSS zal vooralsnog alleen voor Intel zijn en is wederom ook een marketingmiddel. Dit omdat Intel op het moment nul relevant marktaandeel heeft en zeker in de laptopmarkt wil stappen. Op termijn zou er een update voor XeSS komen die vendor agnostisch is, beschikbaar zal maken. Dit zal ongetwijfeld op shaders draaien, maar Intel houd voor zichzelf een meer geoptimaliseerde manier met hun eigen matrix cores.
-AMD komt met FSR2 wat op shaders werkt. Is dus vendor agnostisch en Microsoft is al aan boord.
-Heb je ook nog Epic die met hun Fortnite geld, UE5 hebben ontwikkeld en hun eigen upscaling tech (TSR) hebben. Wederom shader based en dus vendor agonistisch. Helaas wel voorbehouden aan UE5.
-Sony is dan waarschijnlijk ook nog bezig met hun eigen upscaling algoritme.

Concurrentie genoeg, als je een PS5 hebt, en een Nvidia en een Intel videokaart en de game op UE5 draait. Maar aangezien deze combinatie van hardware op zijn zachts gezegd, interessant zou zijn, heb je er in de praktijk niks aan. Op zich kan TSR nog iets worden, maar in UE5 zitten er al of zullen er ook plugins voor DLSS, FSR2 en XeSS zijn. Sony haar upscaling kan leuk zijn voor PS5 exclusieve titels en dat was het ook wel. Nvidia hun technologie is vervolgens beperkt tot RTX modellen en sluit dus ook een zeer aanzienlijk deel van hun marktaandeel ook uit. XeSS heeft op het moment überhaupt geen marktaandeel die het kan gebruiken. Blijft dus FSR2 over.

Ik hoop dan ook echt dat FSR2 gewoon goed genoeg is en de rest snel verdwijnt. Want met een upscaling oorlog tussen een aantal miljardenbedrijven, verliezen de gamers namelijk. Dit is gewoon een geval goed genoeg is beter dan perfect. Want je hebt niks aan perfect als het niet werkt op je hardware vanwege een of andere (semi) bewuste blokkade. En FSR1 heeft dit al ruimschoots bewezen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op maandag 11 april 2022 @ 22:41:
[...]
-XeSS zal vooralsnog alleen voor Intel zijn en is wederom ook een marketingmiddel.
XeSS gaat wel vendor-agnostisch worden en open source, net zoals FSR 2. Ik verwacht wel dat XeSS nog wat gaat achterlopen op de anderen omdat dit hun eerste release wordt. De anderen hebben allemaal een slechtere variant uitgebracht voordat hun 2.0 versie wat werd/wordt (TAAU vs TSR, DLSS 1 vs DLSS 2, FSR 1 vs 2).

Uiteindelijk is het zowel in het belang van AMD als Intel dat een vendor-agnostische variant heel populair wordt. Uiteindelijk maakt het dan niet uit welke het is en of meerdere naast elkaar bestaan, want ze zitten elkaar niet in de weg.

TSR lijkt trouwens aardig goed te werken, als we de UE5 demo mogen geloven. Ik verwacht dat FSR 2 minimaal net zo goed werkt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Dennism schreef op maandag 11 april 2022 @ 11:03:
[...]


Dat ligt eraan waar je naar kijkt, maar als je zoals de post waar ik op reageer puur naar marktaandeel (en dus verkopen kijkt) lijkt te kijken moet je ook alle spelers in dat markt segment meenemen, en kan je imho niet echt gaan 'cherry picken'. Om marktaandeel binnen het 'Gaming segment' of de 'Console markt' te bepalen maakt het niet niet veel uit of een apparaat een x86 APU heeft of een ARM SoC.

Als het gaat om apparaten die FSR supporten hoef je de switch, zo lijkt het, ook niet uit te sluiten, zie o.a. https://www.tomshardware....gra-amd-fsr-switch-sports
Ik zou het niet meerekenen omdat het verschil in architectuur tegenwoordig zo groot is dat Nvidia er weinig voordeel uithaalt als men voor de Switch optimaliseerd (ik weet dat we nu kijken naar marktaandeel omdat we het over algoritmes hebben :P).
Tenminste dat is hoe ik er tegenaan kijk; ik kijk naar consoles en verkopen van discrete gpu's van een vergelijkbare architectuur. Daaronder vallen dus ook steamdeck en andere APU's van AMD met RDNA(2).

Wat ik me afvraag uiteindelijk met FSR 2.0 vs DLSS. Met FSR weet je wat je aan het bouwen bent en je hebt de sourcecode, een developer kan FSR zo inrichten dat het goed presteerd op hun spel.
Met DLSS werk je veel meer met een generieke blackbox die het vaak goed doet. Ze kunnen niet meer specifiek trainen op een bepaald spel. De enige manier om dat gewicht te geven in het netwerk is dat spel op te nemen in je set training data; maar het gewicht daarvan zal minder sterk zijn.
Tenminste dit is mijn impressie.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

NVIDIA RTX 40-series "Ada" GPUs to Stick to PCI-Express Gen 4

"..........
Despite using PCI-Express 4.0 for its host interface, GeForce "Ada" graphics cards are expected to extensively use the ATX 3.0 spec 16-pin power connector that the company debuted with the RTX 3090 Ti, particularly with higher-end GPUs that have typical board power above 225 W. The 16-pin connector is being marketed as a "PCIe Gen 5" generation standard, particularly by PSU manufacturers cashing in on early-adopter demand. All eyes are now on AMD's RDNA3 graphics architecture, on whether it's first to market with PCI-Express Gen 5, the way RDNA (RX 5000 series) was with PCIe Gen 4. The decision to stick with PCIe Gen 4 is particularly interesting given that Microsoft DirectStorage may gain use in the coming years, something that is expected to strain the system bus for the GPU, as SSD I/O transfer-rates increase with M.2 PCIe Gen 5 SSDs."

[ Voor 73% gewijzigd door Help!!!! op 25-04-2022 08:12 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Het gebruik van "PCIe Gen 5" voor de power connector is vooral marketing. Er is geen enkel verband met de PCIe Gen 5 specificatie voor de bus. Het is puur dat deze connector wordt geïntroduceerd met de nieuwe generatie kaarten, die (mogelijk) een PCIe Gen 5 bus hebben.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Even snel door de whitepaper gebladerd; weer iets meer controle door middel van clusteren. Lijkt op iets waar AMD een tijd geleden een patent over had ingediend, wat weer leek op wat IBM al jaren doet.

Indeling verandert verder niet zo heel erg ingrijpend en het zijn allemaal gewoon vaste INT/FP ALU's (net als GA100), dus geen ongein zoals in desktop-Ampère waar de geadverteerde TFLOPS nergens op slaan. Dat wil je niet met de toepassingen waar dit ding voor bedoeld is. Dichtheid ligt zo'n 50% hoger dan z'n voorganger, wat weinig lijkt, maar GA100 is een bizar compacte chip met ~65MT/mm² (ter vergelijking: desktop-Ampère -Samsung- komt tot ~45M; AMD's RDNA2 tot zo'n ~51M).

Het lijkt vooral in de aansturing en de rekeneenheden zelf te zitten. Vanavond eens fatsoenlijk door lezen, maar zo op het oog lijken ze vooral de units zelf beter gemaakt te hebben, zonder de indeling van de chip als geheel op z'n kop te gooien.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nvidia hun monsterchip dan. Volgens kopite7kimi is het dus dit:

Afbeeldingslocatie: https://pbs.twimg.com/media/FSmzrczacAALuH5?format=jpg&name=large
Afbeeldingslocatie: https://pbs.twimg.com/media/FSmzsjWagAEkuFz?format=jpg&name=small

Uiteraard zijn de INT cores weer dual use dus FP en INT. Daarnaast 96MB L2 cache en ze gaan van zeven naar twaalf GPC's.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • OMD
  • Registratie: September 2003
  • Laatst online: 12:04

OMD

Ben wel een beetje bang voor Fermi praktijken met het gespeculeerde vermogen. 400 watt voor de 4080 is echt absurd. Dit gaat dan echt compleet de verkeerde kant op. Ben echt bang dat het “wie heeft de grootste e-peen” wordt.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
De recente release van AMD was geen goede indicatie wat dat betreft, want die overclockten hun chips en vroegen vervolgens extra daarvoor, terwijl veel mensen chips liever op een efficiënte clocksnelheid draaien.

Een deel van het probleem is dat er door het tekort aan productiecapaciteit weinig ruimte is om op volume te concurreren en daarom is het logisch dat men zoveel mogelijk wil verdienen aan de chips die ze kunnen produceren, door deze te overclocken e.d.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op maandag 16 mei 2022 @ 13:17:
De recente release van AMD was geen goede indicatie wat dat betreft, want die overclockten hun chips en vroegen vervolgens extra daarvoor, terwijl veel mensen chips liever op een efficiënte clocksnelheid draaien.

Een deel van het probleem is dat er door het tekort aan productiecapaciteit weinig ruimte is om op volume te concurreren en daarom is het logisch dat men zoveel mogelijk wil verdienen aan de chips die ze kunnen produceren, door deze te overclocken e.d.
AMD volgde zoals altijd het voorbeeld van Nvidia. Immers heeft Nvidia dat voorbeeld gezet met RTX3080 12GB en RTX3090Ti. Ik wacht dus gewoon rustig op de volgende "prijstechnische innovatie" van Nvidia en dan weet ik wat AMD gaat doen. :z }:|
OMD schreef op maandag 16 mei 2022 @ 12:12:
Ben wel een beetje bang voor Fermi praktijken met het gespeculeerde vermogen. 400 watt voor de 4080 is echt absurd. Dit gaat dan echt compleet de verkeerde kant op. Ben echt bang dat het “wie heeft de grootste e-peen” wordt.
AD-102 lijkt er dan ook te zijn voor wie de grootse "e-peen" heeft. Navi 31 idem.
Gewoon negeren en kijken naar AD-103/104 of Navi 32/33. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • OMD
  • Registratie: September 2003
  • Laatst online: 12:04

OMD

DaniëlWW2 schreef op maandag 16 mei 2022 @ 14:41:
[...]
AD-102 lijkt er dan ook te zijn voor wie de grootse "e-peen" heeft. Navi 31 idem.
Gewoon negeren en kijken naar AD-103/104 of Navi 32/33. :)
Ja maar dat is het ergste… ik had het over de AD103, dat is de chip met het gespeculeerde vermogen van 400 watt. De AD102 is momenteel nog op 600 watt gespeculeerd.

De AD104 is 300 watt. Dat vind ik ook al absurd. Vind de 3070 al stevig in vergelijking met mijn 2080 die rond de 200 watt verstookt als je geen undervolt hebt toegepast. Die van mij verbruikt maar rond de 140/150 met een undervolt.

Stroomkosten boeken mij niet maar wel een Fukushima reactor in de zomer die de kamer nog warmer maakt.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


  • Blaat
  • Registratie: September 2007
  • Laatst online: 02-02 09:59

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Ik vind het persoonlijk ook geen goede ontwikkeling. Als een nieuwe architectuur efficienter is qua perf/watt zou dat voldoende moeten zijn voor een leuke uplift van generatie tot generatie op hetzelfde vermogen.

In een tijd waarin we allemaal ge-carbonshamed worden vind ik een videokaart op 600W maar een wazige ontwikkeling.

Maar daarnaast... 600W op 1 kaart... Zelfs een dikke triple slot cooler gaat daar een hele kluif aan hebben om dat vermogen zonder al te veel herrie af te voeren. Wanneer bereiken we de grens van wat nog redelijk is voor een videokaart? Wanneer zijn heatpipes en vapor chambers niet meer genoeg thermische geleidbaarheid ivm verzadiging? Mijn gevoel zegt me dat deze grens in zicht is als deze getallen kloppen.

Maar goed... Niet de huid van de beer verkopen voor deze geschoten is.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:01
@OMD Dat is toch enkel top end AD102, ik meende dat volgens de geruchten de RTX 4080 ook AD102 zou krijgen (net als de RTX 3080, 3080Ti, 3090, en 3090Ti nu ook allemaal gebaseerd zijn op GA102) en dat die richting de 400W zou kunnen gaan mogelijk.

Nog altijd een toename van 25%, of zelfs 40% als het 450W wordt, wat ook wel eens geroepen wordt, maar zolang de performance met een flink hoger percentage toeneemt zal menigeen dat niet zo erg vinden, zeker niet daar je dat soort chips vaak vrij efficient iets kan undervolten voor flink minder verbruik bij amper performance verlies.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

OMD schreef op maandag 16 mei 2022 @ 15:07:
[...]


Ja maar dat is het ergste… ik had het over de AD103, dat is de chip met het gespeculeerde vermogen van 400 watt. De AD102 is momenteel nog op 600 watt gespeculeerd.

De AD104 is 300 watt. Dat vind ik ook al absurd. Vind de 3070 al stevig in vergelijking met mijn 2080 die rond de 200 watt verstookt als je geen undervolt hebt toegepast. Die van mij verbruikt maar rond de 140/150 met een undervolt.

Stroomkosten boeken mij niet maar wel een Fukushima reactor in de zomer die de kamer nog warmer maakt.
Ik zou voor AD-103 even afwachten. Voor A-102 wordt inmiddels ook al alles van 400W tot 900W geroepen, waardoor je daaruit niet echt een goede conclusie kan trekken.

AD-103 zal er in ieder geval minder zijn omdat het een flink kleinere chip is. Verder met zulke oplopende vermogens vraag ik me ook af of hoeveel potentieel voor undervolting er gaat zijn. :)

[ Voor 5% gewijzigd door DaniëlWW2 op 16-05-2022 15:32 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Cloggs
  • Registratie: April 2004
  • Laatst online: 02-02 20:58
In juli al de aankondiging/release volgens kopite7kimi. Sneller dan verwacht. Hopelijk is er ook een flinke hoeveelheid aan kaarten beschikbaar want anders gaat het weer een ellende worden om er eentje te bemachtigen.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Blaat schreef op maandag 16 mei 2022 @ 15:22:
Ik vind het persoonlijk ook geen goede ontwikkeling. Als een nieuwe architectuur efficienter is qua perf/watt zou dat voldoende moeten zijn voor een leuke uplift van generatie tot generatie op hetzelfde vermogen.
Nu lijkt de N5 (en de afgeleide N4) node heel efficiënt te zijn waardoor een hoge transistordichtheid mogelijk is. Wat Nvidia dan doet is zoveel mogelijk transistors in de nieuwe GPU stoppen met een zo hoog mogelijke kloksnelheid. Wat we zien is dat Nvidia (en ook AMD) zoveel mogelijk performance uit de nieuwe node(s) willen halen, in plaats van genoegen te nemen met bijvoorbeeld 300W.

[ Voor 3% gewijzigd door XWB op 16-05-2022 15:38 ]

March of the Eagles


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
OMD schreef op maandag 16 mei 2022 @ 12:12:
Ben wel een beetje bang voor Fermi praktijken met het gespeculeerde vermogen. 400 watt voor de 4080 is echt absurd. Dit gaat dan echt compleet de verkeerde kant op. Ben echt bang dat het “wie heeft de grootste e-peen” wordt.
Maar Fermi had ook een heel slechte performance/watt verhouding. Dat hoeft bij Ada Lovelace niet het geval te zijn.

March of the Eagles


  • freaky35
  • Registratie: September 2012
  • Laatst online: 13:54
Blaat schreef op maandag 16 mei 2022 @ 15:22:
Ik vind het persoonlijk ook geen goede ontwikkeling. Als een nieuwe architectuur efficienter is qua perf/watt zou dat voldoende moeten zijn voor een leuke uplift van generatie tot generatie op hetzelfde vermogen.

In een tijd waarin we allemaal ge-carbonshamed worden vind ik een videokaart op 600W maar een wazige ontwikkeling.

Maar daarnaast... 600W op 1 kaart... Zelfs een dikke triple slot cooler gaat daar een hele kluif aan hebben om dat vermogen zonder al te veel herrie af te voeren. Wanneer bereiken we de grens van wat nog redelijk is voor een videokaart? Wanneer zijn heatpipes en vapor chambers niet meer genoeg thermische geleidbaarheid ivm verzadiging? Mijn gevoel zegt me dat deze grens in zicht is als deze getallen kloppen.

Maar goed... Niet de huid van de beer verkopen voor deze geschoten is.
En de warmte die het de kast in gooit, eigenlijk maar 1 optie(naar mijn mening), indien je perse zo'n kaart wilt, een kaart met AIO.
Een blower style koeler jaagt als je pech hebt alle warmte de kast in.

En ik snap niet hoe je dat kwijt wilt raken zonder de ander componenten op te stoken

Ik merk zelf al dat ik dat probleem heb met mijn 3080ti Strix, die koeler gooit t ook alle warmte de kast in en dat is een kaart die ge undervolt is, maar alsnog 300 watt aan warmte afgeeft..

Het ding geeft dan meer warmte af als een gemiddelde kachel, bij wijze van.
Met dit soort absurd stroomverbruik van de 4000 serie.
Indien de geruchten ect waar zijn.
Slechte ontwikkeling in meerdere opzichten :X

[ Voor 5% gewijzigd door freaky35 op 16-05-2022 15:50 ]


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik denk dat het eigenlijk vrij duidelijk is wat er gaat gebeuren. :)
Zowel AMD als Nvidia hebben de afgelopen jaren gezien dat ze veel meer konden vragen in het high end segment dan ze deden. AMD had die producten niet en bij Nvidia waren ze vaak teleurstellend voor de enorme meerprijs. De GTX1080Ti is eigenlijk de uitzondering, maar die zal Nvidia inmiddels als veel te goedkoop beschouwen.

Nu gaat er een specifieke halo chip komen en doet AMD ook mee. En omdat AMD meedoet, lijkt elke beperking weg te zijn in ruil voor maximale prestaties. Ik zie dit ook als een geval waarin AMD heel graag wil winnen, maar Nvidia moet winnen omdat hun hele imago is gebaseerd op de beste zijn. En in dat scenario zijn er geen grenzen meer.

Ik verwacht voor de "RTX4090" eigenlijk ook niks minder dan AIO's of vier slot modellen met potentieel steunbeugels. Navi 31 durf ik niet te zeggen, maar die kant kan het zomaar opgaan.


En voor iedereen die zoiets als de RTX2080Ti of RTX3090 al te duur vond, is dit segment totaal irrelevant. Niet eens over nadenken en gewoon doen alsof het niet bestaat. Hoef je ook niet serieus na te denken over een goede 750W voeding, de energierekening of de straalkachel van een PC die je dan hebt.

Nvidia lijkt verder hun traditionele lijn van chips voor te bereiden. Ik moet nog maar zien of AD-103 bijvoorbeeld over de 400mm2 gaat. Dat zal je meer "betaalbare" high end worden. En met ongeveer dezelfde configuratie als GA-102 zal die waarschijnlijk al merkbaar sneller zijn dan een RTX3090. Daar is niks mis mee.

AMD lijkt precies hetzelfde te doen met Navi 32. Schijnbaar "maar" 2/3 aan ALU's van Navi 31, dus nog steeds een enorme sprong voorwaarts. Potentieel is die wat sneller dan AD-103 omdat het aantal ALU's relatief vergelijkbaar zou zijn (8192 om 10752), waar RDNA1/2 tot dusver beduidend betere occupency haalt met haar ALU's dan Turing/Ampere. Ada Lovelace lijkt niet fundamenteel anders te zijn om dat echt fors te verminderen.

Daaronder krijg je AD-104 en AD-106 waarbij ik Navi 33 hiertussen zou verwachten. Lager lijkt er niet te zijn voor AMD waar Nvidia nog AD-107 heeft. AMD lijkt voor een enorme APU te gaan die toegespitst lijkt op de laptopmarkt. Dus geen treurige producten zoals Navi 14 of Navi 24 meer.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • OMD
  • Registratie: September 2003
  • Laatst online: 12:04

OMD

Dennism schreef op maandag 16 mei 2022 @ 15:22:
@OMD Dat is toch enkel top end AD102, ik meende dat volgens de geruchten de RTX 4080 ook AD102 zou krijgen (net als de RTX 3080, 3080Ti, 3090, en 3090Ti nu ook allemaal gebaseerd zijn op GA102) en dat die richting de 400W zou kunnen gaan mogelijk.

Nog altijd een toename van 25%, of zelfs 40% als het 450W wordt, wat ook wel eens geroepen wordt, maar zolang de performance met een flink hoger percentage toeneemt zal menigeen dat niet zo erg vinden, zeker niet daar je dat soort chips vaak vrij efficient iets kan undervolten voor flink minder verbruik bij amper performance verlies.
De geruchten gaan nu op het moment dat de 4090 zijn eigen chip krijgt. Dat zou voor het eerst zijn aangezien de 3080 en 3090 ( en voorgaande series? Weet ik even niet zeker, als iemand dit weet graag. ) dezelfde chip gebruiken.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:01
OMD schreef op maandag 16 mei 2022 @ 17:16:
[...]


De geruchten gaan nu op het moment dat de 4090 zijn eigen chip krijgt. Dat zou voor het eerst zijn aangezien de 3080 en 3090 ( en voorgaande series? Weet ik even niet zeker, als iemand dit weet graag. ) dezelfde chip gebruiken.
Het laatste gerucht van vandaag, zelfs gepost op Tweakers, lijkt (weer) uit te gaan van dezelfde die (AD102).

  • OMD
  • Registratie: September 2003
  • Laatst online: 12:04

OMD

Dennism schreef op maandag 16 mei 2022 @ 17:21:
[...]


Het laatste gerucht van vandaag, zelfs gepost op Tweakers, lijkt (weer) uit te gaan van dezelfde die (AD102).
Had ik inderdaad nog niet gelezen. Dat bied perspectief. Als de AD102 450 watt verstookt voor de 4090 dan zou de 4080 toch wel significant lager moet liggen.

Altijd leuk die geruchten maar het wisselt zo vaak :+

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

OMD schreef op maandag 16 mei 2022 @ 17:16:
[...]


De geruchten gaan nu op het moment dat de 4090 zijn eigen chip krijgt. Dat zou voor het eerst zijn aangezien de 3080 en 3090 ( en voorgaande series? Weet ik even niet zeker, als iemand dit weet graag. ) dezelfde chip gebruiken.
Bij Ampere is de xx80 en xx80Ti dezelfde chip. Bij Turing, Pascal en Maxwell niet en bij Kepler wel.
Het verschil is dat we met Lovelave kijken naar een slordige 70% extra ALU's tussen AD-103 en AD-102. De laatste keer dat dit gebeurde was wederom Kepler en dat is eigenlijk geen eerlijke vergelijking omdat het hier gaat tussen GK110 en GK104. Oftewel de oude GTX680/GTX770 vs. GTX780Ti.

Het is eigenlijk ook te voorbarig om te voorspellen wat de "RTX4080" gaat zijn omdat we niet weten of het AD-102 of AD-103 is. Het verschil tussen een cut down AD-102 en de volle AD-103 kan zo nog tientallen procenten aan ALU's zijn. En daarbij gaat ook het verbruik omhoog of omlaag.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
OMD schreef op maandag 16 mei 2022 @ 18:43:
[...]


Had ik inderdaad nog niet gelezen. Dat bied perspectief. Als de AD102 450 watt verstookt voor de 4090 dan zou de 4080 toch wel significant lager moet liggen.

Altijd leuk die geruchten maar het wisselt zo vaak :+
En bij dat nieuwsbericht hoort deze Tweet:



Die 600W komt nog wel, misschien voor een latere RTX 4090 Ti :+

[ Voor 6% gewijzigd door XWB op 16-05-2022 20:54 ]

March of the Eagles


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 26-01 09:44
Blaat schreef op maandag 16 mei 2022 @ 15:22:
Ik vind het persoonlijk ook geen goede ontwikkeling. Als een nieuwe architectuur efficienter is qua perf/watt zou dat voldoende moeten zijn voor een leuke uplift van generatie tot generatie op hetzelfde vermogen.

In een tijd waarin we allemaal ge-carbonshamed worden vind ik een videokaart op 600W maar een wazige ontwikkeling.

Maar daarnaast... 600W op 1 kaart... Zelfs een dikke triple slot cooler gaat daar een hele kluif aan hebben om dat vermogen zonder al te veel herrie af te voeren. Wanneer bereiken we de grens van wat nog redelijk is voor een videokaart? Wanneer zijn heatpipes en vapor chambers niet meer genoeg thermische geleidbaarheid ivm verzadiging? Mijn gevoel zegt me dat deze grens in zicht is als deze getallen kloppen.

Maar goed... Niet de huid van de beer verkopen voor deze geschoten is.
Dan in de zomer zeker ook nog de airco aan omdat het anders te warm is. In de winter is het overigens er fijn, maar dit is de laatste keer dat ik een kaart neem die rond de 300 Watt gebruikt (6900 XT). Mijn grens is ergens tussen de 200-250 Watt (indien nodig undervolt ik wel).
Je wordt haast impotent zoveel hete lucht er langs je ballen omhoog blaast :+.

Erg jammer dat zowel Nvidia als AMD de Watt race gaan houden. Ze lijken een soort van gentlemen's agreement van 300 Watt deze generatie te hebben verbroken voor single kaarten en gaan nu "all in".


Iedere gamer die een airco in de zomer aanzet is een zwakkeling; echte gamers hebben geene airco! Toen ik vroeger jong was deden we dat niet en zater we met 4 man in een zolder hokje te branden. :+

  • Paprika
  • Registratie: September 2007
  • Laatst online: 14:28
RTX 4090, AD102-300, 16128FP32, 21Gbps 24G GDDR6X, 450W, ~2x3090.
Ik weet niet zo goed wat ik wil en kan verwachten van deze nieuwe serie. Puur op het eerste gezicht klinkt niet eens super rampzalig, want 2x 3090 is een flinke performance uplift. Echter wanneer ik dan ga kijken naar de frequentie waarmee ik game (Elden Ring 3 dagen gespeeld, enige keer gamen in praktisch een jaar tijd) en dat waarschijnlijk tegen een prijs waar ik niet vrolijk van ga worden gezien ik nog altijd een release dag 3080 bezit met de bijpassende prijs van < 800 euro, wat dus fors aan de prijs/performance cijfers zal gaan knabbelen.

In de winter is een kleine 300W aan verbruik geen ramp, maar in iedere andere periode van het jaar kon het toch al snel warm worden in de ruimte. Op zomerse dagen gamen is echter niet alleen zonde, maar eigenlijk niet eens goed mogelijk. Je zult maar even met wat oude vrienden nog een weekendje lan party willen organiseren. Daar zit je dan met een stuk of 10 kasten die allemaal tussen de 500W en 1000W verstoken met deze nieuwe wattages :+.

Het moment dat ze beschikbaar gaan komen in de webshops wordt hoe dan ook de meest dramatische release in tijden. Het doorverkopen van computer onderdelen is nog nooit zo populair geweest. Combineer dat met de huidige financiële markt en we weten allemaal wat er gaat gebeuren. Het 3000-series draadje is voorbij de 60.000 berichten gegaan. Hopelijk zal het vergelijkbare 4000-series draadje op de lange termijn niet hetzelfde resultaat tonen, maar eigenlijk kan ik het mij niet voorstellen gezien de prijs van een gaming console. Met je hele vriendengroep een PS5 kunnen aanschaffen voor de prijs van een enkele 4090 zal toch zeker z'n gevolgen moeten hebben zou je verwachten.

  • OMD
  • Registratie: September 2003
  • Laatst online: 12:04

OMD

Paprika schreef op dinsdag 17 mei 2022 @ 10:08:
[...]

Ik weet niet zo goed wat ik wil en kan verwachten van deze nieuwe serie. Puur op het eerste gezicht klinkt niet eens super rampzalig, want 2x 3090 is een flinke performance uplift. Echter wanneer ik dan ga kijken naar de frequentie waarmee ik game (Elden Ring 3 dagen gespeeld, enige keer gamen in praktisch een jaar tijd) en dat waarschijnlijk tegen een prijs waar ik niet vrolijk van ga worden gezien ik nog altijd een release dag 3080 bezit met de bijpassende prijs van < 800 euro, wat dus fors aan de prijs/performance cijfers zal gaan knabbelen.

In de winter is een kleine 300W aan verbruik geen ramp, maar in iedere andere periode van het jaar kon het toch al snel warm worden in de ruimte. Op zomerse dagen gamen is echter niet alleen zonde, maar eigenlijk niet eens goed mogelijk. Je zult maar even met wat oude vrienden nog een weekendje lan party willen organiseren. Daar zit je dan met een stuk of 10 kasten die allemaal tussen de 500W en 1000W verstoken met deze nieuwe wattages :+.

Het moment dat ze beschikbaar gaan komen in de webshops wordt hoe dan ook de meest dramatische release in tijden. Het doorverkopen van computer onderdelen is nog nooit zo populair geweest. Combineer dat met de huidige financiële markt en we weten allemaal wat er gaat gebeuren. Het 3000-series draadje is voorbij de 60.000 berichten gegaan. Hopelijk zal het vergelijkbare 4000-series draadje op de lange termijn niet hetzelfde resultaat tonen, maar eigenlijk kan ik het mij niet voorstellen gezien de prijs van een gaming console. Met je hele vriendengroep een PS5 kunnen aanschaffen voor de prijs van een enkele 4090 zal toch zeker z'n gevolgen moeten hebben zou je verwachten.
Ik sla eigenlijk altijd 1 generatie over. Ik heb nu een 2080 en wil dus dan naar een 4080/4070. Als ik nadenk dat mijn 2080 gekocht is in november 2019 houdt hij het best lang vol. Het is nog steeds best een potente kaart.

Ik bedoel hiermee te zeggen dat jouw 3080 over 2 jaar ook gewoon nog aardig potent is. Het zijn krachtige kaarten en de spellen lijken niet meer zo hard mee te schalen (op een RayTracing titel na zoals Cyberpunk oid)

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
Grappig hoe alle specs alweer naar beneden bijgesteld zijn ;)

Met deze "nieuwe" "leaks" zou AD102 op 2,2 GHz draaien om aan "~2x 3090" te komen. Dan heb je ~70 Nvidia TF tegenover ~35 voor GA102-300-A1. ~55% meer GF/W aan die 450W.

Volgens Kopite is de indeling echter ook anders, met 128 FP32 + 64 INT32/FP32 per SM, tegenover 64/64 voor GA102. Dat zou de daadwerkelijke performance ten goede komen omdat er van die 16128 dan slechts 5376 mixed zijn. De baseline FP32 performance komt dan op 10752 * 2,2 * 2 = 47308,8 GF, voor de 3090 is dat 17,7. Dat is dus veel meer dan ~2x, in de praktijk zou dat tegen de 60 TF uit komen ;)

Ga je echter uit van daadwerkelijke (te verwachten, FP32) performance vs 3090 krijg je een heel ander verhaal...en dit is heel erg plausibel, in de zin dat dit poepmakkelijk te doen zou zijn op N5. AD102 krijgt dan op dezelfde 1695 MHz als de 3090 54,6 Nvidia TF en een theoretische GF/W die slechts 19,5% beter is. Maar door de andere indeling zou de daadwerkelijke GF/W eerder zo'n 60% beter zijn. Saaie cijfers omdat ze extreem voorspelbaar zijn - maar technisch wel moeiteloos te doen. Iets andere indeling voor betere utilisatie in games, volop gebruik maken van de shrink om de efficiëntie te verbeteren en presto: een solide opvolger.

Vervolgens krijg je dan ongein dat Kopite "teleurgesteld" is in RDNA3, ook al zijn alle cijfers die tot nog toe "gelekt" zijn van RDNA3 dusdanig hoog dat dat ding zonder moeite gehakt zou maken van deze AD102. Waarom hij teleurgesteld is weet ik niet, want met die 12228 @ 3050 (74,5 TF) die nog steeds rond gaat voor RDNA3 zou dat ding zelfs aan 600W nog net iets meer GF/W bieden dan deze AD102 op 1695. En met de specs die RedGamingTech de wereld in blijft slingeren (450 W voor dit monster) zou de GF/W ook nog hoger liggen dan voor deze AD102 op 2200. Sterker nog, als je die cijfers als waarheid aan neemt heb je AMD met 74,5 TF aan 450W tegenover Nvidia met "70" TF. Hoe is dat teleurstellend? Zelfs als AMD minder gaming performance uit elke FLOP geperst krijgt dan met RDNA2, zouden ze Nvidia nog steeds evenaren. En met de cijfers zoals ze nu "gelekt" zijn gaat AMD Nvidia gewoon voorbij.

Aan de andere kant heeft RGT dan ook wel "harde" specs voor ALU's en kloksnelheid van RDNA3, maar heeft hij het over "> 75 TF" in z'n tabellen...74,5 is bij mijn weten toch echt minder dan 75, maar misschien kan ik niet meer tellen? :+

Ik blijf er bij dat het meeste van deze leakers een hoop gezwets is, meer dan we de afgelopen jaren gezien hebben. Die magische GA103 die de 3080 Ti ging worden en de 3090 voorbij ging streven is er ook nooit gekomen. Nee, dat bleek een mobiele chip te zijn - één waar Nvidia ook de lippen stijf op elkaar over houdt, we hebben niet eens een transistor count voor dat ding*. AMD lijkt hun informatie lekken nog steeds goed onder controle te hebben, want ze hadden het allemaal fout over RDNA2. Ze hadden het allemaal over "3070" performance dus wat mij betreft komen alle RDNA3 geruchten ook allemaal uit de Dode Zee ;)

Aan de Nvidia kant zit het allemaal waarschijnlijk dichter bij de waarheid, aangezien we historisch gezien altijd meer lekken hebben gehad, maar de afgelopen jaren lijkt Nvidia het ook beter onder controle te hebben. Met name over Ampère en nu AD102 gingen, en gaan, de geruchten van links naar rechts. Ik speel graag met de cijfers zoals hierboven, maar ik hecht er nog steeds weinig waarde aan. Wel zijn zowel het 1695 als het 2200 voorbeeld hierboven een stuk realistischer dan die bizarre "100 TF war" waar het een tijd geleden over ging.


* FWIW, ik vermoed dat de dichtheid van GA103 iets lager ligt (vergeleken met GA104) en dat de chip iets groter dan strikt noodzakelijk is, zodat ze meer oppervlak voor koeling hebben en tegelijkertijd op een iets lagere spanning kunnen draaien. Zeker weten doen we het niet, want Nvidia laat niet veel los.

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Werelds schreef op dinsdag 17 mei 2022 @ 12:21:
Ik blijf er bij dat het meeste van deze leakers een hoop gezwets is, meer dan we de afgelopen jaren gezien hebben.
Ja, daar ben ik het wel mee eens. RedGamingTech heeft ook toevallig vaak een update vlak na een tweet van kopite of greymon, wat een duidelijk indicatie is dat hij weinig eigen bronnen heeft.

Ik denk dat Moore's Law is Dead nog het meest betrouwbaar is, al zit die duidelijk ook volop te speculeren (net als kopite en greymon, trouwens).

Als de release-datum leak wel klopt dan zouden we wat betreft Nvidia over twee maanden duidelijkheid moeten krijgen. Al zou je zo kort voor de release toch wel wat hardere info verwachten, want hoe korter voor de release, hoe meer mensen geïnformeerd worden.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09:45
Werelds schreef op dinsdag 17 mei 2022 @ 12:21:
Grappig hoe alle specs alweer naar beneden bijgesteld zijn ;)

Met deze "nieuwe" "leaks" zou AD102 op 2,2 GHz draaien om aan "~2x 3090" te komen. Dan heb je ~70 Nvidia TF tegenover ~35 voor GA102-300-A1. ~55% meer GF/W aan die 450W.

Volgens Kopite is de indeling echter ook anders, met 128 FP32 + 64 INT32/FP32 per SM, tegenover 64/64 voor GA102. Dat zou de daadwerkelijke performance ten goede komen omdat er van die 16128 dan slechts 5376 mixed zijn. De baseline FP32 performance komt dan op 10752 * 2,2 * 2 = 47308,8 GF, voor de 3090 is dat 17,7. Dat is dus veel meer dan ~2x, in de praktijk zou dat tegen de 60 TF uit komen ;)
[/small]
Volgens Kopite z'n hypothese, al denk ik dus niet dat hij de exacte SM indeling weet, is de indeling van AD102 net zoals die van Turing. Dit betekent dan aparte INT32 cores. Kopite lekte de correcte specs van Ampere per chip qua GCP & TPC indeling al in mei 2019!. Het enige dat hij pas net voor launch wist was de 128 FP32 per SM.

Voor AD102 zijn de specs volgens Kopite zijn 12 GCP*6 TPC*2 SM = 144 SMs met elk 128 FP32 units. De 4090 zou dan 126 SMs hebben en een totaal aan 16128 cores, maar dit is dan exclusief INT32. Moest het dan toch om mixed units gaan dan zitten we op 192 FP32/SM en ik vermoed dat hij dit ook niet zeker weet. Hoe dan ook de 16128 cores gaan duidelijk niet uit van 192 cores/SM want dan zouden we maar aan 84 SMs zitten in jouw voorbeeld.

Edit:
DaniëlWW2 schreef op maandag 16 mei 2022 @ 11:28:
Nvidia hun monsterchip dan. Volgens kopite7kimi is het dus dit:

[Afbeelding]
[Afbeelding]

Uiteraard zijn de INT cores weer dual use dus FP en INT. Daarnaast 96MB L2 cache en ze gaan van zeven naar twaalf GPC's.

[Embed]
Je ziet het hier dus ook waar de specs staan maar Daniël heeft er wel naast gekeken dat de INT cores dual use zijn want volgens de afbeelding is dit dus niet het geval :P.

[ Voor 39% gewijzigd door napata op 17-05-2022 15:32 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
napata schreef op dinsdag 17 mei 2022 @ 14:56:
[...]

Volgens Kopite z'n hypothese, al denk ik dus niet dat hij de exacte SM indeling weet, is de indeling van AD102 net zoals die van Turing. Dit betekent dan aparte INT32 cores. Kopite lekte de correcte specs van Ampere per chip qua GCP & TPC indeling al in mei 2019!. Het enige dat hij pas net voor launch wist was de 128 FP32 per SM.

Voor AD102 zijn de specs volgens Kopite zijn 12 GCP*6 TPC*2 SM = 144 SMs met elk 128 FP32 units. De 4090 zou dan 126 SMs hebben en een totaal aan 16128 cores, maar dit is dan exclusief INT32. Moest het dan toch om mixed units gaan dan zitten we op 192 FP32/SM en ik vermoed dat hij dit ook niet zeker weet. Hoe dan ook de 16128 cores gaan duidelijk niet uit van 192 cores/SM want dan zouden we maar aan 84 SMs zitten in jouw voorbeeld.
Dat is er van uitgaande dat die 144 SM's klopt, wat juist mijn hele punt is. Hij hoort allerlei cijfers, maar weet niet wat bij elkaar hoort of hoe de verhoudingen liggen ;)

Maar even devil's advocate spelen, dan heb je het op 2,2 GHz over een GF/W die 2,4 keer hoger ligt, dan zitten we in hetzelfde absurde gebied als de RDNA3 geruchten een tijd terug. Zelfs aan 1695 komt er nog een verdubbeling in efficiëntie uit (en een verdubbeling in daadwerkelijke FP32 performance) , waarvan dan 60% puur uit de architectuur zou moeten komen. En het klinkt niet alsof er bijster veel veranderd is, dus dat is toch wel twijfelachtig.

Een verdubbeling in efficiëntie óf (theoretische) performance is al bijna nooit voorgekomen - maar allebei tegelijkertijd? Nog nooit. Althans, niet in het unified shader tijdperk, daarvóór is het veel lastiger vergelijken.

Hopelijk heb ik het fout, maar volgens mij is er aan beide kanten wel een hoop informatie, maar worden niet de juiste stukjes bij elkaar gelegd ;)

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09:45
Werelds schreef op dinsdag 17 mei 2022 @ 15:33:
[...]

Dat is er van uitgaande dat die 144 SM's klopt, wat juist mijn hele punt is. Hij hoort allerlei cijfers, maar weet niet wat bij elkaar hoort of hoe de verhoudingen liggen ;)

Maar even devil's advocate spelen, dan heb je het op 2,2 GHz over een GF/W die 2,4 keer hoger ligt, dan zitten we in hetzelfde absurde gebied als de RDNA3 geruchten een tijd terug. Zelfs aan 1695 komt er nog een verdubbeling in efficiëntie uit (en een verdubbeling in daadwerkelijke FP32 performance) , waarvan dan 60% puur uit de architectuur zou moeten komen. En het klinkt niet alsof er bijster veel veranderd is, dus dat is toch wel twijfelachtig.

Een verdubbeling in efficiëntie óf (theoretische) performance is al bijna nooit voorgekomen - maar allebei tegelijkertijd? Nog nooit. Althans, niet in het unified shader tijdperk, daarvóór is het veel lastiger vergelijken.

Hopelijk heb ik het fout, maar volgens mij is er aan beide kanten wel een hoop informatie, maar worden niet de juiste stukjes bij elkaar gelegd ;)
Ik ga er wel uit van dat die SMs kloppen want hier heeft hij er nog nooit naast gezeten maar voor alles een eerste keer.

Ik verwacht gewoon dat de INT32 cores geen FP32 kunnen doen deze keer. Het zou me trouwens ook niet verbazen als de clocks (1.8 Ghz - 2 Ghz) gewoon ongeveer hetzelfde blijven als Ampere binnen de 450W versie. Ik denk niet dat ik Kopite ooit al een kloksnelheid heb zien vermelden in z'n leaks over AD. Dit is volgens mij ook pas iets dat tegen het einde bepaald wordt na de testing.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 02-02 10:13
napata schreef op dinsdag 17 mei 2022 @ 15:49:
[...]

Ik ga er wel uit van dat die SMs kloppen want hier heeft hij er nog nooit naast gezeten maar voor alles een eerste keer.

Ik verwacht gewoon dat de INT32 cores geen FP32 kunnen doen deze keer. Het zou me trouwens ook niet verbazen als de clocks (1.8 Ghz - 2 Ghz) gewoon ongeveer hetzelfde blijven als Ampere binnen de 450W versie. Ik denk niet dat ik Kopite ooit al een kloksnelheid heb zien vermelden in z'n leaks over AD. Dit is volgens mij ook pas iets dat tegen het einde bepaald wordt na de testing.
Hij heeft echter wel claims van "~2x 3090" en dergelijk gemaakt. Het probleem is dat hij er dan niet bij zegt of dat in Nvidia teraflops is, of daadwerkelijke performance - vandaar dat ik met twee sets cijfers rekende. Als het in Nvidia TF gerekend is, kom je namelijk extreem hoog uit, omdat dat nu dus uit échte FP32 ALU's met daarnaast losse INT32 zou zijn die ook gevoederd moeten worden. In tegenstelling tot Ampère, waar Nvidia 40 TF claimt maar er in werkelijkheid 25-30 uit komt omdat de mixed ALU's het grootste deel van de tijd op integers geschakeld zitten.

Met 50-60 TF (wat met 16128 echte FP32 ALU's slechts zo'n 1850 MHz zou vereisen en dus veel realistischer is in verhouding tot die 450W!) zouden ze de daadwerkelijke performance van de grote GA102's dus al verdubbelen, maar dat zit heel ver bij de geruchten van de afgelopen tijd vandaan.

Dat is dan ook mijn punt: er zijn heel veel cijfers, maar het is niet duidelijk welke stukjes bij elkaar passen. Voor mij is het wel duidelijk dat alle extremen die genoemd zijn, geheel niet kloppen. Zoals die "100 TF oorlog", volstrekte onzin.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

napata schreef op dinsdag 17 mei 2022 @ 14:56:
Edit:

[...]

Je ziet het hier dus ook waar de specs staan maar Daniël heeft er wel naast gekeken dat de INT cores dual use zijn want volgens de afbeelding is dit dus niet het geval :P.
Net doorgerekend en inderdaad, de INT cores zijn dan apart en niet meer dual use. Te snelle aanname van mij. :)
Ludewig schreef op dinsdag 17 mei 2022 @ 12:38:
[...]


Ja, daar ben ik het wel mee eens. RedGamingTech heeft ook toevallig vaak een update vlak na een tweet van kopite of greymon, wat een duidelijk indicatie is dat hij weinig eigen bronnen heeft.

Ik denk dat Moore's Law is Dead nog het meest betrouwbaar is, al zit die duidelijk ook volop te speculeren (net als kopite en greymon, trouwens).

Als de release-datum leak wel klopt dan zouden we wat betreft Nvidia over twee maanden duidelijkheid moeten krijgen. Al zou je zo kort voor de release toch wel wat hardere info verwachten, want hoe korter voor de release, hoe meer mensen geïnformeerd worden.
Uh. :P
Als er een volstrekt ongeloofwaardig is, dan is het MILD...
Die lijkt juist constant andere leaks over te nemen en zijn eigen onzin erbij te bedenken. Want MILD was degene die het steeds over een N7 refresh van Ampere had, dat Ampere echt bijna beschikbaar zou komen, de "64CU's" of dat Navi 21 rond RTX3070 uit zou komen. Ik had daar twee jaar geleden, nog voordat RDNA2 uitkwam, dit over getypt op reddit.
https://www.reddit.com/r/...ce=reddit&utm_medium=web2
Overigens als ik het nu teruglees ben ik niet erg onder de indruk van mezelf. Blijkbaar de afgelopen twee jaar nog meer geleerd. :)

En ja, ik gokte destijds gewoon erg goed in wat ik geloofde omdat ik dus wel een beetje begreep hoe AMD een RDNA GPU opbouwt. MILD begreep er echt helemaal niks van. En als je dan bronnen hebt, dan moet je wel exceptioneel stupide zijn om het alsnog zo fout te hebben...

En voor RGT geld dat die zeker wel bronnen heeft. Daar kwam namelijk met de enorme cache van RDNA2 voor het eerst voorbij. En dat was een dusdanig nieuw en ander idee dat eerst niemand het wou geloven, totdat het uitkwam. Het probleem met hem is alleen dat hij er een zakelijk model van maakt en dus dingen probeert uit te rekken. Op zich lijkt hij eerlijk te zijn in wanneer hij echt gaat speculeren, maar ideaal is het niet.

In het algemeen wordt KOMACHI_ENSAKA denk ik ook erg gemist. Die was echt goed als het om AMD ging. Goed tot het punt dat er vermoedens waren dat die connecties met TSMC had. Greymon55 lijkt die rol nu een beetje over te nemen, maar of het zo goed is blijft de vraag. Bij Nvidia is het meestal kopite7kimi waar je moet zijn.


Dan nog inhoudelijk. We weten dit:
-Nvidia heeft een database hack gehad en Ada Lovelave informatie is gelekt
-Volgens deze leak zou AD102 18432 ALU's bevatten
-De chip zou 96MB aan L2 cache hebben

Sterke vermoedens:
-De chip zou geproduceerd worden op TSMC N4
-De configuratie werd aangenomen als 144 SM's

Vermoedens:
-AD102 zou over de 2GHz zitten
-Formaat zou circa 600mm2 zijn
-Het lijkt erop dat het gaat om 18432 FP ALU's en 9216 INT ALU's
-Met 18432 FP ALU's krijg je dus: 63TF met circa 1700MHz, circa 74TF met 2000MHz en circa 81TF met 2200MHz

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Dit zou de koeler van de nieuwe RTX 4090 moeten zijn:

Afbeeldingslocatie: https://tweakers.net/i/Yv2K91c19K5en2iEHpBCP9gy7uA=/800x/filters:strip_exif()/f/image/YIk1n6LUELbnu4osMvjRpIHW.png?f=fotoalbum_large
https://wccftech.com/alle...ink-gpu-memory-baseplate/

March of the Eagles


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@DaniëlWW2

We weten ook vrijwel zeker dat Navi 31/32 een MCM ontwerp heeft met een combo van 5nm en 6nm dies, terwijl Navi 33 een monoliet wordt op 6nm, aangezien een ontwerper van AMD dat op z'n LinkedIn had gezet.

Aan alle kanten zijn er trouwens geruchten en 'officiële' hints dat de kloksnelheden omhoog gaan, niet alleen bij de GPUs, maar ook voor Zen 4. Dat lijkt erop te duiden dat de 4/5nm TSMC processen relatief hoge kloksnelheden mogelijk maakt.
-De chip zou geproduceerd worden op TSMC N4
Dat is nog erg speculatief en vooral gebaseerd op de hoge bedragen die Nvidia betaalt zou hebben, wat erop kan duiden dat ze ruimte hebben ingekocht op een duurder proces. Het zou op zich ook slim kunnen zijn als ze zo hun voorsprong net kunnen behouden en daarmee AMD in de positie van prijsvechter houden.

Mijn verwachting is dat AMD flink lagere productiekosten zal hebben, omdat het MCM ontwerp in principe voor substantieel betere yields zou moeten zorgen en de 6nm dies goedkoper zijn. Ze zouden een poging kunnen doen om flink marktaandeel te winnen door een extreem goede prijs/performance, waarbij ze wat lagere inkomsten accepteren. Dat vereist dan wel voldoende productiecapaciteit.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • meljor
  • Registratie: November 2004
  • Laatst online: 10:14
Denk het eerlijk gezegd niet.

Gebruik zelf graag amd maar het is vaak gebleken dat wanneer ze een goed presterend product hebben dat ze dan ook gewoon graag (extra) willen cashen.

De athlon64 en 64x2 waren sterke cpu's maar zeker niet goedkoop. Ook de ryzen 5000 zijn/waren zeker geen koopje.

De 9700(pro) was een fijn product maar ook zeker prijzig, net als de x800 series en bijvoorbeeld de hd5870.

En de rx 6000 is nou ook niet bepaald scherp in de markt gezet. Was fsr 2.0 eerder aanwezig geweest en RT wat beter dan waren de prijzen misschien nog wel hoger dan van Nvidia.

Pas als ze duidelijk minder presteren (latere Athlon XP, of HD 3000 series of rx 580 bijvoorbeeld) zetten ze de prijs een flink stuk vriendelijker.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op woensdag 18 mei 2022 @ 11:50:
@DaniëlWW2

We weten ook vrijwel zeker dat Navi 31/32 een MCM ontwerp heeft met een combo van 5nm en 6nm dies, terwijl Navi 33 een monoliet wordt op 6nm, aangezien een ontwerper van AMD dat op z'n LinkedIn had gezet.
Volgens mij vermelde ik dat als eerste hier. Maar dat is AMD, niet Nvidia. ;)
Aan alle kanten zijn er trouwens geruchten en 'officiële' hints dat de kloksnelheden omhoog gaan, niet alleen bij de GPUs, maar ook voor Zen 4. Dat lijkt erop te duiden dat de 4/5nm TSMC processen relatief hoge kloksnelheden mogelijk maakt.
En het zou ook eens leuk zijn als Nvidia voor het eerst sinds Pascal eens een noemenswaardige sprong in clock speed zou maken. Zeker als je ziet dat AMD ruim 1000MHz heeft gewonnen in die tijd.
Dat is nog erg speculatief en vooral gebaseerd op de hoge bedragen die Nvidia betaalt zou hebben, wat erop kan duiden dat ze ruimte hebben ingekocht op een duurder proces. Het zou op zich ook slim kunnen zijn als ze zo hun voorsprong net kunnen behouden en daarmee AMD in de positie van prijsvechter houden.
N4 = N5. Zoals altijd met TSMC geven ze grotere procesverbeteringen een kleiner getal. Zie bijvoorbeeld TSMC 12nm. Niks meer dan een procesverbetering van 16nm. Dit soort kleine verschillen zijn allemaal marketing.

Het gaat erom dat het dezelfde PDK (process design kit) is, die van de N5 node. En daarbinnen zullen zowel AMD als Nvidia hun eigen kleine aanpassingen maken voor hun eigen vereisten. Nvidia een beetje kennende zullen ze waarschijnlijk "N4" met potentieel nog een extra letter komen, zodat ze een compleet custom node kunnen claimen. Just buy it. :+
Ondertussen is AMD nog steeds bagger in marketing, dus daarvan zou ik dat minder snel verwachten. :z
Mijn verwachting is dat AMD flink lagere productiekosten zal hebben, omdat het MCM ontwerp in principe voor substantieel betere yields zou moeten zorgen en de 6nm dies goedkoper zijn. Ze zouden een poging kunnen doen om flink marktaandeel te winnen door een extreem goede prijs/performance, waarbij ze wat lagere inkomsten accepteren. Dat vereist dan wel voldoende productiecapaciteit.
MCM is inmiddels ook een vraagteken. Voor Navi 31/32 zou de GPU zelf ook monolithisch kunnen zijn. 3D stacked geheugen op TSMC "N6") (N7 + EUV) lijkt mogelijk maar is ook niet zeker. Verder geloof ik allang niet meer dat AMD lagere productiekosten zou doorrekenen in lagere verkoopprijs.

Ik zie nog maar twee dingen de prijs een kunnen beetje drukken:
1) Complete instorting van de cryptomining en massale dump van videokaarten.
2) Nvidia wint alsnog met Ada Lovelace. Want als Navi 31, AD102 verslaat en Navi 32 verslaat AD103, dan zie ik ze eigenlijk helemaal niet goedkoper in de markt gezet worden. Gelijke prijs misschien..

Hoewel ik het erg fijn zou vinden als AMD gewoon ruim wint, immers heeft deze markt het echt keihard nodig dat Nvidia het eens een generatie afgelegd, moet ik wel opmerken dat het op korte termijn waarschijnlijk geen goed nieuws is. En mijn zorgen gaan niet eens naar AD102 en Navi 31. Vergeet het maar dat we het hier nog over "betaalbaar" kunnen spreken. Als mensen al massaal in een wachtrij gingen staan voor een $1500 RTX3090 die nauwelijks sneller was dan de $700 RTX3080, dan hoef je niet eens de illusie meer te koesteren wat Nvidia van plan is.

Nee ik maak me meer zorgen om AD103 en Navi 32. AD102 is nu eenmaal een enorme chip met waarschijnlijk 18432 FP + 9216 INT ALU. Die neem het waarschijnlijk op tegen een 12288 ALU Navi 31. Dat is 125% extra ALU voor AD102. Het is een heel smerige berekening met enorm veel versimpelingen, maar wel illustratief voor het verschil. RDNA3 haalt waarschijnlijk nog steeds veel betere occupency percentages omdat RDNA nu eenmaal vanaf de grond af is opgezet is hiervoor + de vermoede fors hogere clock speeds, maar AD102 is een gigantische chip. AMD heeft misschien wel echt een 1000MHz verschil nodig om te winnen.

Met Navi 32 en AD103 zou het dan 16128 (10752 FP + 5376 INT) zijn, ongeveer 97% meer dan de verwachte 8192 van Navi 32. Dat is al een mindere marge. Daar beschouw ik vooralsnog het waarschijnlijker dat AMD het kan winnen. En dat gaat pijn doen want ik verwacht dat je meer traditionele high end optie, denk zoiets als de "RX7800XT", echt heel erg duur kan worden. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op woensdag 18 mei 2022 @ 18:36:
[...]
3D stacked geheugen op TSMC "N6") (N7 + EUV) lijkt mogelijk maar is ook niet zeker.
De leaks zijn vrij consistent in het afserveren van 3D-stacked geheugen en dat lijkt me ook logisch. Bij de 5800X3D zien we dat dit de warmteafvoer lijkt te beperken, waardoor ze de boost moeten verlagen. Juist bij GPU's zijn de 1% lows belangrijk (stutters) en de keuze voor veel cache om de lagere geheugenbandbreedte te compenseren zorgt er al voor dat de AMD kaarten relatieve slechte 1% lows hebben. Het versnellen van de cache met 3D-stacking ten koste van de boost zal in principe de 1% lows nog slechter maken.

Bij de 5800X3D hebben ze ook de conservatieve optie gekozen om dit toe te voegen aan een bestaande die, waardoor ze eens rustig kunnen zien hoe de markt reageert en voor welke workloads dit in de praktijk echt meerwaarde geeft. Die ervaring komt te laat om dit al aan de volgende generatie videokaarten toe te voegen.

Ik verwacht zelf dat ze eerst intern een beetje gaan experimenteren met 3D-stacking op de RDNA3 chips en dit hoogstens toevoegen aan een refresh van de 7900 als het goed blijkt te werken voor videokaarten. Door het apart zetten van de cache in RDNA3 is dit een perfect platform om met 3D-stacking te experimenteren en doordat 3D-cache grotendeels een packaging-techniek is, is het relatief makkelijk om dit in een refresh te stoppen.
Ik zie nog maar twee dingen de prijs een kunnen beetje drukken:
1) Complete instorting van de cryptomining en massale dump van videokaarten.
Ethereum levert het overgrote deel (meer dan 90%) van de mininginkomsten op GPUs, dus Proof of Stake zou voor een instorting moeten zorgen. De vraag is wel hoeveel kaarten gekocht zijn door mining farms of door mensen die de aankoop van een enkele dure kaart hebben gesubsidieerd door te minen. Ik verwacht dat die laatste groep hun kaart meestal gewoon houd.
2) Nvidia wint alsnog met Ada Lovelace. Want als Navi 31, AD102 verslaat en Navi 32 verslaat AD103, dan zie ik ze eigenlijk helemaal niet goedkoper in de markt gezet worden. Gelijke prijs misschien..
Er is erg veel onduidelijkheid, ook over hoe de markt reageert. Ik verwacht dat AMD aanzienlijk zuiniger is en zie behoorlijk wat gamers klagen over de verwachte toename in TDPs. Dus zelfs als Nvidia wint is er een kans dat ze een soort Ferrari positie gaan krijgen, waarbij heel veel mensen dromen van een Ferrari, maar de meeste alsnog gewoon een Volkswagen kopen. Een Ferrari is namelijk een stuk prettiger in een droom dan in de werkelijkheid, waar hij erg onpraktisch is en dure onderhoudskosten heeft. Een kaart met hoge TDP is ook vooral leuk voor screenshots en filmpjes van anderen, maar minder prettig als je tijdens het gamen in een sauna zit.
Als mensen al massaal in een wachtrij gingen staan voor een $1500 RTX3090 die nauwelijks sneller was dan de $700 RTX3080, dan hoef je niet eens de illusie meer te koesteren wat Nvidia van plan is.
De echte meerwaarde van de 3090 is niet de snelheid, maar het grote geheugen. Het is eigenlijk een Titan en vooral geschikt voor renderen. Het is voor mij ook niet duidelijk hoeveel er gingen/gaan naar gamers en niet naar miners en content creators.
Met Navi 32 en AD103 zou het dan 16128 (10752 FP + 5376 INT) zijn, ongeveer 97% meer dan de verwachte 8192 van Navi 32. Dat is al een mindere marge. Daar beschouw ik vooralsnog het waarschijnlijker dat AMD het kan winnen. En dat gaat pijn doen want ik verwacht dat je meer traditionele high end optie, denk zoiets als de "RX7800XT", echt heel erg duur kan worden. :/
De 6800 XT is geen Navi 22, maar een kapotte Navi 21, dus waarom zou de 7800 een Navi 32 zijn?

De 'mid-tier' lijkt me sowieso erg interessant, want de 3080 wordt nu door veel mensen gezien als een sweet-spot qua performance en de 4070/7700 zou beter moeten presteren en meer dan 8 GB moeten krijgen.

En ik denk dat mensen er maar aan moeten wennen dat de hele range qua prijs een stapje omhoog is gegaan en dat ook nog een niveautje bij is gekomen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:01
Ludewig schreef op woensdag 18 mei 2022 @ 22:26:


Ethereum levert het overgrote deel (meer dan 90%) van de mininginkomsten op GPUs, dus Proof of Stake zou voor een instorting moeten zorgen. De vraag is wel hoeveel kaarten gekocht zijn door mining farms of door mensen die de aankoop van een enkele dure kaart hebben gesubsidieerd door te minen. Ik verwacht dat die laatste groep hun kaart meestal gewoon houd.
Hier zeggen we 'Van uitstel komt afstel' en 'Eerst zien, dan geloven', ik moet het nog maar zien of PoS niet weer wordt uitgesteld en of het er echt gaat komen. En zo ja, wat er dan gebeurt, misschien dat mining inderdaad in stort, misschien dat er ook wel weer een andere coin opstaat die het waard is te minen, net zoals Eth dat deed toen Asic's bij Bitcoin het stokte overnamen en gpu mining niet meer rendabel was.

Dat laatste denk ik trouwens ook, ik heb bijv. mijn 6900XT ook terug gemined omdat het kon, en zal dat bij een andere kaart weer doen. Waar ik eerder een kaart over 4-5 jaar afschreef heb ik nu na een jaar en wat het geld al weer liggen voor een nieuwe kaart, terwijl deze eigenlijk nog wel een paar jaar mee moet, en eigenlijk bevalt dit me wel zo goed dat ik het, mocht de mogelijkheid bestaan, bij een volgende kaart ook zo weer zou doen. Zeker zolang ik nog kWh's op overschot heb vanuit de zonnepanelen.
Er is erg veel onduidelijkheid, ook over hoe de markt reageert. Ik verwacht dat AMD aanzienlijk zuiniger is en zie behoorlijk wat gamers klagen over de verwachte toename in TDPs. Dus zelfs als Nvidia wint is er een kans dat ze een soort Ferrari positie gaan krijgen, waarbij heel veel mensen dromen van een Ferrari, maar de meeste alsnog gewoon een Volkswagen kopen. Een Ferrari is namelijk een stuk prettiger in een droom dan in de werkelijkheid, waar hij erg onpraktisch is en dure onderhoudskosten heeft. Een kaart met hoge TDP is ook vooral leuk voor screenshots en filmpjes van anderen, maar minder prettig als je tijdens het gamen in een sauna zit.
Dit vraag ik me ook wel af, die hogere TBP's / TGP's zijn natuurlijk ook niet alles zeggend, als de kaarten minder efficient worden verwacht ik inderdaad veel 'gedoe', maar als ze gewoon een mooie efficiency slag maken zie ik straks eigenlijk een boel gamers 'gewoon' weer de stap maken ook met wat gemor her en der, net als de zakelijke gebruikers uiteraard.
En ik denk dat mensen er maar aan moeten wennen dat de hele range qua prijs een stapje omhoog is gegaan en dat ook nog een niveautje bij is gekomen.
Dat denk ik ook inderdaad.

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Dennism schreef op woensdag 18 mei 2022 @ 22:38:
[...]
Hier zeggen we 'Van uitstel komt afstel' en 'Eerst zien, dan geloven', ik moet het nog maar zien of PoS niet weer wordt uitgesteld en of het er echt gaat komen.
Ze zijn nu echt aan het testen, terwijl ze eerder steeds te optimistisch waren over de hoeveelheid ontwikkelwerk. Dus ze zitten nu in een andere fase, waar ze niet per se dezelfde problemen meer krijgen. Het is ook opvallend dat ze ondanks de snel dichterbij komende datum van de difficulty bomb, niet hebben gekozen voor het opschuiven daarvan naar een latere datum. Overigens verwacht ik wel dat ze dat nog een keertje doen, tenzij echt alles meezit, maar niet dat ze blijven schuiven.

Het testen zelf gaat ook vrij aardig. Na elke test zeggen ze dat het aantal problemen erg meevalt en dat ze die op vrij korte termijn denken te kunnen fixen. Nu moeten ze nog wel flink wat dingen testen en daar kunnen weer problemen uit voortkomen, maar ze geven redelijk goed gas met het testen.

Ik heb ook het idee dat ze testen niet zo leuk vinden als ontwikkelen, wat ik als ontwikkelaar zelf ook bij veel ontwikkelaars zie, dus misschien zijn ze ook een stukje makkelijker geworden in deze fase. Ik vond het in elk geval opvallend hoe makkelijk ze over het puntje van 'client diversity' heen stapten, ook al is dat nog verre van perfect (ze willen niet dat de clients grotendeels dezelfde applicatie draaien, want als daar een bug in zit, kan dat grote gevolgen hebben omdat de consensus dan fout kan zijn, aangezien een meerderheid van de clients dan dezelfde fout maken en desondanks gelijk krijgen, omdat ze in de meerderheid zijn).

En volledig uitstel verwacht ik zeker niet, want hun planning is gebaseerd op Proof of Stake. Dus als ze dit niet doen, dan kunnen ze ook niet de dingen doen die afhankelijk zijn van Proof of Stake. En waarom zouden ze nu stoppen wanneer het gewoon goed lijkt te werken op hun testnetwerken en ze alleen nog relatief kleine dingetjes moeten fixen?
En zo ja, wat er dan gebeurt, misschien dat mining inderdaad in stort, misschien dat er ook wel weer een andere coin opstaat die het waard is te minen, net zoals Eth dat deed toen Asic's bij Bitcoin het stokte overnamen en gpu mining niet meer rendabel was.
Dat hoor ik vaak, maar Ethereum was toen al behoorlijk populair. Na de overstap van Bitcoin op ASICs werd Ethereum ook niet opeens massaal gemined. Dat kwam pas later toen Ethereum nog veel populairder werd en het minen van ETH opeens goud geld opleverde. De mining boom kwam dus pas na een toegenomen populariteit van ETH. Het was niet zo dat de miners massaal overstapten op ETH en daardoor die munt veel waard maakten. Nee, de munt werd veel waard waardoor minen heel veel opbracht.

In de praktijk zie ik dat nieuwe munten zelden een success worden en dat Bitcoin en ETH, wat beide heel oude munten zijn, extreem veel meer waard zijn dan andere munten. Dus verwacht ik niet dat er opeens een alternatief opduikt.

Het enige risico daarop lijkt me Ethereum Classic, een fork van Ethereum die op Proof of Work blijft en vooral gesteund wordt door miners. Als veel mensen Proof of Stake afwijzen en overstappen naar ETH Classic, dan gaat het mis. Ik zie alleen niet in waarom de grote massa dat zou doen. Alleen de miners hebben daar een reden voor, maar van het verkopen van ETH Classic aan andere miners worden ze niet rijk.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op woensdag 18 mei 2022 @ 18:36:
[...]

Nee ik maak me meer zorgen om AD103 en Navi 32. AD102 is nu eenmaal een enorme chip met waarschijnlijk 18432 FP + 9216 INT ALU. Die neem het waarschijnlijk op tegen een 12288 ALU Navi 31. Dat is 125% extra ALU voor AD102. Het is een heel smerige berekening met enorm veel versimpelingen, maar wel illustratief voor het verschil. RDNA3 haalt waarschijnlijk nog steeds veel betere occupency percentages omdat RDNA nu eenmaal vanaf de grond af is opgezet is hiervoor + de vermoede fors hogere clock speeds, maar AD102 is een gigantische chip. AMD heeft misschien wel echt een 1000MHz verschil nodig om te winnen.

Met Navi 32 en AD103 zou het dan 16128 (10752 FP + 5376 INT) zijn, ongeveer 97% meer dan de verwachte 8192 van Navi 32. Dat is al een mindere marge. Daar beschouw ik vooralsnog het waarschijnlijker dat AMD het kan winnen. En dat gaat pijn doen want ik verwacht dat je meer traditionele high end optie, denk zoiets als de "RX7800XT", echt heel erg duur kan worden. :/
Ik heb geen idee wat @kopite7kimi bedoelde met "I am disappointed with RDNA3", of wil jij een gok wagen?

Maar er is nog iets om rekening met te houden. Als die nieuwe RTX 4090 daadwerkelijk al in juli zou verschijnen en RDNA3 pas in september dan heeft Nvidia effectief een voorsprong én kunnen ze begin 2023 alweer een Ti uitvoering aankondigen om in de lead te blijven.

March of the Eagles

Pagina: 1 ... 105 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.