Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DaniëlWW2 schreef op zaterdag 13 augustus 2022 @ 21:18:
[...]


Ten eerste is dit per SIMD32. Er is geen SIMD van 4 naar 8. Het zou van 4x naar 8x SIMD32 per WGP gaan. Vergeet CU ook gewoon, dat lijkt nu echt compleet achterhaald te gaan worden.

Tweede is dat het dit is.
[Afbeelding]

Dat is een SIMD specifiek register waaruit de SIMD data kan trekken die nodig is voor nieuwe berekeningen. De reden waarom je dit zou vergroten is omdat naarmate een GPU groter word, je op een gegeven moment last krijgt van wachttijden omdat een berekening een stukje data mist. Dit is een van de redenen waarom grotere GPU's nooit lineair meesschalen. Dat AMD dit nu lijkt aan te pakken voor hun grotere chips, zegt ook wel iets over het oog voor detail en optimalisatie per SKU die er lijkt te komen. En ja, dit zou zeker een impact moeten hebben voor RT, juist voor RT.

RT is nu per definitie hybride. Je pakt een volledig gerenderd object en je laat er in feite nu boxes op los. Dit zijn Bounding Volume Hierarchies. Dit is een proces dat je een aantal keer herhaald totdat het object afdoende is ingedeeld. Vervolgens laat je het absoluut minimale aantal rays los op elke box. Die "bouncen" vervolgens op het object en dan heb je een ray die je kan tracen, RT dus. Vervolgens moet je het beeld ook denoisen omdat het er anders verschrikkelijk uitziet omdat je met geen mogelijkheid afdoende rays kan casten met huidige hardware. Dit is zeer data intensief.

Het is eigenlijk dit:
[YouTube: Ray Tracing The Next Week : Chapter 2 BVH]

Juist omdat voor AMD het logisch is om aan te nemen dat ze RT blijven doen met hun ALU's en een alternatief renderpad in hun TMU's, gaat die extra cache hier ook helpen. Immers wil AMD eigenlijk geen fixed function hardware hebben die extra ruimte inneemt en proberen ze hun spul zo veelzijdig mogelijk te maken.

Een ander is trouwens dat RDNA3 ook WMMA instructies gaat ondersteunen. Mijn persoonlijke vermoeden is dat ze hiervoor de "trans units" gaan opwaarderen en hiermee ook denoising gaan doen.
Zie: https://videocardz.com/ne...itecture-amds-tensor-core


Onder de streep (pun intended :+ ) denk ik dat AMD zeker ook hun RT performance niet zal negeren.
Dit hoopte ik al, de extra register cache kan zowel helpen bij nuttige occupancy en ray tracing. Maar dan mag AMD wel de texture filter of mapping (?) units verbeteren:
While this system does offer greater flexibility and removes the need to have portions of the die doing nothing when there's ray tracing workload, AMD's first implementation of this does have some drawbacks. The most notable of which is that the texture processors can only handle operations involving textures or ray-primitive intersections at any one time.
Ik heb van ray tracing de AMD white paper nog niet kunnen vinden. Linkje?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op zaterdag 13 augustus 2022 @ 22:01:
Nou, dat verklaart dan ook waarom er zoveel ruimte te vinden is om zaken weg te snijden door AMD :)
Ook omdat logic scaling voor N5 dus wel goed is. ;)
Thanks, maar gaan ze dan ook hun dispatchers verdubbelen, zodat ze meer ops achter elkaar kunnen doen? Of willen ze gewoon nuttige occupancy (nog verder) verhogen?
Nee zo werkt het niet. Je hebt een wavefront/warp met maximaal 32 theads. Die threads bestaan elk uit een serie van operaties die berekend moeten worden. Deze staan in de aparte instruction cache, letterlijk in een wachtrij.

Zie:
Afbeeldingslocatie: https://www.hardwaretimes.com/wp-content/uploads/2020/06/image-20.png

Omdat het SIMD is, kan je alleen maar een type instructie per cycle doen. Dus als de volgende operatie voor thread 1 een FP32 operatie vraagt en thread 2 vraagt om een INT32 operatie, dan gaat een van die twee overgeslagen worden voor de volgende cycle. Het probleem is dat het om maximaal 32 threads gaat. Het wordt dus complex.

Bij Ampere is elke operatie altijd door een ALU, maar bij AMD kunnen er meerdere operaties van een thread die gebundeld zijn, gedaan worden door een ALU, als die berekeningen een lagere precisie vragen. Dus 2x FP16/INT16 etc.

Dat is dit verhaal.
Afbeeldingslocatie: https://tweakers.net/i/3uhwNWz5MWCPuBHX2nIOS59V8Gw=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/XIhfLFOhxRtiUwTesJD0Zqjl.png?f=user_large

Ideaal gezien optimaliseert de GPU een dergelijk wavefront dan ook om zo veel mogelijk threads, synchroon te laten draaien. Dat is waar het hele occupency verhaal komt kijken en daarin is RDNA zo goed.

Het hele punt van meer vector register file is dat als een specifieke operatie, datapunten die al berekend zijn vraagt, die beschikbaar zijn om direct uitgelezen te worden. En met een grotere register kan de SIMD meer datapunten dichtbij houden en dus inderdaad een beetje occupency verhogen.
sunsmountain schreef op zaterdag 13 augustus 2022 @ 22:12:
[...]

Dit hoopte ik al, de extra register cache kan zowel helpen bij nuttige occupancy en ray tracing. Maar dan mag AMD wel de texture filter of mapping (?) units verbeteren:

Ik heb van ray tracing de AMD white paper nog niet kunnen vinden. Linkje?
Die bestaat niet en ik vermoed al tijden dat RT een van de redenen is. De tweede is waarschijnlijk L3 cache.
AMD lijkt zeer bewust een aantal dingen geheim gehouden te willen hebben over RDNA2. Toeval is het niet omdat ik me in 2020 al besefte dat die L3 cache waarschijnlijk de sleutel tot een MCM ontwerp kon zijn omdat je zo de latency penalty tussen VRAM --> aparte chiplet --> cache kan opvangen. Je hebt een grote end level cache waarin je meer dingen kan opslaan zodat je niet naar VRAM hoeft. Dat is die L3 cache haar rol. Verder weet ik eigenlijk nog steeds niet in hoeverre RDNA2 RT nu echt slecht is, of dat het probleem in specifieke optimalisatie zit voor Nvidia hun implementatie.

[ Voor 3% gewijzigd door DaniëlWW2 op 13-08-2022 22:44 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 19:07

rapture

Zelfs daar netwerken?

XWB schreef op zaterdag 13 augustus 2022 @ 13:40:
@ZenTex Het rommelt in alle markten, de vraag naar consoles neemt ook af. De verwachting is dat de wereldeconomie gaat krimpen, de gevolgen zullen dan overal doorsijpelen.
Bij Intel, Nvidia,... wordt de krimp een probleem. Dat zijn bedrijven die genoeg kunnen produceren om tegen halve prijs met grote volume nog genoeg omzet en winst eruit te halen.

AMD is het omgekeerde. Te weinig productiecapaciteit en teveel goede producten die de concurrentie van de kaart kunnen vegen. Heeft een strategie aangenomen om zoveel mogelijk geld uit een wafer te slaan.

Alles naar de datacenters sturen waar AMD 2x beter dan Intel is. In de komende jaren wordt AMD 5 à 6 keer beter dan Intel en iedereen zal de software herschrijven voor de volledige overstap op AMD. AMD gaat in de datacenters dezelfde voorsprong als Nvidia met CUDA behalen.

De chiplets waren bedacht om zo efficiënt mogelijk zoveel mogelijk geld uit elke wafer te slaan. Dat er ook performance en efficiëntie voordelen zijn, is mooi meegenomen.

Naarmate Nvidia, Apple,... hun orders bij TSMC probeert te annuleren, kijkt AMD naar mogelijkheden om steeds meer productiecapaciteit naar zich toe te trekken voor het groot offensief. Dalende vraag is geen probleem voor AMD als hun productiecapaciteit veelvouden lager dan de vraag is. Het overnemen van andermans productiecapaciteit is voor AMD wat een wapenlevering voor Oekraïne betekent.

Een wereldwijde recessie door een imploderende China (in tientallen steden zijn de burgers druk bezig met de banken doen omvallen), Putin die Europa door het putje gaat trekken en de Fed wilt meer werkloosheid en de hoge prijzen slopen, dan kijkt iedereen naar de verlossing door een tweede leverancier.

Niet alles moet perse CUDA zijn, als AMD een deftig alternatief kan leveren, dan wordt 20% marktaandeel in de professionele markt naar AMD toegeschoven zodat ze een argument hebben om de prijzen van Nvidia te drukken.

RDNA2 heeft als oefenterrein gefunctioneerd om de drivers, software support voor streamers, FSR 2.0, Adobe Premiere support,... goed te krijgen. Het doel is om RDNA3 met zo weinig mogelijk verrassingen en zoveel mogelijk feature parity te lanceren.

De mindshare of het kracht van het merk moet aangepakt worden. We hadden gedacht dat Intel Inside de grootste invloed op de consument had, maar blijkbaar zweren mensen nog harder bij Nvidia dan bij Intel. Nvidia-aanhangers zijn zo fanatiek religieus als Apple-aanhangers.

Het voordeel van AMD is hun uitgebreide diversificatie. Als een aantal markten omlaag gaan, dan kunnen ze eindelijk productiecapaciteit toewijzen aan hun "ondergeschoven kinderen". bv de laptopmarkt heeft prachtige producten, maar nooit de productiecapaciteit. Bij een chipoverschot gaat AMD Intel uit de laptopmarkt stampen. Wat voor een ander een bedreiging tot hun bestaansrecht gezien wordt, is voor AMD het moment om een groot offensief te lanceren.

Ik ga juist AMD-aandelen kopen als de markt verkeerd gaat denken en de koers overdreven laag genoeg zet.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
sunsmountain schreef op zaterdag 13 augustus 2022 @ 22:01:
Je bent in de war met Navi24 :) , Navi23 heeft 16 WGP / dual CU en 32 CU in totaal:
https://www.techpowerup.com/gpu-specs/amd-navi-23.g926
Het is 8 WGP (16 CU) voor elke shader engine, dat is wat ik bedoelde, excuus. Het woord "elk" is van het eind weg gevallen. Achteraf heb ik jouw zin daar echter verkeerd gelezen, want dat zei jij ook. Het ging mij daar echter om de zin er na, dat Navi 31 om de één of andere reden uit 12 SE's zou bestaan en dus 192 CU's terwijl dezelfde post duidelijk 96 stelde.
Nee, omdat ik het oppervlak weet van een bestaande 2SE en 16WGP/32 CU. Daarom doe ik dat x6.
Ok, je verdubbelde dus (en zo kwam je dan ook op die 192 uit?) puur omdat je de hele SE dubbel zo groot wilde maken om bij de dubbele ALU's te komen?
Nou, dat verklaart dan ook waarom er zoveel ruimte te vinden is om zaken weg te snijden door AMD :)
Maar dat snijden ze dus niet weg, dat is het punt juist. Ik zal eens kijken of ik iets in elkaar gephotoshopt krijg :p
Thanks, maar gaan ze dan ook hun dispatchers verdubbelen, zodat ze meer ops achter elkaar kunnen doen? Of willen ze gewoon nuttige occupancy (nog verder) verhogen?
Ik ga er van uit dat ze sowieso een dispatcher per SIMD behouden, dus als er 8 SIMD's in een WGP komen zullen er ook 8 dispatchers komen. Maar het zal vooral op occupancy gericht zijn, want elke SIMD heeft z'n eigen set VGPR's...tenzij ze dat nu tussen 2 SIMD's gaan delen en denken dat ze niet het dubbele aan VGPR's nodig hebben? Dan krijg je per WGP 8 SIMD's die in paren 192 KB aan VGPR hebben, dus 4x192 = 768 KB in totaal.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
rapture schreef op zaterdag 13 augustus 2022 @ 23:20:
[...]

Bij Intel, Nvidia,... wordt de krimp een probleem. Dat zijn bedrijven die genoeg kunnen produceren om tegen halve prijs met grote volume nog genoeg omzet en winst eruit te halen.

AMD is het omgekeerde. Te weinig productiecapaciteit en teveel goede producten die de concurrentie van de kaart kunnen vegen. Heeft een strategie aangenomen om zoveel mogelijk geld uit een wafer te slaan.
Vergeet je nou het PS5 en Xbox series X/S volume? Dat gaat om miljoenen chips per jaar. Ze willen allemaal zoveel mogelijk geld uit een wafer, maar AMD lijkt primair te gaan voor performance/Watt.
rapture schreef op zaterdag 13 augustus 2022 @ 23:20:
Alles naar de datacenters sturen waar AMD 2x beter dan Intel is. In de komende jaren wordt AMD 5 à 6 keer beter dan Intel en iedereen zal de software herschrijven voor de volledige overstap op AMD. AMD gaat in de datacenters dezelfde voorsprong als Nvidia met CUDA behalen.

De chiplets waren bedacht om zo efficiënt mogelijk zoveel mogelijk geld uit elke wafer te slaan. Dat er ook performance en efficiëntie voordelen zijn, is mooi meegenomen.

Naarmate Nvidia, Apple,... hun orders bij TSMC probeert te annuleren, kijkt AMD naar mogelijkheden om steeds meer productiecapaciteit naar zich toe te trekken voor het groot offensief. Dalende vraag is geen probleem voor AMD als hun productiecapaciteit veelvouden lager dan de vraag is. Het overnemen van andermans productiecapaciteit is voor AMD wat een wapenlevering voor Oekraïne betekent.
Dat gaat een beetje ver, maar ik denk dat AMD niet per se op extra productiecapaciteit zit te wachten zonder pandemie. De oorlog zelf verhoogt of verlaagt niet de vraag naar chips.
rapture schreef op zaterdag 13 augustus 2022 @ 23:20:
Een wereldwijde recessie door een imploderende China (in tientallen steden zijn de burgers druk bezig met de banken doen omvallen), Putin die Europa door het putje gaat trekken en de Fed wilt meer werkloosheid en de hoge prijzen slopen, dan kijkt iedereen naar de verlossing door een tweede leverancier.

Niet alles moet perse CUDA zijn, als AMD een deftig alternatief kan leveren, dan wordt 20% marktaandeel in de professionele markt naar AMD toegeschoven zodat ze een argument hebben om de prijzen van Nvidia te drukken.
Zullen ze een groot marketing en software offensief nodig hebben om de professionals en wetenschappers van CUDA los te weken. Ik zie het niet snel gebeuren.
rapture schreef op zaterdag 13 augustus 2022 @ 23:20:
RDNA2 heeft als oefenterrein gefunctioneerd om de drivers, software support voor streamers, FSR 2.0, Adobe Premiere support,... goed te krijgen. Het doel is om RDNA3 met zo weinig mogelijk verrassingen en zoveel mogelijk feature parity te lanceren.

De mindshare of het kracht van het merk moet aangepakt worden. We hadden gedacht dat Intel Inside de grootste invloed op de consument had, maar blijkbaar zweren mensen nog harder bij Nvidia dan bij Intel. Nvidia-aanhangers zijn zo fanatiek religieus als een Apple-aanhangers.
Marketing en branding zijn sterk, daarom is Nvidia bang voor Intel, maar niet voor AMD. Zelfs al wint Navi31 de performance crown, dan nog weet Nvidia marketing het wel zo te spinnen voor gamers dat AD102 eigenlijk beter is (ray tracing, DLSS3.123, streaming etc.)
rapture schreef op zaterdag 13 augustus 2022 @ 23:20:
Het voordeel van AMD is hun uitgebreide diversificatie. Als een aantal markten omlaag gaan, dan kunnen ze eindelijk productiecapaciteit toewijzen aan hun "ongeschoven kinderen". bv de laptopmarkt heeft prachtige producten, maar nooit de productiecapaciteit. Bij een chipoverschot gaat AMD Intel uit de laptopmarkt stampen. Wat voor een ander een bedreiging tot hun bestaansrecht gezien wordt, is voor AMD het moment om een groot offensief te lanceren.

Ik ga juist AMD-aandelen kopen als de markt verkeerd gaat denken en de koers overdreven laag genoeg zet.
AMD luistert heel goed naar klanten en werkt met ze samen, denk aan Microsoft, Sony, net als het bedrijf Xilinx dat ze gekocht hebben. Ik denk dat de meeste aandelen overgewaardeerd zijn momenteel, maar AMD zou een goed value aandeel kunnen zijn, tot een bepaalde prijs. Het hangt af van o.a. de buyback, dividend en huidige prijs/share.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Werelds schreef op zaterdag 13 augustus 2022 @ 23:28:

Ok, je verdubbelde dus (en zo kwam je dan ook op die 192 uit?) puur omdat je de hele SE dubbel zo groot wilde maken om bij de dubbele ALU's te komen?
Ja, soort van. De geruchten zeggen 240, daarna 192. Je begint met 2 SE, 32 CU, hoe groot is dat op N7? Hoe groot is dat op N5?

Zonder de verdubbeling van ALU's te verrekenen, want geen idee wat dat doet met het oppervlak. Alles verdubbelen is daarentegen simpel.
Werelds schreef op zaterdag 13 augustus 2022 @ 23:28:
Maar dat snijden ze dus niet weg, dat is het punt juist. Ik zal eens kijken of ik iets in elkaar gephotoshopt krijg :p
Huh, eerst zeg je:
Jij verdubbelt namelijk niet alleen de hele WGP's (wat dus al niet helemaal klopt), je verdubbelt op die manier ook primitives/RB's/L1$, dus je verdubbelt méér dan hetgeen er "bevestigd" is.
Ik zeg: dan snijden ze dat weg.
Jij zegt: dat snijden ze niet weg.

:? :?

Het zijn 6 Shader Engines, niet 12. Maar om een idee te krijgen hoe groot 6 Shader Engines met dubbel zoveel ALU's, ben ik uitgegaan van 12 Shader Engines. Dan kan je dus helft van de primitives/RB's/L1$'s weer wegsnijden, maar geen idee hoe groot die precies zijn in het geheel, of te lui om het apart op te meten.
Werelds schreef op zaterdag 13 augustus 2022 @ 23:28:
Ik ga er van uit dat ze sowieso een dispatcher per SIMD behouden, dus als er 8 SIMD's in een WGP komen zullen er ook 8 dispatchers komen. Maar het zal vooral op occupancy gericht zijn, want elke SIMD heeft z'n eigen set VGPR's...tenzij ze dat nu tussen 2 SIMD's gaan delen en denken dat ze niet het dubbele aan VGPR's nodig hebben? Dan krijg je per WGP 8 SIMD's die in paren 192 KB aan VGPR hebben, dus 4x192 = 768 KB in totaal.
De occupancy van RDNA2 is al best wel goed, maar wat ik vermoed is dat ze die 64 KB extra vector register aan de texture filter en/of de texture mapping units geven zodat die tegelijkertijd kunnen werken op textures èn ray-primitive intersections. In plaats van zoals nu òf.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 19:07

rapture

Zelfs daar netwerken?

sunsmountain schreef op zaterdag 13 augustus 2022 @ 23:37:
Zullen ze een groot marketing en software offensief nodig hebben om de professionals en wetenschappers van CUDA los te weken. Ik zie het niet snel gebeuren.


[...]

Marketing en branding zijn sterk, daarom is Nvidia bang voor Intel, maar niet voor AMD. Zelfs al wint Navi31 de performance crown, dan nog weet Nvidia marketing het wel zo te spinnen voor gamers dat AD102 eigenlijk beter is (ray tracing, DLSS3.123, streaming etc.)
Vroeger wist AMD bij wijze van spreken niet of ze de lonen tegen de einde van de week konden betalen en daarom is de Radeon-software-team wegbezuinigd om te kunnen overleven. De voorganger van CUDA was door Ati uitgevonden, maar er was geen geld en Nvidia ging met de vruchten lopen.

Nu bouwt AMD een oorlogskas van Intel formaat op (kan zelfs overnames permitteren) op en het is juist Intel die vrij snel zonder geld gaat vallen. AMD kan nu permitteren om de drivers op 1/3 meer PC's testen dan Nvidia. Nvidia heeft 2000 man dat niet anders doet dan software aan hun GPU's optimaliseren en AMD heeft het geld om deze achterstand ook weg te werken.

Gemakkelijk zal het niet zijn. Minstens 2 generaties duidelijk beter dan Nvidia. Uiteindelijk heeft AMD de gamers wel overtuigd dat de default-keuze voor de CPU is AMD en niet Intel. Naarmate de chiplets de voorsprong op monolithic die kan bewijzen, dan gaat het steeds meer in het voordeel van AMD omslaan.

[ Voor 3% gewijzigd door rapture op 14-08-2022 00:12 ]


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
rapture schreef op zondag 14 augustus 2022 @ 00:10:
[...]

Vroeger wist AMD bij wijze van spreken niet of ze de lonen tegen de einde van de week konden betalen en daarom is de Radeon-software-team wegbezuinigd om te kunnen overleven. De voorganger van CUDA was door Ati uitgevonden, maar er was geen geld en Nvidia ging met de vruchten lopen.

Nu bouwt AMD een oorlogskas van Intel formaat op (kan zelfs overnames permitteren) op en het is juist Intel die vrij snel zonder geld gaat vallen. AMD kan nu permitteren om de drivers op 1/3 meer PC's testen dan Nvidia. Nvidia heeft 2000 man dat niet anders doet dan software aan hun GPU's optimaliseren en AMD heeft het geld om deze achterstand ook weg te werken.

Gemakkelijk zal het niet zijn. Minstens 2 generaties duidelijk beter dan Nvidia. Uiteindelijk heeft AMD de gamers wel overtuigd dat de default-keuze voor de CPU is AMD en niet Intel. Naarmate de chiplets de voorsprong op monolithic die kan bewijzen, dan gaat het steeds meer in het voordeel van AMD omslaan.
De goede oude ATi tijd, ja jammer dat ze die compute installed base hebben verloren. Die 1/3 meer test PC's is peanuts, belangrijker is dat Nvidia's team game code zelf kan fixen, the way it's meant to be played, en de mindshare. GPU default-keuze is Nvidia.

AMD zou ik nog niet default-keuze CPU vinden, de huidige Alder Lake generatie is sterk, ondanks het stroomverbruik. De E cores blijken in staat AMD bij te benen op multi-threaded.

GPU chiplets hebben nog niet de facto gewonnen van monolitisch, al die chiplets kosten nog steeds wel wafers (maar wel minder, laten de eerste tekenen zien). Nvidia zal zo lang mogelijk vasthouden aan hun expertise en ze zijn goed in wat ze doen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Nu online

Damic

Tijd voor Jasmijn thee

sunsmountain schreef op zondag 14 augustus 2022 @ 01:03:
[...]

De goede oude ATi tijd, ja jammer dat ze die compute installed base hebben verloren. Die 1/3 meer test PC's is peanuts, belangrijker is dat Nvidia's team game code zelf kan fixen, the way it's meant to be played, en de mindshare. GPU default-keuze is Nvidia.

AMD zou ik nog niet default-keuze CPU vinden, de huidige Alder Lake generatie is sterk, ondanks het stroomverbruik. De E cores blijken in staat AMD bij te benen op multi-threaded.

GPU chiplets hebben nog niet de facto gewonnen van monolitisch, al die chiplets kosten nog steeds wel wafers (maar wel minder, laten de eerste tekenen zien). Nvidia zal zo lang mogelijk vasthouden aan hun expertise en ze zijn goed in wat ze doen.
Het voordeel van die chiplets dat je wel heeel veel cpu's kunt maken door gewoon de IO-die (die minder kost) te veranderen EPYC/TR/Ryzen. Moesten ze de APU's nu ook al 2 chiplets maken (+ io-die) dan hebben ze maar 1 master cpu chiplet nodig en een paar verschillende IO-dies.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
sunsmountain schreef op zaterdag 13 augustus 2022 @ 23:55:
Zonder de verdubbeling van ALU's te verrekenen, want geen idee wat dat doet met het oppervlak. Alles verdubbelen is daarentegen simpel.
Maar dan doe je véél meer dan enkel ALU's, dus dat is juist geheel incorrect. Zie hieronder.
Ik zeg: dan snijden ze dat weg.
Jij zegt: dat snijden ze niet weg.
Er wordt niets weg gesneden. Jij verdubbelt iets dat niet verdubbeld moet worden (althans niet voor zover wij weten), dus dan wordt het niet weg gesneden; het wordt gewoon niet verdubbeld.
Het zijn 6 Shader Engines, niet 12. Maar om een idee te krijgen hoe groot 6 Shader Engines met dubbel zoveel ALU's, ben ik uitgegaan van 12 Shader Engines. Dan kan je dus helft van de primitives/RB's/L1$'s weer wegsnijden, maar geen idee hoe groot die precies zijn in het geheel, of te lui om het apart op te meten.
Goed, tijd om jouw gedachtegang uit te beelden met mijn geweldige Krita (want ik heb geen Photoshop meer en ben te lui om uit te zoeken hoe je dat tegenwoordig minder legaal doet) skills :p

In den beginne, Navi 23 (uit deze geknipt; CGI shot dat door AMD is rondgestuurd naar pers):

Afbeeldingslocatie: https://werelds.net/navi-23/navi-23.jpg

Dan een SE met wat annotaties voor de goede orde; 1 RB = 8 ROP's, dat wordt zometeen belangrijk:

Afbeeldingslocatie: https://werelds.net/navi-23/navi-23-se.jpg

IF, MC, I/O laat ik allemaal gewoon zitten om de vergelijking iets makkelijker te maken.

Jij wil op basis hiervan benaderen wat Navi 31 zou zijn. Omdat die het dubbele aan ALU's heeft, verdubbel je gewoon het aantal SE's en creëert daarmee dit monster:

Afbeeldingslocatie: https://werelds.net/navi-23/navi-23-12se-96wgp.jpg

Je hebt hiermee de 12288 ALU's...maar ook 384 ROP's, 12 sets rasterizer en primitive units, 24 slices van 128 KB aan L1$. Veel te veel dus! De SE's verdubbelen is dus te gortig. Nu lees je verder en zie je dat angstronomics het over 6 SE's heeft, waarbij er geen wijzigingen gemeld worden, dus dan ga je enkel het aantal WGP's verdubbelen om zo aan de ALU's te komen. Dan krijg je dit:

Afbeeldingslocatie: https://werelds.net/navi-23/navi-23-6se-96wgp.jpg

Dat is al een stukje minder. Maar je hebt nu nog steeds de WGP's geheel verdubbeld, wat nog steeds niet klopt. Er is geen aanwijzing dat scalars, TMU's en al die ongein in WGP's verdubbeld is, dus met die 96 WGP's heb je nu ook bijvoorbeeld 768 TMU's (een bizar aantal uiteraard). En dan lees je weer verder en staat er dat er gewoon 48 WGP's zijn en niet 96, met wederom geen wijziging voor TMU's en dergelijke gemeld. Dus dan móet je wel naar de WGP's kijken en een gok doen over hoeveel meer ruimte die extra ALU's in gaan nemen, zonder dat je ook TMU's enzo verdubbelt. Dat is mijn prachtige werk van eerder. Laten we het eens extreem ruim nemen en zeggen dat ze 50% meer ruimte per WGP nodig hebben voor die 128 ALU's met hun registers en hoogstwaarschijnlijk een extra schedule/dispatch unit. Dan kom je op zoiets uit:

Afbeeldingslocatie: https://werelds.net/navi-23/navi-23-6se-48wgp-enlarged.jpg

Dit is al 25% minder dan jouw eerste gok - en dat is dan met heel grof werk, want ik heb gewoon hele blokken uitgerekt, waardoor ook de "loze ruimtes" groter zijn geworden. Én het is met een extreme marge van 50% voor 128 ALU's, wat het sowieso niet zou zijn, want de ALU's zelf zijn waarschijnlijk nog steeds één van de kleinste delen. Het zal eerder tegen de 30% zitten, als het dat al is.

En dan lees je weer verder en zie je dat angstronomics zegt dat de WGP's even groot zijn gebleven. Dus uiteindelijk komt het eerder neer op zoiets:

Afbeeldingslocatie: https://werelds.net/navi-23/navi-23-6se-48wgp.jpg

Dat is de helft van jouw eerste gok en slechts ~2,2 keer zo groot als Navi 23 - en dat is dus mét de dingen die naar de MCD gaan. Knip je dat weg blijft er iets over dat slechts pakweg 50% groter is dan Navi 23 nu is, waarmee het na de shrink onder de 250mm² zou komen (veel te klein), maar wel bevestigd dat ~300mm² voor enkel de GCD haalbaar is. Die missende ~50mm² zal weer in dingen als meer L1$ enzo gaan zitten :)


Als laatste zal ik even herhalen dat je dit soort afbeeldingen niet te letterlijk moet nemen - CGI shots kloppen wel aardig, maar het zijn zijn opgepoetste plaatjes om ze mooier te maken. Navi 10 hebben we zowel een CGI shot als een IR shot van. Als je die over elkaar legt (IR shot is gespiegeld, dus horizontaal + verticaal flippen) zul je zien dat de WGP's gewoon pal tegen elkaar aan liggen en geen "loze" ruimte hebben zoals in de CGI shots/floorplans. Daarom zei ik dat je dat gewoon mee moet nemen, want in de werkelijkheid zijn die stukjes zwart er gewoon niet (in werkelijkheid liggen de interconnects er zo'n beetje "overheen") :p

Een versie van dat IR shot met wat annotaties staat ook op Reddit: https://www.reddit.com/r/...rom_fritzchen_fritz_link/

Je ziet zo ook heel makkelijk dat de "bovenkant" van een SE behoorlijk veel ruimte in neemt. En hoe veel ruimte de GCP, L2$ (Navi 10 had 2x4 MB), MC's en I/O in nemen. Een Navi 10 "GCD" zou slechts de helft zijn van wat de die nu is.

Het is voor ons als buitenstaanders gewoon heel lastig dit soort inschattingen te maken. Helemaal als het gaat over verdubbelingen van minuscule dingen als ALU's.

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 02-10 19:57

SG

SG surft naar info hardewaren

sunsmountain schreef op zondag 14 augustus 2022 @ 01:03:
De goede oude ATi tijd, ja jammer dat ze die compute installed base hebben verloren. Die 1/3 meer test PC's is peanuts, belangrijker is dat Nvidia's team game code zelf kan fixen, the way it's meant to be played, en de mindshare. GPU default-keuze is Nvidia.
Ze hebben die compute niet verloren nvidia heeft die eerder agressief genomen. Door zeer actief het op te dringen in compute pro markt. En eer ATI daar op reageerde was het gewoon te laat. En na AMD overname werd de R&D gekrompen. Dat is gewoon zeer sterke actieve stratigie van nv om dgpu winsten to te passen in de software pro tak waar ze nu decade lang de vruchten van plukken.
AMD zou ik nog niet default-keuze CPU vinden, de huidige Alder Lake generatie is sterk, ondanks het stroomverbruik. De E cores blijken in staat AMD bij te benen op multi-threaded.
nou nee met AL vs Zen3 zijn ze beide sterk waar intel voordeel in games heeft maar meer in esports tak. En dat doet AMD zonder de Big-little maar dat komt ook met Zen5. En gezien AM5 je mogelijk paar generatie zen op kwijt kan is dat voor velen de belangrijkste keuze. Zelfs als AMD nipt niet de kroon heeft of zelfs 25% achterloopt. Omdat upgrade path zeer belangrijk is. Voor velen.
Voor mij niet i920 vervangen door een 1950x en sta nog niet te springen voor upgrade. Dus AL/RL moet bij mij tegen Zen4 cache op nemen met veel instap DDR5 ergens midden volgend jaar. Mits de crisis niet hard toeslaat .
GPU chiplets hebben nog niet de facto gewonnen van monolitisch, al die chiplets kosten nog steeds wel wafers (maar wel minder, laten de eerste tekenen zien). Nvidia zal zo lang mogelijk vasthouden aan hun expertise en ze zijn goed in wat ze doen.
Nou ze hebben gewonnen in productie efficient en intel volgt met meteor-lake. Naast dat ze de halffabricaat afval reduceren.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Werelds schreef op zondag 14 augustus 2022 @ 11:25:
[...]

Maar dan doe je véél meer dan enkel ALU's, dus dat is juist geheel incorrect. Zie hieronder.


[...]

Er wordt niets weg gesneden. Jij verdubbelt iets dat niet verdubbeld moet worden (althans niet voor zover wij weten), dus dan wordt het niet weg gesneden; het wordt gewoon niet verdubbeld.


[...]

Goed, tijd om jouw gedachtegang uit te beelden met mijn geweldige Krita (want ik heb geen Photoshop meer en ben te lui om uit te zoeken hoe je dat tegenwoordig minder legaal doet) skills :p

In den beginne, Navi 23 (uit deze geknipt; CGI shot dat door AMD is rondgestuurd naar pers):

[Afbeelding]

Dan een SE met wat annotaties voor de goede orde; 1 RB = 8 ROP's, dat wordt zometeen belangrijk:

[Afbeelding]

IF, MC, I/O laat ik allemaal gewoon zitten om de vergelijking iets makkelijker te maken.

Jij wil op basis hiervan benaderen wat Navi 31 zou zijn. Omdat die het dubbele aan ALU's heeft, verdubbel je gewoon het aantal SE's en creëert daarmee dit monster:

[Afbeelding]

Je hebt hiermee de 12288 ALU's...maar ook 384 ROP's, 12 sets rasterizer en primitive units, 24 slices van 128 KB aan L1$. Veel te veel dus! De SE's verdubbelen is dus te gortig. Nu lees je verder en zie je dat angstronomics het over 6 SE's heeft, waarbij er geen wijzigingen gemeld worden, dus dan ga je enkel het aantal WGP's verdubbelen om zo aan de ALU's te komen. Dan krijg je dit:

[Afbeelding]

Dat is al een stukje minder. Maar je hebt nu nog steeds de WGP's geheel verdubbeld, wat nog steeds niet klopt. Er is geen aanwijzing dat scalars, TMU's en al die ongein in WGP's verdubbeld is, dus met die 96 WGP's heb je nu ook bijvoorbeeld 768 TMU's (een bizar aantal uiteraard). En dan lees je weer verder en staat er dat er gewoon 48 WGP's zijn en niet 96, met wederom geen wijziging voor TMU's en dergelijke gemeld. Dus dan móet je wel naar de WGP's kijken en een gok doen over hoeveel meer ruimte die extra ALU's in gaan nemen, zonder dat je ook TMU's enzo verdubbelt. Dat is mijn prachtige werk van eerder. Laten we het eens extreem ruim nemen en zeggen dat ze 50% meer ruimte per WGP nodig hebben voor die 128 ALU's met hun registers en hoogstwaarschijnlijk een extra schedule/dispatch unit. Dan kom je op zoiets uit:

[Afbeelding]

Dit is al 25% minder dan jouw eerste gok - en dat is dan met heel grof werk, want ik heb gewoon hele blokken uitgerekt, waardoor ook de "loze ruimtes" groter zijn geworden. Én het is met een extreme marge van 50% voor 128 ALU's, wat het sowieso niet zou zijn, want de ALU's zelf zijn waarschijnlijk nog steeds één van de kleinste delen. Het zal eerder tegen de 30% zitten, als het dat al is.

En dan lees je weer verder en zie je dat angstronomics zegt dat de WGP's even groot zijn gebleven. Dus uiteindelijk komt het eerder neer op zoiets:

[Afbeelding]

Dat is de helft van jouw eerste gok en slechts ~2,2 keer zo groot als Navi 23 - en dat is dus mét de dingen die naar de MCD gaan. Knip je dat weg blijft er iets over dat slechts pakweg 50% groter is dan Navi 23 nu is, waarmee het na de shrink onder de 250mm² zou komen (veel te klein), maar wel bevestigd dat ~300mm² voor enkel de GCD haalbaar is. Die missende ~50mm² zal weer in dingen als meer L1$ enzo gaan zitten :)


Als laatste zal ik even herhalen dat je dit soort afbeeldingen niet te letterlijk moet nemen - CGI shots kloppen wel aardig, maar het zijn zijn opgepoetste plaatjes om ze mooier te maken. Navi 10 hebben we zowel een CGI shot als een IR shot van. Als je die over elkaar legt (IR shot is gespiegeld, dus horizontaal + verticaal flippen) zul je zien dat de WGP's gewoon pal tegen elkaar aan liggen en geen "loze" ruimte hebben zoals in de CGI shots/floorplans. Daarom zei ik dat je dat gewoon mee moet nemen, want in de werkelijkheid zijn die stukjes zwart er gewoon niet (in werkelijkheid liggen de interconnects er zo'n beetje "overheen") :p

Een versie van dat IR shot met wat annotaties staat ook op Reddit: https://www.reddit.com/r/...rom_fritzchen_fritz_link/

Je ziet zo ook heel makkelijk dat de "bovenkant" van een SE behoorlijk veel ruimte in neemt. En hoe veel ruimte de GCP, L2$ (Navi 10 had 2x4 MB), MC's en I/O in nemen. Een Navi 10 "GCD" zou slechts de helft zijn van wat de die nu is.

Het is voor ons als buitenstaanders gewoon heel lastig dit soort inschattingen te maken. Helemaal als het gaat over verdubbelingen van minuscule dingen als ALU's.
Mooie plaatjes, goed gedaan. Daar was ik dus te lui voor, en deed x6, maakte een monster :D

Ik probeerde de extra elementen/oppervlakte vervolgens kleiner te maken met een foezelfactor, je krijgt dan minder oppervlakte en dat komt qua oppervlakte op Angstronomics uit (maar qua inhoud van de Navi31 chip niet).

Nu hebben we het eerste plaatje van een Navi31 GCD :) dank je wel, @Werelds !

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Heb toch nog deze wafer calculator gevonden. En de logica voor chiplets wordt zo wel heel snel duidelijk.
73% yield voor een high end GPU is geweldig. Zeker omdat een deel van die defecte chips alsnog verkocht zullen worden. Navi 32 met over de 80% is helemaal goed.
MCD ga ik niet eens bespreken. :P

Het roept bij mij alleen wel een vraag op. Hoe moet je hier redelijkerwijs meer dan twee SKU's uit gaan halen? Voor beide chips met dergelijk kleine oppervlakten, moet er iets behoorlijk misgaan in het productieproces om niet 80%+ van je wafer daadwerkelijk te kunnen verkopen. En de overgrote meerderheid daarvan zal perfect in staat zijn om de top bin te halen. Je kan natuurlijk de top bin extra hoge eisen stellen en de chips die het niet halen, een lagere specificatie geven, maar ik zie de economische rationeel daarvoor niet. Ik zie een salvage specificatie dan ook zeer dichtbij de top bin blijven. Salvage SKU's zoals de "RX6800" gaan denk ik nauwelijks te vinden zijn omdat er te weinig chips hiervoor zijn.

Het is ook compleet anders dan met Navi 21 waar salvage noodzakelijk is. Dat brengt me meteen bij AD102. Ik heb hier voor 610mm gekozen (26,5mm x 23mm) en daar gaat het noodzakelijk worden voor Nvidia om SKU na SKU te lanceren om die enorme waferkosten maar terug te verdienen. Als ze bijvoorbeeld 70 chips uit een wafer halen, dan moeten ze die voor gemiddeld $285 verkopen als die wafer inderdaad $20.000 kost. Zet dat tegenover bijvoorbeeld 150 Navi 31 chips met $133 + $51. Realiteit is ook dat wafers op oudere nodes, wat N7/6 inmiddels is, altijd in prijs dalen. N5 is binnenkort ook niet meer de nieuwste node, dat gaat N3 worden. Apple zal inmiddels de meeste opzetkosten voor N5 hebben gefinancierd in ruil voor exclusiviteit. In de praktijk denk ik dat de chips dus goedkoper uitvallen.

AD103 en Navi 32 zijn helemaal interessant. Voor Navi 32 verwacht ik dat AMD bewust gaat proberen de je top SKU te laten kopen omdat er weinig valt te binnen. Dat is het effect van 80% chips goed terugkrijgen. Ik zie misschien een extra SKU verschijnen met hooguit 10% uitgeschakeld.

Komt bij dat AD102 vs. Navi 31 ongewis is wie dat gaat winnen. Maar ik zie AD103 eigenlijk geen schijn van kans maken tegen Navi 32. Navi 32 zou 50% extra ALU's over Navi 21 zijn waar AD103 op GA102 schaal blijft.

Het besef dat AMD door een combinatie van macro-economisch omstandigheden en hun eigen ambities om marktaandeel te winnen, kan gaan kiezen voor een agressieve productie en prijsstrategie, is denk ik een reële mogelijkheid. Want met deze specificaties kan Nvidia eigenlijk Navi 32 niet counteren zonder enorm in hun marges te moeten snijden.

Navi 31
Afbeeldingslocatie: https://tweakers.net/i/BJGutVClxMlBlqVhBL4RXdDlL-A=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/JxV14k1Bztc4C2EYUM02iPqO.jpg?f=user_large

Navi 32
Afbeeldingslocatie: https://tweakers.net/i/EFZoJ5LCYJcjVdTUtBtO6c8VZDE=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/hTGCLYEeME3hic3afy3UgGyT.jpg?f=user_large

MCD
Afbeeldingslocatie: https://tweakers.net/i/2_7r3hYbdOIvojYBTt9uEIpcP90=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/mXHrueuOOOUwzFsPCQ4vIzr0.jpg?f=user_large

Navi 21
Afbeeldingslocatie: https://tweakers.net/i/aXnQ9AkBV-ORcWzodwUIdX1DNZU=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/IDg79zqYJHPfDymSo4m7zeIK.jpg?f=user_large

AD102
Afbeeldingslocatie: https://tweakers.net/i/WuEQdqLikKgi_u5CX8NAqAsxFNk=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/ARky4j9C6WqfUqs1JK4EbE6o.jpg?f=user_large

AD103
Afbeeldingslocatie: https://tweakers.net/i/7mz-D6JnVo3u58SoxZdcpAoFRgw=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/7Z5l3bmxFToKDhGy6dYSynRj.jpg?f=user_large

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Damic schreef op zondag 14 augustus 2022 @ 03:09:
[...]

Het voordeel van die chiplets dat je wel heeel veel cpu's kunt maken door gewoon de IO-die (die minder kost) te veranderen EPYC/TR/Ryzen. Moesten ze de APU's nu ook al 2 chiplets maken (+ io-die) dan hebben ze maar 1 master cpu chiplet nodig en een paar verschillende IO-dies.
Kosten voordeel van chiplets zit hem op 2 vlakken. Voor CPU: De design kosten worden overschat. AMD heeft gewoon kleinere chips en betere yields op Ryzen CCD's/CCX's. En maakt daarmee goedkoper Epyc/TR/Ryzen.

Voor GPU: een analyse van angstronomics laat zien dat AMD maar 200 of 300 mm2 nodig heeft van N5 voor hun nieuwe generatie, terwijl Nvidia op de 600 380 en 300 mm2 zit, voor de top 2 / top 3 chips. Dat is wederom een flinke besparing, die Nvidia niet heeft. AMD zou Nvidia vervolgens kunnen beconcurreren op prijs, maar dat zullen ze alleen doen als daar door de crypto crash toch al toe gedwongen worden: ze zouden daarmee ook in hun eigen marges snijden.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Nu online

Damic

Tijd voor Jasmijn thee

@sunsmountain ja sorry het was nogal vroeg, ik dacht dat ik in het AMD topic zat en niet in het GPU topic :$

In ieder geval, zullen we in oktober wel zien wat deze monster kunnen en hoe ze nu worden samengesteld. Vermits ze nu al een hele tijd bezig zijn aan Navi 4x ben ik eigenlijk benieuwd wat ze verder gaan doen, gaa nze nog verder opsplitsen zoals Zen en wat gaan ze nog eens apart doen!

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik merk dat ik een beetje de neiging heb om Navi 33 te negeren. Maar als ik er eens naar kijk, nou die gaat ook wat worden. Je kijkt naar vergelijkbare yields als Navi 32 heeft met een PCB dat niet veel anders hoeft te zijn dan Navi 23 nu heeft, met een ogenschijnlijk serieus prestatiedoel. Navi 33 is wat uitgekleed, dat lekt komt van alle kanten. Of die werkelijk RX6900XT niveau haalt, zeker op hogere resoluties is de vraag, maar daar staat tegenover hoe goedkoop die chip moet zijn.

In 2019 kon een grotere Navi 10 chip met een complexer PCB, toen N7 nog cutting edge was, voor $400 verkocht worden. Toen was al duidelijk dat AMD meer marge aan het nemen was op hun chips. Daar zijn ze meer doorgegaan met de RX6600 series die effectief nul perf/cost verbeteringen hebben gebracht. Navi 23 is een efficiënter ontwerp en dat is het.

Deze chip gaat alleen onherroepelijk te maken krijgen met de tweedehands miningkaarten waardoor er prijsdruk zal ontstaan. Ook kan die chip zeer waarschijnlijk wel op tegen zeker een RTX3070 of RX6750XT en is de RTX3070Ti of RX6800 ook nog wel te doen. RTX3080 of RX6800XT is misschien het uiterste omdat Navi 33 uiteindelijk uitgekleed is met een 128 bit bus.

Wat nu als deze combinatie van factoren, een maximale MSRP van $400 afdwingen? Dat is zeker mogelijk omdat de chip zo klein lijkt te zijn. Dan zijn high end tweedehands miningkaarten niks meer waard (geweldig :+), maar belangrijker is dat die enorme groep potentiële klanten van GTX1070-80/RTX2060 tot RTX2070S/RX5700XT, eindelijk een serieuze upgrade hebben. Dat segment zit barstensvol met mensen die al jaren niet kunnen upgraden omdat de prijsontwikkeling de afgelopen vier jaar zo dramatisch is geweest.

Tweede is dat het Nvidia ook in enorme problemen zou brengen. AD104 zou 7680FP32 ALU's zijn en vooralsnog zou het ook 300mm2 zijn op N5. Qua kosten is het geen discussie welke goedkoper zou uitvallen. Qua prestatieniveau zie ik vooralsnog ook niet hoe AD104 echt fors sneller zou zijn. Beetje sneller kan zeker, maar niet tientallen procenten. AD106 zou vergelijkbaar formaat zijn met Navi 33, maar N5 en langzamer.


En dit alles brengt me ook bij de realisatie dat als AMD kiest voor een agressieve strategie om marktaandeel te winnen in een krimpende markt, ze ook echt de producten lijken te hebben om het te doen.
Het nachtmerrie scenario voor Nvidia is denk ik dat AMD "wint" met Navi 31 en niet een beetje ook. Vervolgens besluit AMD dat een prijs rond de $1000 wel afdoende is voor hun goed te produceren en relatief goedkopere chip. Navi 32 wint dan helemaal van AD103 en die plaatsen ze eerder rond de $600. Op max $400 zetten ze Navi 33 neer.

Dat is klaar voor Nvidia hun zeer hoge marges. De zeer dure AD102 chips moeten dan onder de $1000 verkocht worden. AD103 onder de $600 en vervolgens komen ze in de knel met al die SKU's die ze ongetwijfeld willen gaan maken voor AD102/103/104. AD106 moet dan ruim onder de $300 en AD107 helemaal. Die miningkaarten gaan vervolgens dan ook de markt voor AD106/107 verpesten waar AMD toch niks heeft.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 13:52

ZenTex

Doet maar wat.

DaniëlWW2 schreef op zondag 14 augustus 2022 @ 16:22:
s.



En dit alles brengt me ook bij de realisatie dat als AMD kiest voor een agressieve strategie om marktaandeel te winnen in een krimpende markt, ze ook echt de producten lijken te hebben om het te doen.
Het nachtmerrie scenario voor Nvidia is denk ik dat AMD "wint" met Navi 31 en niet een beetje ook. Vervolgens besluit AMD dat een prijs rond de $1000 wel afdoende is voor hun goed te produceren en relatief goedkopere chip. Navi 32 wint dan helemaal van AD103 en die plaatsen ze eerder rond de $600. Op max $400 zetten ze Navi 33 neer.
Dat kun je wel vergeten vrees ik.
AMD heeft jaren geleden aangegeven niet meer de budget optie te willen zijn en hun eigen weg te volgen.
Dat wil dus zeggen dat ze niet meer een chip die gelijk presteert aan de concurrentie voor x dollar minder te verkopen.

Dat zagen we al bij CPUs (geholpen door de enorme vraag in het algemeen) maar ook bij GPUs, waar tot op heden de nvidia equivalenten toch een streepje voor hadden.

Amd gaat volgens mij de producten prijzen geheel naar de eigen strategie, dus; wat zijn de kosten, welke marge willen we hebben en wat is de consument bereid ervoor te betalen.

Het is in het verleden al gebleken dat Nvidia voor veel mensen sowieso de enige keuze is, die ga je niet over de streep trekken met een prijs die x lager is dan de nvidia kaart en versterkt enkel het budget imago.

AMD heeft nu een goed dlss alternatief, en als de RT prestaties goed zijn en de prestaties in het algemeen verwacht ik ong hetzelfde prijapijl als Nvidia en zal men gewoon kortingen geven als de, markt het niet ziet zitten.

Het liefst zou ik een 7700xt zien die op alle vlakken beter of hetzelfde presteert als 4070 tegen de zelfde prijs. Same bucks, more bang, en uiteraard een lager stroomverbruik.
Xx70 segment zijn volgens mij de pragmatisten die wel performance willen hebben maar niet de hoofdprijs willen betalen en het minst merkvast zijn.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@ZenTex Je mist nu de twee elementen waarop ik dit baseer.
Dat zijn juist de realisatie dat AMD haar chips helemaal niet (veel) duurder uit zullen vallen dan voorgaande generaties en goedkoper zullen zijn dan Nvidia haar tegenhangers. Tweede is dat zeker tegenover AD103, Navi 32 dat vrij gemakkelijk zou moeten winnen omdat Navi 32 zoveel groter lijkt te zijn. En met de $20.000 en $12.000 die ik nam voor N5/N7 (waarschijnlijk beiden te hoog), is het verschil met AD103 al snel $50 per chip uit een wafer. Daarnaast komt waarschijnlijk nog eens 16GB aan GDDR6X erbij voor Nvidia waar AMD met 16GB aan GDDR6 blijft werken.

AMD kan een prijs van rond de $600 waarschijnlijk met enig gemak verdragen en alsnog forse marges op hun chips verdienen. Goedkoop ga ik dat ook echt niet noemen omdat ik me besef dat het totaalpakket zeker geen $200 zal kosten om te laten maken. Voor Navi 33 is het helemaal duidelijk dat het onder de $400 kan als die chip inderdaad circa 200mm2 is. Dat kon immers al met de complexere Navi 10 chip. Relatief licht gebinde RX5600XT kon je voor minder dan $300 krijgen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 13:52

ZenTex

Doet maar wat.

@DaniëlWW2
AMD is een beursgenoteerd bedrijf. Ze hebben aangegeven marges te willen verhogen en dat is ze goed gelukt ook, ze zullen er op aangerekend worden als ze marges/geld laten liggen enkel om nvidia dwars te zitten.

Ik heb een paar aandeeltjes AMD en het eerste waar ik naar (bij de kwartaalcijfers) kijk zijn de marges.

[ Voor 3% gewijzigd door ZenTex op 15-08-2022 07:55 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

ZenTex schreef op maandag 15 augustus 2022 @ 07:54:
@DaniëlWW2
AMD is een beursgenoteerd bedrijf. Ze hebben aangegeven marges te willen verhogen en dat is ze goed gelukt ook, ze zullen er op aangerekend worden als ze marges/geld laten liggen enkel om nvidia dwars te zitten.

Ik heb een paar aandeeltjes AMD en het eerste waar ik naar (bij de kwartaalcijfers) kijk zijn de marges.
De enige manier om marges te verhogen is een belachelijk hoge prijs?
Nvidia haalt juist zoveel marges op hun producten omdat ze veel vragen EN heel veel verkopen. Ze hebben circa 80% marktaandeel waaruit ze hun R&D, driverontwikkeling etc over kunnen uitsmeren. Per verkochte chip hebben ze dus minder extra kosten hangen dan AMD. En onderschat dat niet want Nvidia spendeert inmiddels meer dan $5 miljard per jaar aan R&D. Daarnaast hebben ze ook nog eens veel informele macht over AIB partners en game developers. Chiplets alleen gaan dat niet oplossen. Daarvoor heb je een respectabel marktaandeel nodig, richting de 40%.

Het is zinloos om zulke enorme ontwikkelingen in je GPU architectuur te doen en vervolgens de chips zo enorm duur maken dat niemand ze koopt. Zeker voor Navi 32/33. Dat zijn geen halo chips, dat is de RX7000 series lijn. Wat je hier nu voorstelt is dat een chip zoals Navi 33, het laagste product in de dGPU lijn, zeker meer dan $400 moet kosten. Wat je hier zegt is dat je de ergste prijzen tijdens de laatste cryptomining cycle wil voortzetten en verwacht dat gamers die chips gaan kopen?

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 13:52

ZenTex

Doet maar wat.

DaniëlWW2 schreef op maandag 15 augustus 2022 @ 08:15:
[...]


De enige manier om marges te verhogen is een belachelijk hoge prijs?
Nee. Zoals ik zei, niet onder de concurrentie prijzen bij gelijkwaardige prestaties is wat ik zei, maar wat de markt kan dragen.
. Wat je hier nu voorstelt is dat een chip zoals Navi 33, het laagste product in de dGPU lijn, zeker meer dan $400 moet kosten. Wat je hier zegt is dat je de ergste prijzen tijdens de laatste cryptomining cycle wil voortzetten en verwacht dat gamers die chips gaan kopen?
Ik heb nergens prijzen genoemd.
Wederom, de chips prijzen naar de markt en niet ruim onder de concurrentie prijzen om marktaandeel te winnen.
Amd heeft jaren geleden al zelf gezegd dat die strategie niet werkte en gingen een eigen koers varen.

Sowieso wil je niet nvidia dwars gaan zitten om het dwars zitten. Niet enkel omdat Jensen een kwal is die vieze streken uithaalt en desnoods z'n eigen bedrijf ten gronde helpt om maar wraak op de cuncurrentie te nemen, nee.

Ook omdat dit niet het nvidia van 5 jaar geleden is. De recente enorme omzetdaling uit consumer heeft op de beurs amper effect gehad. Datacenter is nu de pilaar waar nvidia op drijft. Een paar miljard minder uit consumer zal ze niet bijster hard treffen.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:32
DaniëlWW2 schreef op maandag 15 augustus 2022 @ 08:15:
Wat je hier nu voorstelt is dat een chip zoals Navi 33, het laagste product in de dGPU lijn, zeker meer dan $400 moet kosten. Wat je hier zegt is dat je de ergste prijzen tijdens de laatste cryptomining cycle wil voortzetten en verwacht dat gamers die chips gaan kopen?
Dit is toch helemaal nog niet bekend? Wie zegt bijv. dat AMD niet wat chips rebrand om de onderkant van de markt te voeden, dat hoeft natuurlijk niet perse Navi 33 te zijn, enkel omdat het de laagst tot nu toe genoemde RDNA3 chip is.

Verder zal het denk ik simpelweg van de marktomstandig heden afhangen, maar als AMD $400 (of meer) voor Navi 33 kan vragen zullen ze dat denk ik zeker niet laten. Zeker als Nvidia het zo slecht gaat doen als sommigen verwachten verwacht ik eigenlijk niet dat AMD de chips zo goedkoop mogelijk zal weggeven, marktaandeel kopen is dan misschien niet eens nodig als je Nvidia echt eens dik verslaat. Of met de huidige inflatie en andere marktomstandigheden de prijzen niet richting de 'oude' Crypto prijzen kunnen gaan zou ik ook zeker op voorhand niet uitsluiten.

Aan de andere kant kan de markt natuurlijk ook volledig instorten waardoor lagere prijzen misschien wel noodzakelijk zijn. Ik denk dat er voor nu nog vrij weinig van te zeggen zal zijn wat straks de uiteindelijke prijzen voor ons worden en hoe 'gunstig' deze zullen zijn afgezet tegen de crypto / corona boom prijzen.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

ZenTex schreef op maandag 15 augustus 2022 @ 08:47:
[...]


Nee. Zoals ik zei, niet onder de concurrentie prijzen bij gelijkwaardige prestaties is wat ik zei, maar wat de markt kan dragen.
Dat zou AMD juist kunnen doen op deze manier. Er is niks "goedkoop" aan $400 voor Navi 33 als die chip inderdaad 200mm2 is met een 128bit bus. Die kan makkelijk voor minder dan $300 verkocht worden in een echte prijzenoorlog. Daar heb ik het niet eens over. Immers kost een dergelijke chip + VRAM waarschijnlijk niet eens $80.

@Dennism En dat is dus ook precies het probleem met RDNA2 rebrands. Waarom zou je Navi 23 nog maken als Navi 33 net zoveel kost? En Navi 24 gaat vervangen worden door Phoenix.
Ik heb nergens prijzen genoemd.
Wederom, de chips prijzen naar de markt en niet ruim onder de concurrentie prijzen om marktaandeel te winnen.
Amd heeft jaren geleden al zelf gezegd dat die strategie niet werkte en gingen een eigen koers varen.
En daarom heb ik het over macro-economische omstandigheden. De mensen die het immers moeten kopen hebben te maken met enorme inflatie en hebben minder geld voor luxeproducten. Komt er nog eens bij dat ETH misschien echt naar Proof of Stake gaat en dan kan de tweedehands videokaarten markt helemaal overspoeld worden. In dat kader komt Navi 33 over een paar maanden op de markt.
Sowieso wil je niet nvidia dwars gaan zitten om het dwars zitten. Niet enkel omdat Jensen een kwal is die vieze streken uithaalt en desnoods z'n eigen bedrijf ten gronde helpt om maar wraak op de cuncurrentie te nemen, nee.

Ook omdat dit niet het nvidia van 5 jaar geleden is. De recente enorme omzetdaling uit consumer heeft op de beurs amper effect gehad. Datacenter is nu de pilaar waar nvidia op drijft. Een paar miljard minder uit consumer zal ze niet bijster hard treffen.
Dat is het punt niet. Het hele punt is dat AMD waarschijnlijk goedkoper kan laten produceren. Ze hebben minder hoge prijzen nodig en lijken nu eindelijk in de positie te zijn om hun technologische ontwikkelingen om te zetten in marktaandeel en daarmee meer omzet. Want als AMD nu van 20% naar 40% van dGPU verkopen gaat, dan gaan ze hoe dan ook meer verdienen dan met hogere prijzen op 20%. En dat is een blijvend voordeel, niet eenmalig de kwartaalcijfers verbeteren. Dat is het punt.

Dat daarnaast Nvidia hun marges ziet inzakken is bijkomend voordeel omdat ze op deze manier minder geld hebben voor ontwikkelingen. Geld dat vervolgens gedeeltelijk naar AMD gaat.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Als AMD de performance kroon pakt, gaan ze niet onder Nvidia zitten. Net zoals ze met Ryzen 5000 de kroon pakte t.o.v. 11e generatie, en niet onder Intel gingen zitten.

Maar eind September komt er een GPU tsunami, zoals we die in tijden niet gezien hebben. De Ethereum hashrate is namelijk nog steeds bizar hoog, nu de MERGE er aan komt. Prijs van Ethereum is ook weer aan het stijgen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

sunsmountain schreef op maandag 15 augustus 2022 @ 09:40:
<...>
Maar eind September komt er een GPU tsunami, zoals we die in tijden niet gezien hebben. De Ethereum hashrate is namelijk nog steeds bizar hoog, nu de MERGE er aan komt. Prijs van Ethereum is ook weer aan het stijgen.
Je bedoelt dat de werkelijke golf van 2e-hands kaarten nog moet komen, ondanks de hoge elektriciteitsprijs?

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
ocf81 schreef op maandag 15 augustus 2022 @ 10:11:
[...]

Je bedoelt dat de werkelijke golf van 2e-hands kaarten nog moet komen, ondanks de hoge elektriciteitsprijs?
Correct, in ieder geval globaal gesproken. Ik weet niet of EU miners nog actief zijn, zal wel minder zijn. Casual miners houden hun kaart gewoon.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Proof of Stake betekent niet dat minen niet meer kan. De 'difficulty bomb' maakt minen steeds minder profitabel, maar dit gaat geleidelijk. De kans bestaat dus dat het even duurt totdat de kaarten uit de mining rigs gaan, als men blijft minen tot het echt niet meer profitabel is.
Ik weet niet of EU miners nog actief zijn, zal wel minder zijn.
Misschien een vakantie boeken naar Kosovo en daar wat opsnorren: https://www.rferl.org/a/k...electricity/31651114.html

Maar even serieus, je hebt kans dat er containers met tweedehands kaarten naar de VS en de EU worden verscheept en via de tweedehands markt worden verkocht. Maakt het dan wel erg onzeker wat je nu eigenlijk koopt (want de persoon die hem daadwerkelijk aan je verkoopt zal niet weten hoe ermee omgegaan is).

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 16:07
Ik zou, als ik in de tweedehands markt had zitten shoppen, liever een miner kaart kopen die continue op piek efficiency heeft gedraaid over de gemiddelde gamer kaart waar de hele tijd afwisselende voltages (en hogere / veel wisselende temperaturen) doorheen zijn gejaagd en waarbij vooral de pieken de meeste schade hebben aangericht.

Acties:
  • +1 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

(jarig!)
Paprika schreef op maandag 15 augustus 2022 @ 14:36:
Ik zou, als ik in de tweedehands markt had zitten shoppen, liever een miner kaart kopen die continue op piek efficiency heeft gedraaid over de gemiddelde gamer kaart waar de hele tijd afwisselende voltages (en hogere / veel wisselende temperaturen) doorheen zijn gejaagd en waarbij vooral de pieken de meeste schade hebben aangericht.
Ik snap je redenering, en vanuit het perspectief van de chip zelf heb je ook helemaal gelijk. Elektromigratie is een ding, en de boel onder constant lage temperatuur (en vaak ook lagere werkspanning) laten draaien verlengt de levensduur significant.

Feit blijft echter dat hetgeen het eerste de geest geeft op een videokaart in de regel de fans op de koeler betreft. Afhankelijk van de gebruikte lagers natuurlijk, maar van de ex-miningkaarten die ik onder handen heb gehad (n>50) deed 90% het op zich prima, maar waren er in 50% van de gevallen 1 of meerdere fans vastgelopen of maakten een rotherrie (vanwege speling op de lager). Voor een miner totaal oninteressant, want die kaarten draaien op vermogens waarbij het verlies van 1 of meerdere fans geen enkel functioneel verschil maakt, maar voor een gamer redelijk cruciaal lijkt me.

En ja, een gamer belast de fans van de GPU koeler gewoon veel minder hard dan een miner. :|

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Blaat schreef op maandag 15 augustus 2022 @ 15:05:
[...]
Feit blijft echter dat hetgeen het eerste de geest geeft op een videokaart in de regel de fans op de koeler betreft.
Ja, bij een mining-kaart zou ik de fans als afgeschreven beschouwen en dus de prijs van een vervangingssetje meerekenen. Daarnaast lijkt de thermal paste nogal snel uit te drogen bij continu belasting en kan een repaste ook nodig zijn.

Jullie vergeten beide trouwens wel de VRAM. Die wordt juist bij minen relatief zwaar belast en is ook een factor bij het overlijden van kaarten. Veel kaarten hebben ook niet-optimale koeling van de VRAM.

[ Voor 18% gewijzigd door Ludewig op 15-08-2022 15:17 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

(jarig!)
Ludewig schreef op maandag 15 augustus 2022 @ 15:15:
[...]


Ja, bij een mining-kaart zou ik de fans als afgeschreven beschouwen en dus de prijs van een vervangingssetje meerekenen.

Daarnaast lijkt de thermal paste nogal snel uit te drogen bij continu belasting en kan een repaste ook nodig zijn.
Yes! En in extreme scenario's ook de thermal pads (er zijn batches van dat spul die gaan "zweten" en heel je kaart er uit laten zien alsof deze gebruikt is als frietzak). In de allerextreemste scenario's is er ook sprake van galvanische corrosie op de heatsink (witte bloemkolen op de Alu finstack), maar dat is alleen als de miner in kwestie het een prima idee vond zijn setup in een donkere vochtige kelder te laten draaien voor lange duur.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:32
Blaat schreef op maandag 15 augustus 2022 @ 15:05:


En ja, een gamer belast de fans van de GPU koeler gewoon veel minder hard dan een miner. :|
Is dat wel zo, als ik kijk naar de mining installaties die ik ken, draait door de toegepaste undervolts en vermogensbeperkingen e.d. de koeling een stuk minder hard dan wanneer ik aan het gamen ben op soortgelijke kaarten.

Ik weet niet of je dit heel breed kan stellen eigenlijk. Constant op en af qua RPM lijkt me een stuk minder 'gezond' eigenlijk dan 24/7 draaien op een laag RPM.

Uiteraard zullen er mining kaarten zijn die slechter af zijn omdat er niet goed voor gezorgd is, maar over het algemeen zie ik de gemiddelde gamer nu ook niet echt goed zorgen voor zijn kaart.

Hetzelfde zie ik trouwen vaak ook bij professionele kaarten die bijv. jaren in een DC of On-Premise rack / workstation hebben gedraaid, zien er vaak tip-top uit, inclusief koeling. Fans verwachten is ook niet echt iets dat we vaak hoeven te doen. Dat spul gaat over het algemeen jaren mee zonder hoger dan gemiddelde uitval (die heel laag ligt).

[ Voor 18% gewijzigd door Dennism op 15-08-2022 15:26 ]


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 19:01
Kunnen we nu weer wat verder richting ontopic i.p.v. over mining e.d. ?

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Het punt met miningkaarten is dat het deel dat in principe toch al niet kapot gaat, de GPU zelf, het best behandeld zal zijn. Constante workload, laag voltage. VRM's maak ik me ook niet zoveel zorgen om, want wederom lage belasting. De twee dingen die juist belast zullen zijn, zijn ventilatoren en VRAM.

Die ventilatoren draaien gewoon hard omdat er zoveel hitte van een flinke farm afkomt. Voordeel is wel dat ze VRAM in principe ook netjes koel hebben gehouden. VRAM blijft het risico waar je op gokt.

Maar voor deze generatie speelt er ook dat je twee populaire merken hebt gehad die beiden met kogellagers voor hun ventilatoren kwamen. ASUS en MSI. Dus qua tweedehands miningkaarten kijk je waarschijnlijk naar een MSI Gaming X of ASUS TUF. Bij AMD uiteraard ook Sapphire, maar ook Powercolor. Gigabyte zou ik persoonlijk vermijden en zo zijn er nog wel meer. Je weet gewoon dat je de ventilatoren kan vervangen. Verder is het ook opletten dat het model überhaupt adequate VRAM koeling heeft.


Onder de streep denk ik dat ze zeker relevant zijn, die oude miningkaarten, voor wat er met de komende generatie haar prijzen gaat gebeuren. Zeker aan de onderkant van de markt.

[ Voor 9% gewijzigd door DaniëlWW2 op 15-08-2022 15:30 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

(jarig!)
Dennism schreef op maandag 15 augustus 2022 @ 15:23:
[...]


Is dat wel zo, als ik kijk naar de mining installaties die ik ken, draait door de toegepaste undervolts en vermogensbeperkingen e.d. de koeling een stuk minder hard dan wanneer ik aan het gamen ben op soortgelijke kaarten.

Ik weet niet of je dit heel breed kan stellen eigenlijk. Constant op en af qua RPM lijkt me een stuk minder 'gezond' eigenlijk dan 24/7 draaien op een laag RPM.

Uiteraard zullen er mining kaarten zijn die slechter af zijn omdat er niet goed voor gezorgd is, maar over het algemeen zie ik de gemiddelde gamer nu ook niet echt goed zorgen voor zijn kaart.
@HugoBoss1985 je hebt gelijk, we gaan heel erg offtopic, dus dit is het laatste wat ik er over zeg. :P

Fanlagers zijn niet heel erg gevoelig voor thermal cycling, maar des te meer voor uitdroging en voor inwerking van vuil. Ik denk niet dat de miner effectief meer of minder afstoft dan een gamer, dus de beste correlatie die je dan kan leggen is dat het afhankelijk gaat zijn van het totaal aantal revoluties wat is gemaakt door de motor.

- gemiddeld 3 uur per dag op 2000rpm tijdens het gamen
of
- 24/7 800rpm

Welke van de 2 zal langer meegaan? :Y)

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:32
Blaat schreef op maandag 15 augustus 2022 @ 15:30:
[...]


@HugoBoss1985 je hebt gelijk, we gaan heel erg offtopic, dus dit is het laatste wat ik er over zeg. :P

Fanlagers zijn niet heel erg gevoelig voor thermal cycling, maar des te meer voor uitdroging en voor inwerking van vuil. Ik denk niet dat de miner effectief meer of minder afstoft dan een gamer, dus de beste correlatie die je dan kan leggen is dat het afhankelijk gaat zijn van het totaal aantal revoluties wat is gemaakt door de motor.

- gemiddeld 3 uur per dag op 2000rpm tijdens het gamen
of
- 24/7 800rpm

Welke van de 2 zal langer meegaan? :Y)
Ik denk eigenlijk de mining kaarten (mits goed onderhouden), want wie zegt mij dat die gamer kaarten slechts 3 uur draaien per dag ;)
Iedere gamer in mijn omgeving in ieder geval heeft de afgelopen jaren zijn kaart 1 of meerdere keren terug verdiend naast het gamen. Die kaarten hebben dus en gemined en daarnaast gegamed. Echter zullen de meeste 'gamers' dat vast niet toegeven als ze de kaart proberen te verkopen ;) Die zullen het aan prijzen als het 'autotje van oma dat amper gebruikt is' :D

Kijken ik naar de paar pure mining operaties die ik ken (klein sample size), zijn dan allemaal net ingerichte ruimtes met temperatuur beheersing, al met al een stuk beter voor elkaar dan de gemiddelde 'man cave' die ik bij mijn vrienden en familie tegen kom ;) Er zullen uiteraard ook belabberde mining kaarten zijn, maar als ik af ga op mijn persoonlijke ervaringen zijn pure mining kaarten er vaak na een paar jaar beter aan toe dan gaming kaarten.

Nee, ik zou zelf eigenlijk niet heel snel twijfelen tussen een mining kaart van een miner die ik ken, of een 'gaming' kaart van iemand uit mijn kennissen kring. 2de hands van onbekenden koop ik sowieso niet snel hardware.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Blaat schreef op maandag 15 augustus 2022 @ 15:30:
[...]
Ik denk niet dat de miner effectief meer of minder afstoft dan een gamer
Miners hebben vaak wel open stellingen, waar gamers een dichte kast hebben met een stoffilter. Dus bij een gelijke hoeveelheid omgevingsstof, verwacht ik meer stof in de fan van een miner.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Ludewig schreef op maandag 15 augustus 2022 @ 15:15:
[...]


Ja, bij een mining-kaart zou ik de fans als afgeschreven beschouwen en dus de prijs van een vervangingssetje meerekenen. Daarnaast lijkt de thermal paste nogal snel uit te drogen bij continu belasting en kan een repaste ook nodig zijn.

Jullie vergeten beide trouwens wel de VRAM. Die wordt juist bij minen relatief zwaar belast en is ook een factor bij het overlijden van kaarten. Veel kaarten hebben ook niet-optimale koeling van de VRAM.
Is het bij fans juist niet hetzelfde als met disken. Dat juist het opspinnen het meest zwaar is voor zo'n fan. Als ze op een constante snelheid draaien (gegeven dat ze niet constant max draaien) dan zal het wel meevallen.
Aan de andere kant zijn fans nog redelijk goed te vervangen.

Wat je zegt over VRAM is correct. Ik zou nooit een oudere 3xxx kaart van Nvidia overwegen als ik weet dat hij van een miner komt een Ti variant misschien wel omdat die nieuwer is. Dat GDDR6X wordt enorm warm en de koeling is vaak niet voldoende vind ik.

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 02-10 19:57

SG

SG surft naar info hardewaren

Naast dat AMD navi21 door infinity cache niet zo agressief memory subsysteem heeft. En dus memory lagere kans op fail heeft. Hou je fan’s probleem nog.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Relarief ontopic nu er veel miner kaarten voor gamers op de markt gaan komen.

Fans, koelpasta zijn genoemd.

Soms hebben ze de BIOS geflasht naar een miner BIOS, let op dat je dan terugflasht naar een BIOS die past bij het merk en de timings van de GPU VRAM. Anders kaduk.

Van RDNA3 hebben we nog geen enkele performance leak, klopt dat?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Eerste leak 7900XT, Navi31. TimeSpy Extreme.

[Twitter: https://mobile.twitter.com/greymon55/status/1557676481148755969]

Door een mogelijke 7950 / 7975 XT is dit waarschijnlijker de 42 WGP versie ~164 oude CU, niet de 48 WGP.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
sunsmountain schreef op vrijdag 19 augustus 2022 @ 18:14:
Eerste leak 7900XT, Navi31. TimeSpy Extreme.

[Twitter]

Door een mogelijke 7950 / 7975 XT is dit waarschijnlijker de 42 WGP versie ~164 oude CU, niet de 48 WGP.
Is wel heel toevallig allemaal. Helaas heb ik geen Twitter account.
Over at Twitter, NVIDIA hardware leaker Kopite7kimi shared first benchmark result of flagship Ada GeForce RTX 4090 graphics card. The card allegedly scores higher than 19,000 points in 3DMark Time Spy Extreme in Graphics test.

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Nu online

Damic

Tijd voor Jasmijn thee

19k+ zegt me niets, zal wrs wel heel hoog zijn maar hoe hoog?

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Damic schreef op vrijdag 19 augustus 2022 @ 18:57:
19k+ zegt me niets, zal wrs wel heel hoog zijn maar hoe hoog?
Dit zijn scores van 3DMark Time Spy Extreme, waar de 3090 een score haalt van ruim 10k en de 3090 Ti ruim 11k. Volgens Kopite7kimi scoort de 4090 ook boven de 19k.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Nu online

Damic

Tijd voor Jasmijn thee

Ludewig schreef op vrijdag 19 augustus 2022 @ 19:05:
[...]


Dit zijn scores van 3DMark Time Spy Extreme, waar de 3090 een score haalt van ruim 10k en de 3090 Ti ruim 11k. Volgens Kopite7kimi scoort de 4090 ook boven de 19k.
Je had me ook een link kunnen geven met de scores ;) ik weet wat 3dmark is, maar scores zeggen me niets als ik niet weet hoeveel de top scoort.

Thx voor de scores ;)

Edit: dus+19K > nummer 1 single gpu https://www.3dmark.com/ha...+preset/version+1.0/1+gpu

[ Voor 12% gewijzigd door Damic op 19-08-2022 19:10 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Damic schreef op vrijdag 19 augustus 2022 @ 18:57:
19k+ zegt me niets, zal wrs wel heel hoog zijn maar hoe hoog?
Een RTX3090Ti doet iets van 11.000+.
Maar geheel toevallig is dit inderdaad omdat dit ook word geclaimd voor AD102. :z

Ergo, kan weer iemand bij een AIB zijn die een getal te horen heeft gehad dat geheel toevallig heel veel zegt en helemaal niks.

Het is ook typisch AMD. Na hun periode met Koduri, horen we weer helemaal niks. Het was letterlijk een paar dagen voor de aankondiging dat het pas lekte dat Navi überhaupt geen GCN was, maar dat er een nieuwe GPU architectuur ging komen. Voor RDNA2 was het ook tot het laatste moment compleet onduidelijk wat het precies zou worden.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DaniëlWW2 schreef op vrijdag 19 augustus 2022 @ 19:11:
[...]


Een RTX3090Ti doet iets van 11.000+.
Maar geheel toevallig is dit inderdaad omdat dit ook word geclaimd voor AD102. :z

Ergo, kan weer iemand bij een AIB zijn die een getal te horen heeft gehad dat geheel toevallig heel veel zegt en helemaal niks.

Het is ook typisch AMD. Na hun periode met Koduri, horen we weer helemaal niks. Het was letterlijk een paar dagen voor de aankondiging dat het pas lekte dat Navi überhaupt geen GCN was, maar dat er een nieuwe GPU architectuur ging komen. Voor RDNA2 was het ook tot het laatste moment compleet onduidelijk wat het precies zou worden.
Beide 19k+ scores zijn waarschijnlijk voor de sub SKUs van Navi31 en AD102, met ruimte voor overclock. Maar het zegt nog niks, het is nog wel even tot Oktober/November.

AMD gaat weer niet per se voor de performance kroon en max 375W (8+8 pin volgens Angstronomics). Misschien wel met Navi30 (2×Navi32) en 6x10 WGP ~240 oude CUs.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Interessante video van High Yield, een klein kanaal dat wel een beetje aandacht verdient :)
YouTube: How RDNA3 is changing GPU design

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +4 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik zou eigenlijk vooral naar de Matrix cores willen kijken omdat RDNA3 ook bepaalde matrix berekeningen zou ondersteunen.


Verder bedacht ik me opeens dat we nog wat meer details kunnen weten over RDNA3. Zitten wel wat leuke tussen zoals geen MSAA meer door de ROPS.

Maar ik wil wat aandacht vestigen op iedereens favoriete, compleet kapotte Vega feature. Ja Primitive Shaders net zoals de hele NGG pipeline waarvan deze een onderdeel zijn, zitten stiekem al in RDNA1 en werken daar gewoon wel omdat het nu compiler based is en niet software based. En nu gaat de hele legacy pipeline eraan en blijft alleen de NGG over. Is er toch nog iets van Vega dat gewoon zo goed was dat het nog steeds in Radeon's zit. :+


En toen keek ik nog eens goed net voor het plaatsen. Holy, hij had het in mei al over OREO. Dat heeft iedereen gemist, maar zit er echt in. :o

Afbeeldingslocatie: https://pbs.twimg.com/media/FR9v4McWUAEryy7?format=jpg&name=large

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik geef hier maar antwoord omdat het te offtopic gaat. :)
Ludewig schreef op vrijdag 26 augustus 2022 @ 13:22:
[...]


Sowieso lijkt AMD heel erg in te zetten op prestaties per oppervlakte en het alleen inzetten van duurdere wafers voor de compute unit (en niet de L3-cache en IO, die vrijwel niet profiteren van de duurdere productieprocessen). Met de stijgende waferkosten betekent dat automatisch een betere prestatie per dollar.
Dit is al maanden mijn argument. ;)
Tot nu toe heeft AMD echter wel het probleem dat er minder interesse is in hun videokaarten, omdat ze qua features achterlopen. Met name als ze marktaandeel willen winnen betekent dat dat ze meer met hun prijs moeten zakken om meer kopers over te halen, dan als ze dichter bij Nvidia zitten. Maar ze zijn duidelijk hard aan het investeren (geweest) om die achterstand een beetje in te lopen.
Laten we inventariseren wat het voornamelijk is:
-Upscaling
-Encoding
-RT

Upscaling heb je nu FSR. Het grootste probleem daar lijkt te zijn dat het op shaders moet draaien en simpelweg niet de rekenkracht heeft die DLSS wel heeft. Daarom halen ze net niet dezelfde kwaliteit. Dat laatste beetje kost gewoon veel extra rekenkracht. Tegenargument is dat we weten dat RDNA3 ook matrix berekeningen gaan ondersteunen. Het is bijna een inkoppertje dat dit gebruikt zal worden voor FSR verbeteringen. Denk "super ultra quality mode".


Encoding gaat zichzelf oplossen omdat er een industriestandaard is in AV1. En RDNA3 ondersteund encoding hiervan ook. Decoding was er al.


RT is het grote mysterie. Het voornaamste probleem is dat RDNA2 haar RT implementatie beperkt is. Het is transistor efficiënt omdat het gebruik maakt van de standaard ALU's, cache en de TMUs zonder echt aparte transistorblokken. Qua featureondersteuning is het beperkter. Zie ook:
DaniëlWW2 in "Intel Arc Nieuwsdiscussietopic"
Gaat AMD dit aanpassen door bijvoorbeeld naar lv3 ondersteuning te gaan alsmede andere verbeteringen, tja dan kunnen ze dit ook dichten. Het grote probleem is en blijft alleen dat RT zo extreem data intensief is en de hele boel stil kan leggen.
Door de veel lagere productiekosten heeft AMD straks de keuze om met lagere prijzen meer marktaandeel te pakken of met hogere prijzen meer winst te maken. Ik verwacht zelf dat ze in het midden gaan zitten.

De uiteindelijke prijzen worden grotendeels bepaald door de marktomstandigheden en wat de bedrijven als acceptabel zien qua verkopen en marge. Al kan het mega-contract dat Nvidia heeft afgesloten met TSMC wel een interessante factor worden. Gaat Nvidia dat contract deels afkopen of productiecapaciteit voor een lage prijs doorverkopen, of gaan ze voor hoge verkopen, ten koste van hun marges? En accepteert AMD dan dat hun marktaandeel niet stijgt? Als beide fabrikanten per se een groot marktaandeel willen hebben, kun je een prijzenoorlog gaan zien.
Wederom al tijden mijn argument. ;)
Verder gaat Nvidia gewoon hun chips afnemen en verkopen. Nvidia heeft 80% marktaandeel en veel verplichtingen voor levering aan grote partijen. Het zal voornamelijk DIY zijn waar AMD de aanval in zou kunnen gaan zetten naast koppelverkoop van CPU + Navi 33 in laptops.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op vrijdag 26 augustus 2022 @ 13:51:

Wederom al tijden mijn argument. ;)
Verder gaat Nvidia gewoon hun chips afnemen en verkopen. Nvidia heeft 80% marktaandeel en veel verplichtingen voor levering aan grote partijen. Het zal voornamelijk DIY zijn waar AMD de aanval in zou kunnen gaan zetten naast koppelverkoop van CPU + Navi 33 in laptops.
Volgens mij zet AMD vooral in op APU's voor laptops. Of was al bekend gemaakt dat hiervan afgeweken zal worden?

March of the Eagles


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op vrijdag 26 augustus 2022 @ 13:59:
[...]


Volgens mij zet AMD vooral in op APU's voor laptops. Of was al bekend gemaakt dat hiervan afgeweken zal worden?
Phoenix komt er zeker, maar er is nog een klasse erboven in high end laptop gaming.
En laten we wel wezen, het is hoogstwaarschijnlijk een 8GB 128 bit chip die Navi 33. Dat ding is gewoon vreemd voor desktop standaarden maar niet voor laptops. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op vrijdag 26 augustus 2022 @ 14:01:
[...]


Phoenix komt er zeker, maar er is nog een klasse erboven in high end laptop gaming.
Die klasse erboven is Dragon Range, maar ook dat is een APU.

[ Voor 3% gewijzigd door XWB op 26-08-2022 14:07 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:32
DaniëlWW2 schreef op vrijdag 26 augustus 2022 @ 13:51:


Encoding gaat zichzelf oplossen omdat er een industriestandaard is in AV1. En RDNA3 ondersteund encoding hiervan ook. Decoding was er al.
Hoe bedoel je dit exact? Zowel Nvidia als AMD hun encoders gebruiken nu toch ook industriestandaarden in H.264 en H.265, waarbij er nog steeds kwaliteitsverschil is tussen die 2, dat zou dan toch bij AV1 (of welke andere standard, dan toch ook nog steeds kunnen gebeuren?

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op vrijdag 26 augustus 2022 @ 14:04:
[...]


Ja Dragon Range, maar ook dat is een APU.
8)7
Ik ben Phoenix en Dragon Range dus door elkaar aan het halen.
Maar een APU die het met alleen DDR5 moet doen, gaat het gewoon niet redden in high end applicaties. Je hebt iets los met haar eigen VRAM + cache structuur nodig alsmede meer rekeneenheden. Juist AMD maakt van alles chiplets en hier dan een gigantische APU maken is niet logisch.
Dennism schreef op vrijdag 26 augustus 2022 @ 14:06:
[...]


Hoe bedoel je dit exact? Zowel Nvidia als AMD hun encoders gebruiken nu toch ook industriestandaarden in H.264 en H.265, waarbij er nog steeds kwaliteitsverschil is tussen die 2, dat zou dan toch bij AV1 (of welke andere standard, dan toch ook nog steeds kunnen gebeuren?
Het punt is dat AV1 gewoon een (veel) betere en open standaard is. Intel verslaat ook doodleuk oudere standaarden met hun AV1 encoding op Alchemist. Het is niet eens een discussie.
https://www.tomshardware....1-encoder-dominates-nvenc

[ Voor 38% gewijzigd door DaniëlWW2 op 26-08-2022 14:15 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op vrijdag 26 augustus 2022 @ 14:07:
[...]


8)7
Ik ben Phoenix en Dragon Range dus door elkaar aan het halen.
Maar een APU die het met alleen DDR5 moet doen, gaat het gewoon niet redden in high end applicaties. Je hebt iets los met haar eigen VRAM + cache structuur nodig alsmede meer rekeneenheden. Juist AMD maakt van alles chiplets en hier dan een gigantische APU maken is niet logisch.
Eens hoor, maar discussies over APU's en beperkte geheugenbrandbreedte zijn er al jaren. Dat probleem was (of is) er ook met DDR4.

Ondanks het chiplet-ontwerp sinds Zen 1 zijn de APU's nog altijd monolithisch. Bijvoorbeeld Rembrandt is 210 mm². En alles wat tot nu toe gelekt is laat zien dat Phoenix en Dragon Range weer monolithisch worden. Maar wie weet :)

March of the Eagles


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op vrijdag 26 augustus 2022 @ 14:24:
[...]


Eens hoor, maar discussies over APU's en beperkte geheugenbrandbreedte zijn er al jaren. Dat probleem was (of is) er ook met DDR4.

Ondanks het chiplet-ontwerp sinds Zen 1 zijn de APU's nog altijd monolithisch. Bijvoorbeeld Rembrandt is 210 mm². En alles wat tot nu toe gelekt is laat zien dat Phoenix en Dragon Range weer monolithisch worden. Maar wie weet :)
Dat is het punt juist. Dragon Range zal een forse APU worden, maar niet het formaat van een dGPU + CPU wat je nodig hebt voor high end gaming. Wat ik dus zie gebeuren is Phoenix + Navi 33 als echte high end optie en Dragon Range losstaand eronder. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Maar Phoenix is bedoeld voor 'thin & light gaming' met een TDP van 15 tot 45W, hoe moet ik dat zien als high-end optie? De CPU zal vast geen hoge boost clock krijgen?

[ Voor 16% gewijzigd door XWB op 26-08-2022 14:32 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op vrijdag 26 augustus 2022 @ 13:51:
Laten we inventariseren wat het voornamelijk is:
-Upscaling
-Encoding
-RT
CUDA is ook een gigantisch belangrijke feature, met name voor de professionele markt die gedeeltelijk ook kaarten uit de consumenten-lijn koopt (3090's en 3080's).

Dat is echter ook een feature waar ik verwacht dat AMD op korte termijn de achterstand het minst kan inlopen.
Upscaling heb je nu FSR. Het grootste probleem daar lijkt te zijn dat het op shaders moet draaien en simpelweg niet de rekenkracht heeft die DLSS wel heeft. Daarom halen ze net niet dezelfde kwaliteit.
Het grootste probleem is volgens mij de game-ondersteuning. Er zijn 200+ games met DLSS en een handvol met FSR 2.0. Als ik AMD was zou ik subsidie geven aan populaire games die al DLSS-ondersteuning hebben om ook FSR 2.0 te implementeren, zoals Red Dead Redemption 2.

Ik ben er ook niet van overtuigd dat je het verschil tussen DLSS 2 en FSR 2 volledig kan toeschrijven aan de hardware. DLSS 2 is gewoon een meer volwassen technologie, waarbij elke versie verbeteringen toepast in de software. Dat gaat we bij FSR 2 natuurlijk ook zien.
Encoding gaat zichzelf oplossen omdat er een industriestandaard is in AV1. En RDNA3 ondersteund encoding hiervan ook.
AV1 is nog erg jong, voordat die populair wordt zijn we wel even verder en voordat die andere encoding-standaarden heeft verdreven, zijn we al zeker een GPU-generatie verder. H.264 blijft zeker nog belangrijk. En zoals iemand anders ook meld, het maakt ook uit hoe goed de AV1-encoder is ten opzichte van de concurrentie.

Overigens lijkt de H.264 encoder wel te gaan verbeteren.
RT is het grote mysterie.
Inderdaad. Geen idee hoe competitief AMD hier gaat worden, al vraag ik mij af in hoeverre gamers dit meewegen. Nvidia wil overduidelijk erg graag dat mensen hun aankopen gaan baseren op het ondersteunen van RT, maar bij gamers zie ik nou niet heel veel enthusiasme.

Het lijkt vooral: 'leuk als het kan' en niet zozeer: 'dit moet ik hebben.'
Verder gaat Nvidia gewoon hun chips afnemen en verkopen. Nvidia heeft 80% marktaandeel en veel verplichtingen voor levering aan grote partijen. Het zal voornamelijk DIY zijn waar AMD de aanval in zou kunnen gaan zetten naast koppelverkoop van CPU + Navi 33 in laptops.
Bij de CPU's zien we ondertussen wel dat zelfs Dell nu Ryzen-systemen aanbiedt in hun gamer-range (Alienware). Dus als de vraag uit de markt er is, dan gaan de systeem-bouwers ook AMD-kaarten inbouwen. Vanwege langlopende contracten zit er natuurlijk wel een vertraging in, waar de zelfbouwers veel flexibeler zijn.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:32
DaniëlWW2 schreef op vrijdag 26 augustus 2022 @ 14:07:


Het punt is dat AV1 gewoon een (veel) betere en open standaard is. Intel verslaat ook doodleuk oudere standaarden met hun AV1 encoding op Alchemist. Het is niet eens een discussie.
https://www.tomshardware....1-encoder-dominates-nvenc
Dat is niet het punt dat ik maak, Als je nu vergelijkt tussen AMD en Nvidia hun encoders met dezelfde codec, bijv H.264 levert Nvidia het betere resultaat.

Dat Intel met AV1 hun beide verslaat is logisch, AV1 moet immers de betere codec zijn, daar heb je gelijk in.

Maar wat gebeurt er als je straks AMD, Intel en Nvidia gaat vergelijken met elkaar in AV1, kan AMD dan aanhaken, of krijg je dezelfde situatie als nu waar AMD de mindere encoder heeft ten opzichte van de andere partijen wanneer ze alle 3 encoden met dezelfde codec en je dus met AV1 dezelfde discussie blijft houden m.b.t. encoding kwaliteit, dat is meer wat ik wil zeggen.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op vrijdag 26 augustus 2022 @ 14:43:
[...]


CUDA is ook een gigantisch belangrijke feature, met name voor de professionele markt die gedeeltelijk ook kaarten uit de consumenten-lijn koopt (3090's en 3080's).

Dat is echter ook een feature waar ik verwacht dat AMD op korte termijn de achterstand het minst kan inlopen.
Gebeurd ook niet.
Maar er moet ook bij dat Nvidia bepaalde instructies blokkeert of kunstmatig reduceert voor de consumentenvarianten. Dus zomaar een consumentenvariant kopen is ook niet altijd mogelijk.
Het grootste probleem is volgens mij de game-ondersteuning. Er zijn 200+ games met DLSS en een handvol met FSR 2.0. Als ik AMD was zou ik subsidie geven aan populaire games die al DLSS-ondersteuning hebben om ook FSR 2.0 te implementeren, zoals Red Dead Redemption 2.

Ik ben er ook niet van overtuigd dat je het verschil tussen DLSS 2 en FSR 2 volledig kan toeschrijven aan de hardware. DLSS 2 is gewoon een meer volwassen technologie, waarbij elke versie verbeteringen toepast in de software. Dat gaat we bij FSR 2 natuurlijk ook zien.
Dit is geen argument tegen FSR2. ;)
Het is er pas een paar maanden waardoor je niet hoeft te verwachten dat het in zoveel games zit. Dat begint dit najaar pas een beetje omdat developers het dan pas implementeren in nieuwe games. Moet het ook nog eens werken met mindere rekenkracht. Om DLSS werkelijk te matchen, moet dat algoritme superieur zijn en niet een beetje ook. Dat is het natuurlijk niet, maar buiten de 300% zoom in en kijken naar elk detail, is het helemaal zo slecht niet.

Het grootste voordeel is alleen dat het ook werkt voor oudere hardware. Dat is veel belangrijker dan het laatste beetje detail. Je gebruikt DLSS niet als je een high end videokaart hebt en alles kan draaien. Het idee dat je dit moet gebruiken met RT is gewoon stom omdat DLSS juist daar moeite mee heeft. Dat is ook niet vreemd omdat het aantal rays alsmede de complexiteit van een BvH gewoon zeer matig is. Je hebt gewoon te weinig data voor goede upscaling omdat je al snel te weinig rays hebt op native resolution.

Ik draai het dus om. Ik zie DLSS, XeSS en FSR2 als de ultieme lagere instelling voor als je GPU, hoge instellingen niet trekt. Meestal kan je zo van ultra naar high gaan zonder het verschil echt te zien. Van high naar medium merk je meestal wel. Maar dan zet je een upscaling techniek aan en opeens veel betere framerate. Maar Nvidia kan dit niet verkopen omdat ze DLSS maar blijven pushen als "better than native" en "enables RTX". Het is voor Nvidia een middel om de inadequate RT performance die ze zo hard pushen te compenseren.

Ik ga er ook geen geheim van maken dat ik in mijn hoofd allang een cirkeltje rond Navi 32 heb gezet. En als ik die eenmaal heb, dan is mijn plan om eigenlijk nooit enige upscaling te gebruiken als het niet echt hoeft, ongeacht hoeveel het verbeterd. Nu gebruik ik het zeker met mijn RX5700XT omdat ik hier winst haal uit FSR2. Ook de gemodde versie in RDR2 waar je toch wel wat ghosting hebt. Ik zie het punt namelijk niet om bewust kwaliteitsinstellingen te verlagen als ik een fatsoenlijke videokaart heb die alles trekt.
AV1 is nog erg jong, voordat die populair wordt zijn we wel even verder en voordat die andere encoding-standaarden heeft verdreven, zijn we al zeker een GPU-generatie verder. H.264 blijft zeker nog belangrijk. En zoals iemand anders ook meld, het maakt ook uit hoe goed de AV1-encoder is ten opzichte van de concurrentie.

Overigens lijkt de H.264 encoder wel te gaan verbeteren.
AV1 is uit 2018. Zowel Ampere als RDNA2 ondersteunen al AV1 decoding en nu zal encoding ook komen.
Dat is niet nieuw meer. Dit is een "kip en het ei" verhaal en de kip is er nu we een volledige hardware cyclus hebben gehad en encoding is ingebouwd in GPU hardware van tenminste twee van de drie fabrikanten. De grote platformen zoals Twitch en YT zijn onderdeel van de AVI alliantie dus dit gaat er gewoon komen.

Tweede is dat ik nu wel op wil merken dat er de aanname is dat AMD hun AV1 implementatie niet goed gaat doen en Intel en Nvidia wel. We kunnen ook gewoon wachten wat er gebeurd. Want ik heb geen reden gezien waarom het minder zou zijn.
Inderdaad. Geen idee hoe competitief AMD hier gaat worden, al vraag ik mij af in hoeverre gamers dit meewegen. Nvidia wil overduidelijk erg graag dat mensen hun aankopen gaan baseren op het ondersteunen van RT, maar bij gamers zie ik nou niet heel veel enthusiasme.

Het lijkt vooral: 'leuk als het kan' en niet zozeer: 'dit moet ik hebben.'
Het moet alleen wel beter gaan worden. Zeker omdat Intel met hun eerste generatie dGPU, zowel AMD als Nvidia eigenlijk al verslaat in implementatie. Met name voor Nvidia is dat nogal een dingetje.
Verder blijf ik erbij dat de focus en perceptie ook verkeerd ligt, voornamelijk dankzij Nvidia. Vergeet shadows en reflections. Kom eerst maar met RT accelerated Global Illumination. Dat is beduidend minder intensief en de grafische impact op games is veel groter.
Bij de CPU's zien we ondertussen wel dat zelfs Dell nu Ryzen-systemen aanbiedt in hun gamer-range (Alienware). Dus als de vraag uit de markt er is, dan gaan de systeem-bouwers ook AMD-kaarten inbouwen. Vanwege langlopende contracten zit er natuurlijk wel een vertraging in, waar de zelfbouwers veel flexibeler zijn.
En zo zijn we weer terug bij waar met name Navi 33 interessant voor kan worden. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 14:38
AV1 klinkt leuk maar 2 significante kanttekeningen.

1. Zolang Youtube en Twitch het niet ondersteunen is het niets waard.
2. Het laat mijn met een maandsalaris kosten GPU achter die nog steeds niet fatsoenlijk kan streamen. de kans dat ik in een gezonde markt nog een keer een AMD gpu koop is echt zo goed als NUL door deze flaws.

Daarnaast heeft het een jaar geduurd voordat de drivers een beetje stabiel werden en is het nog niet geweldig. Iedereen word alleen maar blij en komt aanzetten met alle verbeteringen maar vergeten dat het lange tid gewoon niet goed genoeg was.


En ray tracing is een beetje mixed bag meuk ik heb het in een paar games geprobeerd maar in bijvoorbeeld chernobylite waren de reflecties gewoon compleet broken en het "HDR" effect dat er in games bijgeforceerd is gewoon ontzettend belabberd. zo zijn de whites van belichting gewoon compleet washed out en te helder en zijn andere zondes te donker. HDR en ray tracing zijn een nutteloze gimmisck totdat ze eindelijk eens realistisch implementeren.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Misschien een keer Metro Exodus Enhanced Edition spelen. Dat ziet er imho toch wel erg goed uit.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op vrijdag 26 augustus 2022 @ 18:26:
Je gebruikt DLSS niet als je een high end videokaart hebt en alles kan draaien.
Er is momenteel geen enkele videokaart die alles kan draaien. MSFS op 4K Ultra krijgt ook een 3090 Ti op de knieën, met minder dan 60 FPS.
Het idee dat je dit moet gebruiken met RT is gewoon stom omdat DLSS juist daar moeite mee heeft. Dat is ook niet vreemd omdat het aantal rays alsmede de complexiteit van een BvH gewoon zeer matig is. Je hebt gewoon te weinig data voor goede upscaling omdat je al snel te weinig rays hebt op native resolution.
Ik lees juist in de reviews dat het ook met RT heel goed werkt. Het hele idee van temporal upscaling is ook dat je voor de meeste elementen op het scherm juist wel genoeg data hebt, ook al render je op lagere resolutie, doordat je meerdere gejitterde frames gebruikt om het beeld mee op te bouwen. Daardoor kun je de statische content accuraat renderen op een hogere resolutie. Door het gebruik van motion vectors, verander je bewegende delen van het beeld eigenlijk in statische content (in de perceptie van de upscaler), dus dan zou je alleen een probleem moeten hebben met volledig nieuwe elementen op het scherm.

In theorie kan zulke upscaling ook echt beter zijn dan direct op die resolutie te renderen. Vergeet ook niet dat we native rendering vaak al niet zo goed vinden en anti-aliasing erop los laten om de artifacts van native rendering te corrigeren. In principe zou je temporal upscaling ook puur kunnen gebruiken om een hele efficiënte anti-aliasing te maken, die erg lijkt op MSAA.
AV1 is uit 2018. Zowel Ampere als RDNA2 ondersteunen al AV1 decoding en nu zal encoding ook komen.
Dat is leuk en aardig, maar er is nog geen enkele Snapdragon SoC die AV1 decoding ondersteunt. En gigantisch veel mensen bekijken streams met hun mobiel. Dus we moeten nog meer dan een hele vervanging-cyclus wachten tot mensen hun mobieltjes hebben vervangen door 1tje met AV1-decoding. Overigens heeft de 2080 ook geen AV1-decoder, dus daar gaat ook nog wel tijd overheen totdat de meeste gamers een AV1-decoder in hun GPU hebben.

We zitten echt nog in de uitrol-fase van de hardware-decoders, en de uitrol van de hardware-encoders is net begonnen. Dus H.264 is echt nog niet irrelevant.
Dit is een "kip en het ei" verhaal en de kip is er nu we een volledige hardware cyclus hebben gehad en encoding is ingebouwd in GPU hardware van tenminste twee van de drie fabrikanten. De grote platformen zoals Twitch en YT zijn onderdeel van de AVI alliantie dus dit gaat er gewoon komen.
Ja, richting 2024/25. En dan nog naast H.264.

Tegen de tijd is de volgende generatie GPU's er al. Als je nu een GPU koopt om te streamen of voor VR en die ook nu gaat gebruiken ipv in 2025, dan is H.264 nog steeds belangrijk.
Tweede is dat ik nu wel op wil merken dat er de aanname is dat AMD hun AV1 implementatie niet goed gaat doen en Intel en Nvidia wel. We kunnen ook gewoon wachten wat er gebeurd. Want ik heb geen reden gezien waarom het minder zou zijn.
Je draait het nu om. Ik doe juist niet de aanname dat AMD's encoder even goed is. Overigens hetzelfde voor Nvidia en Intel.

Maar we hebben natuurlijk wel historische informatie en die leert ons dat AMD tot nu toe de slechtste encoders heeft gemaakt, dus dan is de kans ook het grootste dat dit weer zo is.
En zo zijn we weer terug bij waar met name Navi 33 interessant voor kan worden. ;)
Alienware is vooral erg goed in het maken van kasten met volstrekt onvoldoende airflow en daar dan hele snelle hardware in te zetten, die een tier lager presteert vanwege oververhitting.

In theorie zou Navi 33 inderdaad beter in die kasten passen, maar dat past niet bij de verkooptactiek van Alienware: maak een slechte kast die er snel uitziet en maak reclame met goede specs, om mensen met weinig kennis van zaken af te zetten.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@computerjunky

Heb je wel een dure monitor met goede HDR-ondersteuning? Die technologie werkt pas goed als je een monitor hebt met een hele hoge dynamic range.

Overigens krijgen gigantisch veel monitoren een HDR-sticker terwijl ze slechts minimaal hogere dynamic range hebben, waar je in de praktijk niks van merkt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Help!!!! schreef op vrijdag 26 augustus 2022 @ 20:13:
^
Misschien een keer Metro Exodus Enhanced Edition spelen. Dat ziet er imho toch wel erg goed uit.
Dat is dan gelijk ook een van de weinig goede implementaties. Er zijn te veel plekken waar het niks is.

Dat zal vanzelf wel verbeteren. Dit zag je ook met andere technieken; grote voorbeelden zijn bump en normalmaps en niet te vergeten bloom. Die werden te zwaar toegepast door veel ontwikkelaars en het zag er niet uit. Laten we ook niet de modding community vergeten met de super ultra graphics mods waar ze de sliders van al die technieken op 100 zetten (waardoor het er gruwelijk slecht uitziet en dingen zoals normal map artifacts nog erger aanwezig waren).

@computerjunky
Volgens mij kon youtube toch al AV1? Dat vertelde EposVox tenminste.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:32
Sp3ci3s8472 schreef op vrijdag 26 augustus 2022 @ 20:38:


@computerjunky
Volgens mij kon youtube toch al AV1? Dat vertelde EposVox tenminste.
Is dat niet enkel voor het bekijken van geüploade video's? Volgens mij heeft hij het over live streaming.

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 14:38
Dennism schreef op vrijdag 26 augustus 2022 @ 21:09:
[...]


Is dat niet enkel voor het bekijken van geüploade video's? Volgens mij heeft hij het over live streaming.
Idd. Uploaden in 265 kan ook al en dat is al prima kwaliteit maar ook in 265 kan je niet streamen dat zit nog steeds vast in 264 wat er met 6 Mbit niet uit ziet op amd kaarten.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op vrijdag 26 augustus 2022 @ 20:29:

Ik lees juist in de reviews dat het ook met RT heel goed werkt. Het hele idee van temporal upscaling is ook dat je voor de meeste elementen op het scherm juist wel genoeg data hebt, ook al render je op lagere resolutie, doordat je meerdere gejitterde frames gebruikt om het beeld mee op te bouwen. Daardoor kun je de statische content accuraat renderen op een hogere resolutie. Door het gebruik van motion vectors, verander je bewegende delen van het beeld eigenlijk in statische content (in de perceptie van de upscaler), dus dan zou je alleen een probleem moeten hebben met volledig nieuwe elementen op het scherm.

In theorie kan zulke upscaling ook echt beter zijn dan direct op die resolutie te renderen. Vergeet ook niet dat we native rendering vaak al niet zo goed vinden en anti-aliasing erop los laten om de artifacts van native rendering te corrigeren. In principe zou je temporal upscaling ook puur kunnen gebruiken om een hele efficiënte anti-aliasing te maken, die erg lijkt op MSAA.
Heel bot, maar zie je nu echt niet in hoe zwaar je je laat beïnvloeden door wat Nvidia wil dat je denkt over Nvidia hun featureset? Je bent niet de enige. Helaas zijn er maar weinig review sites die objectief kritisch durven te zijn over Nvidia hun featureset.

Maar neem RT en DLSS. Wat er gebeurd bij RT is dit:

De GPU pakt een object en gaat box na box creëren tot het punt dat bepaald is dat het object afdoende in kaart is gebracht dat je de data kan gebruiken om te bepalen hoe lichteffecten moeten vallen. Vervolgens wordt er dan een ray op losgelaten met een bounce. Dus je raakt een object voor je berekening want meer trekt RT hardware niet.

Dan volgt denoising omdat er veel en veel te weinig rays gebruikt worden. Denoising ruimt als het ware het beeld op. Dit is een extremer voorbeeld, maar die richting ga je wel op zonder denoising.


Zodra je DLSS aanzet, reduceer je de render resolutie en word de render van je object kleiner. Vervolgens heb je dus minder boxes nodig en cast je dus minder rays. Wat DLSS doet is een al grotendeels gereconstrueerd beeld, nogmaals reconstrueren. Dat het verlies nog relatief minimaal is, is knap, maar dit is alles behalve goed of wenselijk.

DLSS maskeert de totaal inadequate RT hardware van Nvidia. Dat is het hele punt. Het is en blijft voor mij een bizarre gedachtegang dat je aan de ene kant RT hebt en aan de andere kant je hele frame op een lagere resolutie laat renderen en het meeste terugwint met upscaling, voor die paar RT effecten.
En zodra RT hardware een punt bereikt dat je tenminste basale dingen kan doen zonder upscaling, tja dan gaan mensen het pas zien. Eigenlijk kan je het nu al zien.

Tja ik ben niet zo onder de indruk met DLSS hier. Het is niet alleen dat je duidelijk ziet dat het niet scherp is. Het probleem is dat het hier wel degelijk de lichteffecten verstoord. Ik vind native heavy hier echt een stuk beter dan DLSS. Hetzelfde voor de lichte instelling. Dat is dus ook mijn punt.
Dat is leuk en aardig, maar er is nog geen enkele Snapdragon SoC die AV1 decoding ondersteunt. En gigantisch veel mensen bekijken streams met hun mobiel. Dus we moeten nog meer dan een hele vervanging-cyclus wachten tot mensen hun mobieltjes hebben vervangen door 1tje met AV1-decoding. Overigens heeft de 2080 ook geen AV1-decoder, dus daar gaat ook nog wel tijd overheen totdat de meeste gamers een AV1-decoder in hun GPU hebben.

We zitten echt nog in de uitrol-fase van de hardware-decoders, en de uitrol van de hardware-encoders is net begonnen. Dus H.264 is echt nog niet irrelevant.


[...]


Ja, richting 2024/25. En dan nog naast H.264.

Tegen de tijd is de volgende generatie GPU's er al. Als je nu een GPU koopt om te streamen of voor VR en die ook nu gaat gebruiken ipv in 2025, dan is H.264 nog steeds belangrijk.


[...]


Je draait het nu om. Ik doe juist niet de aanname dat AMD's encoder even goed is. Overigens hetzelfde voor Nvidia en Intel.

Maar we hebben natuurlijk wel historische informatie en die leert ons dat AMD tot nu toe de slechtste encoders heeft gemaakt, dus dan is de kans ook het grootste dat dit weer zo is.
En dat is dus precies het punt. Dit soort gedachtegangen zijn er alleen voor AMD. Elke keer weer moet AMD in een keer het onmogelijke doen en beter zijn dan een product waar jarenlange ontwikkeling in heeft gezeten, met minder budget, marktaandeel, op zoveel verschillende terreinen, want anders is het niet goed. En als ze bij AMD het dan ook echt doen of iets anders unieks brengen zoals AMD Chill, dan word het genegeerd of gebagatelliseerd. En in dit soort discussies is het nooit eens dat ze het voordeel van de twijfel kunnen krijgen of dat we kunnen wachten en zien wat RDNA3 brengt. Nee meteen dit.

Het maakt dit soort discussies ook onmogelijk omdat het nooit eens kan gaan over relatieve sterktes en zwaktes. Nee het is altijd "Nvidia is beter want lijst van Nvidia marketingpunten en AMD kan het niet". Want deze generatie moet het alleen over encoders en DLSS gaan, de vorige was het RT en efficiëntie wat AMD niet zou kunnen. Daarvoor was het überhaupt een nieuwe uArc ontwikkelen om überhaupt in te lopen op Nvidia. En zo gaat het door en door. Ik weet nu al dat komende generatie precies hetzelfde zal zijn en het is zo vermoeid aan het worden...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
@DaniëlWW2
Is de test niet gedaan met DLSS 1.0 gezien de video 3 jaar oud is? Ik zet zelf ook RT aan met DLSS maar het ziet er voor het oog het zelfde uit al native 4k. Het enige nadeel wat mij opvalt is dat de fps enorm inkakt door RT. Ik zou RT dan ook nooit aanzetten in snelle online fps games.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

ItalianStyle schreef op zaterdag 27 augustus 2022 @ 07:48:
@DaniëlWW2
Is de test niet gedaan met DLSS 1.0 gezien de video 3 jaar oud is? Ik zet zelf ook RT aan met DLSS maar het ziet er voor het oog het zelfde uit al native 4k. Het enige nadeel wat mij opvalt is dat de fps enorm inkakt door RT. Ik zou RT dan ook nooit aanzetten in snelle online fps games.
Cyberpunk heeft nooit 1.0 gehad. :)
Maar dat is ook het punt. DLSS maskeert hoe inadequaat de hardware is. Het is best knap hoe ver het komt, maar het is niet native. Ik besef me ook allang dat het niet in een generatie opeens wel goed zal worden. Daarom heb ik die nadruk op eerst maar eens goede RT accelerated Global Illumination. Misschien gaat dat net haalbaar worden voor de volgende generatie.

Dit kan je namelijk met een goede GI implementatie. En iedereen die dit eenmaal ziet, beseft zich dat dit een veel, veel grotere impact op de game ervaring heeft dan wat reflections en shadows die vooral je framerate compleet laten instorten.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:32
DaniëlWW2 schreef op zaterdag 27 augustus 2022 @ 01:53:


En dat is dus precies het punt. Dit soort gedachtegangen zijn er alleen voor AMD. Elke keer weer moet AMD in een keer het onmogelijke doen en beter zijn dan een product waar jarenlange ontwikkeling in heeft gezeten, met minder budget, marktaandeel, op zoveel verschillende terreinen, want anders is het niet goed. En als ze bij AMD het dan ook echt doen of iets anders unieks brengen zoals AMD Chill, dan word het genegeerd of gebagatelliseerd. En in dit soort discussies is het nooit eens dat ze het voordeel van de twijfel kunnen krijgen of dat we kunnen wachten en zien wat RDNA3 brengt. Nee meteen dit.

Het maakt dit soort discussies ook onmogelijk omdat het nooit eens kan gaan over relatieve sterktes en zwaktes. Nee het is altijd "Nvidia is beter want lijst van Nvidia marketingpunten en AMD kan het niet". Want deze generatie moet het alleen over encoders en DLSS gaan, de vorige was het RT en efficiëntie wat AMD niet zou kunnen. Daarvoor was het überhaupt een nieuwe uArc ontwikkelen om überhaupt in te lopen op Nvidia. En zo gaat het door en door. Ik weet nu al dat komende generatie precies hetzelfde zal zijn en het is zo vermoeid aan het worden...
Ik denk dat je hier prima de struggles van 'de challenger' omschrijft, waarbij ik het gevoel heb dat jij heel erg vanuit de 'Tweaker / Enthousiast bubble' kijkt, terwijl Ludewig (en ikzelf ook regelmatig) meer kijkt vanuit de markt c.q. de gemiddelde consument. En vanuit dat oogpunt snap ik jouw redenatie ook zeker wel immers binnen de enthousiast bubble is AMD wel redelijk geland met RDNA2 en leeft RDNA3 ook echt, je gaf laatst bijv. aan met een schijn al te kijken naar NAvi 32, dat zullen denk ik veel enthousiasts doen als de prijs goed gaat zijn, echter ik verwacht dat 'de markt' er niet zo naar kijkt, en die perceptie van 'de markt' zal AMD wel moeten veranderen willen ze de enthousiast niche ontgroeien, iets dat moeilijk is, zie ook Ryzen. Na jaren van een uiterst competitief, of zelfs het betere product gehad te hebben zitten ze nog steeds maar op +-20% share van de desktop markt, en begrijp me niet verkeerd, zelfs dat is al een hele prestatie, maar er is nog een weg te gaan. Bij de GPU's hebben ze het geluk dat ze al een redelijke share hebben, maar zelfs met RDNA 2 hebben ze dat niet uit kunnen bouwen.

Daarnaast heb ik wat aandelen AMD en zal ik dus altijd strenger zijn voor AMD dan voor Intel of Nvidia. Ik heb er immers meer baat bij wanneer AMD het goed doet en zal dus ook meer hameren op de zaken die ze moeten verbeteren.

Dat het voelt dat AMD het onmogelijke moet doen, zal kloppen, maar willen ze simpelweg gaan toornen aan Nvidia's mindshare buiten de enthousiast nice zullen ze mijn inziens wel moeten. Je ziet het deze generatie ook, AMD was vanaf de start 'bij' met Raster performance, maar dat was niet genoeg om 'de consument' te overtuigen, zie ook de marketshare ontwikkelingen. Ze moeten dus ook werken aan de andere gebieden en dan is feature parity verwacht ik ook niet genoeg.

Ik verwacht echt dat wil AMD echt eens knallen op de consumenten GPU markt dat ze inderdaad 'het onmogelijke' moeten doen, en dus Nvidia ruim moeten verslaan op raster performance (en dan niet +5%, maar echt ruim) en het liefst ook in RT, minimaal software / hardware feature parity moeten hebben, zowel in kwantiteit als kwaliteit (en het liefst ook hier Nvidia verslaan, met eigen slimmigheden zoals inderdaad bijv. Chill), en efficiëntie winnen (dit laatste lijkt me tot nu toe vrijwel een gegeven en die hebben ze w.s. dus wel in de tas). en ik denk dat daar mogelijk nu een window voor ligt, met de chiplets van AMD v.s. het monolitische van Nvidia, maar dat moet AMD dan wel vol aangrijpen.

Daarnaast moeten ze het goed vermarkten wat tegenover Nvidia ook een zware dobber zijn, dat is immers juist een van hun sterkste punten, je noemt zelf bijv. Chill al, wat een mooie feature is, maar ik verwacht omdat AMD het maar minimaal lijkt te vermarkten dat reviewers ook niet direct zin hebben zoiets te testen. Er wordt immers maar weinig 'bombarie' om gemaakt en ze zullen dus verwacht ik met andere content (bijvoorbeeld 'hoe goed is DLSS in Game X') meer clicks binnen kunnen halen dan met 'hoeveel kan je besparen door AMD Chill toe te passen in Game Y'.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op zaterdag 27 augustus 2022 @ 01:53:
[...]
Heel bot, maar zie je nu echt niet in hoe zwaar je je laat beïnvloeden door wat Nvidia wil dat je denkt over Nvidia hun featureset? Je bent niet de enige. Helaas zijn er maar weinig review sites die objectief kritisch durven te zijn over Nvidia hun featureset.
Ik kijk gewoon naar reviews, dus hoe laat ik mij beinvloeden door Nvidia? Sowieso hecht ik niet zoveel waarde aan raytracing voor mijn volgende upgrade.
DLSS maskeert de totaal inadequate RT hardware van Nvidia. Dat is het hele punt. Het is en blijft voor mij een bizarre gedachtegang dat je aan de ene kant RT hebt en aan de andere kant je hele frame op een lagere resolutie laat renderen en het meeste terugwint met upscaling, voor die paar RT effecten.
RT is in bepaalde opzichten beter. Met DLSS kun je die voordelen krijgen, maar toch een speelbare FPS houden. Het is toch prima om een extra optie te hebben?

Je bent volledig vrij om te kiezen voor:
- Native RT op lage FPS
- Native RT met DLSS op hogere FPS
- Rasterization met hogere FPS, maar met slechtere schaduwen en reflecties.
Tja ik ben niet zo onder de indruk met DLSS hier. Het is niet alleen dat je duidelijk ziet dat het niet scherp is. Het probleem is dat het hier wel degelijk de lichteffecten verstoord. Ik vind native heavy hier echt een stuk beter dan DLSS. Hetzelfde voor de lichte instelling. Dat is dus ook mijn punt.
[YouTube: Cyberpunk 2077 PC: What Does Ray Tracing Deliver... And Is It Worth It?]
In de video wordt gemeld dat de degradatie door het gebruik van DLSS redelijk klein is, maar dat de FPS sterk omhoog gaat, dus jouw eigen video is het al niet met je eens.

Uiteindelijk is het ook heel erg een kwestie van smaak. De ene persoon vind het fantastisch als de stilstaande beelden er supergoed uitzien en merkt de upscaling artifacts niet op, terwijl de andere persoon zich er extreem aan ergert. De meeste mensen zitten er ergens tussen in.

Het punt blijft dat je op dit moment bij Nvidia de keuze hebt, wat een meerwaarde biedt aan de gemiddelde consument. Misschien niet voor jou, maar voor de marktpositie van de fabrikanten gaat het niet om jou specifiek, maar om de gemiddelde consument.
Elke keer weer moet AMD in een keer het onmogelijke doen en beter zijn dan een product waar jarenlange ontwikkeling in heeft gezeten, met minder budget, marktaandeel, op zoveel verschillende terreinen, want anders is het niet goed.
Het punt is juist dat het niet onmogelijk is, want Nvidia doet het!

En de meeste mensen kopen nu eenmaal geen producten op basis van liefdadigheid, waarbij ze een minder goed product kopen omdat het bedrijf een achterstand heeft opgelopen en het moeilijk is om dat weer in te lopen. Je verwijt de critici dat ze geen eerlijke vergelijking maken waar ze alle voor- en nadelen goed afwegen, maar argumenten zoals deze geven aan dat jij ook wel ziet dat AMD achterloopt.
En in dit soort discussies is het nooit eens dat ze het voordeel van de twijfel kunnen krijgen of dat we kunnen wachten en zien wat RDNA3 brengt.
Ik blijf er slechts op hameren dat AMD nog een inhaalslag te maken heeft en heb diverse malen gezegd dat ik verwacht dat AMD dit op een aantal vlakken gaat doen. En ik zeg regelmatig dat we op deze punten naar reviews moeten gaan kijken na de release. Dus ik begrijp je kritiek niet zo. Mag ik dan niet zeggen dat AMD op belangrijke punten nog een achterstand heeft?

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Ludewig schreef op zaterdag 27 augustus 2022 @ 13:24:
Het punt is juist dat het niet onmogelijk is, want Nvidia doet het!
Met minder budget? Dat is namelijk het belangrijkste stukje uit de quote van DaniëlWW2.

AMD heeft noodgedwongen een tijd vrij weinig met gpu's kunnen doen. Ze zijn in leven gehouden door de consoles en pas na Ryzen hadden ze weer geld echt in gpu's te investeren. Dat ze in die periode hun drivers echt hebben verbeterd en nog wat features hebben toegevoegd zoals Radeon Chill is gewoon fijn.

Met RDNA 1 zag ik duidelijk een omslag en vanaf dag 1 was duidelijk dat RDNA 2 op Nvidia's hielen zou zitten.
Hoe weinig mensen erin geloofden dat de 6800 XT/6900 XT meer dan dubbel de performance zou hebben dan een 5700 XT vind ik nog steeds raar. Gezien de geruchten het hadden over 80 CU's en hogere clocksnelheden (zelfs na de presentaties van Sony en MS).

Ik hoop dat met RDNA 3 AMD Nvidia goed voorbij gaat; maar ik denk ook dat een grote sprong in performance niet zo makkelijk is dit keer en alleen maar kan met chiplets en waarschijnlijk een hoger verbruik.

RDNA was een goede stap vooruit en RDNA 2 weer een stuk beter. Alleen is het niet te vergelijken met Zen 1 en 2. Daarnaast was de Intel mindshare vergeleken met Nvidia een stuk lager; Intel bleef iedereen maar op quadcores houden met nauwelijks performance verbeteringen. Ryzen kwam precies op het goede moment.
RDNA 3 moet Nvidia dus goed verslaan en als ze dat twee keer weten te doen dan zal er denk ik wel een omslag zijn.

@Dennism
Die marketshare was in het begin ook moeilijk te krijgen gezien zowel AMD als Nvidia niet genoeg kaarten konden leveren. Wat mij vooral verbaast is dat AMD niet meer marketshare heeft gepakt in de laatste periode waarin hun kaarten best goed leverbaar zijn.
https://wccftech.com/nvid...ecrease-by-19-in-q1-2022/

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Het zou me verbazen als MCM bij RDNA3 als 1e iteratie niet ook nadelen heeft. Ryzen was imho ook pas echt goed/volwassen bij ZEN 2.

[ Voor 3% gewijzigd door Help!!!! op 27-08-2022 17:37 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:32
Sp3ci3s8472 schreef op zaterdag 27 augustus 2022 @ 17:32:


@Dennism
Die marketshare was in het begin ook moeilijk te krijgen gezien zowel AMD als Nvidia niet genoeg kaarten konden leveren. Wat mij vooral verbaast is dat AMD niet meer marketshare heeft gepakt in de laatste periode waarin hun kaarten best goed leverbaar zijn.
https://wccftech.com/nvid...ecrease-by-19-in-q1-2022/
Dit volg ik niet helemaal, marketshare gaat over het aantal verkochte kaarten per kwartaal. Of je wel of niet genoeg kan leveren qua vraag maakt daar niet heel veel uit als je toch alles verkoopt wat je wel kan produceren, het gaat er dan vooral om hoeveel je kan produceren t.o.v. je directe concurrenten en dat lijkt simpelweg te weinig geweest te zijn voor AMD.

Als voorbeeld in zo'n situatie als AMD 10 miljoen kaarten kan produceren en verkopen en Nvidia 40 miljoen heeft AMD 20% share en Nvidia 80% share. Had AMD 20 miljoen kaarten geproduceerd en verkocht en Nvidia 40 miljoen was het 33,3% om 66,6% geweest.

Juist in zo'n situatie kan de challenger vaak groeien, mits deze genoeg kan produceren, omdat 'de markt' in zo'n situatie vooral kijkt naar verkrijgbaarheid, en de normale overwegingen en het mindshare van Nvidia minder belangrijk zijn. Mensen kopen immers de kaart die ze kunnen krijgen als het echt belangrijk is. Juist met de geruchten die er waren dat AMD veel meer kleine dies zou produceren (denk aan 6600/6700XT's) dan Nvidia (3060's / 3060ti's) had je verwacht dat AMD zou stijgen in share, maar die geruchten zullen dus wel niet geklopt hebben.

In Q1 2022 kunnen zowel AMD als Nvidia weer afdoende leveren en gaat de algemene perceptie van beide merken in de markt juist weer meer meespelen, wat schijnbaar voor AMD dus nog altijd niet gunstig is. Zo vreemd vind ik dat dus dan weer niet.

[ Voor 7% gewijzigd door Dennism op 27-08-2022 18:34 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op zaterdag 27 augustus 2022 @ 17:36:
^
Het zou me verbazen als MCM bij RDNA3 als 1e iteratie niet ook nadelen heeft. Ryzen was imho ook pas echt goed/volwassen bij ZEN 2.
Oh het zal zeker niet zonder nadelen zijn. Het punt is alleen dat een GPU in het algemeen al beduidend minder latency gevoelig is dan een CPU. En juist de delen die afgesplitst lijken te worden, geheugencontrollers en L3 cache, zijn beduidend minder latency gevoelig dan de rest. RDNA heeft immers een dedicated Shader Engine cache systeem (L1) + een GPU level cache (L2) waardoor ze dit kunnen doen. Dat systeem zal gehandhaafd blijven.

Eigenlijk kan je het al aflezen van RDNA2. Wat zit aan de randen van deze toevallig wel erg handige illustratie? Juist ja, eerst L3 cache en daarna geheugencontrollers. Die gaan naar aparte chips. L3 cache in RDNA2 is al een buffermechanisme waar data tussen VRAM en L2 cache in opgeslagen kan worden. Met RDNA3 gaat dat helemaal gebeuren omdat een extra stap tussen gaat komen om aan data uit VRAM te halen.
GDDR6 --> substraat --> geheugencontroller --> L3 --> substraat --> L2

Dat is de hele functie van L3 cache en daarom besefte me ik in 2020 al dat MCM eraan zat te komen. Het was zo overduidelijk dat L3 cache hiervoor bedoeld is. Het doel is die extra latency stap "verbergen" met een extra cache ertussen die data dichterbij de L2 cache kan vasthouden.

Afbeeldingslocatie: https://external-content.duckduckgo.com/iu/?u=https%3A%2F%2Ftheoverclockingpage.files.wordpress.com%2F2020%2F12%2Frdna2_1.jpg&f=1&nofb=1

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Dennism schreef op zaterdag 27 augustus 2022 @ 18:30:
[...]


Dit volg ik niet helemaal, marketshare gaat over het aantal verkochte kaarten per kwartaal. Of je wel of niet genoeg kan leveren qua vraag maakt daar niet heel veel uit als je toch alles verkoopt wat je wel kan produceren, het gaat er dan vooral om hoeveel je kan produceren t.o.v. je directe concurrenten en dat lijkt simpelweg te weinig geweest te zijn voor AMD.
Wat ik bedoel is dat AMD en Nvidia in het begin beiden gelimiteerd waren. Mensen wilden gewoon een videokaart, nadat de kaarten beter leverbaar waren zakte het marktaandeel van AMD ten opzichte van Nvidia. In het begin kon AMD dus waarschijnlijk iets meer leveren dan Nvidia en mensen kochten dit, die trend heeft niet echt doorgezet wat ik wel iets verwachte gezien AMD kaarten nog steeds goedkoper zijn en beter leverbaar (dat laatste denk ik, geen feit).
Als voorbeeld in zo'n situatie als AMD 10 miljoen kaarten kan produceren en verkopen en Nvidia 40 miljoen heeft AMD 20% share en Nvidia 80% share. Had AMD 20 miljoen kaarten geproduceerd en verkocht en Nvidia 40 miljoen was het 33,3% om 66,6% geweest.

Juist in zo'n situatie kan de challenger vaak groeien, mits deze genoeg kan produceren, omdat 'de markt' in zo'n situatie vooral kijkt naar verkrijgbaarheid, en de normale overwegingen en het mindshare van Nvidia minder belangrijk zijn. Mensen kopen immers de kaart die ze kunnen krijgen als het echt belangrijk is. Juist met de geruchten die er waren dat AMD veel meer kleine dies zou produceren (denk aan 6600/6700XT's) dan Nvidia (3060's / 3060ti's) had je verwacht dat AMD zou stijgen in share, maar die geruchten zullen dus wel niet geklopt hebben.

In Q1 2022 kunnen zowel AMD als Nvidia weer afdoende leveren en gaat de algemene perceptie van beide merken in de markt juist weer meer meespelen, wat schijnbaar voor AMD dus nog altijd niet gunstig is. Zo vreemd vind ik dat dus dan weer niet.
Volgens mij hebben zowel Nvidia als AMD de vraag onderschat (iedereen zit binnen en wil wat doen + miners). Wellicht heeft AMD dus meer ingekocht dan ze ooit normaal deden en als nog verkocht procentueel gezien Nvidia veel meer.
Zou best kunnen dat Samsung gewoon veel meer productie capaciteit beschikbaar had. Ook dat is een aanname, ik vermoed dat TSMC veel meer klanten heeft (verspreid over verschillende nodes).

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 13:27
Ze moeten toch vantevoren inkopen bij TSMC?
Dan kun je dus niet makkelijk even verdubbelen ofzo.

En er moet voor de cpu's en console chips ook nog genoeg zijn, lijkt me vreselijk moeilijk inschatten.

[ Voor 35% gewijzigd door meljor op 27-08-2022 19:58 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:32
Sp3ci3s8472 schreef op zaterdag 27 augustus 2022 @ 19:35:
[...]

Wat ik bedoel is dat AMD en Nvidia in het begin beiden gelimiteerd waren. Mensen wilden gewoon een videokaart, nadat de kaarten beter leverbaar waren zakte het marktaandeel van AMD ten opzichte van Nvidia. In het begin kon AMD dus waarschijnlijk iets meer leveren dan Nvidia en mensen kochten dit, die trend heeft niet echt doorgezet wat ik wel iets verwachte gezien AMD kaarten nog steeds goedkoper zijn en beter leverbaar (dat laatste denk ik, geen feit).
Als je naar de cijfers kan dikgedrukte niet kloppen.
Misschien bedoel jij wat anders dan marketshare, want bij marketshare gaat het heel simpel over de verkopen in een bepaalde periode, normaal gesproken een kwartaal. En in geen enkel kwartaal van Q3 2020 (Launch Ampere) en nu heeft AMD een marketshare gehad van 51% of meer (iets dat noodzakelijk is om meer geleverd te hebben dan Nvidia in dat kwartaal).

Als voorbeeld met een fictief totaal aantal units cijfer, gebaseerd op deze cijfers van statista: https://www.statista.com/...share-by-vendor-worldwide als het goed is gebaseerd op de jon peddie cijfers.

Om het rekenen makkelijk te maken, stel dat er in een ieder kwartaal een fictieve 100 miljoen dGPU's verscheept worden.

Q3 2020 (Launch Ampere) zou dan zijn AMD 20 miljoen - Nvidia 80 miljoen verkochte units.
Q4 2020 (Launch RDNA2) zou dan zijn AMD 18 miljoen - Nvidia 82 miljoen verkochte units.
Q1 2021 zou dan zijn AMD 19 miljoen - Nvidia 81 miljoen verkochte units.
Q2 2021 zou dan zijn AMD 17 miljoen - Nvidia 83 miljoen verkochte units.
Q3 2021 zou dan zijn AMD 17 miljoen - Nvidia 83 miljoen verkochte units.
Q4 2021 (Intel met Arc komt erbij) zou dan zijn AMD 18 miljoen - Nvidia 78 miljoen verkochte units en Intel komt binnen met 5 miljoen units. (Hier is 1% teveel genoemd, zal wel ergens in de afronding zitten omdat er nu 3 partijen zijn).
Q1 2022 zou dan zijn AMD 17 miljoen - Nvidia 78 miljoen verkochte units en Intel met 4 miljoen units. (Hier mist 1%, zal wel ergens in de afronding zitten omdat er nu 3 partijen zijn).

Zoals je kan zien verkoopt AMD in geen enkel kwartaal een aantal dGPU's dat ook maar in de buurt komt van Nvidia's verkopen in dGPU's.
Volgens mij hebben zowel Nvidia als AMD de vraag onderschat (iedereen zit binnen en wil wat doen + miners). Wellicht heeft AMD dus meer ingekocht dan ze ooit normaal deden en als nog verkocht procentueel gezien Nvidia veel meer.
Zou best kunnen dat Samsung gewoon veel meer productie capaciteit beschikbaar had. Ook dat is een aanname, ik vermoed dat TSMC veel meer klanten heeft (verspreid over verschillende nodes).
Dit denk ik inderdaad ook, immers onder andere covid zorgde voor een enorme toename in vraag, zowel zakelijk, maar ook bij de consument, terwijl bepaalde onderdelen van gpu's lastig leverbaar waren vanwege de tekorten bij de diverse chipbakkers. Samsung zal Nvidia daarbij zeker van meer capaciteit hebben voorzien dan dat TSMC 'overhad' om een eventuele extra van AMD te honoreren, daarnaast moet AMD hun capaciteit verdelen en gpu zal daar waarschijnlijk simpelweg, maar logischerwijs het ondergeschoven kindje geweest zijn omdat daar de laagste marge per wafer capaciteit op lijkt te zitten.

[ Voor 3% gewijzigd door Dennism op 27-08-2022 20:43 ]


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Nu online

Damic

Tijd voor Jasmijn thee

@meljor chips voor console word gedicteerd door Microsoft/Sony/Valve, iet si nde trend van: "wij moeten zoveel systemen kunnen leveren per maand in 2022"

GPU'zs en CPU word volledig door AMD bepaald en vergeet niet dat ze nu al va nde band aan't rollen zijn om te kunnen leveren vanaf eind September/Oktober.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Ho, wacht even.
DaniëlWW2 schreef op zaterdag 27 augustus 2022 @ 19:09:
[...]


Oh het zal zeker niet zonder nadelen zijn. Het punt is alleen dat een GPU in het algemeen al beduidend minder latency gevoelig is dan een CPU.
Incorrect, GPU is veel gevoeliger voor latency. De berekeningen zijn korter dan die in een CPU, ja je moet alle waves/warps afwerken, maar vereist snellere geheugen toegang en meer verschillende data achter elkaar dan een CPU. Een CPU kan op dezelfde dataset ingewikkeldere berekeningen doen, zulke instructies zal een GPU voorlopig niet hebben.
DaniëlWW2 schreef op zaterdag 27 augustus 2022 @ 19:09:
En juist de delen die afgesplitst lijken te worden, geheugencontrollers en L3 cache, zijn beduidend minder latency gevoelig dan de rest.
Correct, wat alleen maar betekent dat je deze L3+ latency beter kunt "verstoppen" dan L1 of L2 latency.
DaniëlWW2 schreef op zaterdag 27 augustus 2022 @ 19:09:
RDNA heeft immers een dedicated Shader Engine cache systeem (L1) + een GPU level cache (L2) waardoor ze dit kunnen doen. Dat systeem zal gehandhaafd blijven.

Eigenlijk kan je het al aflezen van RDNA2. Wat zit aan de randen van deze toevallig wel erg handige illustratie? Juist ja, eerst L3 cache en daarna geheugencontrollers. Die gaan naar aparte chips. L3 cache in RDNA2 is al een buffermechanisme waar data tussen VRAM en L2 cache in opgeslagen kan worden. Met RDNA3 gaat dat helemaal gebeuren omdat een extra stap tussen gaat komen om aan data uit VRAM te halen.
GDDR6 --> substraat --> geheugencontroller --> L3 --> substraat --> L2

Dat is de hele functie van L3 cache en daarom besefte me ik in 2020 al dat MCM eraan zat te komen. Het was zo overduidelijk dat L3 cache hiervoor bedoeld is. Het doel is die extra latency stap "verbergen" met een extra cache ertussen die data dichterbij de L2 cache kan vasthouden.
Wat je vooral moet beseffen van de nieuwe L3 in RDNA3 is dat het verlaagd is van 32 MB (Navi23) naar 16 MB. En dus, door Locuza en Keper al een keer uitgelegd, de latency daardoor ook verlaagd is. Je bevestigt met het verbergen van latency alleen maar hoe belangrijk latency voor een GPU is.

De eerste iteratie van MCM moet en gaat dus extra aandacht aan latency besteden: AMD kan het nog steeds van Nvidia verliezen, als Nvidia de geheugen management van de SMs op de schop heeft gegooid en door hun L2 (niet L3, L2!) nòg lagere latency bereikt met een monolitisch design (hint: dat hebben ze volgens de laatste geruchten!).

Ook in het hele Ray Tracing verhaal merk ik een bepaalde partijdigheid bij je, die ik wel snap voor de underdog, maar stop nou eens met het tekort doen van de Nvidia ingenieurs. Alsof ze achterover gaan leunen. Dit RDNA3/Lovelace gevecht wordt gewoon weer reuze interessant en spannend, ik kan niet wachten tot de whitepapers! :9

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Dennism schreef op zaterdag 27 augustus 2022 @ 20:33:
[...]


Als je naar de cijfers kan dikgedrukte niet kloppen.
Misschien bedoel jij wat anders dan marketshare, want bij marketshare gaat het heel simpel over de verkopen in een bepaalde periode, normaal gesproken een kwartaal. En in geen enkel kwartaal van Q3 2020 (Launch Ampere) en nu heeft AMD een marketshare gehad van 51% of meer (iets dat noodzakelijk is om meer geleverd te hebben dan Nvidia in dat kwartaal).

Als voorbeeld met een fictief totaal aantal units cijfer, gebaseerd op deze cijfers van statista: https://www.statista.com/...share-by-vendor-worldwide als het goed is gebaseerd op de jon peddie cijfers.

Om het rekenen makkelijk te maken, stel dat er in een ieder kwartaal een fictieve 100 miljoen dGPU's verscheept worden.

Q3 2020 (Launch Ampere) zou dan zijn AMD 20 miljoen - Nvidia 80 miljoen verkochte units.
Q4 2020 (Launch RDNA2) zou dan zijn AMD 18 miljoen - Nvidia 82 miljoen verkochte units.
Q1 2021 zou dan zijn AMD 19 miljoen - Nvidia 81 miljoen verkochte units.
Q2 2021 zou dan zijn AMD 17 miljoen - Nvidia 83 miljoen verkochte units.
Q3 2021 zou dan zijn AMD 17 miljoen - Nvidia 83 miljoen verkochte units.
Q4 2021 (Intel met Arc komt erbij) zou dan zijn AMD 18 miljoen - Nvidia 78 miljoen verkochte units en Intel komt binnen met 5 miljoen units. (Hier is 1% teveel genoemd, zal wel ergens in de afronding zitten omdat er nu 3 partijen zijn).
Q1 2022 zou dan zijn AMD 17 miljoen - Nvidia 78 miljoen verkochte units en Intel met 4 miljoen units. (Hier mist 1%, zal wel ergens in de afronding zitten omdat er nu 3 partijen zijn).

Zoals je kan zien verkoopt AMD in geen enkel kwartaal een aantal dGPU's dat ook maar in de buurt komt van Nvidia's verkopen in dGPU's.


[...]


Dit denk ik inderdaad ook, immers onder andere covid zorgde voor een enorme toename in vraag, zowel zakelijk, maar ook bij de consument, terwijl bepaalde onderdelen van gpu's lastig leverbaar waren vanwege de tekorten bij de diverse chipbakkers. Samsung zal Nvidia daarbij zeker van meer capaciteit hebben voorzien dan dat TSMC 'overhad' om een eventuele extra van AMD te honoreren, daarnaast moet AMD hun capaciteit verdelen en gpu zal daar waarschijnlijk simpelweg, maar logischerwijs het ondergeschoven kindje geweest zijn omdat daar de laagste marge per wafer capaciteit op lijkt te zitten.
Twee van de redenen dat het licht is blijven branden bij AMD, zijn de contracten met Sony en Microsoft. Waar je met gamers / consument maar in de gunst moet vallen om verkocht te worden, is dat met consoles niet zo: die verkopen je partners wel. Vandaar ook de focus van AMD op de server markt de afgelopen jaren, en met succes. Uit alles blijkt dat dGPUs onderaan het prioriteiten lijstje staan bij AMD, behalve misschien de drivers de afgelopen tijd en gelukkig maar. Ook qua FSR2.0 en ray tracing lopen ze de achterstand in.

Overigens gaat het anno 2022 om ~10 miljoen dGPUs per kwartaal, in totaal. Dus hebben we het over 8 miljoen Nvidia kaarten t.o.v. 2 miljoen AMD kaarten. Dat ging even omhoog naar 12,7, maar is inmiddels waarschijnlijk weer onder de 10, gezien de paniek verlagingen van de prijzen. https://www.tomshardware....op-discrete-gpu-shipments

Anders gezegd, als AMD werkelijk marktaandeel van Nvidia wil snoepen, zouden ze simpelweg meer GPU chips produceren en betere marketing inkopen. Maar dat is niet hun strategie. Hun strategie is Nvidia te verslaan aan de onderkant, met APUs. Een trend die al langer bezig is, is dat Nvidia minder SKU's aan de onderkant uitbrengt. Vergelijk voor de grap eens de RTX1000 met de RTX3000 series, waar zijn de RTX 3030 en de RTX 3010? Juist. Dat heeft namelijk geen zin meer, geïntegreerde graphics zijn krachtig genoeg geworden: AMD zal straks Q1 2023 ongenadig hard slaag uitdelen aan Intel en Nvidia, met Phoenix:

https://videocardz.com/ne...st-rumored-specifications

6 WGP mwah dacht ik eerst, 12 CU, hoeveel is dat nou? Maar nee, het is 24 CU in termen van de huidige CU! Dat is 3/4 van een 6600XT, en de frequentie zal hoger/vergelijkbaar zijn als ze deze APU puppies op 5nm produceren.

Voor een 1080p laptopscherm is dat méér dan genoeg. En voor een PC trouwens ook, zeker als je oudere titels speelt.
Hardware survey Steam:
1920 x 1080 67.10% +0.38%
^^ in die markt verkoopt Nvidia 80% van de videokaarten, en in die markt gaan gamers vanaf volgend jaar besparen. Waarom zou je meer betalen voor dezelfde prestaties?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:32
sunsmountain schreef op zaterdag 27 augustus 2022 @ 21:15:
AMD zal straks Q1 2023 ongenadig hard slaag uitdelen aan Intel en Nvidia, met Phoenix:
Dat zal nog maar moeten blijken, kijk naar Rembrandt, in Q1 2022 aangekondigd in dezelfde klasse laptops als waar straks Phoenix moet gaat komen. Rembrandt is echter nu nog steeds niet fatsoenlijk verkrijgbaar, bijna 2 kwartalen laten. Voorbeeld: Ik deed vorige week een quote opvragen voor een project voor HP Elitebooks met Rembrandt in een leuk volume, levertijd: "Misschien voor het einde van het jaar", maar dat kon niet gegarandeerd worden. En dat is steeds het euvel bij AMD, ze hebben leuke producten, maar ze daadwerkelijk kopen is zeker op laptop gebied vaak lastig. Dit gaat echt iets worden van eerst zien dan geloven qua leverbaarheid. Is Phoenix Range trouwens al bevestigd als Q1 product? De geruchten die ik ken zeggen 'ergens in 2023'.

Daarnaast, Phoenix zal in het begin mobile only zijn, die 24 CU Sku's ga je dus alleen zien in laptops van waarschijnlijk 2000+ euro (als het niet nog duurder is) en mogelijk later naar de desktop komen (iets wat AMD vaak 2-3 kwartalen kost om te bewerkstelligen). Ik zie mensen die een budget systeem zoeken met laten we zeggen een 6600XT of vergelijkbare Nvidia kaart niet zo snel ineens laptops van 2000+ euro gaan kopen met een mooie APU. Phoenix range zal zeker in het begin gewoon de high end markt bedienen, daarna moeten we maar zien wat de prijzen gaat worden op de desktop, mochten ze naar de desktop gaan komen. Ik verwacht namelijk niet dat dit heel goedkoop gaat zijn, aangezien het op 4nm of 5nm gefabriceerd zou gaan worden en dus moet concurreren met Zen 4 e.d. voor productie capaciteit. De marges zullen dus goed moeten zijn, anders zal het mogelijk weer een laag volume product worden.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Sp3ci3s8472 schreef op zaterdag 27 augustus 2022 @ 17:32:
[...]
Met minder budget? Dat is namelijk het belangrijkste stukje uit de quote van DaniëlWW2.
Zo komen we ook weer op de twee verschillende manier van beoordelen die ik steeds weer langs zie komen:
  • Hoe goed doet AMD het gezien hun middelen, marktmacht, etc?
  • Hoe concurrerend zijn de AMD kaarten?
Dit zijn twee hele andere vragen en alleen die laatste vraag is echt relevant als het gaat om de keuze van de gemiddelde consument.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 19:04
Ludewig schreef op zaterdag 27 augustus 2022 @ 13:24:
En de meeste mensen kopen nu eenmaal geen producten op basis van liefdadigheid, waarbij ze een minder goed product kopen omdat het bedrijf een achterstand heeft opgelopen en het moeilijk is om dat weer in te lopen. Je verwijt de critici dat ze geen eerlijke vergelijking maken waar ze alle voor- en nadelen goed afwegen, maar argumenten zoals deze geven aan dat jij ook wel ziet dat AMD achterloopt.
Om het liefdadigheid te noemen doet wel wat hyperbolisch aan.
Het is niet zo dat je er niets voor terugkrijg.
Vooral vanuit het enthousiast gedeelte zullen er mensen zijn die graag een bedrijf steunen / kans willen geven. Het merendeel zal alleen geïnteresseerd zijn in prijs/prestaties, driver stabiliteit en of het de functies heeft waarvan men gebruik willen maken. Het is ook de groep die zich waarschijnlijk hoofdzakelijk laten informeren door een oordeel / de mening van een ander (youtube reviewers, influencers e.d.).
Voor alle duidelijkheid, degene die zich inlezen op tweaker sites behoren niet tot die groep.

Persoonlijk kan ik een bedrijf dat met weinig middelen bijna het ondenkbare neerzet, heel erg waarderen (underdog sentiment).

Wat Daniel eerder heeft verteld kan ik mee inkomen, het lijkt nooit goed genoeg te zijn.
Bij intrede van RDNA waren de substantieel slechtere rasterisatie prestaties en driver stabiliteit hoofdredenen om niet voor AMD te kiezen. Nu met RDNA2 deze verschillen bijna irrelevant geworden zijn, is het verschoven naar de feature set. Mocht straks blijken dat me RDNA3 ook op dat gebied pariteit is bereikt, dan zal het wel weer een argument worden in de trant van: "Nvidia heeft een bewezen geschiedenis van kwalitatief (prestaties, stabiliteit, featureset) goede producten neer te zetten".
Dennism schreef op zaterdag 27 augustus 2022 @ 18:30:
[...]


Dit volg ik niet helemaal, marketshare gaat over het aantal verkochte kaarten per kwartaal. Of je wel of niet genoeg kan leveren qua vraag maakt daar niet heel veel uit als je toch alles verkoopt wat je wel kan produceren, het gaat er dan vooral om hoeveel je kan produceren t.o.v. je directe concurrenten en dat lijkt simpelweg te weinig geweest te zijn voor AMD.

Als voorbeeld in zo'n situatie als AMD 10 miljoen kaarten kan produceren en verkopen en Nvidia 40 miljoen heeft AMD 20% share en Nvidia 80% share. Had AMD 20 miljoen kaarten geproduceerd en verkocht en Nvidia 40 miljoen was het 33,3% om 66,6% geweest.

Juist in zo'n situatie kan de challenger vaak groeien, mits deze genoeg kan produceren, omdat 'de markt' in zo'n situatie vooral kijkt naar verkrijgbaarheid, en de normale overwegingen en het mindshare van Nvidia minder belangrijk zijn. Mensen kopen immers de kaart die ze kunnen krijgen als het echt belangrijk is. Juist met de geruchten die er waren dat AMD veel meer kleine dies zou produceren (denk aan 6600/6700XT's) dan Nvidia (3060's / 3060ti's) had je verwacht dat AMD zou stijgen in share, maar die geruchten zullen dus wel niet geklopt hebben.

In Q1 2022 kunnen zowel AMD als Nvidia weer afdoende leveren en gaat de algemene perceptie van beide merken in de markt juist weer meer meespelen, wat schijnbaar voor AMD dus nog altijd niet gunstig is. Zo vreemd vind ik dat dus dan weer niet.
Is het niet een probleem dat bij het 'PC' GPU marktaandeel veel categorieën op een hoop worden gegooid? Voor Intel met haar iGPU, voor Nvidia ook veel dGPU die puur voor mining worden ingezet, voor AMD ook dGPU dat voor puur mining wordt ingezet en dAPU.
Dat kan een behoorlijk vertekend beeld geven wat betreft groei in een marktsegment.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
CMT schreef op zondag 28 augustus 2022 @ 00:25:
[...]
Wat Daniel eerder heeft verteld kan ik mee inkomen, het lijkt nooit goed genoeg te zijn.
Dit is nu eenmaal hoe een markt werkt waar de producten continu worden verbeterd. Je haalt de leidende concurrent niet in door dezelfde features iets later te ontwikkelen. Dan krijg je precies de situatie dat mensen het product bekritiseren omdat deze features mist die de concurrent heeft. Maar als die in de volgende generatie dan worden toegevoegd, heeft de concurrent ook weer nieuwe features, dus loopt het product weer achter en wordt het daarom bekritiseerd. Overigens heeft AMD bepaalde kritiekpunten ook lang niet aangepakt, dus bleef die kritiek terugkomen.

Als men blijft achterlopen kan men hoogstens op prijs concurreren, als 'beste koop,' maar dus niet als 'beste uit de test.' Als AMD wil concurreren als gelijke moeten ze voorsprong gaan nemen op zoveel punten dat het voor de gemiddelde consument om het even is welke gekozen wordt.

Met de huidige generatie heeft AMD eigenlijk alleen op het gebied van stroomverbruik een echt stevig voordeel. Dat is volgens mij te weinig en dat zien we ook doordat AMD alleen kan concurreren met flink lagere prijzen per FPS.

Als het AMD lukt om op meerdere vlakken een voorsprong te nemen en wat nadelen te verminderen, dan krijg je een situatie waar de reviews kunnen gaan melden dat de AMD kaarten voor een flinke doelgroep de 'beste uit de test' is.
Persoonlijk kan ik een bedrijf dat met weinig middelen bijna het ondenkbare neerzet, heel erg waarderen (underdog sentiment).
Ik ook, maar niet zozeer dat ik bij een aankoop van honderden euro's ga kiezen voor iets met flinke gebreken. Afhankelijk van hoe ernstig die gebreken voor mij persoonlijk zijn, kies ik of helemaal niet voor dat product of wil ik een lagere prijs.

Uiteindelijk is AMD ook gewoon een multinational, geen gezellig familiebedrijf of zo.

Overigens heeft AMD in het recente verleden met beperkte middelen het heel goed gedaan en bij CPU's inderdaad de status van gelijke bereikt. Mede dankzij de miningboom hebben ze extreem goed verdient en hebben ze nu dus de middelen om te heel veel investeren in GPU's en daar ook een gelijke te worden.

Wat dat betreft erger ik me ook aan de underdog verhaaltjes. AMD moet nu juist uit de 'ik ben klein en zij zijn groot en dat is niet eerlijk' mindset en gewoon presteren. Ze hebben het geld om dat te doen. Juist door mensen binnen of buiten het bedrijf die ze applaus geven alleen maar omdat ze bestaan, worden ze in slaap gesust dat ze goed genoeg bezig zijn.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:32
CMT schreef op zondag 28 augustus 2022 @ 00:25:

Is het niet een probleem dat bij het 'PC' GPU marktaandeel veel categorieën op een hoop worden gegooid? Voor Intel met haar iGPU, voor Nvidia ook veel dGPU die puur voor mining worden ingezet, voor AMD ook dGPU dat voor puur mining wordt ingezet en dAPU.
Dat kan een behoorlijk vertekend beeld geven wat betreft groei in een marktsegment.
Een probleem is dat niet direct, immers is dat nu juist de onderzoeksvraag, wat is het markt aandeel in dGPU's, zonder onderscheid te maken in allerlei categorieën.

AMD en Nvidia doen daar zelf ook aan mee, waardoor opsplitsen verwacht ik lastig is, immers rapporteren beide alle verkochte consumenten gpu's in het segment 'gaming', of deze nu uiteindelijk verderop in de keten aan een miner, gamer of misschien zelfs wel (klein) zakelijke klant is verkocht. Daardoor zal onderscheid maken ook lastig zijn.

Wat bedoel je trouwens met dAPU? Normaal gesproken heb je een APU (dus gfx on die) of een cpu zonder gfx die een dGPU vereist.

APU's, zowel van Intel als AMD worden meegenomen in het algemene GPU market share (maar uiteraard niet bij de dGPU's), waar je alles dus APU's en dGPU's op een hoop gegooid ziet worden.

Dit algemene share was de laatste 3 kwartalen als volgt.

Afbeeldingslocatie: https://www.techpowerup.com/img/n8WCSIFuEYGEmDK8.jpg

De komende Q2 2022 cijfers en straks Q3 2022 zullen, als je wil weten wat mining deed voor het market share, mogelijk wel interessant worden. Immers mining is ingestort in Q2 en dus zullen miners minder hebben afgenomen, wat ook duidelijk te zien was in Nvidia's cijfers voor gaming. Bij AMD's Q2 cijfers is dat lastiger te zien, omdat AMD wat meer zaken op een hoop gooit, waardoor het lastiger te zien is wat de dGPU business exact gedaan heeft. Misschien laat AMD daar dus wel wat moois zien wanneer de Q2 cijfers komen van Jon Peddie.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 19:04
Dennism schreef op zondag 28 augustus 2022 @ 09:42:
Wat bedoel je trouwens met dAPU? Normaal gesproken heb je een APU (dus gfx on die) of een cpu zonder gfx die een dGPU vereist.

APU's, zowel van Intel als AMD worden meegenomen in het algemene GPU market share (maar uiteraard niet bij de dGPU's), waar je alles dus APU's en dGPU's op een hoop gegooid ziet worden.
Ik nam aan dat de 'd' stond voor desktop, dus dAPU = desktop APU.
Of zouden de AMD laptop APU's ook onder PC geschaard worden?
Het onderscheid maakte ik omdat de Laptop en PC markten eigenlijk los van elkaar staan.

Het zal mij ook erg benieuwen wat zometeen de kwartaalcijfers worden en waarbij we de daadwerkelijk impact van de miners gaan zien. Al eind 2020 gaf ik in reacties op nieuwsartikelen aan dat de cryptominers waarschijnlijk voor een groot deel de schaarste (voor gamers) veroorzaakten.
Mijn redenering was, het beetje aanbod dat er was werd weggekaapt door miners.
Maar dat werd door de meeste afgedaan als niet significant. Zullen we zien wie er zometeen gelijk had ^^.

[ Voor 3% gewijzigd door CMT op 28-08-2022 10:06 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:32
CMT schreef op zondag 28 augustus 2022 @ 10:04:
[...]


Ik nam aan dat de 'd' stond voor desktop, dus dAPU = desktop APU.
Of zouden de AMD laptop APU's ook onder PC geschaard worden?
Het onderscheid maakte ik omdat de Laptop en PC markten eigenlijk los van elkaar staan.

Het zal mij ook erg benieuwen wat zometeen de kwartaalcijfers worden en waarbij we de daadwerkelijk impact van de miners gaan zien. Al eind 2020 gaf ik in reacties op nieuwsartikelen al aan dat de cryptominers waarschijnlijk voor een groot deel de schaarste (voor gamers) veroorzaakten. Maar dat werd door de meeste afgedaan als niet significant. Zullen we zien wie er zometeen gelijk had ^^.
dGPU is discrete GPU :)
Apu's (desktop of laptop van zowel Intel als AMD) zitten in de overall cijfers.
Bij marktaandeel cijfers voor cpu's zie je desktop, laptop, server wel als aparte segmenten. Bij graphics is het verdeeld tussen 'alles op een hoop' en alleen dGPU.

[ Voor 9% gewijzigd door Dennism op 28-08-2022 10:09 ]


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 19:04
Okee, weer wat geleerd ^^. Bedankt.

Acties:
  • 0 Henk 'm!

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 17:57

ParaWM

Pro Prutser

CMT schreef op zondag 28 augustus 2022 @ 10:04:
[...]

Het zal mij ook erg benieuwen wat zometeen de kwartaalcijfers worden en waarbij we de daadwerkelijk impact van de miners gaan zien. Al eind 2020 gaf ik in reacties op nieuwsartikelen aan dat de cryptominers waarschijnlijk voor een groot deel de schaarste (voor gamers) veroorzaakten.
Mijn redenering was, het beetje aanbod dat er was werd weggekaapt door miners.
Maar dat werd door de meeste afgedaan als niet significant. Zullen we zien wie er zometeen gelijk had ^^.
Precies dit. Heel veel mensen, en ik vermoed dat de meesten toch miners waren, zaten inderdaad aan de kant van "beperkt aanbod" en mining is "slechts een klein deel van de schaarste". Mijn inschatting was en is dat wel minimaal 50%, maar misschien wel 60-75% van het aanbod naar minders ging vanaf begin 2021. En dan niet eens van wat in de winkels lag, maar vanaf de productie lijnen. Want een significant deel kwam niet eens in de verkoop leek het wel. Ben erg benieuwd dit keer. Alhoewel je natuurlijk niet allemaal 1 op 1 kan vergelijken, maar toch. Zal vast wel ergens een leuk artikel met wat getallen en een educated guess komen.

Sinterklaas wil bier !


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Misschien is het goed om naar de geschiedenis te kijken. AMD net als Intel is ooit begonnen door ingenieurs van Fairchild Semiconductor. Maar waar Intel een pionier was in x86, werd er door AMD slechts de technologie van Intel gekopieerd. AMD liep dan ook constant achter.

Dat veranderde toen AMD een bedrijf overnam met goede x86-technologie, NexGen. Toen ging AMD innoveren ipv kopiëren. De Athlon werd dan ook een groot succes. Op een gegeven moment lieten ze het lopen. Met Zen hebben ze weer echt geïnnoveerd en ging het weer goed.

Met RDNA zijn ze ook weer echt goed aan het innoveren geslagen op GPU vlak, maar Nvidia is veel beter in innovatie en executie dan Intel, dus dan is het veel lastig om een achterstand in te halen. En sowieso is het veel lastiger om op de GPU markt te concurreren, wat Intel nu ook ontdekt heeft.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Dennism schreef op zondag 28 augustus 2022 @ 09:42:
[...]

Dit algemene share was de laatste 3 kwartalen als volgt.

[Afbeelding]
Dit zijn GPUs "overall", dus zowel dGPUs als APUs. Waarbij XSX en PS5 APUs zijn, en dus AMD's geringere dGPU verkoop compenseren. Intel domineert nog steeds de APUs, maar voor hoe lang? :)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 11:32
sunsmountain schreef op zondag 28 augustus 2022 @ 13:05:
[...]


Dit zijn GPUs "overall", dus zowel dGPUs als APUs. Waarbij XSX en PS5 APUs zijn, en dus AMD's geringere dGPU verkoop compenseren. Intel domineert nog steeds de APUs, maar voor hoe lang? :)
Die markt in zijn geheel zal in ieder geval gaan groeien, want iedere Zen 4 cpu zal ook een GPU gaan krijgen.
Wat dat voor de percentages gaat doen zal denk ik afwachten zijn tot eind Q1 2023, wanneer de Q4 marktaandeel cijfers komen en je een volledig kwartaal aan Zen 4 verkopen zal zien als het goed is.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op zaterdag 27 augustus 2022 @ 20:49:
Ho, wacht even.


[...]

Incorrect, GPU is veel gevoeliger voor latency. De berekeningen zijn korter dan die in een CPU, ja je moet alle waves/warps afwerken, maar vereist snellere geheugen toegang en meer verschillende data achter elkaar dan een CPU. Een CPU kan op dezelfde dataset ingewikkeldere berekeningen doen, zulke instructies zal een GPU voorlopig niet hebben.
Incorrect.

Dit is wat Navi 21 en GA102 doen. Beiden zijn veel te langzaam voor een CPU. GA102 haar L2 cache alleen al gaat al behoorlijk richting het dubbele van wat een CPU naar DRAM doet.
Afbeeldingslocatie: https://cdn.wccftech.com/wp-content/uploads/2021/04/NVIDIA-Ampere-GPU-vs-AMD-RDNA-2-GPU-Cache-Latency-Performance-Benchmarks.png

Ondertussen was AMD er terecht trots op dat met Zen 2, sub 70ns haalden naar DRAM met een chiplet architectuur.
Afbeeldingslocatie: https://images.anandtech.com/doci/14525/TravisK_DonW-Next_Horizon_Gaming-Ryzen_Deep_Dive_06092019-page-017.jpg

Of als ik het in een tabel zet, tja L1 cache voor zowel Navi 21 als GA102 is al langzamer dan L3 voor Zen 3 of Alder Lake.
Afbeeldingslocatie: https://tweakers.net/i/LAi2GSdHv92HbQ4GOuBYuX2Q3_A=/800x/filters:strip_icc():strip_exif()/f/image/0MsFnta7L4g6JK3OJ811dOTg.jpg?f=fotoalbum_large
https://chipsandcheese.com/memory-latency-data/

Een GPU is dan ook min of meer de lopende bandfabriek onder de ICs. Het hele punt is dat je een input hebt, langs alle stations van de pipeline gaat die telkens een volgende stap doen en er iets uitkomt. Constant wachten op andere inputs van buiten de lopende band, verstoort het proces enorm.

Dit is ook het fundamentele probleem met RT. Opeens is er een workload geïntroduceerd die juist al die data die normaal gesproken doorgeduwd werd naar VRAM en dan je beeldscherm, moet kunnen gebruiken. Vervolgens is er heel weinig gedaan om dit probleem op te lossen. Wat je namelijk nodig hebt is enorm capabele RT units met hun eigen caches die compleet onafhankelijk van de rest van de GPU pipeline, deze berekeningen gaan uitvoeren.

Dat is er niet. Intel komt nog een beetje in de buurt en ik vermoed dat dit een van de redenen is waarom Alchemist zo groot uitvalt voor de prestatiepunten. AMD heeft een zeer simplistische implementatie gedaan omdat ze waarschijnlijk geen interesse/transistorbudget/R&D middelen hadden om dit goed te doen naast de rest. Ondanks dat het zeer pover is, presteert het alsnog rond Turing niveau.

Nvidia krijgt van mij geen genade omdat ze nu al vier jaar lopen te roepen hoe geweldig RT(X) is. Ze hebben letterlijk de naamgeving van hun producten veranderd voor RT(X). Het is elke marketing event, RT(X) dit, RT(X) dat. Voor een bedrijf dat het alleen maar over RT(X) kan hebben als een basisvoorwaarde voor de aanschaf van een videokaart, is hun hardware knap waardeloos.

Dit is namelijk een Ampere processing block. Er is maar een stukje in een SM dat gedeeld is binnen een SM en dat is meteen het enige stuk dat direct aan L1 cache hangt. De RT core van Ampere is technisch ook capabeler dan wat AMD heeft, wederom dat is pover. Punt is dat zodra de RT core aan de slag gaat, de rest van de SM waarschijnlijk geen toegang meer heeft tot L1 cache. Dat is allemaal voor de RT core. Die zit de reguliere ALU's gewoon in de weg op deze manier. De "oplossing" hier zou zijn dat de RT core haar eigen cache krijgt die data uit de reguliere L1 cache trekt. Maar dan alsnog heb je het probleem dat denoising op de Tensor Core draait waardoor je alsnog pipeline stalls krijgt. En onder de streep is al die extra investering in transistoren en R&D, niet bepaald vertaald in een grote sprong in capaciteiten.
Afbeeldingslocatie: https://v6m6x4a4.rocketcdn.me/wp-content/uploads/2020/09/image-7.png

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op zondag 28 augustus 2022 @ 14:53:
[...]
Nvidia krijgt van mij geen genade omdat ze nu al vier jaar lopen te roepen hoe geweldig RT(X) is. Ze hebben letterlijk de naamgeving van hun producten veranderd voor RT(X). Het is elke marketing event, RT(X) dit, RT(X) dat. Voor een bedrijf dat het alleen maar over RT(X) kan hebben als een basisvoorwaarde voor de aanschaf van een videokaart, is hun hardware knap waardeloos.
Dit is misschien ook vooral een poging om de consumenten te laten vragen om RT-spellen, waardoor spel-ontwikkelaars die spellen gaan maken. Als er daarvan meer zijn wordt het daardoor weer interessanter om hardware te maken die veel focus legt op RT.

Ik kan me voorstellen dat Nvidia al een globaal ontwerp heeft voor een chip met veel meer focus op RT en dat wil gaan uitbrengen zodra een bepaalde kritische massa is bereikt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op zondag 28 augustus 2022 @ 16:51:
[...]


Dit is misschien ook vooral een poging om de consumenten te laten vragen om RT-spellen, waardoor spel-ontwikkelaars die spellen gaan maken. Als er daarvan meer zijn wordt het daardoor weer interessanter om hardware te maken die veel focus legt op RT.

Ik kan me voorstellen dat Nvidia al een globaal ontwerp heeft voor een chip met veel meer focus op RT en dat wil gaan uitbrengen zodra een bepaalde kritische massa is bereikt.
Die ontwikkelaars kregen/krijgen zeer waarschijnlijk Titan RTX of RTX3090's van Nvidia waar Nvidia zegt dat eens moeten kijken naar RTX. Probleem is dat een developer die iets probeert te implementeren, vrij snel erachter zal komen dat ze niet alleen hun lichteffecten tweemaal moeten doen, maar ook dat zelfs de meest minimale reflecties en shadows waar Nvidia het steeds over heeft, zoveel impact hebben.

Ik ben dan ook niet verbaast dat RT niet van de grond komt. De hardware is er gewoon niet en deze industrie werkt helaas op het principe van volgen als de hardware er is. De bal ligt gewoon bij Nvidia omdat ze dit zo hard pushen. Het feit dat Intel ze al voorbij lijkt, is ook wel een teken aan de wand. Er is heel wat mis met Alchemist, maar de RT zeker niet.

Verder is speciale RT tooling er eigenlijk ook niet echt. UE5 lijkt daar wat mee te doen, maar dat is onderdeel van Lumen wat een compleet ander niveau aan belichting is. RT is daar maar een deel van. Nota bene AMD heeft voor RT wel iets handigs gemaakt. En tooling alsmede developer ondersteuning is iets waar ze juist zo achterlopen omdat de RTG jarenlang geen budget ervoor had.
https://gpuopen.com/radeon-raytracing-analyzer/

Nvidia heeft wel deze SDK en ik denk echt dat ze beter dit naar voren kunnen schuiven en de rest laten. Want dit is realistischer voor de hardware van nu.
https://developer.nvidia.com/rtx/ray-tracing/rtxgi

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 07:45
De RT die we nu hebben is ook gewoon helemaal zo geweldig niet. Je merkt echt dat het toevoegen van "RT" in een spel vooralsnog betekent dat er vooral veel plassen water, glanzende gebouwen en andere spiegels erbij gesleept moeten worden -- soms tot op het onnatuurlijke af -- om uberhaupt iets te kunnen zien van RT als je niet wil pixel peepen op silstaande beelden. Volledige RT voor alle lichteffecten (inclusief dingen als radiosity) zou wel behoorlijk wat verschil maken, maar daar is de hardware bij lange na nog niet klaar voor (in echte spellen dan, geen tech demo's).

De NV marketing is er prima in geslaagd om van RT het nieuwe hebbedingetje te maken dat de consument afgevinkt wil zien op de featurelijst, maar ze zitten echt niet op een of ander superontwerp dat ze alleen gaan uitbrengen als het gepeupel daarom vraagt. Voor spelontwikkelaars is het niet te doen om een spel uit te brengen dat hevig op RT leunt als de hardware dat niet trekt, want zoiets is onspeelbaar. Het hardwarepaard moet daar toch echt voor de softwarekar gespannen worden.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".

Pagina: 1 ... 64 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.