[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56 Vorige deel Overzicht

Pagina: 1 ... 135 136 Laatste
Acties:

  • emeralda
  • Registratie: Maart 2024
  • Laatst online: 27-10-2025
Mijn 2 centen:
AMD heeft Intel verslagen omdat ze met iets BETERS kwamen
AMD gaat Nvidia niet verslaan omdat ze simpelweg niks beters hebben

Je kunt gamers belachelijk maken dat ze Nvidia blijven kopen maar mensen kopen geen RTX omdat ze fan zijn van Nvidia. Gamers willen gewoon het beste.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-02 13:42
Dennism schreef op donderdag 29 mei 2025 @ 13:02:
Dat klopt volgens mij niet geheel, AMD's standaard cpu's zitten inderdaad in Client, maar voor zover mij bekend vallen zaken als de chip voor de Steamdeck onder Semi custom en niet onder client (immers PS5 / Xbox zijn ook gewoon APU's met een iGPU, voor zover ik het begrijp eigen verkoop > Client segment, ontwikkeld voor / in samenwerking met 3de partij > semi custom en dus gaming segment).

Dit wordt ook zo besproken in Investor briefings:

[Afbeelding]
Dat is sindsdien veranderd. Uit de Q4 notes:
• the Client segment, which primarily includes CPUs, APUs, and chipsets for desktop, notebook and handheld personal computers;
• the Gaming segment, which primarily includes discrete GPUs, and semi-custom SoC products and development services
Verder kijk in niet naar totaal volume voor de Switch / PS5 / Xbox, want dat is niet interessant voor kwartaal cijfers. ik keek naar de cijfers van de afgelopen maanden: https://www.vgchartz.com/...form_totals/Hardware.php/

En dan zie je dat hoewel de Switch het in totaal beter doet, de PS5 / Xbox het gezamelijk momenteel beter doen qua volume. Daarnaast doen ze het relatief gezien per tijds eenheid natuurlijk ook stukken beter dan de switch qua volume (want korter op de markt en relatief gezien in die periode meer verkocht) maar ook dat is voor de huidige cijfers niet heel interessant.
Vgchartz is niet betrouwbaar, geen idee waar ze hun cijfers vandaan halen. Voor Nintendo Q1'25 is het 1,26 miljoen (hier). Voor Sony's PS5 is het 2,8 miljoen (hier). Ja, de PS5 (+ XBOX) doen het beter, maar gezien de leeftijd van de Switch deed dat ding het nog steeds bizar goed.

En ter vergelijking, 4,5 jaar na release verkocht de Switch nog 16,8 miljoen stuks...en de Lite 7,3. Volume van de "grote" consoles ligt deze generatie een stuk lager dan met de PS4/One. Dus nogmaals, onderschat de impact van de Switch 2 niet :p
Maar je onderstreept hier al grotendeels mijn punt, een dGPU in een laptop is ook een dGPU (d staat immers niet voor 'Desktop' (wat soms gedacht wordt, maar voor 'discrete'), en dat AMD daar amper vertegenwoordigd is (want je ziet inderdaad amper RX7000 en volgens mij helemaal geen 9000 in laptops) is alleen maar nadelig voor Blackwell v.s. RDNA4 volume (en dus marktaandeel) en juist dat lijken die leakers te vergeten. Laptop is een heel belangrijke driver van marktaandeel in dGPU. En dus zeggen die cijfers (bijv. van die ene Duitse winkel waarmee ze speculeren, of bijvoorbeeld de Amazon 'best sellers') vrij weinig, dat was nu juist een van mijn punten :)
Echter gaan die statements over desktop GPU's. Ze zeggen niet dat Nvidia minder dGPU's verkoopt, ze zeggen dat ze minder desktop GPU's verkopen :p

Laptop negeren ze inderdaad volledig, maar laptop kun je ook niet echt meetellen in Nvidia's voordeel als het op vertegenwoordiging aan komt. Veel verkochtte laptops met de low-end dGPU's worden niet voor games gebruikt, talloze zakelijke laptops die een dGPU hebben.

RX9000 voor laptops bestaat overigens niet eens, dus die zul je niet zien nee :p
iGPU's in het client segment zijn niet interessant voor dGPU marktaandeel cijfers, dus daar kijk ik al helemaal niet naar, want is dat simpelweg een ander segment zoals jij ook al aangeeft. Als je dat segment gaat meenemen is Intel de 'koning' qua volume en marktaandeel, en komen zowel Nvidia als AMD niet in de buurt.
Eens voor dGPU, ware het niet dat laptops met AMD's hoger segment APU's vaak geen dGPU krijgen omdat de iGPU rap genoeg is. Anderzijds worden Nvidia GPU's maar zelden aan een AMD CPU gekoppeld in laptops (75% van de laptops met Nvidia GPU heeft een Intel CPU)
Dan zie je dus dat in Q4 2024 Nvidia (die geen iGPU's heeft in het PC segment), bijna net zoveel dGPU's verkoopt als AMD dGPU's en iGPU's bij elkaar (Dus AMD's client segment ook meegerekend).
Die cijfers kun je weinig aan onttrekken. CPU marketshare is ook nodig zowel op desktop als laptop, want Intel heerst nog steeds in laptops. Afgaande op de PW, heeft 75% van de laptops met een Nvidia GPU een Intel CPU. Met andere woorden, Intel's 65% omvat ook een deel van beide andere (desktop Intel CPU + dGPU). AMD's 18 omvat ook een deel van beide andere. AMD+AMD telt dubbel mee. AMD's desktop CPU marketshare zat tegen de 30% aan als ik me niet vergis; dát is waar dingen als Mindfactory niet toereikend zijn, omdat ze pre-builts volledig negeren en de grote fabrikanten daarvan leunen nog steeds heel veel op Intel...en Nvidia.

Om daar conclusies uit te trekken heb je toch echt een gedetailleerder rapport nodig. CPU marketshare, dGPU split, enzovoort :p

Nogmaals, wat mij betreft is er meer tijd nodig om te zien of Nvidia geraakt is of niet.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:11
Werelds schreef op donderdag 29 mei 2025 @ 15:43:
[...]

Dat is sindsdien veranderd. Uit de Q4 notes:
Die conclusie haal ik daar niet uit, immers hebben ze ook 'off the shelf' handheld APU's (https://www.amd.com/en/pr...helds/ryzen-z-series.html), maar dus ook custom SoC's (in de Steamdeck), dat bijt elkaar dus niet in die statement. Steamdeck kan dus prima in gaming zitten, want dat is een Semi Custom ontwikkelde SoC voor / met Valve, ding laat zich bijv. herkennen als "AMD Custom APU 0405" in software. Terwijl de Z1/Z2 chips in Client zitten, want off-the-shelve en voor iedere partij die wil beschikbaar voor hun Handhelds (bijv. Asus en Lenovo geloof ik).
Vgchartz is niet betrouwbaar, geen idee waar ze hun cijfers vandaan halen. Voor Nintendo Q1'25 is het 1,26 miljoen (hier). Voor Sony's PS5 is het 2,8 miljoen (hier).
Ook hier zie ik niet direct waarom die cijfers niet betrouwbaar zouden zijn, immers geeft ZGchartz +- exact dezelfde cijfers weer als jouw links. Die ondersteunen elkaar dus eerder dan dat ze elkaar bijten.

Immers geeft VGchartz voor de PS5

1.035 miljoen PS5 voor Maart
1.006 miljoen voor Feb
865k voor jan

Samen +- 2.8 miljoen

En voor de switch zitten ze ook redelijk in de buurt, al schatten ze die iets hoger in met 1.36 miljoen.

456k in maart
442k in feb
482k in jan

Al weet ik niet of VGChartz die dingen zelf meer, of dat ze gewoon de cijfers van de marktvorsers als Jon Peddie (maar dan de partij gespecialiseerd in consoles) pakken en verwerken, zoals bijvoorbeeld Beyond3D altijd doet met de Jon Peddie cijfers. Exacte data after the fact van de fabrikanten (in een quarterly report) zal natuurlijk altijd wanneer beschikbaar beter zijn dan dat van marktvorsers als Jon Peddie en anderen, want die moeten schatten, maar VGchartz zit hier niet zover van de werkelijkheid af dat ik die data zou afschilderen als 'niet betrouwbaar' op basis van deze cijfers.
Echter gaan die statements over desktop GPU's. Ze zeggen niet dat Nvidia minder dGPU's verkoopt, ze zeggen dat ze minder desktop GPU's verkopen :p

Laptop negeren ze inderdaad volledig, maar laptop kun je ook niet echt meetellen in Nvidia's voordeel als het op vertegenwoordiging aan komt. Veel verkochtte laptops met de low-end dGPU's worden niet voor games gebruikt, talloze zakelijke laptops die een dGPU hebben.

RX9000 voor laptops bestaat overigens niet eens, dus die zul je niet zien nee :p
En daar ben ik het dus niet mee eens, want:

1. Dat vermelden ze niet (duidelijk) genoeg als ze dat bedoelen. Ze hebben het altijd over market share, sales figures, maar geven nooit de exacte duiding die nodig is om duidelijk aan te geven al ze het enkel over desktop gpu's zouden hebben in retail stores (en zelfs dan kan je niet van die ene Duitse winkel uitgaan, immers weten we ook dat in Duitsland AMD het historisch gezien altijd bovengemiddeld goed doet, terwijl bijv. in de APAC regio normaliter het bovengemiddeld goed zou doen, maar naar die cijfers kijken ze dan weer niet ;)

2. Om duiding te geven over het verleden gebruiken ze bijna altijd Jon Peddie data (of data van sites die Jon Peddie citeren) voor dGPU's. en die data als ze het hebben over markt aandeel behelst altijd discrete GPU, dus laptop en desktop, want die marktvorsers kijken puur naar verscheepte chips in die segmenten. Of een Navi 4x die, of GB20X nu in een laptop of desktop, of DiY videokaart voor de losse verkoop terecht komt maakt voor het globale markt aandeel niet uit, het zijn op binning na immers allemaal dezelfde chips uit dezelfde wafers. Zo kan een GB203 na binning een RTX5080 / RTX 5070 Ti / RTX 5090 Mobile of RTX 5080 Mobile worden afhankelijk van de kwaliteit van de chip.

En dat zal straks hopelijk met AMD niet anders zijn, tenzij ze echt het laptop segment gaan laten voor wat het is (wat natuurlijk zeer onverstandig is). Immers bijvoorbeeld Navi 31 en 33 zie je ook in zowel Desktop als Laptop Sku's. Dat kunnen ze dus met Navi 48 en 44 ook gewoon doen als het goed is, tenzij ze niet willen (of niet kunnen omdat ze geen deals kunnen krijgen, maar dat zou wel heel slecht zijn).

Bijvoorbeeld onderstaande halen ze vaak uit de kast om te duiden hoe slecht AMD het voor RDNA 4 deed:

Afbeeldingslocatie: https://i.imgur.com/5OtXtyI.png

Deze slide zegt immers wel wat over enkel AIB kaarten, maar niet enkel over retail verkopen bijvoorbeeld. Je hebt immers ook AIB leveranciers voor de grote OEM's die vrijwel niemand bij naam kent (en rebadged worden alsof het Dell / HP kaarten zouden zijn). En ook boutique shops gebruiken AIB kaarten in hun prebuilds.

Maar dan een paar maanden later duiden ze weer met globaal markt aandeel hetgeen ik eerder linkte:

Afbeeldingslocatie: https://i.imgur.com/PUTPDoE.png

Zonder dat ze dan de benodigde nuances maken.

Ik zou daarnaast ook niet stellen dat laptop niet belangrijk is om te duiden 'wie een generatie wint', laptop gaming komt steeds meer op (al hou ik er niet van) en wordt dus steeds belangrijker, maar simpelweg algemeen marktaandeel (dus ook laptop) zal andere partijen in de markt stimuleren om meer / minder moeite te steken in het implementeren van de features van AMD en Nvidia. Het is dus eerder zorg voor AMD om zich veel te gaan profileren juist in laptop, dan in desktop. Immers die laptop markt zal meer en meer belangrijk worden. iGPU's zal daar aan de onderkant wel iets wegsnoepen, maar 5 jaar geleden riep de halve wereld dat we 'binnenkort' geen dGPU's meer nodig zouden hebben in laptops voor gaming, maar dat komt nog steeds niet echt van de grond. Immers die paar CPU's die een performance GPU hebben, zijn weer zo duur dat in bepaalde gevallen het goedkoper is om een midrange cpu te nemen met een dGPU in je laptop, waardoor het vaak nog steeds geen alternatief is voor de schoolgaande tiener die een school / gaming laptop wil.
Nogmaals, wat mij betreft is er meer tijd nodig om te zien of Nvidia geraakt is of niet.
Daar ben ik het zeker mee eens (al weet ik gezien Nvidia's cijfers in Datacenter niet of het voor Nvidia heel relevant is als AMD een paar % afsnoept in marker share :P ). Het gaat mij vooral om uitspraken van de leakers die gewoon pertinent onwaar lijken ze zijn naarmate er meer en meer data beschikbaar komt (of op hun best misleidend zijn voor de consument, als ze inderdaad alleen Desktop GPU's verkocht bij bepaalde winkels willen bedoelen, maar dat niet duidelijk defineren, mogelijk omdat dan hun 'views fabriek' omtrent de AMD / Nvidia 'strijd' niet meer relevant / interessant is).

[ Voor 12% gewijzigd door Dennism op 29-05-2025 17:24 ]


  • meljor
  • Registratie: November 2004
  • Laatst online: 03-02 16:51
emeralda schreef op donderdag 29 mei 2025 @ 13:45:
Mijn 2 centen:
AMD heeft Intel verslagen omdat ze met iets BETERS kwamen
AMD gaat Nvidia niet verslaan omdat ze simpelweg niks beters hebben

Je kunt gamers belachelijk maken dat ze Nvidia blijven kopen maar mensen kopen geen RTX omdat ze fan zijn van Nvidia. Gamers willen gewoon het beste.
En dat eerste heeft lang geduurd. Ze hebben wel vaker iets beters gehad maar men bleef intel kopen, ook nu nog.

Hetzelfde geldt voor gpu's, zelfs ten tijde van Nvidia's mindere kaarten (GeForce FX, Gtx 480 etc.) bleef men Nvidia kopen.

Ik heb nu zelf weer Nvidia omdat het de enige high-end optie is. Hiervoor heel lang AMD omdat de prijs performance voor mij beter was.

Het is wel jammer dat AMD het zelf vaak verpest door te hoge prijzen als ze eens wat goeds hebben.
Zo is de 9070xt een prima kaart maar de prijs net ff te hoog. En ook de 9800x3d cpu is een top product maar bijzonder duur voor een 8 core.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-02 13:42
Dennism schreef op donderdag 29 mei 2025 @ 16:41:
Die conclusie haal ik daar niet uit, immers hebben ze ook 'off the shelf' handheld APU's (https://www.amd.com/en/pr...helds/ryzen-z-series.html), maar dus ook custom SoC's (in de Steamdeck), dat bijt elkaar dus niet in die statement. Steamdeck kan dus prima in gaming zitten, want dat is een Semi Custom ontwikkelde SoC voor / met Valve, ding laat zich bijv. herkennen als "AMD Custom APU 0405" in software. Terwijl de Z1/Z2 chips in Client zitten, want off-the-shelve en voor iedere partij die wil beschikbaar voor hun Handhelds (bijv. Asus en Lenovo geloof ik).
Kan zijn dat de SoC voor de deck onder gaming valt, maar dat is dan ook de enige.
Ook hier zie ik niet direct waarom die cijfers niet betrouwbaar zouden zijn, immers geeft ZGchartz +- exact dezelfde cijfers weer als jouw links. Die ondersteunen elkaar dus eerder dan dat ze elkaar bijten.
Hah, ik keek naar https://www.vgchartz.com/...xbox-series-xs-vs-switch/ - deze tabel klopt niet met hun eigen cijfers.
1. Dat vermelden ze niet (duidelijk) genoeg als ze dat bedoelen. Ze hebben het altijd over market share, sales figures, maar geven nooit de exacte duiding die nodig is om duidelijk aan te geven al ze het enkel over desktop gpu's zouden hebben in retail stores (en zelfs dan kan je niet van die ene Duitse winkel uitgaan, immers weten we ook dat in Duitsland AMD het historisch gezien altijd bovengemiddeld goed doet, terwijl bijv. in de APAC regio normaliter het bovengemiddeld goed zou doen, maar naar die cijfers kijken ze dan weer niet ;)
Dat is dan ook wat ik zeg. Ze kijken altijd naar dingen als die Duitse winkel, en die vermelden enkel desktop. OEM, notebook, mobiel wordt allemaal genegeerd.
2. Jon Peddie dingen
Zoals gezegd, Jon Peddie's publieke data is niet toereikend. GPU marketshare is dGPU + iGPU, waar een hoop overlap in zit. Ze rekenen niet met de "krachtigste" GPU in een systeem, maar met beide als ze beide aanwezig zijn. AIB data is ook gevaarlijk, want dat omhelst niet alleen OEM's zoals jij zegt, maar ook bijvoorbeeld de professionele kaarten.

Ik weet niet of de betaalde rapporten gedetailleerder zijn, maar desktop GPU's zijn een heel ander verhaal dan laptops.
Ik zou daarnaast ook niet stellen dat laptop niet belangrijk is om te duiden 'wie een generatie wint', laptop gaming komt steeds meer op (al hou ik er niet van) en wordt dus steeds belangrijker, maar simpelweg algemeen marktaandeel (dus ook laptop) zal andere partijen in de markt stimuleren om meer / minder moeite te steken in het implementeren van de features van AMD en Nvidia. Het is dus eerder zorg voor AMD om zich veel te gaan profileren juist in laptop, dan in desktop. Immers die laptop markt zal meer en meer belangrijk worden. iGPU's zal daar aan de onderkant wel iets wegsnoepen, maar 5 jaar geleden riep de halve wereld dat we 'binnenkort' geen dGPU's meer nodig zouden hebben in laptops voor gaming, maar dat komt nog steeds niet echt van de grond. Immers die paar CPU's die een performance GPU hebben, zijn weer zo duur dat in bepaalde gevallen het goedkoper is om een midrange cpu te nemen met een dGPU in je laptop, waardoor het vaak nog steeds geen alternatief is voor de schoolgaande tiener die een school / gaming laptop wil.
Eens, maar ik denk dat AMD juist wel vol op hun APU's in moet zetten. De 395 is een monster van een chip. Wordt vooralsnog enkel in heel dure systemen gebruikt, maar het pakket is vrij klein (gezien hetgeen er in zit) en kan zich qua GPU performance met een 4070 (mobiel) meten. 16 cores is overkill, dus hang eens een enkele CCD aan die 40 CU's? Ze hebben daar nu echt een USP.
Daar ben ik het zeker mee eens (al weet ik gezien Nvidia's cijfers in Datacenter niet of het voor Nvidia heel relevant is als AMD een paar % afsnoept in marker share :P ). Het gaat mij vooral om uitspraken van de leakers die gewoon pertinent onwaar lijken ze zijn naarmate er meer en meer data beschikbaar komt (of op hun best misleidend zijn voor de consument, als ze inderdaad alleen Desktop GPU's verkocht bij bepaalde winkels willen bedoelen, maar dat niet duidelijk defineren, mogelijk omdat dan hun 'views fabriek' omtrent de AMD / Nvidia 'strijd' niet meer relevant / interessant is).
Leakers zijn altijd clickbait. En het zal Nvidia zeker worst wezen of AMD iets weg snoept; al komt AMD tot 50% marketshare (dus niet verkopen van die Duitsers :p) op retail desktop, dan nog zullen ze zich weinig zorgen maken. Ze zitten dan nog steeds in talloze pre-builts, laptops en workstations. Volume daarvan is veel hoger dan retail desktop GPU's :p

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:11
Werelds schreef op zaterdag 31 mei 2025 @ 17:03:

Zoals gezegd, Jon Peddie's publieke data is niet toereikend. GPU marketshare is dGPU + iGPU, waar een hoop overlap in zit. Ze rekenen niet met de "krachtigste" GPU in een systeem, maar met beide als ze beide aanwezig zijn. AIB data is ook gevaarlijk, want dat omhelst niet alleen OEM's zoals jij zegt, maar ook bijvoorbeeld de professionele kaarten.
Die kaarten zitten daar uiteraard inderdaad in, dat is immers een deel van de AIB en de OEM kaarten, maar die business is vrij klein (zelfs kleiner dan AMD's gaming segment), ook weer een punt waar ik de berichtgeving van de leakers vaak vrij matig vind, zie je claims als 'Nvidia wil geen 5090's verkopen omdat ze die ook als RTX xxxx kunnen verkopen voor 10k', en die kaarten verkopen ze inderdaad voor dat soort bedragen 'list price' (waar zakelijk vaak nog een aanzienlijke korting vanaf gaat als je goed shopt bij de accountmanager bij je Workstation OEM waar jij je workstations koopt). Zonder dat ze bekijken dat dit marktsegment zo klein is dat het niet heel waarschijnlijk is dat Nvidia die's te kort komt om dat segment te vullen.
Ik weet niet of de betaalde rapporten gedetailleerder zijn, maar desktop GPU's zijn een heel ander verhaal dan laptops.
Die rapporten zijn zeker gedetailleerder (althans degenen die ik gezien heb), maar die mag je, zelfs als je ze afneemt, vermoed ik natuurlijk niet zomaar publiceren. Immers zou dat het hele business model van Jon Peddie onderuit halen (het verkopen van marktdata aan journalisten en marktpartijen). Waardoor je vaak in dit soort artikels van de hardware sites de 'snippets' te zien krijgt qua grafieken die Jon Peddie laat publiceren. En die kunnen ze, als ze de rapporten kopen, dan inkleden met hun eigen journalistieke interpretatie van die rapporten.
Eens, maar ik denk dat AMD juist wel vol op hun APU's in moet zetten. De 395 is een monster van een chip. Wordt vooralsnog enkel in heel dure systemen gebruikt, maar het pakket is vrij klein (gezien hetgeen er in zit) en kan zich qua GPU performance met een 4070 (mobiel) meten. 16 cores is overkill, dus hang eens een enkele CCD aan die 40 CU's? Ze hebben daar nu echt een USP.
Ik denk eigenlijk dat je beide moet doen, ik geloof er in ieder geval niet direct in dat die 2de 8 core CCD die Halo Sku's zo duur maakt. Immers zijn die chiplets vrij 'goedkoop' relatief gezien. Voor zover ik hier zo snel kan zien: https://x.com/Kurnalsalts/status/1891873628737896680

Is het 307mm2 voor de GPU+I/O op TSMC 4nm, want deze I/O die maken ze niet op een goedkoper proces wat ze normaal wel doen. Pp desktop / Server en de 'Fire Range' laptop Sku's (X3D voor sommige modellen) gebruiken ze immers nog altijd 6nm I/O dies om de kosten te drukken. Hier gebruiken ze hetzelfde proces als dat ze voor de desktop GPU's en Zen 5 desktop en server chiplets gebruiken gebruiken.

En dan is 307mm2 best groot, immers die mobile 4070 waar ze mee concurreren is 'maar' 188mm2 op een inmiddels (iets) goedkoper TSMC 5nm proces.

Daardoor heb ik mijn twijfels dat dit heel veel goedkoper zal worden als je kiest voor deze SoC tile met een enkele CCD, het lijkt immers de no-cutdown SoC tile te zijn die deze cpu grotendeels zo duur maakt.

Daarnaast kan je die dingen niet koppelen aan Intel CPU's, en loop je dus by default een groot deel van de markt mis waar je simpelweg niet aan deelneemt.

Je zou dus verwachten dat door op beide te focussen, deze high end cpu's bedienen een bepaalde maakt, maar ze bedienen niet het instap segment met performance GPU's, daar zul je dus iets nodig hebben als mobile 9060's / 9070's zodat je ook de markt van laptops zonder AMD cpu kan beleveren. Immers globaal gezien heeft AMD in laptop ook 'maar' een share van 22.5% (nog altijd geweldig voor AMD), maar door dus geen dGPU te hebben momenteel voor laptop kan je dus het deel van Intels 77.5% dat wel een dGPU krijgt niet bedienen. Terwijl het heel makkelijk moet zijn voor AMD om zo'n model in de markt te zetten, ze kunnen immers gewoon doen wat ze eerder ook deden en wat Nvidia ook doet, hun dGPU dies ook aanbieden voor laptop, dat zou slechts een kwestie van binning moeten zijn.

[ Voor 11% gewijzigd door Dennism op 31-05-2025 22:20 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-02 13:42
Dennism schreef op zaterdag 31 mei 2025 @ 22:10:
Ik denk eigenlijk dat je beide moet doen, ik geloof er in ieder geval niet direct in dat die 2de 8 core CCD die Halo Sku's zo duur maakt. Immers zijn die chiplets vrij 'goedkoop' relatief gezien. Voor zover ik hier zo snel kan zien: https://x.com/Kurnalsalts/status/1891873628737896680
Oh nee, ik doelde er niet op dat het ding dan veel goedkoper te produceren zou zijn. CCD is minuscuul. Het gaat om het marktsegment, dat zou dan goedkoper worden. Omdat de 395 nu 16C/32T is, wordt die heel prijzig in de markt gezet.
Is het 307mm2 voor de GPU+I/O op TSMC 4nm, want deze I/O die maken ze niet op een goedkoper proces wat ze normaal wel doen. Pp desktop / Server en de 'Fire Range' laptop Sku's (X3D voor sommige modellen) gebruiken ze immers nog altijd 6nm I/O dies om de kosten te drukken. Hier gebruiken ze hetzelfde proces als dat ze voor de desktop GPU's en Zen 5 desktop en server chiplets gebruiken gebruiken.

En dan is 307mm2 best groot, immers die mobile 4070 waar ze mee concurreren is 'maar' 188mm2 op een inmiddels (iets) goedkoper TSMC 5nm proces.
Soort van. Het is een ander ding dan desktop; CCD's zijn zuiniger en hangen anders aan elkaar (zullen we waarschijnlijk in Zen 6 zien). GPU gedeelte is ook nog niet RDNA4. En ja, groot in verhouding; maar die 307mm is ook meer I/O dan enkel GPU. 256-bit bus MC voor het geheel, 32 MB IC (zij noemen het MALL) waar de CPU read access toe heeft (NPU etc. hangen er ook aan, maar toegang is uitgeschakeld zodat ze GPU performance niet in de weg zitten!), dus ook weer zuiniger ;)

Package is blijkbaar ook goedkoper, gebruikt een TSMC substraat met lagen dat goedkoper zou zijn.
Daarnaast kan je die dingen niet koppelen aan Intel CPU's, en loop je dus by default een groot deel van de markt mis waar je simpelweg niet aan deelneemt.
Juist mijn punt. Deze dingen zijn rap genoeg om op beide vlakken te kunnen concurreren. De 395 concurreert op 80W met 4070 @ 75W systemen. Bizar.

  • roffeltjes
  • Registratie: Januari 2011
  • Laatst online: 05-02 07:45
emeralda schreef op donderdag 29 mei 2025 @ 13:45:
Mijn 2 centen:
AMD heeft Intel verslagen omdat ze met iets BETERS kwamen
AMD gaat Nvidia niet verslaan omdat ze simpelweg niks beters hebben

Je kunt gamers belachelijk maken dat ze Nvidia blijven kopen maar mensen kopen geen RTX omdat ze fan zijn van Nvidia. Gamers willen gewoon het beste.
Je onderschat hier toch echt het OEM verhaal, waarbij die mensen zich niet verdiepen in de materie.

Daarnaast, een gamer wil het beste in zijn budget. Er zijn geen slechte producten, wel slechte prijzen.

Juist het (enorme) gat tussen de 5070 en 5070ti is interessant omdat de 9070 toch echt wel een beter product is dan de 5070. De insteek dat de AMD kaarten qua prijs laag zouden zitten gaf hoop dat daar ruimte was. Zeker toen de 5070ti knalduur bleef.

Dat de 9070xt nowhere near msrp bleef en de 5070ti gestaag daalde verandert de situatie, maar de 9070 blijft ook voor die 50euro hogere straatprijs een betere kaart dan de 5070.

Het wordt voor AMD veel lastiger tegen de 5070ti omdat die sneller is dan de 9070xt en nauwelijks duurder.

Ik ben het wel met je eens dat Nvidia een betwr product maakt qua goede features.

Plat gezegd is het probleem voor AMD op dit moment niet de pure snelheid, op dat punt is het al jaren best wel close. Het loopt echter uit elkaar bij upscaling, frame generatie en RT, waar Nvidia nog fors voorop loopt. Je ziet dat AMD op het eerste punt een enorme sprong heeft gemaakt , maar zoals het nu heeft bij een gelijke prijsbracket Nvidia een voordeel, tenzij echt de plank misslaan (de 5070).

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 09:01

MazeWing

The plot thickens...

roffeltjes schreef op maandag 2 juni 2025 @ 07:58:
Plat gezegd is het probleem voor AMD op dit moment niet de pure snelheid, op dat punt is het al jaren best wel close. Het loopt echter uit elkaar bij upscaling, frame generatie en RT, waar Nvidia nog fors voorop loopt. Je ziet dat AMD op het eerste punt een enorme sprong heeft gemaakt , maar zoals het nu heeft bij een gelijke prijsbracket Nvidia een voordeel, tenzij echt de plank misslaan (de 5070).
En zelfs als Nvidia de plank misslaat dan nog verkopen ze er aanzienlijk meer van dan de (betere) alternatieven van AMD. Zo zal de 5070 ongetwijfeld aanzienlijk populairder en betere verkocht worden dan de 9070(xt). Idem met de 5060/5060ti.

De steam hardware survey laat al jaren hetzelfde beeld zien. Het is bijna allemaal Nvidia waarbij de 60-kaarten het populairst zijn.

AMD heeft echt te laat flinke stappen gezet met hun FSR en RT performance. Nvidia kon hier jaren lang zijn gang gaan en pas sinds deze generatie is FSR4 van een kwaliteit die zich kan meten met DLSS en komen ook de RT in de buurt. De enige manier voor AMD om noemenswaardig marktaandeel te pakken is gewoon een kaart uit te brengen die op elk gebied stukken sneller is dan Nvidia en ook nog eens stukken goedkoper.

Praktisch dezelfde performance als Nvidia maar €50 goedkoper werkt gewoon niet. Dat hebben de afgelopen jaren duidelijk laten zien. Willen ze marktaandeel afpakken dan zal het AMD geld kosten omdat ze gewoon flink onder de prijs moeten gaan. Ga een 9070XT op de markt zetten voor €399 en kijk eens hoe dat gaat verlopen....

MacBook Pro 16” M4 Pro | PC (Ryzen 9800X3D / RTX5090 / 64GB) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


  • meljor
  • Registratie: November 2004
  • Laatst online: 03-02 16:51
MazeWing schreef op maandag 2 juni 2025 @ 08:59:
[...]

En zelfs als Nvidia de plank misslaat dan nog verkopen ze er aanzienlijk meer van dan de (betere) alternatieven van AMD. Zo zal de 5070 ongetwijfeld aanzienlijk populairder en betere verkocht worden dan de 9070(xt). Idem met de 5060/5060ti.

De steam hardware survey laat al jaren hetzelfde beeld zien. Het is bijna allemaal Nvidia waarbij de 60-kaarten het populairst zijn.

AMD heeft echt te laat flinke stappen gezet met hun FSR en RT performance. Nvidia kon hier jaren lang zijn gang gaan en pas sinds deze generatie is FSR4 van een kwaliteit die zich kan meten met DLSS en komen ook de RT in de buurt. De enige manier voor AMD om noemenswaardig marktaandeel te pakken is gewoon een kaart uit te brengen die op elk gebied stukken sneller is dan Nvidia en ook nog eens stukken goedkoper.

Praktisch dezelfde performance als Nvidia maar €50 goedkoper werkt gewoon niet. Dat hebben de afgelopen jaren duidelijk laten zien. Willen ze marktaandeel afpakken dan zal het AMD geld kosten omdat ze gewoon flink onder de prijs moeten gaan. Ga een 9070XT op de markt zetten voor €399 en kijk eens hoe dat gaat verlopen....
AMD RT heeft ook de gelegenheid gehad om wat in te lopen. Nvidia is deze generatie niks vooruit gegaan is RT prestaties. Een heel klein stapje die net zo groot is als de vooruitgang in Raster.

Waar je grote stappen mee maakt in RT is upscaling en framegen (voor wie het niet erg vind om te gebruiken). Daarmee slaat AMD wederom de plank mis omdat er maar weinig games fsr4 ondersteunen.

Verder begreep ik de AMD prijsaanpassing in het begin al niet. Hadden ze dan verwacht dat Nvidia NOG duurder zou zijn? Of NOG kleinere stapjes had gemaakt in performance? De Rtx 20 naar 30 en 30 naar 40 waren veel grotere stappen namelijk.

Ben echt wel Amd fan geweest heel lang maar ze maken steeds vreemde keuzes. Gamers zijn voor Nvidia duidelijk minder belangrijk, dan moet je gelijk langszij of er voorbij en profiteren van die ruimte.

[ Voor 12% gewijzigd door meljor op 02-06-2025 11:58 ]


  • Sissors
  • Registratie: Mei 2005
  • Niet online
MazeWing schreef op maandag 2 juni 2025 @ 08:59:
[...]

Praktisch dezelfde performance als Nvidia maar €50 goedkoper werkt gewoon niet. Dat hebben de afgelopen jaren duidelijk laten zien. Willen ze marktaandeel afpakken dan zal het AMD geld kosten omdat ze gewoon flink onder de prijs moeten gaan. Ga een 9070XT op de markt zetten voor €399 en kijk eens hoe dat gaat verlopen....
Probleem is dat vanuit de fabrikant gezien de 9070xt misschien iets goedkoper per frame is als een 5070ti: vergelijkbare die size, wat goedkoper geheugen, iets mindere prestaties.

Maar een 9070 zal gewoon echt duurder zijn in productie als een 5070. Dus er zijn grenzen hoe scherp AMD kan gaan met de prijzen. €399 gaat ze iig niet lukken. Wat scherper zou wel erg leuk zijn, tegelijk gezien ze MSRP nog niet halen, zou ik niet teveel verwachten.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-02 13:42
meljor schreef op maandag 2 juni 2025 @ 11:39:
Nvidia is deze generatie niks vooruit gegaan is RT prestaties.
Hoe bedoel je, deze generatie? Van Turing naar Ampère zat er een kleine verbetering in, daarna niks. Men valt het nu pas op omdat er deze generatie geen nieuwe node tussen zit, waardoor er geen kloksnelheidsverschil is dat het gebrek aan vooruitgang verbloemt.

Zolang je niet tegen een harde CPU bottleneck aan loopt, liggen Ampère, Ada en Blackwell binnen enkele procenten van waar ze zouden moeten zitten op basis van aantal RT cores * kloksnelheid (genormaliseerd dus). Turing ligt er doorgaans zo'n 10 procentpunten onder (of beter gezegd, AAB liggen 10% hoger dan ze op papier zouden zitten vs Turing). Is ook logisch, aangezien die 3 ook zo'n beetje identiek aan elkaar zijn qua architectuur.

  • meljor
  • Registratie: November 2004
  • Laatst online: 03-02 16:51
Werelds schreef op maandag 2 juni 2025 @ 15:05:
[...]

Hoe bedoel je, deze generatie? Van Turing naar Ampère zat er een kleine verbetering in, daarna niks. Men valt het nu pas op omdat er deze generatie geen nieuwe node tussen zit, waardoor er geen kloksnelheidsverschil is dat het gebrek aan vooruitgang verbloemt.

Zolang je niet tegen een harde CPU bottleneck aan loopt, liggen Ampère, Ada en Blackwell binnen enkele procenten van waar ze zouden moeten zitten op basis van aantal RT cores * kloksnelheid (genormaliseerd dus). Turing ligt er doorgaans zo'n 10 procentpunten onder (of beter gezegd, AAB liggen 10% hoger dan ze op papier zouden zitten vs Turing). Is ook logisch, aangezien die 3 ook zo'n beetje identiek aan elkaar zijn qua architectuur.
Dan is het nog erger dan ik dacht Ook erg dat AMD dan niet compleet bijgetrokken is inmiddels.

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 05-02 14:55
meljor schreef op maandag 2 juni 2025 @ 15:22:
[...]


Dan is het nog erger dan ik dacht Ook erg dat AMD dan niet compleet bijgetrokken is inmiddels.
Letterlijk dit. Elke generatie roepen sommigen dat Nvidia nauwelijks verbeteringen maakt, maar als structureel lopen ze al 15 jaar verder weg van AMD. Of deze claims kloppen van geen kant, of AMD bakt er ook niks van :+

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-02 13:42
Qua RT zijn ze helemaal niet weg gelopen. Nee, ze hebben beide een andere visie over wat er in hardware gedaan wordt, en hoe. Heb hier al eerder over gepost.

Nvidia focust op triangle intersection en gaat voor brute force qua implementatie; meer RT units er tegenaan (van 68 naar 170 nu) klatsen en klaar. Hun claims van verbeteringen in de units (een Blackwell RT core zou 8x een Turing RT core zijn :')) komen er niet uit doordat hun data pipeline zo traag is. Of het is gelogen. Kies maar.

AMD is juist voor box intersection gegaan en is niet veel breder gegaan (80, 96, 128). Hun performance per unit is wel verbeterd.

  • emeralda
  • Registratie: Maart 2024
  • Laatst online: 27-10-2025
Ik gun AMD van harte hun "Zen" moment tegen Nvidia.

  • Audione0
  • Registratie: April 2009
  • Nu online

Audione0

Strijdt der titanen

emeralda schreef op maandag 2 juni 2025 @ 21:38:
Ik gun AMD van harte hun "Zen" moment tegen Nvidia.
Zeker na dit filmpje gekeken te hebben.

Ryzen 9 7950x3d / Asus Strixx x670E-E / Noctua NH-DH15 / 64GB Corsair Dominator 6000 / Crucial M500 – Samsung 990pro / MSI RTX 4070TI Super Gaming X Slim / Corsair RM1000x / Alles in een Fractal Define 7 Black gepropt


  • CMT
  • Registratie: Januari 2003
  • Laatst online: 10:42

CMT

meljor schreef op maandag 2 juni 2025 @ 15:22:
[...]


Dan is het nog erger dan ik dacht Ook erg dat AMD dan niet compleet bijgetrokken is inmiddels.
Bedoel je daarmee aan de top?
Met de 9070XT hebben ze toch een mooi product neergezet dat zich goed kan meten aan Nvidia's 5070Ti? Het midden segment waar AMD besloten heeft zich op te richten.

Zowel qua raster, RT als met features / parity is het wat mij betreft allemaal ingelopen en een kwestie van stuiver wisselen geworden. MFG x4 vind ik persoonlijk van betwistbare nut: 60fps voelt nog steeds als 60fps op 240Hz en alleen OLED kan het qua pixelreactietijd (lees: bewegingsscherpte) op zo'n hoge verversingssnelheid bijbenen.
Er is ook een vlak waar AMD het al lange tijd beter doet dan Nvidia en dat is het rustverbruik van de GPU. Tenminste als je onder de grens blijft waarbij het geheugen permanent actief blijft.
Met RDNA4 lijkt dat in ieder geval nu ook voor de multimonitor situatie opgelost te zijn.
Ik mat letterlijk maar 8W! met de 9070XT in een 3440x1440@100Hz + 2560x1440@100Hz setup.

Ik vermoed dat als AMD besloten had met RDNA4 net zo'n monster chip te maken zoals in de RTX4090 of RTX5090 zit, het ook in de top flink had kunnen concurreren.
Maar ik snap de keuze ook wel om het niet te doen. Het is tenslotte héél duur om te maken en gezien het kleine marktsegment brengt het ook een enorm risico met zich mee om op z'n minst break-even te halen.
Wat AMD betreft is het eerder een kwestie van willen dan kunnen lijkt mij.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:11
Hoewel niet zaligmakend, een nieuwe maand, een nieuwe survey. De 5000 serie Sku's die er de vorige keer ook in stonden laten allemaal groei zien onder de Install base van Steam: https://store.steampowered.com/hwsurvey/videocard/

De 5060Ti staat er voor het eerst in.

AMD nog steeds afwezig, net als de 5090 (en de 5060, maar die is vermoedelijk te kort in de verkoop om voor te komen).

[ Voor 32% gewijzigd door Dennism op 03-06-2025 12:46 ]


  • napata
  • Registratie: Oktober 2020
  • Laatst online: 06-02 15:33
Werelds schreef op maandag 2 juni 2025 @ 15:05:
[...]

Hoe bedoel je, deze generatie? Van Turing naar Ampère zat er een kleine verbetering in, daarna niks. Men valt het nu pas op omdat er deze generatie geen nieuwe node tussen zit, waardoor er geen kloksnelheidsverschil is dat het gebrek aan vooruitgang verbloemt.

Zolang je niet tegen een harde CPU bottleneck aan loopt, liggen Ampère, Ada en Blackwell binnen enkele procenten van waar ze zouden moeten zitten op basis van aantal RT cores * kloksnelheid (genormaliseerd dus). Turing ligt er doorgaans zo'n 10 procentpunten onder (of beter gezegd, AAB liggen 10% hoger dan ze op papier zouden zitten vs Turing). Is ook logisch, aangezien die 3 ook zo'n beetje identiek aan elkaar zijn qua architectuur.
Waar komt onderstaand verschil dan vandaan? In raster zijn een 3090Ti & 4070Ti Super ongeveer gelijk.

Afbeeldingslocatie: https://tweakers.net/i/Q4lzbuxbKbXnrKk1LxL7lk-SiTg=/800x/filters:strip_exif()/f/image/gzQJX72sNAucjOruykIhls9u.png?f=fotoalbum_large

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-02 13:42
napata schreef op dinsdag 3 juni 2025 @ 13:20:
[...]

Waar komt onderstaand verschil dan vandaan? In raster zijn een 3090Ti & 4070Ti Super ongeveer gelijk.

[Afbeelding]
Framegen vermoed ik (standaard aan in AW2). Kijk maar naar recentere tests van PCGH of andere media zoals TPU. Dingen presteren zo'n beetje gelijk. Wat in het nadeel van Ada werkt, 4070 Ti Super zou 10% sneller moeten zijn qua RT.

Welke review/test komen die resultaten vandaan?

[ Voor 5% gewijzigd door Werelds op 03-06-2025 14:30 ]


  • meljor
  • Registratie: November 2004
  • Laatst online: 03-02 16:51
Werelds schreef op dinsdag 3 juni 2025 @ 14:29:
[...]

Framegen vermoed ik (standaard aan in AW2). Kijk maar naar recentere tests van PCGH of andere media zoals TPU. Dingen presteren zo'n beetje gelijk. Wat in het nadeel van Ada werkt, 4070 Ti Super zou 10% sneller moeten zijn qua RT.

Welke review/test komen die resultaten vandaan?
Er staat "quality upscaling" wellicht een betere dlss versie voor de nieuwere kaart? Bij Tpu zijn ze idd gelijkwaardig, zowel met RT als PT.

  • meljor
  • Registratie: November 2004
  • Laatst online: 03-02 16:51
CMT schreef op dinsdag 3 juni 2025 @ 00:28:
[...]

Bedoel je daarmee aan de top?
Met de 9070XT hebben ze toch een mooi product neergezet dat zich goed kan meten aan Nvidia's 5070Ti? Het midden segment waar AMD besloten heeft zich op te richten.

Zowel qua raster, RT als met features / parity is het wat mij betreft allemaal ingelopen en een kwestie van stuiver wisselen geworden. MFG x4 vind ik persoonlijk van betwistbare nut: 60fps voelt nog steeds als 60fps op 240Hz en alleen OLED kan het qua pixelreactietijd (lees: bewegingsscherpte) op zo'n hoge verversingssnelheid bijbenen.
Er is ook een vlak waar AMD het al lange tijd beter doet dan Nvidia en dat is het rustverbruik van de GPU. Tenminste als je onder de grens blijft waarbij het geheugen permanent actief blijft.
Met RDNA4 lijkt dat in ieder geval nu ook voor de multimonitor situatie opgelost te zijn.
Ik mat letterlijk maar 8W! met de 9070XT in een 3440x1440@100Hz + 2560x1440@100Hz setup.

Ik vermoed dat als AMD besloten had met RDNA4 net zo'n monster chip te maken zoals in de RTX4090 of RTX5090 zit, het ook in de top flink had kunnen concurreren.
Maar ik snap de keuze ook wel om het niet te doen. Het is tenslotte héél duur om te maken en gezien het kleine marktsegment brengt het ook een enorm risico met zich mee om op z'n minst break-even te halen.
Wat AMD betreft is het eerder een kwestie van willen dan kunnen lijkt mij.
Ik bedoel het feit dat Nvidia qua architectuur geen/weinig vooruitgang heeft geboekt qua RT en Amd er dan toch nog circa 10% onder zit.
En fsr4 is een prima stap, het maakt het bruikbaar net als dat dlss nu echt wel goed wordt. Helaas zijn er weer veel te weinig titels waarin je fsr4 daadwerkelijk kunt gebruiken....

Framegen ben ik ook geen liefhebber van maar wellicht helpt het sommigen om het speelbaarder te maken. De mogelijkheid is mooi.

Ik draai het liefst gewoon native en gelukkig gaat dat in racing sims altijd wel prima. RT voegt daarin ook erg weinig toe en sloopt wel je fps.
Ben puur overgestapt naar een 4090 omdat die toch nog aardig sneller is dan m'n 7900xtx was (5090 gaat me net iets te ver). De xtx is echter ook nog een meer dan prima kaart en de AMD drivers bevielen ook altijd prima (en zeer uitgebreid, geen afterburner nodig voor een ondervolt etc.)

Ik had gewoon graag gezien dat ze op alle fronten eens wat tegengas gaven, ze hebben er al flink wat tijd voor gehad.

Hadden ze high-end rdna4 gehad dan was ik waarschijnlijk ook gewoon bij AMD gebleven.

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 10:42

CMT

@meljor
Ah zo. Ja, dat is inderdaad jammer. Toch ben ik wel positief gestemd over AMD, maar dan kijk ik vooral naar de stappen die ze hebben gezet per generatie.
Wat Nvidia tot nu toe gedaan heeft is ook makkelijker dan de weg die AMD heeft gekozen.
Brute force + kleine verbeteringen versus optimalisatie/herontwerp.

Maar inderdaad ik had ook liever gezien dat AMD volop in de aanval zou gaan en eens een product neerzet dat gewoon overduidelijk beter is.
Dan wordt het waarschijnlijk ook een stuk makkelijk om de ontwikkelaars mee te krijgen voor optimalisatie & dingen zoals FSR4. Soms zitten er uitschieters bij in benchmarks waarbij ik mij afvraag hoeveel winst er is blijven liggen in andere games. Aan andere kant is het ook merkwaardig dat via optiscaler dan opeens wel FSR4 of DSSL* aan games toegevoegd kan worden. Waarom kan dat niet via officiële weg gedaan worden?

Ik zit overigens in hetzelfde schuitje, mijn voorkeur gaat sterk naar AMD uit vanwege de goede Freesync/VRR werking, betere software/UI en hoge kwaliteit van de PCB/board.
Maar vanwege gebrek aan een highend model + geen geduld meer voor het wachten op betere RT, toch maar voor een RTX5090 gegaan.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:11
CMT schreef op woensdag 4 juni 2025 @ 13:27:
@meljor

Maar inderdaad ik had ook liever gezien dat AMD volop in de aanval zou gaan en eens een product neerzet dat gewoon overduidelijk beter is.
Ergens vraag ik me af of ze dat wel kunnen met de huidige architectuur / chip designs zonder te moeten subsidiëren, ik zat net ff een 9060 XT 16G review te kijken en t.o.v. de 5060 Ti, halen ze, raytracing uitgesloten, in die review quasi gelijke prestaties als de 5060 Ti 16G , maar wel tegen een 10% grotere die size, veel hogere density (waardoor je eigenlijk een betere perf / mm2 zou verwachten) en een flink hoger verbruik. Terwijl de 5060 Ti een hoger TBP heeft. Nu wil dat uiteraard niet alles zeggen maar het viel me wel weer op dat AMD minder uit het chip oppervlak, density en powerbudget lijkt te halen dan Nvidia. Kijk je immers naar het door AMD en Nvidia gespecificeerde powerbudget zou de AMD kaart minder moeten verbruiken dan de Nvidia kaart op volle belasting, in plaats van meer.

Raytracing was dan weer veel meer mixed bag, sommige games deed AMD het ok, andere games is het nog altijd relatief gezien zeer slecht.

Hetzelfde zie je ook bij de 9070XT, kijk ik even naar de TPU data is de volle Navi 48 is dan wel +-5% kleiner dan GB203, maar de RX9070XT is ook bijna 20% trager dan de 5080 die de volle GB203 gebruikt. En ook daar zie je de RX 9070XT meer verbruiken dan de 5080, laat staan de 5070 Ti, met een cut down GB203 waarmee eigenlijk op performance geconcurreerd wordt.

  • meljor
  • Registratie: November 2004
  • Laatst online: 03-02 16:51
Dennism schreef op woensdag 4 juni 2025 @ 15:54:
[...]


Ergens vraag ik me af of ze dat wel kunnen met de huidige architectuur / chip designs zonder te moeten subsidiëren, ik zat net ff een 9060 XT 16G review te kijken en t.o.v. de 5060 Ti, halen ze, raytracing uitgesloten, in die review quasi gelijke prestaties als de 5060 Ti 16G , maar wel tegen een 10% grotere die size, veel hogere density (waardoor je eigenlijk een betere perf / mm2 zou verwachten) en een flink hoger verbruik. Terwijl de 5060 Ti een hoger TBP heeft. Nu wil dat uiteraard niet alles zeggen maar het viel me wel weer op dat AMD minder uit het chip oppervlak, density en powerbudget lijkt te halen dan Nvidia. Kijk je immers naar het door AMD en Nvidia gespecificeerde powerbudget zou de AMD kaart minder moeten verbruiken dan de Nvidia kaart op volle belasting, in plaats van meer.

Raytracing was dan weer veel meer mixed bag, sommige games deed AMD het ok, andere games is het nog altijd relatief gezien zeer slecht.

Hetzelfde zie je ook bij de 9070XT, kijk ik even naar de TPU data is de volle Navi 48 is dan wel +-5% kleiner dan GB203, maar de RX9070XT is ook bijna 20% trager dan de 5080 die de volle GB203 gebruikt. En ook daar zie je de RX 9070XT meer verbruiken dan de 5080, laat staan de 5070 Ti, met een cut down GB203 waarmee eigenlijk op performance geconcurreerd wordt.
Gddr7 is ook weer iets zuiniger toch? En het komt de prestaties ten goede.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:11
meljor schreef op woensdag 4 juni 2025 @ 19:33:
[...]


Gddr7 is ook weer iets zuiniger toch? En het komt de prestaties ten goede.
Of dat bij deze snelheidsverschillen ook zo is, weet ik niet. Volgens mij gelijkgestelde kloksnelheden in ieder geval wel.

Maar dat zou hier niet uit mogen maken, immers specificeren zowel AMD als Nvidia TBP's (dus het verbruik van de gehele kaart), en dat is dus inclusief geheugen. Enige verschillen in efficiëntie / verbruik van het geheugen zitten daar dus al in verwerkt.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-02 13:42
AMD gebruikt inderdaad meer ruimte en transistors dan Nvidia, is al heel lang zo. Dat is uiteraard ook nadelig voor hun stroomverbruik. Dat is deels omdat ze bijvoorbeeld IC hebben; ja, Nvidia heeft tegenwoordig een grote L2$, maar vergeet niet dat AMD naast IC óók L0-L2$ heeft. Dat neemt ruimte in beslag. Maar de belangrijkste reden is veel simpeler: AMD gebruikt meer transistors omdat ze ook meer hardware hebben. AMD doet meer in hardware dan Nvidia, vooral qua scheduling. Dat lijkt zo rond de 8-9 miljard transistors te vereisen als je 44 en 48 vergelijkt. Hogere dichtheid maakt het ook iets lastiger verbruik in toom te houden.

GDDR7 maakt ook weldegelijk iets uit! Ik kan er een lang verhaal van maken (GDDR7 is best interessant :p), maar het komt er op neer dat we de geheugen kloksnelheid weer even moeten bekijken. Met GDDR5/6 doe je kloksnelheid * 2 * 4 om het aantal T/s te berekenen; 2500 MHz * 4 * 2 = 20000 MT/s. Dat is waar de 9060 XT mee te maken heeft. Met GDDR7 komt er een derde variabele bij, die ook weer verdubbelt; 1750 MHz * 4 * 2 * 2 = 28000 MT/s. Dat is waar de 5060 Ti op draait. Daarnaast draait GDDR7 op 1,2V in plaats van 1,35V. Nu gaat er ook weer iets verloren omdat de MC iets meer werk moet doen, maar GDDR7 is veel zuiniger; dat is bijvoorbeeld waar de 5070 Ti bespaart ten opzichte van de 4080 qua verbruik. Nu is "veel" ook wel relatief, je hebt het over 2W per chip ofzo. Maar dat is zelfs met deze kleine GPU's al 8W.

Qua RT performance wisselt het eigenlijk bijna nergens meer in de zin dat ze in de meeste gevallen even veel terug vallen als Nvidia (TPU's percentage verlies is prettig!). Het probleem is dat een aantal van die games beter draait op Nvidia, RT of niet. Cyberpunk is één van de weinige gevallen waar AMD's terugval nog steeds iets groter is...maar dat heeft met CP te maken. En dan heb je de "PT" benchmarks van TPU; dat is triangle intersections en dus 100% een Nvidia dingetje.

En als we dan toch naar performance kijken; als je theoretische FP32 performance vergelijkt, presteert AMD exact hetzelfde als Nvidia, wat in het verleden wel eens anders was - m.a.w. er komt nu per TFLOP pakweg dezelfde raster rendering performance uit. Qua RT zitten ze er op papier boven in de zin dat ze ~10% meer "RT ops/sec" zouden moeten hebben als de RA en RT cores dezelfde functionaliteit hadden.


Verbruik van AMD's kaarten is eigenlijk best indrukwekkend. Bijna 25% hogere dichtheid, respectievelijk 35% en 18% meer transistors dan de dichtsbijzijnde concurrent en in het geval van Navi 44, bijna exact hetzelfde verbruik in totaal onder volle belasting (met RT dus). 48 komt er iets minder gunstig vanaf, maar ook daar is zeker een kwart van het verschil in verbruik al te danken aan het geheugen. Voeg daar de extra transistors aan toe en het is behoorlijk netjes. Kleinere die betekent niet per se lager verbruik; kloksnelheid, spanning en aantal transistors spelen ook allemaal mee. En AMD's kloksnelheid ligt hoger, RDNA4 draait gemiddeld op ~3150 MHz (beide chips). Vergeet overigens ook niet dat Nvidia's verbruik wisselt; een 5080 trekt onder een RT workload meteen 40W meer, 5070 Ti 20W, 5060 Ti 15W. Bij AMD is dat verschil er niet of nauwelijks. Daar is misschien zelfs nog iets te winnen voor AMD qua verbruik, aggressiever schakelen op de RA's.

Als ik er voor de gein 8,5 miljard transistors vanaf trek, kom ik uit op chips van ~142mm² en ~300mm² met bijna exact even veel transistors als Nvidia, maar dan flink kleiner. Navi 44 komt er dan ook nog veel beter uit :p

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 06-02 15:33
Werelds schreef op dinsdag 3 juni 2025 @ 14:29:
[...]

Framegen vermoed ik (standaard aan in AW2). Kijk maar naar recentere tests van PCGH of andere media zoals TPU. Dingen presteren zo'n beetje gelijk. Wat in het nadeel van Ada werkt, 4070 Ti Super zou 10% sneller moeten zijn qua RT.

Welke review/test komen die resultaten vandaan?
Hier. Excuses, die link had ik in m'n eerste post er al aan toe moeten voegen. Het is zonder framegen. Zo'n kromme vergelijking ga je normaal niet vinden bij PCGH zonder dat het staat aangegeven.

3% sneller in raster, 18% in RT en 31% in PT. Hangt wel sterk af van resolutie. Op 4K met DLSS Q is de 4070Ti Super zelfs 43% sneller. Voor beiden is het wel onspeelbaar maar dat maakt voor dit argument weinig uit. Ik zie gelijkaardige % bij PT in andere games. Die gebruiken natuurlijk allemaal SER wat waarschijnlijk gedeeltelijk verantwoordelijk is voor de vooruitgang maar dat is ook deels hardware. In pure RT benchmarks zie je ook redelijke verschillen. Niet heel relevant voor games maar wel voor het argument dat ze er niet op vooruitgaan. Als ik zo eens kijk dan moet ik toch stellen dat je het niet bij het rechte eind hebt.
Vergeet overigens ook niet dat Nvidia's verbruik wisselt; een 5080 trekt onder een RT workload meteen 40W meer, 5070 Ti 20W, 5060 Ti 15W. Bij AMD is dat verschil er niet of nauwelijks.
Dit geldt zowel voor AMD als Nvidia en hangt tevens af van game tot game alsook resolutie. Als je een kaart hebt die bij elke game tegen de power limiet aanzit dan ga je natuurlijk overal hetzelfde stroomverbruik zien. Dat lijkt me ook logisch. Bij Ampere ga je ook overal hetzelfde verbruik zien want daar zat je ook gewoon in elke game tegen de power limiet. Je wint er zo wel efficientie mee. Ik herinner me iemand die zei dat hij met een 400W of 450W bios nog vaak tegen die limiet aanzat op een 3080 zonder overclock. Bij ADA en Lovelace is dit heel anders want daar zit je bij de meeste games niet tegen de power limiet dus ga je wel verschillen gewaarworden. Ik denk dat ik m'n 4090 nooit tegen een power limiet heb zien lopen in een echte game. Bij m'n 5070Ti zie ik dat wel maar ook niet dikwijls en meestal maar kortstondig.

Mijn ervaring is dat RT bij Nvidia niet zoveel uitmaakt qua stroomverbruik maar ik heb nog nooit gemiddelden gelogd. Ik heb gevallen gehad waar het merkbaar meer is, hetzelfde is en merkbaar minder is (Nee, geen CPU bottleneck). Dat zal afhankelijk zijn van waar het intern op bottleneckt.

Ik gok dat je cijfers van TPUs recente reviews komen maar je moet eens kritisch kijken naar de opzet van TPU. Ik weet zeker dat als je naar de opzet kijkt je terecht gaat fronsen. Vreemd genoeg is hun opzet beter in eerdere reviews. Het is nog steeds slecht want ze gebruiken maar 1 game maar het is in ieder geval appelen met appelen vergelijken. Je ziet dan een stijging van 7W voor de 5080 bij RT in Cyberpunk.

Waarom voegen ze later 2 games toe met aanzienlijk minder stroomverbruik bij het stuk niet-RT zodat die het gemiddelde naar beneden halen maar niet aan het RT-stuk? Dat is een raadsel. Vandaar dat ik ook geen al te grote fan ben van TPU behalve voor snelle vergelijkingen. De moraal is om altijd goed naar een testopzet te kijken.

[ Voor 4% gewijzigd door napata op 05-06-2025 14:44 ]


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Dennism schreef op donderdag 29 mei 2025 @ 11:00:
[...]

Ik blijf dan ook zeer benieuwd naar de nieuwe cijfers van Jon Peddie, maar ik begin langzaamaan steeds minder te geloven in een stunt van AMD en steeds meer in het scenario dat die leakers mensen simpelweg een oor aan het aannaaien zijn. En dan zal AMD vast een paar % terug pakken, immers veel slechter dan waar ze vandaan kwamen kan niet, maar ik zie AMD op basis van de nu bekende metrics eigenlijk niet ineens naar 50%+ marktaandeel gaan, wat wel nodig is om de claims van deze leakers te ondersteunen.
AMD's marktaandeel in de AIB markt is inmiddels onder de 10% gedoken, vooralsnog pakt AMD niets terug. Het is ook best een flinke daling: van 15% in Q4 naar afgerond 8% in Q1.

Afbeeldingslocatie: https://cdn.wccftech.com/wp-content/uploads/2025/06/unnamed-1.png
Looking at the AIB market share, NVIDIA's share rose by 8.5% in Q1 2025, a massive uptick for the company, whose previous market share dropped to 84%. AMD's market share declined by 7.3% to just 8% while Intel's market share decreased by -1.2% to 0% in Q1 2025.
In de totale GPU markt liggen de verhoudingen anders.

[ Voor 3% gewijzigd door XWB op 06-06-2025 11:40 ]

March of the Eagles


  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:11
XWB schreef op vrijdag 6 juni 2025 @ 11:38:
[...]


AMD's marktaandeel in de AIB markt is inmiddels onder de 10% gedoken, vooralsnog pakt AMD niets terug. Het is ook best een flinke daling: van 15% in Q4 naar afgerond 8% in Q1.

[Afbeelding]


[...]


In de totale GPU markt liggen de verhoudingen anders.
Nog slechter dus dan verwacht, en met het 'ja maar AMD's kaarten waren enkel de laatste maand te koop', kom je vermoedelijk ook niet weg, want Jon Peddie kijkt veel eerder in het kanaal, en we weten allemaal dat die kaarten al veel langer bij de retailers lagen, ruim voor de start verkoop begin maart. Dat zou wel deels de uptick in Q4 2024 kunnen verklaren in het AIB segment, toen zullen de AIB immers hun inventory (deels) opgebouwd hebben, daar we weten dat retailers tijdens CES al pallets vol RX 9000 kaarten hadden, een boel RX 9000 stock zal dus waarschijnlijk al in Q4 geleverd zijn. Terwijl juist bij Nvidia het omgekeerde aan de hand leek en dat productie pas vrij laat op gang gekomen is. Wat dan weer Nvidia's sterke Q1 kan verklaren qua marktaandeel onder enkel de AIB kaarten.

Overall trouwens ook een flinke sprong van Nvidia.

Afbeeldingslocatie: https://cdn.wccftech.com/wp-content/uploads/2025/06/unnamed-7.png

[ Voor 5% gewijzigd door Dennism op 06-06-2025 12:26 ]


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Werelds schreef op donderdag 5 juni 2025 @ 11:21:
AMD gebruikt inderdaad meer ruimte en transistors dan Nvidia, is al heel lang zo. Dat is uiteraard ook nadelig voor hun stroomverbruik.
Meer transistoren voor extra functies (die actief gebruikt worden) is idd nadelig voor het stroomverbruik. Maar transistoren voor de primaire functie is positief normaal voor het stroomverbruik. Een 5070Ti die je op 5070 snelheid laat draaien, zal minder stroom verbruiken. Een cache hit is een stuk zuiniger dan memory access.

Als AMD echt een niet verwaarloosbaar gedeelte van hun power en area budget gebruiken voor iets wat Nvidia in de drivers doet, dan zouden ze moeten overwegen dat ook in hun drivers te doen.

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 10:42

CMT

Dennism schreef op woensdag 4 juni 2025 @ 15:54:
[...]


Ergens vraag ik me af of ze dat wel kunnen met de huidige architectuur / chip designs zonder te moeten subsidiëren, ik zat net ff een 9060 XT 16G review te kijken en t.o.v. de 5060 Ti, halen ze, raytracing uitgesloten, in die review quasi gelijke prestaties als de 5060 Ti 16G , maar wel tegen een 10% grotere die size, veel hogere density (waardoor je eigenlijk een betere perf / mm2 zou verwachten) en een flink hoger verbruik. Terwijl de 5060 Ti een hoger TBP heeft. Nu wil dat uiteraard niet alles zeggen maar het viel me wel weer op dat AMD minder uit het chip oppervlak, density en powerbudget lijkt te halen dan Nvidia. Kijk je immers naar het door AMD en Nvidia gespecificeerde powerbudget zou de AMD kaart minder moeten verbruiken dan de Nvidia kaart op volle belasting, in plaats van meer.

Raytracing was dan weer veel meer mixed bag, sommige games deed AMD het ok, andere games is het nog altijd relatief gezien zeer slecht.

Hetzelfde zie je ook bij de 9070XT, kijk ik even naar de TPU data is de volle Navi 48 is dan wel +-5% kleiner dan GB203, maar de RX9070XT is ook bijna 20% trager dan de 5080 die de volle GB203 gebruikt. En ook daar zie je de RX 9070XT meer verbruiken dan de 5080, laat staan de 5070 Ti, met een cut down GB203 waarmee eigenlijk op performance geconcurreerd wordt.
Wat betreft verbruik is het ook een kwestie van een keuze voor een bepaalde TDP.
De 9060XT en 9070XT zijn GPU's die heel hard lopen te boosten met ingame clocks van 3.0-3.2GHz.
Een begrensde 9070XT @230W TBP behoud nog ca. 94% van de prestaties. De laatste paar honderd MHz aan clock kost gewoon ontzettend veel extra vermogen (330W TBP).
Maar ja ze willen overduidelijk niet van de tegenpartij verliezen :z

Daarnaast heeft Nvidia ook een streepje voor met de efficiëntie van GDDR7, het is misschien niet veel Watt in absolute termen, maar elk beetje helpt. Zeker bij lichte kaarten is het procentueel toch wel significant.
Ook niet onbelangrijk is dat de CPU overhead met een Nvidia kaart groter is en een deel van het verbruik dus naar de CPU verplaatst wordt. @Werelds gaf dat eerder al indirect aan.

RDNA4 is veel efficiënter dan doet vermoeden uit de reviews. Vandaar dat ik benieuwd ben wat een monster chip (>700mm2) gedaan zou hebben dat op een klok van pakweg 2.5-2.7GHz loopt.
Ik heb uit nieuwsgierigheid gekeken naar de shader/FPS om zodoende een grove inschatting van de architectuur schaling te krijgen. Uiteraard is de klok ook van invloed, maar aan de andere kant gaat het ook om het eindresultaat dat bereikt wordt.

Je ziet in ieder geval bij Nvidia kaarten dat de factor verhoudingsgewijs meer oploopt. En van de 5080 naar 5090 in feite explodeert (idem van 4080 naar 4090).
Als bij AMD dat een stuk beter gaat, dan kan het best zijn dat per mm2 chip er uiteindelijk net zoveel uit gehaald kan worden of zelfs meer.

Edit:
Vergeten erbij te zetten, maar staar je niet blind op de TBP en wat er in de reviews gemeten wordt.
Elke kaart heeft een firmware/software begrenzing om zich 'nauwkeurig' aan de TDP te houden, maar de shunt metingen om dat vermogen te bepalen is verre van accuraat en kent bij Nvidia kaarten in de regel een grotere spreiding vanwege de meetmethode. In de praktijk betekent dit dat er een behoorlijk verschil kan zijn, maar dat is dan eerder een gevolg en niet zozeer dat daarvoor bewust gekozen wordt.

Idem voor 2 kaarten van hetzelfde type & merk. Beiden kunnen via GPU-Z en/of HWinfo hetzelfde verbruik aangeven, waarbij de ene kaart het een stuk beter doet qua prestaties en klok. Het kan best zijn dat het werkelijke verbruik ook gewoon verschilt. En dat verschil kan met zeg maar 30-40W bij 400W TBP best behoorlijk zijn. Zoiets ziet men niet totdat er aan de 12V DC zijde van de PC voeding gemeten wordt.

[ Voor 13% gewijzigd door CMT op 06-06-2025 14:48 ]


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-02 13:42
napata schreef op donderdag 5 juni 2025 @ 14:36:
[...]

Hier. Excuses, die link had ik in m'n eerste post er al aan toe moeten voegen. Het is zonder framegen. Zo'n kromme vergelijking ga je normaal niet vinden bij PCGH zonder dat het staat aangegeven.

3% sneller in raster, 18% in RT en 31% in PT. Hangt wel sterk af van resolutie. Op 4K met DLSS Q is de 4070Ti Super zelfs 43% sneller. Voor beiden is het wel onspeelbaar maar dat maakt voor dit argument weinig uit. Ik zie gelijkaardige % bij PT in andere games. Die gebruiken natuurlijk allemaal SER wat waarschijnlijk gedeeltelijk verantwoordelijk is voor de vooruitgang maar dat is ook deels hardware. In pure RT benchmarks zie je ook redelijke verschillen. Niet heel relevant voor games maar wel voor het argument dat ze er niet op vooruitgaan. Als ik zo eens kijk dan moet ik toch stellen dat je het niet bij het rechte eind hebt.
Ha. Excuses, ik kijk nooit naar PT en heb ook 0,0 interesse in AW in z'n algemeen, dus ik heb me nooit verdiept in die resultaten.

AW is eindelijk een voorbeeld waar SER impact heeft (zou eens tijd worden), maar de 4070 Ti Super is dan niet eens het beste voorbeeld. De 4070 en 4080 zitten beide ruim 35-40% boven waar ze zouden moeten zitten; de 4090 wint juist zo goed als niets. En ik zie ook meteen waarom. Het is evenredig met de verhouding tussen L2$ en aantal SM's. De 4070 Ti Super en 4090 komen L2$ tekort. Ook eindelijk een geval waar de L2$ nuttig blijkt.

Overigens niet echt een hardware wijziging, in de zin dat er iets heel erg nieuws is is. SER is een opt-in shader (vereist dus software implementatie) die een hit flag op true/false zet. En op basis daarvan herordent de scheduler de threads binnen een SM. Dat herordenen (sorteren) deed de scheduler al (is een kerntaak van die dingen :p), hij gebruikt daar nu een extra datapunt voor (en extra instructies, daarom zal het niet voor Ampère komen). Wat er qua hardware anders is, is het lokale geheugen gebruik. De manier waarop Nvidia het in de whitepapers beschrijft is dat de SER shader in feite alles in het geheugen dumpt, de bijbehorende threads stopt, een sort triggert en dan een nieuw wavefront aan maakt. Het is niet GPU-breed (dan hadden ze er wel melding van gemaakt), dus de impact is enigszins beperkt en SER kan dus ook nadelig zijn bij een slechte implementatie (veel stalls). Ik ben benieuwd of AMD het ook aan RDNA3 toe gaat voegen (SER komt in een driver update voor RDNA4), geen idee of hun instructieset dit al zou kunnen. Ze zijn immers wel flexibeler.

Neemt ook niet weg dat Nvidia's claims omtrent RT core performance nog steeds bullshit zijn. Een Ampère RT core zou 2x ray/tri doen ten opzichte van Turing; Ada zou daar wéér 2x op doen (en Blackwell nóg eens 2x). Maar in de praktijk zie je dat niet. SER _zou_ dat misschien wel kunnen laten zien, maar met het gigantische kloksnelheidsverschil is dat lastig te zien en de kloksnelheid doet er waarschijnlijk meer toe. Je zou al een clock-for-clock test moeten doen; GPU's met vergelijkbare aantallen SM's (en L2$ verhouding op Ada/Blackwell!), allemaal op 1500 MHz laten draaien ofzo en dan kijken wat er uit komt.
Dit geldt zowel voor AMD als Nvidia en hangt tevens af van game tot game alsook resolutie.
Game en resolutie doen er uiteraard toe, maar je ziet bij Nvidia weldegelijk vrij consistent dat RT 1080p en 1440p meer verbruikt. Is ook niet vreemd, omdat ze op die resoluties de bredere GPU's niet bezig kunnen houden met raster workloads, met RT wel omdat we daar een harde bottleneck hebben. Op 2160p is het wisselend, daar loop je met veel GPU's inderdaad altijd tegen de limiet aan. Bij AMD is dat een stuk minder, omdat die hun WGP's over het algemeen meer aan het werk hebben.

Overigens niet op TPU gebaseerd. Hun nieuwste methode ben ik ook geen fan van.
Sissors schreef op vrijdag 6 juni 2025 @ 12:46:
Meer transistoren voor extra functies (die actief gebruikt worden) is idd nadelig voor het stroomverbruik. Maar transistoren voor de primaire functie is positief normaal voor het stroomverbruik. Een 5070Ti die je op 5070 snelheid laat draaien, zal minder stroom verbruiken. Een cache hit is een stuk zuiniger dan memory access.
Een 5070 Ti draait al licht trager dan een 5070 en draait maar net even efficiënt :p

IC hits zullen inderdaad wat besparen, maar dat zal in verhouding niet veel zijn. De belangrijkste reden voor IC is juist performance. Memory access is traag, IC is minder traag.
Als AMD echt een niet verwaarloosbaar gedeelte van hun power en area budget gebruiken voor iets wat Nvidia in de drivers doet, dan zouden ze moeten overwegen dat ook in hun drivers te doen.
Oneens. Nvidia's CPU overhead brengt al wat problemen met zich mee waardoor hun GPU's niet lekker schalen qua grootte. En juist voor RT willen we minder afhankelijk van de CPU worden dan nu het geval is. Alle scheduling en dergelijke in de driver doen maakt het geheel ook foutgevoelig en vereist een gigantisch software team. Je hardware scheduler kun je met je GPU mee schalen, een driver is afhankelijk van de onderliggende CPU. Er zijn wel meer dingen die één van beide ooit in een driver deed, wat toch echt beter in hardware kon.

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 10:42

CMT

XWB schreef op vrijdag 6 juni 2025 @ 11:38:
[...]


AMD's marktaandeel in de AIB markt is inmiddels onder de 10% gedoken, vooralsnog pakt AMD niets terug. Het is ook best een flinke daling: van 15% in Q4 naar afgerond 8% in Q1.

[Afbeelding]


[...]


In de totale GPU markt liggen de verhoudingen anders.
Hmm ik vind het erg lastig om iets uit deze percentages te halen.
Hoe relevant is dit voor de dGPU verkoop aan consumenten en dan met name aan gamers?
Het zou mij niet verbazen als het leeuwendeel van de omzetgroei bij AIB's te danken is aan bijv. de 5090.
Met bedragen van €2500-4000/ stuk gaat het hard met de omzet.

Weet iemand of gpu's in laptops ook onder de AIB noemer vallen?

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:11
CMT schreef op vrijdag 6 juni 2025 @ 14:37:
[...]

Hmm ik vind het erg lastig om iets uit deze percentages te halen.
Hoe relevant is dit voor de dGPU verkoop aan consumenten en dan met name aan gamers?
Het zou mij niet verbazen als het leeuwendeel van de omzetgroei bij AIB's te danken is aan bijv. de 5090.
Met bedragen van €2500-4000/ stuk gaat het hard met de omzet.

Weet iemand of gpu's in laptops ook onder de AIB noemer vallen?
Dit is unit share, geen omzet share, van iedere 100 door AIB's geshipte insteekkaarten met een dGPU in Q1 zijn er dus gemiddeld 92 units van Nvidia, 8 van AMD en 0 van Intel. Een enkele 5090 of RX 9070XT zou dus net zo veel gewicht in deze schaal leggen als een enkele 5060 (als er al 5060's door Nvidia shipped zijn in Q1, ik vermoed van wel, maar het zou natuurlijk kunnen van niet, omdat het een midden Q2 product is voor de retail) of B580

Normaliter vallen valt laptop niet onder AIB unitshare, maar voor zover ik weet wel de insteekkaarten in bijv. HP / Dell en Boutique prebuilds.

quote van tom's hardware over dit rapport:
The industry shipped 9.2 million standalone graphics processing units for desktop PCs during the first quarter, up 8.5% compared to the prior quarter and by 5.3% on an annual basis. In terms of market share dynamics, Nvidia was the only major vendor to expand its position, gaining 8.5%. AMD’s share declined by 7.3%, while Intel's share saw a smaller contraction of 1.2%.

AMD's GPU shipments totaled approximately 740,000 to 750,000 units, the company's worst results in three years. To make matters worse, for the first time in decades (if not ever), the quarterly sales of AMD GPUs declined despite the launch of new halo products.

Nvidia sold around 8.46 million standalone graphics processors for desktops, the company's best result in three years, especially keeping in mind that the company sold quite expensive products ($379 - $1999) during the first quarter and these products happen to be some of the best graphics cards around.
Tom heeft ook nog wat meer duiding: https://www.tomshardware....s-nvidia-extends-its-lead

Waar het dus op lijkt is, zoals ik hier ook al aangaf: Dennism in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"

Dat AMD dus de RX 9070 modellen (grotendeels) in Q4 geleverd heeft, vandaar die piek in Q4 van 12 naar 15% AIB share wat op zich logisch is, want alles leek te wijzen op dee CES introductie met daarna direct verkrijgbaarheid, de kaarten lagen immers al bij diverse retailers in redelijk volume, tot AMD de introductie vermoedelijk uitstelde.

Maar dit lijkt er dus ook op te wijzen dat AMD daar in Q1 niet op heeft doorgepakt en dus niet de productie verder opgehoogd heeft zoals gebruikelijk om na een introductie het volume verder te verhogen en de verkrijgbaarheid te verbeteren na de launch, maar juist veel minder heeft geleverd in Q1 dan in het kwartaal ervoor in units.

Tis jammer dat we dit artikel niet gratis kunnen lezen..... Ben heel benieuwd wat hier instaat met welke duiding: https://www.jonpeddie.com/techwatch/game-over/

[ Voor 56% gewijzigd door Dennism op 06-06-2025 16:21 ]


  • CMT
  • Registratie: Januari 2003
  • Laatst online: 10:42

CMT

@Dennism
Ah zo, ja dat maakt een stuk meer duidelijk. Bedankt.
Ik zou het merkwaardig hebben gevonden als AMD marktaandeel heeft weten te veroveren met de huidige prijsstelling. Dat is imho veel te hoog om twijfelaars over de streep te trekken.
Nu lijkt het mij wel zo dat de cijfers enigszins verbloemt worden, doordat er geen onderscheid gemaakt wordt tussen de consumenten en zakelijke markt (pro kaarten) en het feit dat de consumenten 5090's vanwege de 32GB ook erg in trek is puur voor video / AI toepassingen.

Het zal mij benieuwen of de FTC ingrijpt wanneer het het verschil nog schrijnender wordt.
Hopelijk wordt UDNA het Zen moment voor de GPU divisie van AMD.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Mja, 750.000 (AMD) versus 8 miljoen (Nvidia) shipments is nogal een gat om te overbruggen... als AMD dat ooit wil inhalen moet het ook forse capaciteit inkopen bij TSMC.

March of the Eagles


  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:11
@CMT Zakelijke markt doet hier niet heel veel vermoed ik qua volume, mensen lijken vaak te denken dat die markt heel veel invloed heeft. Kijk je echter naar de marges daar (die veel hoger zijn dan in het gaming segment), lijkt het volume vrij laag te zijn. Nvidia zet bijv in Q1 3.8 miljard om in gaming (RTX en Switch), AMD 647 miljoen (Radeon en semi custom gaming SoC's, o.a. consoles), en Nvidia's dGPU segment voor de zakelijke markt is zelfs qua omzet nog minder dan AMD's gaming segment met 509 miljoen, kijk je echter naar de marges daar (een GB202 in een 5090 gaat in retail voor $1999 MSRP weg, een RTX Blackwell pro kaart voor +-10k uit mijn hoofd) dan kan je daar wel uit afleiden dat wanneer die markt in omzet al zo klein is, door de veel hogere marges per unit de volumes in die markt qua units shipped nog veel kleiner zijn, anders zou de omzet van dat markt segment vele malen hoger moeten zijn.

[ Voor 9% gewijzigd door Dennism op 06-06-2025 18:07 ]


  • CMT
  • Registratie: Januari 2003
  • Laatst online: 10:42

CMT

Leuk voor een inkijkje in hoe duur de Samsung 3GB GDDR7 chips nu zijn met verkoop via een 3e partij.
Van Chinese yuan naar euro is dat omgerekend minimaal €8.84/chip.
Dat is toch best pittig. Dan snap ik wel waarom AIB's een pakket afnemen van Nvidia.

https://videocardz.com/ne...x-5090-48gb-mods-incoming

Afbeeldingslocatie: https://cdn.videocardz.com/1/2025/06/SAMSUNG-3GB-GDDR7.jpg

  • !mark
  • Registratie: November 2013
  • Laatst online: 08:27
CMT schreef op maandag 9 juni 2025 @ 17:46:
Leuk voor een inkijkje in hoe duur de Samsung 3GB GDDR7 chips nu zijn met verkoop via een 3e partij.
Van Chinese yuan naar euro is dat omgerekend minimaal €8.84/chip.
Dat is toch best pittig. Dan snap ik wel waarom AIB's een pakket afnemen van Nvidia.
Dat valt mij juist heel erg mee, dan zit je op 36, 54 resp. 72 euro voor 12, 18 of 24GB GDDR7 i.p.v. 8, 12 en 16 nu. Waarbij je nog rekening moet hadden dat met de volumes welke AIBs kunnen inkomen de stukprijs naar beneden gaat en de 2GB modules welke ze vervangen ook niet gratis zijn waardoor de meerprijs nog een stuk lager ligt.

  • meljor
  • Registratie: November 2004
  • Laatst online: 03-02 16:51
!mark schreef op maandag 9 juni 2025 @ 18:24:
[...]

Dat valt mij juist heel erg mee, dan zit je op 36, 54 resp. 72 euro voor 12, 18 of 24GB GDDR7 i.p.v. 8, 12 en 16 nu. Waarbij je nog rekening moet hadden dat met de volumes welke AIBs kunnen inkomen de stukprijs naar beneden gaat en de 2GB modules welke ze vervangen ook niet gratis zijn waardoor de meerprijs nog een stuk lager ligt.
Valt mij ook erg mee. 5080 met 24gb zouden als warme broodjes gaan. Ook nog voor iets hogere prijzen.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

'Glimmers of hope' 8) :

Igor: NVIDIA removes China from its sales forecasts – When export controls become a business risk

“Our forecasts no longer include China in the future.” This dry statement by Jensen Huang to Reuters may sound sober, but it is a strategic tremor. Just a few years ago, China was a goldmine for NVIDIA. Now it is becoming an unpredictable risk.

The reason? The increasingly strict US export controls, which are now banning even trimmed AI chips such as the H20 from the Chinese market. What used to mean predictability is now a geopolitical roulette.

The consequence: NVIDIA is not cutting China because it wants to, but because it has to. A sales region the size of a continent is simply being “booked out”

___

Ze zullen de chips vast wel kwijt kunnen in het westen. Maar zoniet, mag een mens dan hopen: Lagere prijzen, betere leverbaarheid gamingchips. :9

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • meljor
  • Registratie: November 2004
  • Laatst online: 03-02 16:51
Help!!!! schreef op zaterdag 14 juni 2025 @ 10:17:
'Glimmers of hope' 8) :

Igor: NVIDIA removes China from its sales forecasts – When export controls become a business risk

“Our forecasts no longer include China in the future.” This dry statement by Jensen Huang to Reuters may sound sober, but it is a strategic tremor. Just a few years ago, China was a goldmine for NVIDIA. Now it is becoming an unpredictable risk.

The reason? The increasingly strict US export controls, which are now banning even trimmed AI chips such as the H20 from the Chinese market. What used to mean predictability is now a geopolitical roulette.

The consequence: NVIDIA is not cutting China because it wants to, but because it has to. A sales region the size of a continent is simply being “booked out”

___

Ze zullen de chips vast wel kwijt kunnen in het westen. Maar zoniet, mag een mens dan hopen: Lagere prijzen, betere leverbaarheid gamingchips. :9
Via een "backdoor" komen er vast nog genoeg in China terecht. Handel is handel.

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 10:42

CMT

@Help!!!!

We blijven hopen ^^. Het is toch een behoorlijk stuk van de taart / chip allocatie als China niet meer als afzetmarkt beschouwt wordt. Maar of hiermee de gamers ook weer uit het verdomhoekje komen?

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:11
CMT schreef op zondag 15 juni 2025 @ 22:07:
@Help!!!!

We blijven hopen ^^. Het is toch een behoorlijk stuk van de taart / chip allocatie als China niet meer als afzetmarkt beschouwt wordt. Maar of hiermee de gamers ook weer uit het verdomhoekje komen?
Zodra gaming weer de hoogste marge is die ze ook daadwerkelijk kunnen verkopen, uiteraard. Maar ik zie dat niet snel gebeuren. Dan moet er wel heel van handel wegvallen. Er was immers ook sprake van dat Nvidia (en volgens mij de anderen ook) Chinese business al tijden naar voren aan het halen zijn om maar zoveel mogelijk te kunnen leveren tot men vanuit de US echt aangeeft van 'nu stoppen we met de export naar China van AI server chips', waardoor de 'backlog' voor Non-China ook flink opgelopen zou zijn met extreem lange leadtimes. Voor de eerste tijd zullen ze dus waarschijnlijk makkelijk die backlog kunnen gaan vullen, zou het inderdaad zo zijn dat er een volledige 'China stop' komt.

Vooralsnog lijkt het er immers op dat het enkel een 'dingetje' is voor de SEC / aandeelhouders, omzet voor China wordt niet meer meegenomen in de forward looking statements, zodat Nvidia niet nat kan gaan zou die omzet ineens voor 100% wegvallen, terwijl ze aandeelhouders er wel lekker mee hebben gemaakt.

En het zou me verder ook weinig verbazen als zoals @meljor al aangeeft een deel van die chips wel via 'alternative routes' China zullen bereiken, en dat ineens in China de vraag zal stijgen naar andere kaarten die niet onder het huidige verbod vallen. Dat zal nog wel even een 'kat en muis' spelletje blijven vermoed ik tussen Nvida en de US regering waarbij Nvidia met nieuwe cut down Sku's komt en de regering die dan weer verbied met nieuwe regels.

Niet dat dit Nvidia's bottomline niet zal raken, maar met hoeveel, zeker op korte termijn gaat wel de vraag zijn.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

fwiw:

CUDA on RISC-V: NVIDIA’s silent stab in the back against the x86/ARM cartel

Anyone who thought that NVIDIA would continue to cuddle up in its wedding bed with ARM while secretly displacing AMD GPUs must have missed the clattering in the RISC-V workshop.

Because what has been quietly announced here is nothing less than a seismic tremor in the foundations of the AI infrastructure: CUDA is now running on RISC-V processors.

This is not just a technical curiosity, but a strategic broadside against the architecture duopolists x86 and ARM. And exactly where it hurts the most, in the heart of the AI power centers: data centers, edge computing and AI accelerator solutions.

etc...

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Gezien hoever weg RISCV zover ik weet is van x86 / ARM voor high end toepassingen, ben ik erg benieuwd of dit een serieus iets is binnen Nvidia, of meer een zij-project die half uit marketing budgetten wordt betaald. Uiteindelijk wil Nvidia natuurlijk gewoon dat hun hardware met zoveel mogelijk andere samenwerkt, zodat je geen reden hebt om naar de concurrent over te stappen. Maar volgens mij is igorslab wel heel erg de impact hiervan aan het overdrijven.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nou die durven wel bij GamersNexus. Ze zijn gewoon gaan graven naar hoe Nvidia GPU's die niet naar China geëxporteerd mogen worden, daar toch terechtkomen. En Nvidia zou er van weten en de andere kant opkijken.
Dit is een introductie, op de 15de komt de hele video.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:11
Ook gezien inderdaad, vond deze intro nog wel wat nietszeggend, met als die duidingen met zaken als 'blackmarket' e.d. terwijl een deel van die handel mogelijk gewoon legaal is, ook is de VS er niet blij mee.

Hoop wel dat ie in het 'eindproduct', met namen en rugnummers van eventuele US partijen die de initiele verkopen doen en dat het niet grotendeels gaat over de handel en wandel in China / Azie, want zodra die kaarten daar zijn c.q. niet met in eigendom zijn van een Amerikaanse entiteit is er een grote kans dat de tussenhandel gewoon binnen de wetten daar valt. En dan kan ook Nvidia er weinig meer aan doen, al zullen die sowieso niet meer willen doen dan het minimale, kijk bijv. ook naar AMD's datacenter cijfers van vorige week die flink geraakt worden door het China verhaal, dat zal bij Nvidia niet anders zijn vermoed ik.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Oke, dat is 3,5 uur. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:11
Zal even duren voor ik tijd heb deze te kijken, maar de reddit reviews zijn niet direct lovend. Veel commentaren dat het te lang is, er stukken in zitten die voor de casus (het smokkelen van GPU's) niet heel erg interessant zijn, er teveel herhaling in zit en zoals ik al vermoedde, er te veel focus is op de China / Azie kant van het verhaal, in plaats van de US kant, terwijl als er verboden zaken gebeuren, dat vooral zal gebeuren zolang de kaarten nog in handen zijn van zakelijk US entiteiten.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Denk dat 3.5 uur ook een beetje teveel van het goede is om de boodschap goed neer te zetten.

Steve is bezig om te diversificeren en meer de kant van investigative journalism en consumer advocacy op te gaan. Zie ook zijn relatief nieuwe kanaal: GNCA - GamersNexus Consumer Advocacy

Het zal vast allemaal nog niet perfect zijn en af en toe draaft hij nogal door maar ik vind het een goede ontwikkeling.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Yonix
  • Registratie: April 2004
  • Laatst online: 10:13
Bijzonder dat Tweakers hier nog niets over heeft gepubliceerd. Misschien zijn ze bang voor de gevolgen? Looking at Nvidia. 👀

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Het is inderdaad erg lang, te lang geworden.
Maar de essentie lijkt te zijn dat die GPU's gewoon naar China worden verscheept vanuit TSMC om geassembleerd te worden en dan "van de vrachtwagen vallen". Nvidia zal er echt wel van weten, maar lijkt de andere kant op te kijken. Daarnaast lijken videokaarten op meerdere plekken buiten China opgekocht te worden en alsnog China gesmokkeld te worden.

Ondertussen is de video ook offline gehaald vanwege een vage copyright strike van Bloomberg. Dat wordt de volgende video. :P
https://www.youtube.com/p...ahdEqjmbr2ki2vkhRNZ3N17Y7

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:11
Yonix schreef op zaterdag 23 augustus 2025 @ 12:36:
[...]


Bijzonder dat Tweakers hier nog niets over heeft gepubliceerd. Misschien zijn ze bang voor de gevolgen? Looking at Nvidia. 👀
Ik vermoed eerder omdat het lang niet zo interessant lijkt dan men deed / doet vermoeden. Als het er nu over ging dat bijv. H200 massaal gesmokkeld zou worden naar China vanuit de US, door US bedrijven, was dat natuurlijk heel erg interessant geweest.

Maar als het inderdaad is zoals o.a. op reddit wordt aangegeven, maar ook wat @DaniëlWW2 lijkt aan te geven dat het voornamelijk een langdradig verhaal is geworden dat gaat over bedrijvigheid aangaande gaming / prosumer kaarten in China / Azië waar deze handel mogelijk niet eens verboden is het eigenlijk niet eens zo heel erg nieuwswaardig en dus ook niet heel erg bijzonder dat dit niet direct globaal wordt opgepakt in de media.

En daarom kon ik de video dus niet vinden gister....

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 12:03
Wanneer verwachten jullie de 6080? Volgend jaar al?

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:11
@Yonix Nu wel een vermelding op de FP, al gaat dat niet direct over de inhoud van de video, maar meer over het Bloomberg 'gedoe'. nieuws: YouTube accepteert tegenclaim Gamers Nexus over offline gehaalde docu...

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:11
MetalSonic schreef op maandag 25 augustus 2025 @ 08:48:
Wanneer verwachten jullie de 6080? Volgend jaar al?
Normaliter ergens eind 2026 / begin 2027.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
nieuws: Omzet Nvidia uit consumenten-gpu's groeit, omzet datacenter-gpu's gro...

De omzet uit gaming is weer gestegen, dat lijkt me voor de doelgroep in dit topic wel relevant:
De omzet van Nvidia die komt uit videokaarten voor consumenten, vooral voor gaming, groeide met 49 procent ten opzichte van dezelfde periode vorig jaar. De omzet uit videokaarten voor datacenters groeide in diezelfde periode met 56 procent.

De omzet uit videokaarten voor gaming groeide zo sterk vanwege de release van de RTX5000-serie aan videokaarten, zoals de RTX5060 in mei. Vorig jaar was er geen nieuwe serie aan videokaarten op de markt. De vraag naar videokaarten voor datacenters groeide sterk door de AI-trend van afgelopen jaren.

March of the Eagles


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Yikes, gelukkig hebben ze bij AMD nog de console markt waarvoor ze toch GPUs moeten ontwerpen, anders was ik me echt zorgen gaan maken dat ze uit de GPU markt zouden stappen.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
En een Nederlandstalig artikeltje:

nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...

Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?

March of the Eagles


  • rapture
  • Registratie: Februari 2004
  • Laatst online: 10:23

rapture

Zelfs daar netwerken?

XWB schreef op woensdag 3 september 2025 @ 20:46:
En een Nederlandstalig artikeltje:

nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...

Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?
Doet mij denken aan de Nvidia strategie in het begin versus 3dfx.
  • Nvidia had de focus op de OEM's gezet. Zorg dat de leken in hun Dell, HP,... PC's een Nvidia grafische kaart hebben. Zo kregen ze stabiele continue omzet en winst ongeacht wat de gamers, reviewers,... ervan vinden en wie de performancekroon heeft. Zie ook de mensen die default Intel kiezen of Intel voorgeschoteld krijgen.
  • 3dfx had een AIB (bedrijf die losse chips koopt en grafische kaarten ervan maakt) opgekocht en wou de marges van de AIB's voor zichzelf houden. Een groot deel van hun distributienetwerk buitengooien.
Nvidia moet wel idioot veel grafische kaarten aan de OEM's leveren.

Als ik naar afdankertjes bij klanten kijk, dat zijn veel Quadro's met 4 mini-DisplayPort uitgangen om meerdere schermen aan te sturen en/of video decoding.

Het is een vertekend beeld als deze kaarten in zakelijke computers meetellen.
Afbeeldingslocatie: https://blog.pny.com/hubfs/T-Series-Blog-main-list-view.jpg

Voor ons begint een budget grafische kaart met minstens 1x 8-pin PCIe connector en rond 150W TDP? Beetje mid-end grafische kaart stookt toch rond 300W, heeft 3 fans, is 3-slot dik en langer dan een liniaal (30cm).

  • meljor
  • Registratie: November 2004
  • Laatst online: 03-02 16:51
XWB schreef op woensdag 3 september 2025 @ 20:46:
En een Nederlandstalig artikeltje:

nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...

Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?
Dominant zijn in de highend helpt ook altijd. 5070ti is lichtelijk beter (ook duurder), 5080 kent geen concurrentie en 5090 zit compleet op een eigen eiland.....
AMD had net even wat scherper moeten prijzen nog nu ze een redelijke kans hadden in het midden segment. In plaats daarvan bieden ze wederom een fractie mindere kaarten voor een fractie lagere prijs. Not good enough.

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Ik blijf me afvragen hoeveel dat hoge segment uitmaakt. En ja ik weet dat mensen zeggen dat als je daar de kroon hebt, mensen ook mindere kaarten van je gaan kopen, maar is dat echt zo'n groot effect?

Algemeen op het internet is het toch voor een link gedeelte "pro AMD", als je ook kijkt naar Youtube influencers, maar ook een Tweakers was veel enthousiaster over de AMD kaarten als de Nvidia. En toch doet Nvidia het gewoon veel beter. Misschien gedeeltelijk omdat er heel hard geklaagd wordt op de prijs van Nvidia, maar niet op de performance (ook al is het natuurlijk gelinkt aan elkaar). Onder de streep is AMD ook de underdog, maar ze blijven voor de "€50 minder voor zelfde performance" strategie gaan. En eerlijk is eerlijk, vraag is als ze €150 goedkoper gaan of Nvidia dan niet ook gewoon de prijs meeverlaagt. Al zou ik ook denken dat die liever een ~80% marktaandeel hebben: Meer dan zat zonder dat concurrentiewaakhonden het wel erg twijfelachtig gaan vinden.

  • meljor
  • Registratie: November 2004
  • Laatst online: 03-02 16:51
Sissors schreef op woensdag 3 september 2025 @ 23:20:
Ik blijf me afvragen hoeveel dat hoge segment uitmaakt. En ja ik weet dat mensen zeggen dat als je daar de kroon hebt, mensen ook mindere kaarten van je gaan kopen, maar is dat echt zo'n groot effect?

Algemeen op het internet is het toch voor een link gedeelte "pro AMD", als je ook kijkt naar Youtube influencers, maar ook een Tweakers was veel enthousiaster over de AMD kaarten als de AMD. En toch doet Nvidia het gewoon veel beter. Misschien gedeeltelijk omdat er heel hard geklaagd wordt op de prijs van Nvidia, maar niet op de performance (ook al is het natuurlijk gelinkt aan elkaar). Onder de streep is AMD ook de underdog, maar ze blijven voor de "€50 minder voor zelfde performance" strategie gaan. En eerlijk is eerlijk, vraag is als ze €150 goedkoper gaan of Nvidia dan niet ook gewoon de prijs meeverlaagt. Al zou ik ook denken dat die liever een ~80% marktaandeel hebben: Meer dan zat zonder dat concurrentiewaakhonden het wel erg twijfelachtig gaan vinden.
Zijn al generaties lang "de beste" dus dat werkt wel door. Verder zijn er veel mensen die alleen maar een "GeForce" kopen want dat is goed

Net als de "pentium" nog steeds sterk is qua bekendheid. Velen kopen zelfs nu nog liever een Intel dan een Amd want Amd was altijd zo "slecht".

Zulke dingen hebben dus sowieso tijd nodig maar je moet ergens beginnen met een extreem goede indruk, en daar slaagt Amd steeds niet in door domweg teveel achter Nvidia aan te hobbelen.

Persoonlijk kijk ik vooral naar functies, bang for buck en de fuckups in het verleden.

Zo hoef ik voorlopig geen Intel na 13th/14th gen gepruts.
Geen Asrock borden voorlopig na am4 vrm's en am5 dode cpu's.
En Nvidia wil ook graag op mijn lijstje vanwege gesmolten connectors, black screens en de driver problemen van afgelopen maanden.

Had Amd high end gehad dan had ik gewoon weer Amd gekocht deze gen. Is mij altijd prima bevallen qua cpu's en gpu's (tot nu toe).

[ Voor 13% gewijzigd door meljor op 04-09-2025 12:55 ]


  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 05-02 14:55
Sissors schreef op woensdag 3 september 2025 @ 23:20:
Ik blijf me afvragen hoeveel dat hoge segment uitmaakt. En ja ik weet dat mensen zeggen dat als je daar de kroon hebt, mensen ook mindere kaarten van je gaan kopen, maar is dat echt zo'n groot effect?

Algemeen op het internet is het toch voor een link gedeelte "pro AMD", als je ook kijkt naar Youtube influencers, maar ook een Tweakers was veel enthousiaster over de AMD kaarten als de AMD. En toch doet Nvidia het gewoon veel beter. Misschien gedeeltelijk omdat er heel hard geklaagd wordt op de prijs van Nvidia, maar niet op de performance (ook al is het natuurlijk gelinkt aan elkaar). Onder de streep is AMD ook de underdog, maar ze blijven voor de "€50 minder voor zelfde performance" strategie gaan. En eerlijk is eerlijk, vraag is als ze €150 goedkoper gaan of Nvidia dan niet ook gewoon de prijs meeverlaagt. Al zou ik ook denken dat die liever een ~80% marktaandeel hebben: Meer dan zat zonder dat concurrentiewaakhonden het wel erg twijfelachtig gaan vinden.
Hoger segment geeft bragging rights en dat zien toch best veel mensen. Heel veel reviews nemen vaak de uiterste producten mee in de test. Daarom zie je heel vaak de 5090 en ook de 9800X3D en bijna iedereen kent ze wel. Nvidia is voor de minder bekende dus de snelste.

Maar in de praktijk is het volgens mij eerder een combinatie van factoren:
(let op dit is puur mijn mening, niet een feitenlijst)

Stabiliteit en vertrouwen
Bij Nvidia weet je dat je elke generatie een complete line-up hebt van high tot low end. Bij AMD is het elke generatie weer afwachten of ze überhaupt wel een high end zullen uitbrengen.

First to market
Nvidia legt al generaties lang de lat en AMD wacht constant met releasen om te kunnen antwoorden op Nvidia. Namen en prijzen worden soms kort voor lancering aangepast. Kortom, ze vertrouwen zelf niet in hun eigen producten en willen koste wat kost Nvidia kunnen counteren.

Naam en naamgeving
Geforce + hoger nummer = superduidelijk. Je weet gelijk over welke generatie het gaat en het tweede deel laat duidelijk zien in welke stack je koopt. AMD maakt hier geregeld een zooi van door weer de gehele naamgeving op de schop te gooien. Soms nog erger, spelen met het tweede deel van de cijfers om sneller te lijken (RX 7000)

Architectuur
Velen lopen geregeld te klagen dat Nvidia weinig verandert, maar de praktijk laat zien dat Nvidia het nooit echt laat afweten en altijd meedoet in rauwe prestaties. AMD doet haar best om elke generatie weer het wiel opnieuw uit te vinden en alles om te gooien. Deze is om nog een reden belangrijk.....

....Drivers prestaties
Bij Nvidia zitten de prestaties bij release vaak al dicht tegen het plafond en AMD groeit vaak meer. AMD heeft waarschijnlijk veel meer gedoe om haar drivers op orde te krijgen vanwege de constante wijzigingen in architectuur. Sommige noemen het fine-wine, ik noem het too little too late

Tools en features
Dit is meer van de laatste 10 jaar, maar Nvidia loopt tegenwoordig gewoon constant weg bij AMD als het gaat om features. Nvidia dicteert letterlijk wat AMD gaat doen en tegen de tijd dat ze bij zijn brengt Nvidia de volgende feature set uit die AMD hoofdpijn geeft.

Als AMD echt stappen wil maken op de PC markt dan zullen ze fors moeten investeren. Ik denk echter dat de PC markt meer een extraatje is geworden om wat meer inkomsten te genereren vanuit de R&D bij console chips. Ze produceren momenteel gewoon te weinig Radeon chips om marktaandeel af te pakken en alles wat ze op de markt brengen gaat met een bak slechte marketing.

  • Yaksa
  • Registratie: December 2008
  • Laatst online: 09:06
Sissors schreef op woensdag 3 september 2025 @ 23:20:
Ik blijf me afvragen hoeveel dat hoge segment uitmaakt. En ja ik weet dat mensen zeggen dat als je daar de kroon hebt, mensen ook mindere kaarten van je gaan kopen, maar is dat echt zo'n groot effect?

Algemeen op het internet is het toch voor een link gedeelte "pro AMD", als je ook kijkt naar Youtube influencers, maar ook een Tweakers was veel enthousiaster over de AMD kaarten als de Nvidia. En toch doet Nvidia het gewoon veel beter. Misschien gedeeltelijk omdat er heel hard geklaagd wordt op de prijs van Nvidia, maar niet op de performance (ook al is het natuurlijk gelinkt aan elkaar). Onder de streep is AMD ook de underdog, maar ze blijven voor de "€50 minder voor zelfde performance" strategie gaan. En eerlijk is eerlijk, vraag is als ze €150 goedkoper gaan of Nvidia dan niet ook gewoon de prijs meeverlaagt. Al zou ik ook denken dat die liever een ~80% marktaandeel hebben: Meer dan zat zonder dat concurrentiewaakhonden het wel erg twijfelachtig gaan vinden.
Misschien wel dezelfde performance in games, maar er zijn ook mensen die iets anders met hun PC doen waar Nvidia kaarten beter in zijn.
Bovendien maken veel mid- en highend AMD kaarten nog gebruik van GDDR6 geheugen, daar waar NVidia al overgestapt is op GDDR7 geheugen wat een 2x zo hoge data transfer kan halen. Voor sommige toepassingen is dat een voordeel.

Only two things are infinite, the universe and human stupidity, and I'm not sure about the former


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01-01 15:58
XWB schreef op woensdag 3 september 2025 @ 20:46:
En een Nederlandstalig artikeltje:

nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...

Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?
De top 10 bij Newegg laat toch vooral AMD zien voor de DIY markt: https://www.newegg.com/d/...o-Graphics-Device/c/ID-38
rapture schreef op woensdag 3 september 2025 @ 22:00:
[...]

Doet mij denken aan de Nvidia strategie in het begin versus 3dfx.
  • Nvidia had de focus op de OEM's gezet. Zorg dat de leken in hun Dell, HP,... PC's een Nvidia grafische kaart hebben.
Dit is een van de redenen. De bestellingen van Dell, HP, etc. zorgen voor een constante stroom units.

Er is nog een reden waarom de AMD kaarten niet in de cijfers van Jon Peddie opduiken, en dat is als ze gratis verkocht worden aan AIB partners. Jon Peddie kijkt alleen naar de omzet, deelt dit door de gemiddelde stuksprijs (groothandel kostprijs, niet de verkoopprijs) en berekent zo de aantallen. Als er flinke kortingen worden gegeven, betekent dat bij Jon Peddie minder aantallen.

Laat AMD nou net op Radeon nog wat korting verplichtingen hebben overgehouden aan de RX7000 series. Belofte maakt schuld.

Steam hardware survey is helaas ook vertekend door de wereldwijde internet cafe's: elke Steam gebruiker die in en uitlogt op zo'n PC vaak met een Nvidia kaart, geeft Nvidia door. Ik heb ook deze maand een Steam survey gekregen: 2,5 jaar nadat ik m'n PC gebouwd had (met AMD CPU + GPU). Er zijn waarschijnlijk meer PC gamers zonder eigen game PC, dan met.

Gerucht: volgens AMD's eigen interne getallen (leaks) is de "gaming market share" van 15% RDNA3 naar 22% RDNA4 gegaan.
YouTube: RX 9070 GRE 16GB Specs Leak, AMD FSR 4 on RDNA 3, Nvidia RTX 5080 & ...

Maar zelfs al zou het 6% zijn: het zal niet naar 0% gaan, en het zal waarschijnlijk geen invloed op de consumenten prijzen hebben. In het kort:
  • De investeringskosten voor AMD zijn te laag om niet met Radeon door te gaan. Dit komt omdat ze al moeten investeren in AI en consoles. Radeon gaat dus niet wegvallen.
  • Een hoger volume Radeon kaarten gaat er niet voor zorgen dat prijzen omlaag gaan voor DIY consumenten. Dat hebben we in de afgelopen 10 jaar ook niet gezien. Zelfs toen het 60%-40% was, bleven de bruto marges van Nvidia dik 50%.
(meer detail: https://gathering.tweakers.net/forum/view_message/83339698)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Interessante ontwikkelingen. Ben er nog niet uit of ik deze financial entanglement nu zo'n fijn idee vind.

NVIDIA's $5B Intel Investment Reveals x86-GPU NVLink Project

NVIDIA Buys $5B Worth of Intel, RTX iGPUs Coming to x86

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 05-02 14:55
Vinden we het wel een fijn idee als hun grootste concurrenten zowel GPU als CPU's maken?

Ik snap de zorgen, maar gelijktijding is deze stap wel vanuit Nvidia's perspectief compleet begrijpelijk. Ze proberen al wat jaren in cpu voet aan de grond te krijgen om niet afhankelijk te zijn van AMD/Intel. Ik mag alleen maar hopen dat we straks niet een situatie gaan krijgen waarin de keuze voor Nvidia verplicht Intel te nemen en hetzelfde bij AMD. De crux voor Nvidia zit in de datacenter in deze keuze. Als AMD het ooit gaat proberen om Nvidia te excluden door hun GPU aan de CPU divisie te koppelen in één pakket, dan zou Nvidia letterlijk buitenspel gezet worden. Mocht Intel echt wegvallen, dan zou dit letterlijk de deur opengooien voor AMD en dat moeten we ook niet willen.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • emeralda
  • Registratie: Maart 2024
  • Laatst online: 27-10-2025
XWB schreef op woensdag 3 september 2025 @ 20:46:
En een Nederlandstalig artikeltje:

nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...

Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?
Die reviews gaan er altijd vanuit dat mensen iedere generatie een nieuwe GPU kopen.

Ik ben van een 3060 naar een 5080 gegaan dus ik was wel enthousiast.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:11
emeralda schreef op dinsdag 30 september 2025 @ 11:50:
[...]


Die reviews gaan er altijd vanuit dat mensen iedere generatie een nieuwe GPU kopen.

Ik ben van een 3060 naar een 5080 gegaan dus ik was wel enthousiast.
Dat denk ik niet zo zeer, de meeste reviewers weten best dat mensen vaak pas na een jaar of 5 upgraden gemiddeld gezien, en benoemen dat ook vrij vaak.

Wat je echter natuurlijk wel ziet is dat in een review de directe voorganger wel over het algemeen 'de benchmark' is om mee te vergelijken, met daarnaast de directe concurrentie (als deze er is). Wat ook logisch is, immers daarmee laat je zien wat de gen on gen verbetering is, en wat de concurrentie ertegen overzet.

Ik zou van een 3060 naar een 5080 persoonlijk ook wel enthousiast worden, maar dat zal je denk ik altijd wel hebben als je van een €300 budget GPU naar een €1059+ GPU gaat en dan de performance upgrade ziet, zeker als je ook een scherm hebt dat eer doet aan de nieuwe GPU. Echter dat laat zich natuurlijk in een review ook lastiger vergelijken, je stapt immers met die 5080 een compleet ander segment in.

Van een 3060 naar een 5060 was je mogelijk een stuk minder enthousiast geweest, omdat je dan gemiddeld genomen 'maar' 44% omhoog gaat in performance (over 2 generaties, wat vrij matig is), je ineens met een 8GB kaart zit, wat er voor zorgt dat in bepaalde titels de 3060 sneller kan / een betere spelervaring geeft dan de 5060 en er ook geen echte prijsdaling te zien is in dat segment, dat zou compenseren voor de matige performance uplift over 2 generaties.

[ Voor 16% gewijzigd door Dennism op 30-09-2025 12:11 ]


  • emeralda
  • Registratie: Maart 2024
  • Laatst online: 27-10-2025
Als je kijkt naar DLSS4 is er best wel veel vooruitgang geboekt.

Ik was ooit in eind jaren 90 ook al een paar jaar PC gamer. Zo snel als toen zal het nooit meer gaan.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-02 13:42
emeralda schreef op zaterdag 4 oktober 2025 @ 12:13:
Als je kijkt naar DLSS4 is er best wel veel vooruitgang geboekt.
De upscalers/interpolators (DLSS, FSR, XESS) zijn geen vooruitgang, niet qua graphics rendering. Performance is niet beter, er wordt juist minder werk gedaan. De rekeneenheden die daarvoor gebruikt worden zijn ook niet nuttig voor daadwerkelijk renderen.

Die dingen zijn pleisters op een wonde en verhullen enkel het gebrek aan vooruitgang. Het is genereren van pixels/frames, niet rendering.
Ik was ooit in eind jaren 90 ook al een paar jaar PC gamer. Zo snel als toen zal het nooit meer gaan.
Jawel hoor. We zitten nog steeds op eerste generatie RT hardware; wat de GPU's nu doen is niet meer dan 7 jaar geleden toen de geforceerde transitie naar gedeeltelijke RT in werd gezet. Zodra één van de drie eindelijk uit vogelt hoe ze meer van het RT werk op de GPU kunnen doen zodat het schaalbaar wordt, zullen we een grote sprong zien - dan zullen we simultaan betere prestaties én beeldkwaliteit krijgen. Die stap zal minstens zo groot zijn als T&L toentertijd, zoniet groter.

Dat laatste klinkt wellicht tegenstrijdig, maar RT kan nu al prestatiewinst opleveren. Met name op soft shadows zijn er talloze situaties waar je via RT sneller klaar bent, vooral bij vele kleine objecten in een scène. Denoisers komen we niet vanaf, dat zal nog heel lang duren. Maar de huidige afhankelijkheid van de CPU wel, er wordt veel te veel aan de CPU kant gedaan om daadwerkelijk winst te boeken aan de GPU kant. En als het dan eenmaal op de GPU zit, wordt er ontiegelijk veel werk tienduizenden keren dubbel uitgevoerd omdat er geen coherency is. Als ze dat eindelijk in hardware doen, zullen er een hoop shaders niet meer nodig zijn en overgeslagen worden.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01-01 15:58
Werelds schreef op maandag 6 oktober 2025 @ 09:48:
[...]

De upscalers/interpolators (DLSS, FSR, XESS) zijn geen vooruitgang, niet qua graphics rendering. Performance is niet beter, er wordt juist minder werk gedaan. De rekeneenheden die daarvoor gebruikt worden zijn ook niet nuttig voor daadwerkelijk renderen.

Die dingen zijn pleisters op een wonde en verhullen enkel het gebrek aan vooruitgang. Het is genereren van pixels/frames, niet rendering.


[...]

Jawel hoor. We zitten nog steeds op eerste generatie RT hardware; wat de GPU's nu doen is niet meer dan 7 jaar geleden toen de geforceerde transitie naar gedeeltelijke RT in werd gezet. Zodra één van de drie eindelijk uit vogelt hoe ze meer van het RT werk op de GPU kunnen doen zodat het schaalbaar wordt, zullen we een grote sprong zien - dan zullen we simultaan betere prestaties én beeldkwaliteit krijgen. Die stap zal minstens zo groot zijn als T&L toentertijd, zoniet groter.

Dat laatste klinkt wellicht tegenstrijdig, maar RT kan nu al prestatiewinst opleveren. Met name op soft shadows zijn er talloze situaties waar je via RT sneller klaar bent, vooral bij vele kleine objecten in een scène. Denoisers komen we niet vanaf, dat zal nog heel lang duren. Maar de huidige afhankelijkheid van de CPU wel, er wordt veel te veel aan de CPU kant gedaan om daadwerkelijk winst te boeken aan de GPU kant. En als het dan eenmaal op de GPU zit, wordt er ontiegelijk veel werk tienduizenden keren dubbel uitgevoerd omdat er geen coherency is. Als ze dat eindelijk in hardware doen, zullen er een hoop shaders niet meer nodig zijn en overgeslagen worden.
Eens dat DLSS 4 niet zoveel toevoegt aan DLSS 3.5, maar Ray Reconstruction (zo'n denoiser) is wel nice to have, juist voor die ray tracing workloads om toch net even een wat scherper beeld neer te zitten met minder gerenderde pixels en meer performance. Is dat ook niet het hele idee van upscaling, minder pixels renderen, meer interpoleren?

Wat nu nog teveel op CPU gedaan wordt, is BVH + ray coherence? De ray tracing van RDNA 4 is al stukken beter, en AMD breidt nog steeds de shaders uit voor ray tracing functionaliteit. Lijkt een goede strategie, maar in de RDNA 5 willen ze ray tracing wel sterk verbeteren: hoe dan zonder BVH coherence sorting dedicated hardware? Meer BVH units? Dat is meer de brute force aanpak van Geforce, ook nog steeds niet next level ray tracing, toch?

https://blog.imaginationt...-it-will-mean-for-gaming/

Level 0 – Legacy Solutions
Level 1 – Software on Traditional GPUs
Level 2 – Ray/Box and Ray/Tri Testers in Hardware
Level 3 – Bounding Volume Hierarchy (BVH) Processing in Hardware
Level 4 – BVH Processing with Coherency Sorting in Hardware
Level 5 – Coherent BVH Processing with Scene Hierarchy Generator in Hardware

Level 3 zie ik wel in RDNA 4 en Blackwell (en zelfs Battlemage), Level 4 nog steeds niet echt.. of ik mis wat.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • SG
  • Registratie: Januari 2001
  • Laatst online: 06-02 19:02

SG

SG surft naar info hardewaren

Werelds schreef op maandag 6 oktober 2025 @ 09:48:
[...]

De upscalers/interpolators (DLSS, FSR, XESS) zijn geen vooruitgang, niet qua graphics rendering. Performance is niet beter, er wordt juist minder werk gedaan. De rekeneenheden die daarvoor gebruikt worden zijn ook niet nuttig voor daadwerkelijk renderen.

Die dingen zijn pleisters op een wonde en verhullen enkel het gebrek aan vooruitgang. Het is genereren van pixels/frames, niet rendering.


[...]

Jawel hoor. We zitten nog steeds op eerste generatie RT hardware; wat de GPU's nu doen is niet meer dan 7 jaar geleden toen de geforceerde transitie naar gedeeltelijke RT in werd gezet. Zodra één van de drie eindelijk uit vogelt hoe ze meer van het RT werk op de GPU kunnen doen zodat het schaalbaar wordt, zullen we een grote sprong zien - dan zullen we simultaan betere prestaties én beeldkwaliteit krijgen. Die stap zal minstens zo groot zijn als T&L toentertijd, zoniet groter.

Dat laatste klinkt wellicht tegenstrijdig, maar RT kan nu al prestatiewinst opleveren. Met name op soft shadows zijn er talloze situaties waar je via RT sneller klaar bent, vooral bij vele kleine objecten in een scène. Denoisers komen we niet vanaf, dat zal nog heel lang duren. Maar de huidige afhankelijkheid van de CPU wel, er wordt veel te veel aan de CPU kant gedaan om daadwerkelijk winst te boeken aan de GPU kant. En als het dan eenmaal op de GPU zit, wordt er ontiegelijk veel werk tienduizenden keren dubbel uitgevoerd omdat er geen coherency is. Als ze dat eindelijk in hardware doen, zullen er een hoop shaders niet meer nodig zijn en overgeslagen worden.
Dit doet mij denken aan 1st generaties met hardware T&L dus fixed hardware voor specifiek acceleratie. Dat is dus later vervangen door meer general purpouse shaders die elke gen steeds krachtiger werden.
Het aantal schaders is nu zo groot dat halo gpu zo veel shaders heeft dat 1080P vs 1440p de shaders niet kan verzadigen. En dat houd in dat mogelijk is de RT en of tensor welke het minste inneemt kwa real estate onderdeel kan worden van schader. Want bij nog meer dieshrinks en ver dubbeling van shaders zal 1440p niet genoeg zijn om shader aantallen te verzadigen. Dus de nextstep kan zijn dat vooral RT naar shader verhuist dan krijg je enorme hoeveelheid aan RT compute en dat mogelijk full RT mogelijk kan zijn . Zal de shader flink groter maken kwa transistor count maar apart RT cores vervallen ook als AI ook nog erbij kan, vervallen die ook.
Doet mij denken aan larabee wat mogelijk 8 generaties te vroeg is. Maximaal generalpurpouse. Maar met te laag aantal. Voor RT en AI zul je toch wat extenties ook in hardware moeten hebben om dat hardware matig te versnellen. Kan zijn dat RT en AI core met matrix compute nogal wat registers heeft en compute units dat krengen groot maakt dat mogelijk niet gaat. Als dat shaders dan reduceerd naar 1/5 of zelfs 1/10 dat shaders dan enorm worden. Want dat was larabee probleem generalpurpuse lever je fix hardware performance in vs flexibiliteit. General purpouse stap was toen enorm. Maar meestal volgt hardware gamedev de,and en API door feedback onderling waar api en hardware en games mee tot stand komen. Gpu bakker kan wel wat features pushen. Maar dan krijg kip en ei probleem. Bijna monopool kan dat met eco systeem RT en AI features. Waar de markten concurrentie na 3gen rtx volgen zelfs apple silicon. Gpu cores

Ben dus benieuwt wat RTX 7000 8000 9000 x000 gaat brengen.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-02 13:42
sunsmountain schreef op donderdag 9 oktober 2025 @ 01:05:
Eens dat DLSS 4 niet zoveel toevoegt aan DLSS 3.5, maar Ray Reconstruction (zo'n denoiser) is wel nice to have, juist voor die ray tracing workloads om toch net even een wat scherper beeld neer te zitten met minder gerenderde pixels en meer performance. Is dat ook niet het hele idee van upscaling, minder pixels renderen, meer interpoleren?
Ja, maar dat zou niet nodig moeten zijn voor met name het raster deel. RT is vaak ook nauwelijks beter dan baked lighting kan zijn.
Wat nu nog teveel op CPU gedaan wordt, is BVH + ray coherence? De ray tracing van RDNA 4 is al stukken beter, en AMD breidt nog steeds de shaders uit voor ray tracing functionaliteit. Lijkt een goede strategie, maar in de RDNA 5 willen ze ray tracing wel sterk verbeteren: hoe dan zonder BVH coherence sorting dedicated hardware? Meer BVH units? Dat is meer de brute force aanpak van Geforce, ook nog steeds niet next level ray tracing, toch?
Ja, dat is wat mist en nee, dat is niet hoe Nvidia het aan pakt. Nvidia's aanpak is vooral meer RT cores er tegenaan gooien zodat ze meer hits kunnen testen, maar daar is het bij gebleven. De enige daadwerkelijke verbetering die er sinds de Turing release in zit is SER, maar dat is een opt-in shader en is vooral een optimalisatie voor scheduling. Werkt ook niet op alle GPU's, als er niet genoeg L2$ beschikbaar is (ten opzichte van het aantal SM's en dus RT cores - ironisch genoeg de 4090 bijvoorbeeld) heeft het geen effect - het kan zelfs nadelig werken en stalls veroorzaken. Ik heb daar een tijd geleden al eens iets over gepost.

AMD is sowieso al flexibeler qua scheduling en hun optimalisaties zijn vooral op geheugen (cache, niet VRAM) gebruik gericht geweest, naast meer hits/clock te kunnen doen.

Wat AMD gaat doen weet ik niet, wel durf ik te stellen dat zij in de beste positie zitten om uit te breiden. Qua raster prestaties zijn we al lang voorbij waar meer units iets doet. Dat heb ik ook al vaak zat gezegd, de sweet spot lijkt voor beide tussen de 60 en 80 CU's/SM's te liggen op dat vlak, en rasterisation gaat altijd nodig zijn. Door AMD's architectuur kunnen zij eenvoudiger het huidige ontwerp nemen en dingen toevoegen, omdat ze data beter rond kunnen pompen. Omdat we nog steeds op Turing+ zitten bij Nvidia, moeten zij een veel grotere wijziging doorvoeren. Vergeet niet dat RT alsnog pixel shaders vereist (hits testen is leuk en aardig, maar een pixel moet toch nog een kleurtje krijgen), dus door de manier waarop hun SM's in elkaar steken en hoe hun geheugen hiërarchie werkt zijn ze heel erg beperkt. RT is veel meer een big-picture dingetje dan raster is.
Ze hebben die whitepaper al een paar keer geüpdated, we zitten nu op 3.5: thread coherency sorting, maar dat is gelokaliseerde coherency. Maar dat deed Turing al. SER werkt op Turing ook, heeft enkel geen impact door een gebrek aan cache. Alle generaties er na hebben opt-in optimalisaties toegevoegd, maar geen hardware capabiliteiten. Zelfde geldt voor AMD. We zitten al 7 jaar op level 3, 3.5 komt nu mondjesmaat door omdat het een opt-in dingetje is.
SG schreef op donderdag 9 oktober 2025 @ 07:18:
Dus de nextstep kan zijn dat vooral RT naar shader verhuist dan krijg je enorme hoeveelheid aan RT compute en dat mogelijk full RT mogelijk kan zijn .
1: "full RT" gaat nog tientallen jaren duren; waarbij "full" ook altijd relatief zal zijn, want je kunt per definitie altijd net iets preciezere resultaten krijgen. RT heeft geen bovenlimiet. "Full" betekent hier "genoeg rays zodat een denoiser niet essentieel is".
2: Nee, zo werkt dat niet. De schakeling naar unified "shaders" was omdat er steeds meer logica kwam om pixels te kleuren, waarbij er een serie instructies uitgevoerd kon worden die allemaal vrij simpel van aard zijn en voor elke pixel uitgevoerd moeten worden, maar met andere data - dat is waar SIMD voor staat: single instruction, multiple data. RT is complexer en heeft juist wél weer een fixed pipeline nodig (heb ik ook al eerder gezegd). Dat verhuis je niet zomaar naar de FP32 ALU's. Voor RT kun je ook toe met minder ALU's per "test", dus de verhoudingen zijn compleet anders. Alle 3 de fabrikanten gebruiken hun SIMD's ook voor RT, het probleem is dat dat proces elke keer opnieuw uitgevoerd wordt door een gebrek aan coherency.
Doet mij denken aan larabee wat mogelijk 8 generaties te vroeg is.
Enkele ideeën van Larrabee zouden wel nuttig kunnen zijn, maar nee, die aanpak zou ook niet te doen zijn. Zou veel te groot moeten worden.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01-01 15:58
Werelds schreef op donderdag 9 oktober 2025 @ 11:50:
[...]

Ja, maar dat zou niet nodig moeten zijn voor met name het raster deel. RT is vaak ook nauwelijks beter dan baked lighting kan zijn.
Dus native raster zou net zo snel kunnen zijn als upscaled raster, tenminste wanneer het om RT games gaat (immers RT is dan de bottleneck)? Eens dat baked lighting vaak heel goed kan zijn, maar dat komt ook omdat de meeste RT implementaties niet volledig zijn (global illumination benadering, geen path tracing of oneindig aantal lichtbronnen, etc.).
Werelds schreef op donderdag 9 oktober 2025 @ 11:50:
Ja, dat is wat mist en nee, dat is niet hoe Nvidia het aan pakt. Nvidia's aanpak is vooral meer RT cores er tegenaan gooien zodat ze meer hits kunnen testen, maar daar is het bij gebleven. De enige daadwerkelijke verbetering die er sinds de Turing release in zit is SER, maar dat is een opt-in shader en is vooral een optimalisatie voor scheduling. Werkt ook niet op alle GPU's, als er niet genoeg L2$ beschikbaar is (ten opzichte van het aantal SM's en dus RT cores - ironisch genoeg de 4090 bijvoorbeeld) heeft het geen effect - het kan zelfs nadelig werken en stalls veroorzaken. Ik heb daar een tijd geleden al eens iets over gepost.
Ik neem dat je Shader Execution Reordering bedoelt, dat klinkt in de buurt van coherency sorting, maar net niet, vandaar de level "3,5" waarschijnlijk. Eens dat verbeteringen in cache en register geheugen wel dichter bij level 4 en 5 kunnen komen, omdat elke ray tracing geometrie / game scene weer net even anders is, anders gezegd ik zou niet weten hoe een hardware "Full Coherency Sorting" of "Scene Hierarchy Generator" er uit zou moeten zien, want elke willekeurige verzameling rays in een game scene is denk ik te verschillend.
Werelds schreef op donderdag 9 oktober 2025 @ 11:50:
AMD is sowieso al flexibeler qua scheduling en hun optimalisaties zijn vooral op geheugen (cache, niet VRAM) gebruik gericht geweest, naast meer hits/clock te kunnen doen.

Wat AMD gaat doen weet ik niet, wel durf ik te stellen dat zij in de beste positie zitten om uit te breiden. Qua raster prestaties zijn we al lang voorbij waar meer units iets doet. Dat heb ik ook al vaak zat gezegd, de sweet spot lijkt voor beide tussen de 60 en 80 CU's/SM's te liggen op dat vlak, en rasterisation gaat altijd nodig zijn. Door AMD's architectuur kunnen zij eenvoudiger het huidige ontwerp nemen en dingen toevoegen, omdat ze data beter rond kunnen pompen. Omdat we nog steeds op Turing+ zitten bij Nvidia, moeten zij een veel grotere wijziging doorvoeren. Vergeet niet dat RT alsnog pixel shaders vereist (hits testen is leuk en aardig, maar een pixel moet toch nog een kleurtje krijgen), dus door de manier waarop hun SM's in elkaar steken en hoe hun geheugen hiërarchie werkt zijn ze heel erg beperkt. RT is veel meer een big-picture dingetje dan raster is.
Aan de top wel ja, ga je bijvoorbeeld in Battlefield 6 van een 5080 naar een 5090, met meer dan dubbel zoveel motortjes (SM 80 -> 176) gaat de fps op 4k overkill van 70 naar maar 115 fps.
Maar de andere kant op merk je het verschil in motortjes wel, neem je de 5060 Ti met 38 SM motortjes (ietsje minder dan de helft), dan halveert je fps ook gewoon naar 35 fps, bij dezelfde settings, t.o.v. de 5080.

Goed om te horen dat AMD's investeringen in de gedeelde cache voor WGP's, unified register / instruction cache, en infinity cache een mogelijk voordeel gaan geven voor Ray Tracing, ze kunnen het goed gebruiken met hun naar verluid 6% markt aandeel in nieuwe dGPU shipments (Jon Peddie Research).
Werelds schreef op donderdag 9 oktober 2025 @ 11:50:
Ze hebben die whitepaper al een paar keer geüpdated, we zitten nu op 3.5: thread coherency sorting, maar dat is gelokaliseerde coherency. Maar dat deed Turing al. SER werkt op Turing ook, heeft enkel geen impact door een gebrek aan cache. Alle generaties er na hebben opt-in optimalisaties toegevoegd, maar geen hardware capabiliteiten. Zelfde geldt voor AMD. We zitten al 7 jaar op level 3, 3.5 komt nu mondjesmaat door omdat het een opt-in dingetje is.
Ik zie het inderdaad, ze hebben level 3, 4 en 5 gewijzigd:

Afbeeldingslocatie: https://tweakers.net/i/E9jS0uYG_huJ5KOM4ITDtaJlwd4=/800x/filters:strip_exif()/f/image/nOctv1LngWR6N53CGeQxrgzT.png?f=fotoalbum_large

Level 3 – Bounding Volume Hierarchy (BVH) Processing in Hardware
->
Level 3 – BVH traversal
Level 3,5 – BVH traversal and thread coherency sorting

Level 4 – BVH Processing with Coherency Sorting in Hardware
->
Level 4 – BVH traversal with full coherency sorting

Level 5 – Coherent BVH Processing with Scene Hierarchy Generator in Hardware
->
Level 5 – BVH traversal, BVH builder and full coherency sorting

Dat is al wat concreter dan Scene Hierarchy Generator :P
Toch geven ze van level 4 en 5 geen RL Data Flow diagrammen, waarschijnlijk het geheim van de smid en als je hun product koopt, krijg je dat "ingebakken" mee.

Je zou nog kunnen zeggen dat "Mega Geometry" in Blackwell en Nanite in UE5 pogingen zijn tot een BVH builder, zij het softwarematig. RDNA 4 met zijn "Oriented Bounding Boxes" en de kleinere footprint van BVH, verbetert de BVH wel, maar is daar nog geen poging toe. Maar ik geloof dat ze wel iets vergelijkbaars proberen met een Dense Geometry Format (DGF).

Full coherency sorting hebben ze nog geen van allen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-02 13:42
sunsmountain schreef op donderdag 9 oktober 2025 @ 23:54:
Dus native raster zou net zo snel kunnen zijn als upscaled raster, tenminste wanneer het om RT games gaat (immers RT is dan de bottleneck)?
Voor raster zitten we al heel lang tegen een scalability limiet aan. De render technieken voor raster veranderen niet meer, wat betekent dat het parallelisme tegen een muur aan loopt. Kijk maar eens naar de resultaten over de generaties heen, vooral bij Nvidia. Sweet spot loopt van 4k tot zo'n 6k FP32 ALU's. Exacte aantal verschilt tussen groen, rood en blauw door de SIMD grootte en indeling, maar zelfs bij ~6k ALU's zie je al verminderd rendement. Vergelijk de resultaten tussen die GPU's en de GPU's er omheen maar eens, vooral kijkend naar de prestaties op verschillende resoluties - en zet dat dan af tegen theoretische rekenkracht. De grotere GPU's van Nvidia zetten simpelweg geen zoden aan de dijk. Schaalt simpelweg niet meer.

Waarom? De render technieken kunnen simpelweg niet in zo'n niveau van parallelisme voorzien. En dat rest ons met slechts één factor waar raster momenteel sneller mee kan worden: kloksnelheid. En rara, wat zien we wanneer er geen kloksnelheid winst is? Teleurstelling, zoals met Blackwell.
Eens dat baked lighting vaak heel goed kan zijn, maar dat komt ook omdat de meeste RT implementaties niet volledig zijn (global illumination benadering, geen path tracing of oneindig aantal lichtbronnen, etc.).
Mja, dat ligt aan de beperkte hardware.
Ik neem dat je Shader Execution Reordering bedoelt, dat klinkt in de buurt van coherency sorting, maar net niet, vandaar de level "3,5" waarschijnlijk. Eens dat verbeteringen in cache en register geheugen wel dichter bij level 4 en 5 kunnen komen, omdat elke ray tracing geometrie / game scene weer net even anders is, anders gezegd ik zou niet weten hoe een hardware "Full Coherency Sorting" of "Scene Hierarchy Generator" er uit zou moeten zien, want elke willekeurige verzameling rays in een game scene is denk ik te verschillend.
Sorry, dat bedoelde ik inderdaad. Vergeten de afkorting uit te leggen :p

Maar ja, dat is wat 3,5 is - thread coherency sorting, maar enkel binnen een enkele workload (een SM). Verder dan dat vereist nieuwe hardware. Je moet de GPU dan alles zelf bij laten houden, wat nieuwe logica vereist en de juiste geheugen setup. Die data moet niet alleen beschikbaar zijn voor alle RT units, maar moet real-time beschikbaar zijn en coherent.
Aan de top wel ja, ga je bijvoorbeeld in Battlefield 6 van een 5080 naar een 5090, met meer dan dubbel zoveel motortjes (SM 80 -> 176) gaat de fps op 4k overkill van 70 naar maar 115 fps.
Maar de andere kant op merk je het verschil in motortjes wel, neem je de 5060 Ti met 38 SM motortjes (ietsje minder dan de helft), dan halveert je fps ook gewoon naar 35 fps, bij dezelfde settings, t.o.v. de 5080.
Precies dat. Onder de 60 clusters zie je nagenoeg lineaire schaling, boven de 80 gaat het hard achteruit en krijg je verminderd rendement.
Goed om te horen dat AMD's investeringen in de gedeelde cache voor WGP's, unified register / instruction cache, en infinity cache een mogelijk voordeel gaan geven voor Ray Tracing, ze kunnen het goed gebruiken met hun naar verluid 6% markt aandeel in nieuwe dGPU shipments (Jon Peddie Research).
Niet zo zeer dat hun opstelling nuttig is voor RT, het is meer dat hun opstelling van nature ze minder beperkt qua data rondpompen.
Toch geven ze van level 4 en 5 geen RL Data Flow diagrammen, waarschijnlijk het geheim van de smid en als je hun product koopt, krijg je dat "ingebakken" mee.
Nee, er is ergens een uitgebreider diagram, zal kijken of ik het kan vinden. Maar IT verkoopt tegenwoordig sowieso maar weinig, geen idee hoe ze nog bestaan :p
Je zou nog kunnen zeggen dat "Mega Geometry" in Blackwell en Nanite in UE5 pogingen zijn tot een BVH builder, zij het softwarematig.
Nee. Dat zijn optimalisaties om de BVH kleiner / efficiënter te maken (minder triangles én boxes om te testen). Qua hardware zit er hooguit iets voor decompressie in de RT core, de BVH wordt nog steeds niet op de GPU gebouwd of bijgehouden.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 01-01 15:58
Werelds schreef op vrijdag 10 oktober 2025 @ 11:56:
[...]

Nee. Dat zijn optimalisaties om de BVH kleiner / efficiënter te maken (minder triangles én boxes om te testen). Qua hardware zit er hooguit iets voor decompressie in de RT core, de BVH wordt nog steeds niet op de GPU gebouwd of bijgehouden.
Interessant hier is dat de nieuwe PS6 mogelijk wel dedicated AMD hardware gaat hebben voor de BVH (ze noemen het Ray traversal) bouwen en bijhouden:
YouTube: From Project Amethyst to the Future of Play: AMD and Sony Interactiv...

Om dit on topic Nvidia te houden: de CPU overhead bij Nvidia zou dan dus nog groter worden vergeleken met de concurrentie. Je hebt dan de DX12 calls en BVH op de CPU, tenzij Vera Rubin / RTX 6000 gaming GPU's verrassen. We'll see.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Steve nogal bearish over de pc / gpu consumer market. + de video start bij een slide met nogal insane numbers.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 03:51

Format-C

Tracing Rays

Dat er zoveel GPU's voor het/een leger gebruikt gaan worden is niet best.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX5090 Phantom/ Gbyte B650 GAMING PLUS/ 32GB G.Skill Z5 6000 CL30 / Team M2 1TB/ 990Pro M2 1TB/ MX500 1TB/ 5TB SATA / Gbyte WBAX200/ Corsair 1000w/ Scarlett Solo / AOC AG493UCX/ LG 65" OLED TV


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Help!!!! schreef op maandag 22 december 2025 @ 18:56:
Steve nogal bearish over de pc / gpu consumer market. + de video start bij een slide met nogal insane numbers.


[YouTube: NVIDIA: WTF?]
Het laat vooral zien dat Nvidia heer en meester is in de AI accelerator markt. Want dat Nvidia zo'n gigantische koper is van geheugen chips voor AI is niet omdat ze daarmee allemaal DLLS 5 gaan trainen, maar omdat ze die als complete oplossing doorverkopen aan hun klanten.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

- OPP program (nvidia AIB cashback om tegen msrp te kunnen verkopen) cancelled
- 5070Ti productie sterk gereduceerd tgv 5080


Der8auer


NVIDIA Ends "Open Price Program," Pushing GPUs Way Past MSRPs

[ Voor 51% gewijzigd door Help!!!! op 23-01-2026 13:56 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 03:51

Format-C

Tracing Rays

Ik zag gisteren in de HW Unboxed/ Moores law is dead collab podcast dat de beschikbaarheid van de gehele 5000 serie in 2026 zeeeeeer slecht zal zijn. De 5090 zal er nagenoeg niet zijn, de 5080 en 5070ti zeer slecht of niet verkrijgbaar. 5060ti 16gb niet verkrijgbaar....

Dus het wordt voor mensen die nog een 5000 kaart willen hebben lastig. Bijna onmogelijk.

Of heel duur.

[ Voor 20% gewijzigd door Format-C op 23-01-2026 11:55 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX5090 Phantom/ Gbyte B650 GAMING PLUS/ 32GB G.Skill Z5 6000 CL30 / Team M2 1TB/ 990Pro M2 1TB/ MX500 1TB/ 5TB SATA / Gbyte WBAX200/ Corsair 1000w/ Scarlett Solo / AOC AG493UCX/ LG 65" OLED TV


  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:11
Format-C schreef op vrijdag 23 januari 2026 @ 11:48:
Ik zag gisteren in de HW Unboxed/ Moores law is dead collab podcast dat de beschikbaarheid van de gehele 5000 serie in 2026 zeeeeeer slecht zal zijn. De 5090 zal er nagenoeg niet zijn, de 5080 en 5070ti zeer slecht of niet verkrijgbaar. 5060ti 16gb niet verkrijgbaar....

Dus het wordt voor mensen die nog een 5000 kaart willen hebben lastig. Bijna onmogelijk.

Of heel duur.

[YouTube: Nvidia RTX 50 Supply Lies, AMD RDNA 5 Strategy, Intel B770 | Hardware Unboxed | Broken Silicon 345]
Hou er wel rekening mee dat MLID een redelijk matig trackrecord* heeft als het over verkrijgbaarheid gaat. Ik zou er dus niet direct vanuit dat dit 100% klopt, in het filmpje hierboven geeft Der 8Auer bijvoorbeeld al weer aan dat 'bepaalde geruchten' (waarbij ik vermoed dat het gaat over de MLID leak) over verkrijgbaarheid niet kloppen.

*MLID riep hetzelfde tijdens bijvoorbeeld corona e.d. dat Nvidia toen veel minder supply had en wat niet meer. En dat AMD in het volume segment (RTX 3060 tegen ik meer de 6600XT uit mijn hoofd) veel meer zou leveren dan Nvidia en wat niet meer. Terwijl alle marktaandeel en install base cijfers eigenlijk exact het tegenovergestelde lieten zien de RTX 3060 was bijvoorbeeld razend populair en groeide relatief snel qua install base (en is volgens mij mogelijk nog steeds de meest gebruikte kaart in o.a. de Steam Survey), bij de RDNA 2 release zat AMD bijv. op +-17% markt aandeel, terwijl in het laatste kwartaal voor de RTX4000 / RDNA3 release ze nog maar 10% van de markt hadden.

Ik denk dat we minimaal de marktaandeel cijfers van Q1 2026 en mogelijk zelfs Q2 2026 moeten afwachten voordat we met enige zekerheid kunnen stellen dat deze stellingen van MLID kloppen. Hij geeft immers ook aan dat AMD volgens zijn leaks niet minder kaarten gaat maken dan geplanned (maar ook niet meer, wat logisch is gezien de geheugen problematiek). Als MLID's leaks dan zouden kloppen en Nvidia zou quasi niets meer produceren terwijl AMD hetzelfde volume zou verschepen zou je dan in Q1 / Q2 een scherpe stijging moeten zien van AMD's marktaandeel in die 3/6 maanden (meer dan een paar % de ene of de andere kant op zoals je nu eigenlijk ieder kwartaal ziet).

Het zal mijn inziens dus zeer interessant zijn om te zien of AMD ineens straks in 2026 echte stappen gaat zetten qua marktaandeel. Of dat, zoals in het verleden gebleken is, dat ondanks geruchten als deze, uiteindelijk het redelijk status quo blijft of Nvidia zelfs blijft groeien.

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 05-02 14:55
Sowieso altijd MLID vermijden als bron van waarheid. Hij heeft er al zo vaak ver vanaf gezeten dat het echt niet meer serieus te nemen is. Zal echt een pittig jaar worden voor de consument en de industrie op deze manier. Deze kunstmatige inflatie zal een behoorlijke dip geven in de verkoop van hardware en dat gaan alle partijen wel voelen in de omzet.

  • !mark
  • Registratie: November 2013
  • Laatst online: 08:27
sjekneck schreef op vrijdag 23 januari 2026 @ 16:14:
Sowieso altijd MLID vermijden als bron van waarheid. Hij heeft er al zo vaak ver vanaf gezeten dat het echt niet meer serieus te nemen is.
Dit x100.
MLID staat er toch wel een beetje om met hagel het ene naar het andere gerucht de ether in te schieten, dat er dan eens wat van uit komt kan bijna niet anders gezien de hoeveelheid, alleen zo veel blijkt achteraf gewoon fout/onzin. Voornamelijk de uplift van Zen4 naar Zen5 was zo ver van de werkelijkheid af als het maar kan.

Vind het dan ook erg jammer dat een kanaal wat ik wel vrij hoog heb zitten qua betrouwbaarheid als HW Unboxed zich leent voor een samenwerking met dit veredelde sensatiezoekend kanaal.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12:11
!mark schreef op vrijdag 23 januari 2026 @ 16:42:
[...]


Vind het dan ook erg jammer dat een kanaal wat ik wel vrij hoog heb zitten qua betrouwbaarheid als HW Unboxed zich leent voor een samenwerking met dit veredelde sensatiezoekend kanaal.
Dat vind ik ook wel soms, maar ik moet wel zeggen dat op het gebied van dit soort zaken als verkopen / marktaandeel / installbase e.d. HuB de plank ook wel eens misslaat. Laatst was er bijv. een podcast over van Tim met iemand van Sapphire en wanneer het dan over marktaandeel gaat, komen ze ook gelijk met de steamsurvey om marktaandeel te duiden, terwijl de Steamsurvey bijvoorbeeld installbase meet en niet marktaandeel. En ook in hun eigen Q/A maand afsluitingingen en andere podcast afleveren halen ze marktaandeel en installbase regelmatig door elkaar, terwijl het compleet verschillende zaken zijn.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • jimh307
  • Registratie: Februari 2014
  • Niet online
Werelds schreef op maandag 6 oktober 2025 @ 09:48:
[...]

De upscalers/interpolators (DLSS, FSR, XESS) zijn geen vooruitgang, niet qua graphics rendering. Performance is niet beter, er wordt juist minder werk gedaan. De rekeneenheden die daarvoor gebruikt worden zijn ook niet nuttig voor daadwerkelijk renderen.

Die dingen zijn pleisters op een wonde en verhullen enkel het gebrek aan vooruitgang. Het is genereren van pixels/frames, niet rendering.


[...]

Jawel hoor. We zitten nog steeds op eerste generatie RT hardware; wat de GPU's nu doen is niet meer dan 7 jaar geleden toen de geforceerde transitie naar gedeeltelijke RT in werd gezet. Zodra één van de drie eindelijk uit vogelt hoe ze meer van het RT werk op de GPU kunnen doen zodat het schaalbaar wordt, zullen we een grote sprong zien - dan zullen we simultaan betere prestaties én beeldkwaliteit krijgen. Die stap zal minstens zo groot zijn als T&L toentertijd, zoniet groter.

Dat laatste klinkt wellicht tegenstrijdig, maar RT kan nu al prestatiewinst opleveren. Met name op soft shadows zijn er talloze situaties waar je via RT sneller klaar bent, vooral bij vele kleine objecten in een scène. Denoisers komen we niet vanaf, dat zal nog heel lang duren. Maar de huidige afhankelijkheid van de CPU wel, er wordt veel te veel aan de CPU kant gedaan om daadwerkelijk winst te boeken aan de GPU kant. En als het dan eenmaal op de GPU zit, wordt er ontiegelijk veel werk tienduizenden keren dubbel uitgevoerd omdat er geen coherency is. Als ze dat eindelijk in hardware doen, zullen er een hoop shaders niet meer nodig zijn en overgeslagen worden.
Hier ben ik het volledig mee eens. Ik gebruik ray tracing en frame gen, maar geen DLSS. Ik gebruik DLAA en dat is alleen anti aliasing zonder upscaling. Met een rtx4070 op 1080P360Hz heb je geen DLSS nodig. In veel Assassin's Creed titels heb je geen van deze technieken, maar gebruik ik downsampling wat er heel goed en scherp uitziet. In Odyssey is dit 1,40x waarbij het spel zeer soepel blijft lopen. Hier geen nood aan een nieuwe GPU en mijn 7800X3D houdt het prima bij ;)

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • chim0
  • Registratie: Mei 2000
  • Laatst online: 07:52
Zal wel bij specifieke kaarten zijn want hier is ie 2 weken geleden al geïnstalleerd met een 3060 nergens last van.

  • jimh307
  • Registratie: Februari 2014
  • Niet online
chim0 schreef op zondag 1 februari 2026 @ 04:04:
[...]

Zal wel bij specifieke kaarten zijn want hier is ie 2 weken geleden al geïnstalleerd met een 3060 nergens last van.
Hier op mijn gamerig met een rtx4070 ook nergens last van. Alles werkt zoals het hoort. Nu kan dit wel mooi zijn, maar dit neemt niet weg dat Microsoft flinke steken heeft laten vallen. Een update moet gewoon werken en met hun supercomputers moet zoiets meteen opvallen. Ik voel me een beetje een "shot missed" geval. Ik kruip door het oog van de naald en dit is precies wat me benauwd. Ik snap heel goed dat veel mensen naar Linux kijken. Het is dat OneDrive voor mij heel nuttig is door zijn automatische synchronisatie op al mijn apparaten, maar als dit wegvalt ga ik ook denken aan een andere oplossing.

Mijn laptop daarentegen slikt de update niet en loopt erop vast. Dat kost me een nieuwe Windows 11 installatie zónder die update. Nu kost een verse installatie niet veel tijd en hier hebben we bloedsnel internet zodat software er vlug weer opstaat, maar het geeft wel aan dat Windows vrij kwetsbaar is.

Nu heb ik de een na laatste Nvidia driver op PC en laptop, maar met die Nvidia drivers is/was ook een hoop mis waar ik wel degelijk last van had. AC Valhalla crashte toen heel vaak. YouTube deed soms raar en in AC Odyssey had ik heel vaak een CTD :F Kan het écht niet beter :?

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 07:52
@jimh307 Dit soort dingen zullen altijd blijven bestaan. Is met alles zo. We leven helaas niet in een "perfecte" wereld anders had het er heel anders uitgezien dan nu.

  • jimh307
  • Registratie: Februari 2014
  • Niet online
chim0 schreef op zondag 1 februari 2026 @ 18:24:
@jimh307 Dit soort dingen zullen altijd blijven bestaan. Is met alles zo. We leven helaas niet in een "perfecte" wereld anders had het er heel anders uitgezien dan nu.
Niets is perfect en ik blijf erbij dat Microsoft en co er nog goed mee wegkomen. Microsoft beloofd beterschap en dat zullen ze niet voor niets zeggen. Ik snap jouw opmerking goed en ik ben het er grotendeels mee eens, maar dit kun je gewoon niet verkopen aan je klanten. Ze hebben een gigantisch marktaandeel en ze kunnen het zich permitteren, maar dat kan ook omslaan. Kijk de jan26 update en zie Nvidia-drivers.

Er is gewoon werk aan de winkel en ze zijn groot geworden en het is lange tijd beter geweest, maar nu is het pet. Ook kan Microsoft veel geld besparen als ze betere updates maken want nu gaan er veel manuren inzitten voor noodpatches. Dit kan hoe dan ook niet de bedoeling zijn.

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 07:52
@jimh307 Tja vraag maar eens aan de kenners hoeveel problemen een Ferrari auto heeft. Zit je dan met je 2 miljoen. En dan heb ik het niet over het ontbreken van een bekerhouder. :X
Pagina: 1 ... 135 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.