• Dennism
  • Registratie: September 1999
  • Laatst online: 00:36
Yonix schreef op zaterdag 23 augustus 2025 @ 12:36:
[...]


Bijzonder dat Tweakers hier nog niets over heeft gepubliceerd. Misschien zijn ze bang voor de gevolgen? Looking at Nvidia. 👀
Ik vermoed eerder omdat het lang niet zo interessant lijkt dan men deed / doet vermoeden. Als het er nu over ging dat bijv. H200 massaal gesmokkeld zou worden naar China vanuit de US, door US bedrijven, was dat natuurlijk heel erg interessant geweest.

Maar als het inderdaad is zoals o.a. op reddit wordt aangegeven, maar ook wat @DaniëlWW2 lijkt aan te geven dat het voornamelijk een langdradig verhaal is geworden dat gaat over bedrijvigheid aangaande gaming / prosumer kaarten in China / Azië waar deze handel mogelijk niet eens verboden is het eigenlijk niet eens zo heel erg nieuwswaardig en dus ook niet heel erg bijzonder dat dit niet direct globaal wordt opgepakt in de media.

En daarom kon ik de video dus niet vinden gister....

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 28-02 20:30
Wanneer verwachten jullie de 6080? Volgend jaar al?

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:36
@Yonix Nu wel een vermelding op de FP, al gaat dat niet direct over de inhoud van de video, maar meer over het Bloomberg 'gedoe'. nieuws: YouTube accepteert tegenclaim Gamers Nexus over offline gehaalde docu...

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:36
MetalSonic schreef op maandag 25 augustus 2025 @ 08:48:
Wanneer verwachten jullie de 6080? Volgend jaar al?
Normaliter ergens eind 2026 / begin 2027.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
nieuws: Omzet Nvidia uit consumenten-gpu's groeit, omzet datacenter-gpu's gro...

De omzet uit gaming is weer gestegen, dat lijkt me voor de doelgroep in dit topic wel relevant:
De omzet van Nvidia die komt uit videokaarten voor consumenten, vooral voor gaming, groeide met 49 procent ten opzichte van dezelfde periode vorig jaar. De omzet uit videokaarten voor datacenters groeide in diezelfde periode met 56 procent.

De omzet uit videokaarten voor gaming groeide zo sterk vanwege de release van de RTX5000-serie aan videokaarten, zoals de RTX5060 in mei. Vorig jaar was er geen nieuwe serie aan videokaarten op de markt. De vraag naar videokaarten voor datacenters groeide sterk door de AI-trend van afgelopen jaren.

March of the Eagles


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Yikes, gelukkig hebben ze bij AMD nog de console markt waarvoor ze toch GPUs moeten ontwerpen, anders was ik me echt zorgen gaan maken dat ze uit de GPU markt zouden stappen.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
En een Nederlandstalig artikeltje:

nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...

Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?

March of the Eagles


  • rapture
  • Registratie: Februari 2004
  • Nu online

rapture

Zelfs daar netwerken?

XWB schreef op woensdag 3 september 2025 @ 20:46:
En een Nederlandstalig artikeltje:

nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...

Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?
Doet mij denken aan de Nvidia strategie in het begin versus 3dfx.
  • Nvidia had de focus op de OEM's gezet. Zorg dat de leken in hun Dell, HP,... PC's een Nvidia grafische kaart hebben. Zo kregen ze stabiele continue omzet en winst ongeacht wat de gamers, reviewers,... ervan vinden en wie de performancekroon heeft. Zie ook de mensen die default Intel kiezen of Intel voorgeschoteld krijgen.
  • 3dfx had een AIB (bedrijf die losse chips koopt en grafische kaarten ervan maakt) opgekocht en wou de marges van de AIB's voor zichzelf houden. Een groot deel van hun distributienetwerk buitengooien.
Nvidia moet wel idioot veel grafische kaarten aan de OEM's leveren.

Als ik naar afdankertjes bij klanten kijk, dat zijn veel Quadro's met 4 mini-DisplayPort uitgangen om meerdere schermen aan te sturen en/of video decoding.

Het is een vertekend beeld als deze kaarten in zakelijke computers meetellen.
Afbeeldingslocatie: https://blog.pny.com/hubfs/T-Series-Blog-main-list-view.jpg

Voor ons begint een budget grafische kaart met minstens 1x 8-pin PCIe connector en rond 150W TDP? Beetje mid-end grafische kaart stookt toch rond 300W, heeft 3 fans, is 3-slot dik en langer dan een liniaal (30cm).

  • meljor
  • Registratie: November 2004
  • Laatst online: 23-02 09:55
XWB schreef op woensdag 3 september 2025 @ 20:46:
En een Nederlandstalig artikeltje:

nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...

Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?
Dominant zijn in de highend helpt ook altijd. 5070ti is lichtelijk beter (ook duurder), 5080 kent geen concurrentie en 5090 zit compleet op een eigen eiland.....
AMD had net even wat scherper moeten prijzen nog nu ze een redelijke kans hadden in het midden segment. In plaats daarvan bieden ze wederom een fractie mindere kaarten voor een fractie lagere prijs. Not good enough.

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Ik blijf me afvragen hoeveel dat hoge segment uitmaakt. En ja ik weet dat mensen zeggen dat als je daar de kroon hebt, mensen ook mindere kaarten van je gaan kopen, maar is dat echt zo'n groot effect?

Algemeen op het internet is het toch voor een link gedeelte "pro AMD", als je ook kijkt naar Youtube influencers, maar ook een Tweakers was veel enthousiaster over de AMD kaarten als de Nvidia. En toch doet Nvidia het gewoon veel beter. Misschien gedeeltelijk omdat er heel hard geklaagd wordt op de prijs van Nvidia, maar niet op de performance (ook al is het natuurlijk gelinkt aan elkaar). Onder de streep is AMD ook de underdog, maar ze blijven voor de "€50 minder voor zelfde performance" strategie gaan. En eerlijk is eerlijk, vraag is als ze €150 goedkoper gaan of Nvidia dan niet ook gewoon de prijs meeverlaagt. Al zou ik ook denken dat die liever een ~80% marktaandeel hebben: Meer dan zat zonder dat concurrentiewaakhonden het wel erg twijfelachtig gaan vinden.

  • meljor
  • Registratie: November 2004
  • Laatst online: 23-02 09:55
Sissors schreef op woensdag 3 september 2025 @ 23:20:
Ik blijf me afvragen hoeveel dat hoge segment uitmaakt. En ja ik weet dat mensen zeggen dat als je daar de kroon hebt, mensen ook mindere kaarten van je gaan kopen, maar is dat echt zo'n groot effect?

Algemeen op het internet is het toch voor een link gedeelte "pro AMD", als je ook kijkt naar Youtube influencers, maar ook een Tweakers was veel enthousiaster over de AMD kaarten als de AMD. En toch doet Nvidia het gewoon veel beter. Misschien gedeeltelijk omdat er heel hard geklaagd wordt op de prijs van Nvidia, maar niet op de performance (ook al is het natuurlijk gelinkt aan elkaar). Onder de streep is AMD ook de underdog, maar ze blijven voor de "€50 minder voor zelfde performance" strategie gaan. En eerlijk is eerlijk, vraag is als ze €150 goedkoper gaan of Nvidia dan niet ook gewoon de prijs meeverlaagt. Al zou ik ook denken dat die liever een ~80% marktaandeel hebben: Meer dan zat zonder dat concurrentiewaakhonden het wel erg twijfelachtig gaan vinden.
Zijn al generaties lang "de beste" dus dat werkt wel door. Verder zijn er veel mensen die alleen maar een "GeForce" kopen want dat is goed

Net als de "pentium" nog steeds sterk is qua bekendheid. Velen kopen zelfs nu nog liever een Intel dan een Amd want Amd was altijd zo "slecht".

Zulke dingen hebben dus sowieso tijd nodig maar je moet ergens beginnen met een extreem goede indruk, en daar slaagt Amd steeds niet in door domweg teveel achter Nvidia aan te hobbelen.

Persoonlijk kijk ik vooral naar functies, bang for buck en de fuckups in het verleden.

Zo hoef ik voorlopig geen Intel na 13th/14th gen gepruts.
Geen Asrock borden voorlopig na am4 vrm's en am5 dode cpu's.
En Nvidia wil ook graag op mijn lijstje vanwege gesmolten connectors, black screens en de driver problemen van afgelopen maanden.

Had Amd high end gehad dan had ik gewoon weer Amd gekocht deze gen. Is mij altijd prima bevallen qua cpu's en gpu's (tot nu toe).

[ Voor 13% gewijzigd door meljor op 04-09-2025 12:55 ]


  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 26-02 09:38
Sissors schreef op woensdag 3 september 2025 @ 23:20:
Ik blijf me afvragen hoeveel dat hoge segment uitmaakt. En ja ik weet dat mensen zeggen dat als je daar de kroon hebt, mensen ook mindere kaarten van je gaan kopen, maar is dat echt zo'n groot effect?

Algemeen op het internet is het toch voor een link gedeelte "pro AMD", als je ook kijkt naar Youtube influencers, maar ook een Tweakers was veel enthousiaster over de AMD kaarten als de AMD. En toch doet Nvidia het gewoon veel beter. Misschien gedeeltelijk omdat er heel hard geklaagd wordt op de prijs van Nvidia, maar niet op de performance (ook al is het natuurlijk gelinkt aan elkaar). Onder de streep is AMD ook de underdog, maar ze blijven voor de "€50 minder voor zelfde performance" strategie gaan. En eerlijk is eerlijk, vraag is als ze €150 goedkoper gaan of Nvidia dan niet ook gewoon de prijs meeverlaagt. Al zou ik ook denken dat die liever een ~80% marktaandeel hebben: Meer dan zat zonder dat concurrentiewaakhonden het wel erg twijfelachtig gaan vinden.
Hoger segment geeft bragging rights en dat zien toch best veel mensen. Heel veel reviews nemen vaak de uiterste producten mee in de test. Daarom zie je heel vaak de 5090 en ook de 9800X3D en bijna iedereen kent ze wel. Nvidia is voor de minder bekende dus de snelste.

Maar in de praktijk is het volgens mij eerder een combinatie van factoren:
(let op dit is puur mijn mening, niet een feitenlijst)

Stabiliteit en vertrouwen
Bij Nvidia weet je dat je elke generatie een complete line-up hebt van high tot low end. Bij AMD is het elke generatie weer afwachten of ze überhaupt wel een high end zullen uitbrengen.

First to market
Nvidia legt al generaties lang de lat en AMD wacht constant met releasen om te kunnen antwoorden op Nvidia. Namen en prijzen worden soms kort voor lancering aangepast. Kortom, ze vertrouwen zelf niet in hun eigen producten en willen koste wat kost Nvidia kunnen counteren.

Naam en naamgeving
Geforce + hoger nummer = superduidelijk. Je weet gelijk over welke generatie het gaat en het tweede deel laat duidelijk zien in welke stack je koopt. AMD maakt hier geregeld een zooi van door weer de gehele naamgeving op de schop te gooien. Soms nog erger, spelen met het tweede deel van de cijfers om sneller te lijken (RX 7000)

Architectuur
Velen lopen geregeld te klagen dat Nvidia weinig verandert, maar de praktijk laat zien dat Nvidia het nooit echt laat afweten en altijd meedoet in rauwe prestaties. AMD doet haar best om elke generatie weer het wiel opnieuw uit te vinden en alles om te gooien. Deze is om nog een reden belangrijk.....

....Drivers prestaties
Bij Nvidia zitten de prestaties bij release vaak al dicht tegen het plafond en AMD groeit vaak meer. AMD heeft waarschijnlijk veel meer gedoe om haar drivers op orde te krijgen vanwege de constante wijzigingen in architectuur. Sommige noemen het fine-wine, ik noem het too little too late

Tools en features
Dit is meer van de laatste 10 jaar, maar Nvidia loopt tegenwoordig gewoon constant weg bij AMD als het gaat om features. Nvidia dicteert letterlijk wat AMD gaat doen en tegen de tijd dat ze bij zijn brengt Nvidia de volgende feature set uit die AMD hoofdpijn geeft.

Als AMD echt stappen wil maken op de PC markt dan zullen ze fors moeten investeren. Ik denk echter dat de PC markt meer een extraatje is geworden om wat meer inkomsten te genereren vanuit de R&D bij console chips. Ze produceren momenteel gewoon te weinig Radeon chips om marktaandeel af te pakken en alles wat ze op de markt brengen gaat met een bak slechte marketing.

  • Yaksa
  • Registratie: December 2008
  • Nu online
Sissors schreef op woensdag 3 september 2025 @ 23:20:
Ik blijf me afvragen hoeveel dat hoge segment uitmaakt. En ja ik weet dat mensen zeggen dat als je daar de kroon hebt, mensen ook mindere kaarten van je gaan kopen, maar is dat echt zo'n groot effect?

Algemeen op het internet is het toch voor een link gedeelte "pro AMD", als je ook kijkt naar Youtube influencers, maar ook een Tweakers was veel enthousiaster over de AMD kaarten als de Nvidia. En toch doet Nvidia het gewoon veel beter. Misschien gedeeltelijk omdat er heel hard geklaagd wordt op de prijs van Nvidia, maar niet op de performance (ook al is het natuurlijk gelinkt aan elkaar). Onder de streep is AMD ook de underdog, maar ze blijven voor de "€50 minder voor zelfde performance" strategie gaan. En eerlijk is eerlijk, vraag is als ze €150 goedkoper gaan of Nvidia dan niet ook gewoon de prijs meeverlaagt. Al zou ik ook denken dat die liever een ~80% marktaandeel hebben: Meer dan zat zonder dat concurrentiewaakhonden het wel erg twijfelachtig gaan vinden.
Misschien wel dezelfde performance in games, maar er zijn ook mensen die iets anders met hun PC doen waar Nvidia kaarten beter in zijn.
Bovendien maken veel mid- en highend AMD kaarten nog gebruik van GDDR6 geheugen, daar waar NVidia al overgestapt is op GDDR7 geheugen wat een 2x zo hoge data transfer kan halen. Voor sommige toepassingen is dat een voordeel.

Only two things are infinite, the universe and human stupidity, and I'm not sure about the former


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 24-02 21:27
XWB schreef op woensdag 3 september 2025 @ 20:46:
En een Nederlandstalig artikeltje:

nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...

Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?
De top 10 bij Newegg laat toch vooral AMD zien voor de DIY markt: https://www.newegg.com/d/...o-Graphics-Device/c/ID-38
rapture schreef op woensdag 3 september 2025 @ 22:00:
[...]

Doet mij denken aan de Nvidia strategie in het begin versus 3dfx.
  • Nvidia had de focus op de OEM's gezet. Zorg dat de leken in hun Dell, HP,... PC's een Nvidia grafische kaart hebben.
Dit is een van de redenen. De bestellingen van Dell, HP, etc. zorgen voor een constante stroom units.

Er is nog een reden waarom de AMD kaarten niet in de cijfers van Jon Peddie opduiken, en dat is als ze gratis verkocht worden aan AIB partners. Jon Peddie kijkt alleen naar de omzet, deelt dit door de gemiddelde stuksprijs (groothandel kostprijs, niet de verkoopprijs) en berekent zo de aantallen. Als er flinke kortingen worden gegeven, betekent dat bij Jon Peddie minder aantallen.

Laat AMD nou net op Radeon nog wat korting verplichtingen hebben overgehouden aan de RX7000 series. Belofte maakt schuld.

Steam hardware survey is helaas ook vertekend door de wereldwijde internet cafe's: elke Steam gebruiker die in en uitlogt op zo'n PC vaak met een Nvidia kaart, geeft Nvidia door. Ik heb ook deze maand een Steam survey gekregen: 2,5 jaar nadat ik m'n PC gebouwd had (met AMD CPU + GPU). Er zijn waarschijnlijk meer PC gamers zonder eigen game PC, dan met.

Gerucht: volgens AMD's eigen interne getallen (leaks) is de "gaming market share" van 15% RDNA3 naar 22% RDNA4 gegaan.
YouTube: RX 9070 GRE 16GB Specs Leak, AMD FSR 4 on RDNA 3, Nvidia RTX 5080 & ...

Maar zelfs al zou het 6% zijn: het zal niet naar 0% gaan, en het zal waarschijnlijk geen invloed op de consumenten prijzen hebben. In het kort:
  • De investeringskosten voor AMD zijn te laag om niet met Radeon door te gaan. Dit komt omdat ze al moeten investeren in AI en consoles. Radeon gaat dus niet wegvallen.
  • Een hoger volume Radeon kaarten gaat er niet voor zorgen dat prijzen omlaag gaan voor DIY consumenten. Dat hebben we in de afgelopen 10 jaar ook niet gezien. Zelfs toen het 60%-40% was, bleven de bruto marges van Nvidia dik 50%.
(meer detail: https://gathering.tweakers.net/forum/view_message/83339698)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Interessante ontwikkelingen. Ben er nog niet uit of ik deze financial entanglement nu zo'n fijn idee vind.

NVIDIA's $5B Intel Investment Reveals x86-GPU NVLink Project

NVIDIA Buys $5B Worth of Intel, RTX iGPUs Coming to x86

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 26-02 09:38
Vinden we het wel een fijn idee als hun grootste concurrenten zowel GPU als CPU's maken?

Ik snap de zorgen, maar gelijktijding is deze stap wel vanuit Nvidia's perspectief compleet begrijpelijk. Ze proberen al wat jaren in cpu voet aan de grond te krijgen om niet afhankelijk te zijn van AMD/Intel. Ik mag alleen maar hopen dat we straks niet een situatie gaan krijgen waarin de keuze voor Nvidia verplicht Intel te nemen en hetzelfde bij AMD. De crux voor Nvidia zit in de datacenter in deze keuze. Als AMD het ooit gaat proberen om Nvidia te excluden door hun GPU aan de CPU divisie te koppelen in één pakket, dan zou Nvidia letterlijk buitenspel gezet worden. Mocht Intel echt wegvallen, dan zou dit letterlijk de deur opengooien voor AMD en dat moeten we ook niet willen.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • emeralda
  • Registratie: Maart 2024
  • Laatst online: 27-10-2025
XWB schreef op woensdag 3 september 2025 @ 20:46:
En een Nederlandstalig artikeltje:

nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...

Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?
Die reviews gaan er altijd vanuit dat mensen iedere generatie een nieuwe GPU kopen.

Ik ben van een 3060 naar een 5080 gegaan dus ik was wel enthousiast.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:36
emeralda schreef op dinsdag 30 september 2025 @ 11:50:
[...]


Die reviews gaan er altijd vanuit dat mensen iedere generatie een nieuwe GPU kopen.

Ik ben van een 3060 naar een 5080 gegaan dus ik was wel enthousiast.
Dat denk ik niet zo zeer, de meeste reviewers weten best dat mensen vaak pas na een jaar of 5 upgraden gemiddeld gezien, en benoemen dat ook vrij vaak.

Wat je echter natuurlijk wel ziet is dat in een review de directe voorganger wel over het algemeen 'de benchmark' is om mee te vergelijken, met daarnaast de directe concurrentie (als deze er is). Wat ook logisch is, immers daarmee laat je zien wat de gen on gen verbetering is, en wat de concurrentie ertegen overzet.

Ik zou van een 3060 naar een 5080 persoonlijk ook wel enthousiast worden, maar dat zal je denk ik altijd wel hebben als je van een €300 budget GPU naar een €1059+ GPU gaat en dan de performance upgrade ziet, zeker als je ook een scherm hebt dat eer doet aan de nieuwe GPU. Echter dat laat zich natuurlijk in een review ook lastiger vergelijken, je stapt immers met die 5080 een compleet ander segment in.

Van een 3060 naar een 5060 was je mogelijk een stuk minder enthousiast geweest, omdat je dan gemiddeld genomen 'maar' 44% omhoog gaat in performance (over 2 generaties, wat vrij matig is), je ineens met een 8GB kaart zit, wat er voor zorgt dat in bepaalde titels de 3060 sneller kan / een betere spelervaring geeft dan de 5060 en er ook geen echte prijsdaling te zien is in dat segment, dat zou compenseren voor de matige performance uplift over 2 generaties.

[ Voor 16% gewijzigd door Dennism op 30-09-2025 12:11 ]


  • emeralda
  • Registratie: Maart 2024
  • Laatst online: 27-10-2025
Als je kijkt naar DLSS4 is er best wel veel vooruitgang geboekt.

Ik was ooit in eind jaren 90 ook al een paar jaar PC gamer. Zo snel als toen zal het nooit meer gaan.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-02 12:32
emeralda schreef op zaterdag 4 oktober 2025 @ 12:13:
Als je kijkt naar DLSS4 is er best wel veel vooruitgang geboekt.
De upscalers/interpolators (DLSS, FSR, XESS) zijn geen vooruitgang, niet qua graphics rendering. Performance is niet beter, er wordt juist minder werk gedaan. De rekeneenheden die daarvoor gebruikt worden zijn ook niet nuttig voor daadwerkelijk renderen.

Die dingen zijn pleisters op een wonde en verhullen enkel het gebrek aan vooruitgang. Het is genereren van pixels/frames, niet rendering.
Ik was ooit in eind jaren 90 ook al een paar jaar PC gamer. Zo snel als toen zal het nooit meer gaan.
Jawel hoor. We zitten nog steeds op eerste generatie RT hardware; wat de GPU's nu doen is niet meer dan 7 jaar geleden toen de geforceerde transitie naar gedeeltelijke RT in werd gezet. Zodra één van de drie eindelijk uit vogelt hoe ze meer van het RT werk op de GPU kunnen doen zodat het schaalbaar wordt, zullen we een grote sprong zien - dan zullen we simultaan betere prestaties én beeldkwaliteit krijgen. Die stap zal minstens zo groot zijn als T&L toentertijd, zoniet groter.

Dat laatste klinkt wellicht tegenstrijdig, maar RT kan nu al prestatiewinst opleveren. Met name op soft shadows zijn er talloze situaties waar je via RT sneller klaar bent, vooral bij vele kleine objecten in een scène. Denoisers komen we niet vanaf, dat zal nog heel lang duren. Maar de huidige afhankelijkheid van de CPU wel, er wordt veel te veel aan de CPU kant gedaan om daadwerkelijk winst te boeken aan de GPU kant. En als het dan eenmaal op de GPU zit, wordt er ontiegelijk veel werk tienduizenden keren dubbel uitgevoerd omdat er geen coherency is. Als ze dat eindelijk in hardware doen, zullen er een hoop shaders niet meer nodig zijn en overgeslagen worden.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 24-02 21:27
Werelds schreef op maandag 6 oktober 2025 @ 09:48:
[...]

De upscalers/interpolators (DLSS, FSR, XESS) zijn geen vooruitgang, niet qua graphics rendering. Performance is niet beter, er wordt juist minder werk gedaan. De rekeneenheden die daarvoor gebruikt worden zijn ook niet nuttig voor daadwerkelijk renderen.

Die dingen zijn pleisters op een wonde en verhullen enkel het gebrek aan vooruitgang. Het is genereren van pixels/frames, niet rendering.


[...]

Jawel hoor. We zitten nog steeds op eerste generatie RT hardware; wat de GPU's nu doen is niet meer dan 7 jaar geleden toen de geforceerde transitie naar gedeeltelijke RT in werd gezet. Zodra één van de drie eindelijk uit vogelt hoe ze meer van het RT werk op de GPU kunnen doen zodat het schaalbaar wordt, zullen we een grote sprong zien - dan zullen we simultaan betere prestaties én beeldkwaliteit krijgen. Die stap zal minstens zo groot zijn als T&L toentertijd, zoniet groter.

Dat laatste klinkt wellicht tegenstrijdig, maar RT kan nu al prestatiewinst opleveren. Met name op soft shadows zijn er talloze situaties waar je via RT sneller klaar bent, vooral bij vele kleine objecten in een scène. Denoisers komen we niet vanaf, dat zal nog heel lang duren. Maar de huidige afhankelijkheid van de CPU wel, er wordt veel te veel aan de CPU kant gedaan om daadwerkelijk winst te boeken aan de GPU kant. En als het dan eenmaal op de GPU zit, wordt er ontiegelijk veel werk tienduizenden keren dubbel uitgevoerd omdat er geen coherency is. Als ze dat eindelijk in hardware doen, zullen er een hoop shaders niet meer nodig zijn en overgeslagen worden.
Eens dat DLSS 4 niet zoveel toevoegt aan DLSS 3.5, maar Ray Reconstruction (zo'n denoiser) is wel nice to have, juist voor die ray tracing workloads om toch net even een wat scherper beeld neer te zitten met minder gerenderde pixels en meer performance. Is dat ook niet het hele idee van upscaling, minder pixels renderen, meer interpoleren?

Wat nu nog teveel op CPU gedaan wordt, is BVH + ray coherence? De ray tracing van RDNA 4 is al stukken beter, en AMD breidt nog steeds de shaders uit voor ray tracing functionaliteit. Lijkt een goede strategie, maar in de RDNA 5 willen ze ray tracing wel sterk verbeteren: hoe dan zonder BVH coherence sorting dedicated hardware? Meer BVH units? Dat is meer de brute force aanpak van Geforce, ook nog steeds niet next level ray tracing, toch?

https://blog.imaginationt...-it-will-mean-for-gaming/

Level 0 – Legacy Solutions
Level 1 – Software on Traditional GPUs
Level 2 – Ray/Box and Ray/Tri Testers in Hardware
Level 3 – Bounding Volume Hierarchy (BVH) Processing in Hardware
Level 4 – BVH Processing with Coherency Sorting in Hardware
Level 5 – Coherent BVH Processing with Scene Hierarchy Generator in Hardware

Level 3 zie ik wel in RDNA 4 en Blackwell (en zelfs Battlemage), Level 4 nog steeds niet echt.. of ik mis wat.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • SG
  • Registratie: Januari 2001
  • Laatst online: 11-02 22:12

SG

SG surft naar info hardewaren

Werelds schreef op maandag 6 oktober 2025 @ 09:48:
[...]

De upscalers/interpolators (DLSS, FSR, XESS) zijn geen vooruitgang, niet qua graphics rendering. Performance is niet beter, er wordt juist minder werk gedaan. De rekeneenheden die daarvoor gebruikt worden zijn ook niet nuttig voor daadwerkelijk renderen.

Die dingen zijn pleisters op een wonde en verhullen enkel het gebrek aan vooruitgang. Het is genereren van pixels/frames, niet rendering.


[...]

Jawel hoor. We zitten nog steeds op eerste generatie RT hardware; wat de GPU's nu doen is niet meer dan 7 jaar geleden toen de geforceerde transitie naar gedeeltelijke RT in werd gezet. Zodra één van de drie eindelijk uit vogelt hoe ze meer van het RT werk op de GPU kunnen doen zodat het schaalbaar wordt, zullen we een grote sprong zien - dan zullen we simultaan betere prestaties én beeldkwaliteit krijgen. Die stap zal minstens zo groot zijn als T&L toentertijd, zoniet groter.

Dat laatste klinkt wellicht tegenstrijdig, maar RT kan nu al prestatiewinst opleveren. Met name op soft shadows zijn er talloze situaties waar je via RT sneller klaar bent, vooral bij vele kleine objecten in een scène. Denoisers komen we niet vanaf, dat zal nog heel lang duren. Maar de huidige afhankelijkheid van de CPU wel, er wordt veel te veel aan de CPU kant gedaan om daadwerkelijk winst te boeken aan de GPU kant. En als het dan eenmaal op de GPU zit, wordt er ontiegelijk veel werk tienduizenden keren dubbel uitgevoerd omdat er geen coherency is. Als ze dat eindelijk in hardware doen, zullen er een hoop shaders niet meer nodig zijn en overgeslagen worden.
Dit doet mij denken aan 1st generaties met hardware T&L dus fixed hardware voor specifiek acceleratie. Dat is dus later vervangen door meer general purpouse shaders die elke gen steeds krachtiger werden.
Het aantal schaders is nu zo groot dat halo gpu zo veel shaders heeft dat 1080P vs 1440p de shaders niet kan verzadigen. En dat houd in dat mogelijk is de RT en of tensor welke het minste inneemt kwa real estate onderdeel kan worden van schader. Want bij nog meer dieshrinks en ver dubbeling van shaders zal 1440p niet genoeg zijn om shader aantallen te verzadigen. Dus de nextstep kan zijn dat vooral RT naar shader verhuist dan krijg je enorme hoeveelheid aan RT compute en dat mogelijk full RT mogelijk kan zijn . Zal de shader flink groter maken kwa transistor count maar apart RT cores vervallen ook als AI ook nog erbij kan, vervallen die ook.
Doet mij denken aan larabee wat mogelijk 8 generaties te vroeg is. Maximaal generalpurpouse. Maar met te laag aantal. Voor RT en AI zul je toch wat extenties ook in hardware moeten hebben om dat hardware matig te versnellen. Kan zijn dat RT en AI core met matrix compute nogal wat registers heeft en compute units dat krengen groot maakt dat mogelijk niet gaat. Als dat shaders dan reduceerd naar 1/5 of zelfs 1/10 dat shaders dan enorm worden. Want dat was larabee probleem generalpurpuse lever je fix hardware performance in vs flexibiliteit. General purpouse stap was toen enorm. Maar meestal volgt hardware gamedev de,and en API door feedback onderling waar api en hardware en games mee tot stand komen. Gpu bakker kan wel wat features pushen. Maar dan krijg kip en ei probleem. Bijna monopool kan dat met eco systeem RT en AI features. Waar de markten concurrentie na 3gen rtx volgen zelfs apple silicon. Gpu cores

Ben dus benieuwt wat RTX 7000 8000 9000 x000 gaat brengen.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-02 12:32
sunsmountain schreef op donderdag 9 oktober 2025 @ 01:05:
Eens dat DLSS 4 niet zoveel toevoegt aan DLSS 3.5, maar Ray Reconstruction (zo'n denoiser) is wel nice to have, juist voor die ray tracing workloads om toch net even een wat scherper beeld neer te zitten met minder gerenderde pixels en meer performance. Is dat ook niet het hele idee van upscaling, minder pixels renderen, meer interpoleren?
Ja, maar dat zou niet nodig moeten zijn voor met name het raster deel. RT is vaak ook nauwelijks beter dan baked lighting kan zijn.
Wat nu nog teveel op CPU gedaan wordt, is BVH + ray coherence? De ray tracing van RDNA 4 is al stukken beter, en AMD breidt nog steeds de shaders uit voor ray tracing functionaliteit. Lijkt een goede strategie, maar in de RDNA 5 willen ze ray tracing wel sterk verbeteren: hoe dan zonder BVH coherence sorting dedicated hardware? Meer BVH units? Dat is meer de brute force aanpak van Geforce, ook nog steeds niet next level ray tracing, toch?
Ja, dat is wat mist en nee, dat is niet hoe Nvidia het aan pakt. Nvidia's aanpak is vooral meer RT cores er tegenaan gooien zodat ze meer hits kunnen testen, maar daar is het bij gebleven. De enige daadwerkelijke verbetering die er sinds de Turing release in zit is SER, maar dat is een opt-in shader en is vooral een optimalisatie voor scheduling. Werkt ook niet op alle GPU's, als er niet genoeg L2$ beschikbaar is (ten opzichte van het aantal SM's en dus RT cores - ironisch genoeg de 4090 bijvoorbeeld) heeft het geen effect - het kan zelfs nadelig werken en stalls veroorzaken. Ik heb daar een tijd geleden al eens iets over gepost.

AMD is sowieso al flexibeler qua scheduling en hun optimalisaties zijn vooral op geheugen (cache, niet VRAM) gebruik gericht geweest, naast meer hits/clock te kunnen doen.

Wat AMD gaat doen weet ik niet, wel durf ik te stellen dat zij in de beste positie zitten om uit te breiden. Qua raster prestaties zijn we al lang voorbij waar meer units iets doet. Dat heb ik ook al vaak zat gezegd, de sweet spot lijkt voor beide tussen de 60 en 80 CU's/SM's te liggen op dat vlak, en rasterisation gaat altijd nodig zijn. Door AMD's architectuur kunnen zij eenvoudiger het huidige ontwerp nemen en dingen toevoegen, omdat ze data beter rond kunnen pompen. Omdat we nog steeds op Turing+ zitten bij Nvidia, moeten zij een veel grotere wijziging doorvoeren. Vergeet niet dat RT alsnog pixel shaders vereist (hits testen is leuk en aardig, maar een pixel moet toch nog een kleurtje krijgen), dus door de manier waarop hun SM's in elkaar steken en hoe hun geheugen hiërarchie werkt zijn ze heel erg beperkt. RT is veel meer een big-picture dingetje dan raster is.
Ze hebben die whitepaper al een paar keer geüpdated, we zitten nu op 3.5: thread coherency sorting, maar dat is gelokaliseerde coherency. Maar dat deed Turing al. SER werkt op Turing ook, heeft enkel geen impact door een gebrek aan cache. Alle generaties er na hebben opt-in optimalisaties toegevoegd, maar geen hardware capabiliteiten. Zelfde geldt voor AMD. We zitten al 7 jaar op level 3, 3.5 komt nu mondjesmaat door omdat het een opt-in dingetje is.
SG schreef op donderdag 9 oktober 2025 @ 07:18:
Dus de nextstep kan zijn dat vooral RT naar shader verhuist dan krijg je enorme hoeveelheid aan RT compute en dat mogelijk full RT mogelijk kan zijn .
1: "full RT" gaat nog tientallen jaren duren; waarbij "full" ook altijd relatief zal zijn, want je kunt per definitie altijd net iets preciezere resultaten krijgen. RT heeft geen bovenlimiet. "Full" betekent hier "genoeg rays zodat een denoiser niet essentieel is".
2: Nee, zo werkt dat niet. De schakeling naar unified "shaders" was omdat er steeds meer logica kwam om pixels te kleuren, waarbij er een serie instructies uitgevoerd kon worden die allemaal vrij simpel van aard zijn en voor elke pixel uitgevoerd moeten worden, maar met andere data - dat is waar SIMD voor staat: single instruction, multiple data. RT is complexer en heeft juist wél weer een fixed pipeline nodig (heb ik ook al eerder gezegd). Dat verhuis je niet zomaar naar de FP32 ALU's. Voor RT kun je ook toe met minder ALU's per "test", dus de verhoudingen zijn compleet anders. Alle 3 de fabrikanten gebruiken hun SIMD's ook voor RT, het probleem is dat dat proces elke keer opnieuw uitgevoerd wordt door een gebrek aan coherency.
Doet mij denken aan larabee wat mogelijk 8 generaties te vroeg is.
Enkele ideeën van Larrabee zouden wel nuttig kunnen zijn, maar nee, die aanpak zou ook niet te doen zijn. Zou veel te groot moeten worden.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 24-02 21:27
Werelds schreef op donderdag 9 oktober 2025 @ 11:50:
[...]

Ja, maar dat zou niet nodig moeten zijn voor met name het raster deel. RT is vaak ook nauwelijks beter dan baked lighting kan zijn.
Dus native raster zou net zo snel kunnen zijn als upscaled raster, tenminste wanneer het om RT games gaat (immers RT is dan de bottleneck)? Eens dat baked lighting vaak heel goed kan zijn, maar dat komt ook omdat de meeste RT implementaties niet volledig zijn (global illumination benadering, geen path tracing of oneindig aantal lichtbronnen, etc.).
Werelds schreef op donderdag 9 oktober 2025 @ 11:50:
Ja, dat is wat mist en nee, dat is niet hoe Nvidia het aan pakt. Nvidia's aanpak is vooral meer RT cores er tegenaan gooien zodat ze meer hits kunnen testen, maar daar is het bij gebleven. De enige daadwerkelijke verbetering die er sinds de Turing release in zit is SER, maar dat is een opt-in shader en is vooral een optimalisatie voor scheduling. Werkt ook niet op alle GPU's, als er niet genoeg L2$ beschikbaar is (ten opzichte van het aantal SM's en dus RT cores - ironisch genoeg de 4090 bijvoorbeeld) heeft het geen effect - het kan zelfs nadelig werken en stalls veroorzaken. Ik heb daar een tijd geleden al eens iets over gepost.
Ik neem dat je Shader Execution Reordering bedoelt, dat klinkt in de buurt van coherency sorting, maar net niet, vandaar de level "3,5" waarschijnlijk. Eens dat verbeteringen in cache en register geheugen wel dichter bij level 4 en 5 kunnen komen, omdat elke ray tracing geometrie / game scene weer net even anders is, anders gezegd ik zou niet weten hoe een hardware "Full Coherency Sorting" of "Scene Hierarchy Generator" er uit zou moeten zien, want elke willekeurige verzameling rays in een game scene is denk ik te verschillend.
Werelds schreef op donderdag 9 oktober 2025 @ 11:50:
AMD is sowieso al flexibeler qua scheduling en hun optimalisaties zijn vooral op geheugen (cache, niet VRAM) gebruik gericht geweest, naast meer hits/clock te kunnen doen.

Wat AMD gaat doen weet ik niet, wel durf ik te stellen dat zij in de beste positie zitten om uit te breiden. Qua raster prestaties zijn we al lang voorbij waar meer units iets doet. Dat heb ik ook al vaak zat gezegd, de sweet spot lijkt voor beide tussen de 60 en 80 CU's/SM's te liggen op dat vlak, en rasterisation gaat altijd nodig zijn. Door AMD's architectuur kunnen zij eenvoudiger het huidige ontwerp nemen en dingen toevoegen, omdat ze data beter rond kunnen pompen. Omdat we nog steeds op Turing+ zitten bij Nvidia, moeten zij een veel grotere wijziging doorvoeren. Vergeet niet dat RT alsnog pixel shaders vereist (hits testen is leuk en aardig, maar een pixel moet toch nog een kleurtje krijgen), dus door de manier waarop hun SM's in elkaar steken en hoe hun geheugen hiërarchie werkt zijn ze heel erg beperkt. RT is veel meer een big-picture dingetje dan raster is.
Aan de top wel ja, ga je bijvoorbeeld in Battlefield 6 van een 5080 naar een 5090, met meer dan dubbel zoveel motortjes (SM 80 -> 176) gaat de fps op 4k overkill van 70 naar maar 115 fps.
Maar de andere kant op merk je het verschil in motortjes wel, neem je de 5060 Ti met 38 SM motortjes (ietsje minder dan de helft), dan halveert je fps ook gewoon naar 35 fps, bij dezelfde settings, t.o.v. de 5080.

Goed om te horen dat AMD's investeringen in de gedeelde cache voor WGP's, unified register / instruction cache, en infinity cache een mogelijk voordeel gaan geven voor Ray Tracing, ze kunnen het goed gebruiken met hun naar verluid 6% markt aandeel in nieuwe dGPU shipments (Jon Peddie Research).
Werelds schreef op donderdag 9 oktober 2025 @ 11:50:
Ze hebben die whitepaper al een paar keer geüpdated, we zitten nu op 3.5: thread coherency sorting, maar dat is gelokaliseerde coherency. Maar dat deed Turing al. SER werkt op Turing ook, heeft enkel geen impact door een gebrek aan cache. Alle generaties er na hebben opt-in optimalisaties toegevoegd, maar geen hardware capabiliteiten. Zelfde geldt voor AMD. We zitten al 7 jaar op level 3, 3.5 komt nu mondjesmaat door omdat het een opt-in dingetje is.
Ik zie het inderdaad, ze hebben level 3, 4 en 5 gewijzigd:

Afbeeldingslocatie: https://tweakers.net/i/E9jS0uYG_huJ5KOM4ITDtaJlwd4=/800x/filters:strip_exif()/f/image/nOctv1LngWR6N53CGeQxrgzT.png?f=fotoalbum_large

Level 3 – Bounding Volume Hierarchy (BVH) Processing in Hardware
->
Level 3 – BVH traversal
Level 3,5 – BVH traversal and thread coherency sorting

Level 4 – BVH Processing with Coherency Sorting in Hardware
->
Level 4 – BVH traversal with full coherency sorting

Level 5 – Coherent BVH Processing with Scene Hierarchy Generator in Hardware
->
Level 5 – BVH traversal, BVH builder and full coherency sorting

Dat is al wat concreter dan Scene Hierarchy Generator :P
Toch geven ze van level 4 en 5 geen RL Data Flow diagrammen, waarschijnlijk het geheim van de smid en als je hun product koopt, krijg je dat "ingebakken" mee.

Je zou nog kunnen zeggen dat "Mega Geometry" in Blackwell en Nanite in UE5 pogingen zijn tot een BVH builder, zij het softwarematig. RDNA 4 met zijn "Oriented Bounding Boxes" en de kleinere footprint van BVH, verbetert de BVH wel, maar is daar nog geen poging toe. Maar ik geloof dat ze wel iets vergelijkbaars proberen met een Dense Geometry Format (DGF).

Full coherency sorting hebben ze nog geen van allen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-02 12:32
sunsmountain schreef op donderdag 9 oktober 2025 @ 23:54:
Dus native raster zou net zo snel kunnen zijn als upscaled raster, tenminste wanneer het om RT games gaat (immers RT is dan de bottleneck)?
Voor raster zitten we al heel lang tegen een scalability limiet aan. De render technieken voor raster veranderen niet meer, wat betekent dat het parallelisme tegen een muur aan loopt. Kijk maar eens naar de resultaten over de generaties heen, vooral bij Nvidia. Sweet spot loopt van 4k tot zo'n 6k FP32 ALU's. Exacte aantal verschilt tussen groen, rood en blauw door de SIMD grootte en indeling, maar zelfs bij ~6k ALU's zie je al verminderd rendement. Vergelijk de resultaten tussen die GPU's en de GPU's er omheen maar eens, vooral kijkend naar de prestaties op verschillende resoluties - en zet dat dan af tegen theoretische rekenkracht. De grotere GPU's van Nvidia zetten simpelweg geen zoden aan de dijk. Schaalt simpelweg niet meer.

Waarom? De render technieken kunnen simpelweg niet in zo'n niveau van parallelisme voorzien. En dat rest ons met slechts één factor waar raster momenteel sneller mee kan worden: kloksnelheid. En rara, wat zien we wanneer er geen kloksnelheid winst is? Teleurstelling, zoals met Blackwell.
Eens dat baked lighting vaak heel goed kan zijn, maar dat komt ook omdat de meeste RT implementaties niet volledig zijn (global illumination benadering, geen path tracing of oneindig aantal lichtbronnen, etc.).
Mja, dat ligt aan de beperkte hardware.
Ik neem dat je Shader Execution Reordering bedoelt, dat klinkt in de buurt van coherency sorting, maar net niet, vandaar de level "3,5" waarschijnlijk. Eens dat verbeteringen in cache en register geheugen wel dichter bij level 4 en 5 kunnen komen, omdat elke ray tracing geometrie / game scene weer net even anders is, anders gezegd ik zou niet weten hoe een hardware "Full Coherency Sorting" of "Scene Hierarchy Generator" er uit zou moeten zien, want elke willekeurige verzameling rays in een game scene is denk ik te verschillend.
Sorry, dat bedoelde ik inderdaad. Vergeten de afkorting uit te leggen :p

Maar ja, dat is wat 3,5 is - thread coherency sorting, maar enkel binnen een enkele workload (een SM). Verder dan dat vereist nieuwe hardware. Je moet de GPU dan alles zelf bij laten houden, wat nieuwe logica vereist en de juiste geheugen setup. Die data moet niet alleen beschikbaar zijn voor alle RT units, maar moet real-time beschikbaar zijn en coherent.
Aan de top wel ja, ga je bijvoorbeeld in Battlefield 6 van een 5080 naar een 5090, met meer dan dubbel zoveel motortjes (SM 80 -> 176) gaat de fps op 4k overkill van 70 naar maar 115 fps.
Maar de andere kant op merk je het verschil in motortjes wel, neem je de 5060 Ti met 38 SM motortjes (ietsje minder dan de helft), dan halveert je fps ook gewoon naar 35 fps, bij dezelfde settings, t.o.v. de 5080.
Precies dat. Onder de 60 clusters zie je nagenoeg lineaire schaling, boven de 80 gaat het hard achteruit en krijg je verminderd rendement.
Goed om te horen dat AMD's investeringen in de gedeelde cache voor WGP's, unified register / instruction cache, en infinity cache een mogelijk voordeel gaan geven voor Ray Tracing, ze kunnen het goed gebruiken met hun naar verluid 6% markt aandeel in nieuwe dGPU shipments (Jon Peddie Research).
Niet zo zeer dat hun opstelling nuttig is voor RT, het is meer dat hun opstelling van nature ze minder beperkt qua data rondpompen.
Toch geven ze van level 4 en 5 geen RL Data Flow diagrammen, waarschijnlijk het geheim van de smid en als je hun product koopt, krijg je dat "ingebakken" mee.
Nee, er is ergens een uitgebreider diagram, zal kijken of ik het kan vinden. Maar IT verkoopt tegenwoordig sowieso maar weinig, geen idee hoe ze nog bestaan :p
Je zou nog kunnen zeggen dat "Mega Geometry" in Blackwell en Nanite in UE5 pogingen zijn tot een BVH builder, zij het softwarematig.
Nee. Dat zijn optimalisaties om de BVH kleiner / efficiënter te maken (minder triangles én boxes om te testen). Qua hardware zit er hooguit iets voor decompressie in de RT core, de BVH wordt nog steeds niet op de GPU gebouwd of bijgehouden.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 24-02 21:27
Werelds schreef op vrijdag 10 oktober 2025 @ 11:56:
[...]

Nee. Dat zijn optimalisaties om de BVH kleiner / efficiënter te maken (minder triangles én boxes om te testen). Qua hardware zit er hooguit iets voor decompressie in de RT core, de BVH wordt nog steeds niet op de GPU gebouwd of bijgehouden.
Interessant hier is dat de nieuwe PS6 mogelijk wel dedicated AMD hardware gaat hebben voor de BVH (ze noemen het Ray traversal) bouwen en bijhouden:
YouTube: From Project Amethyst to the Future of Play: AMD and Sony Interactiv...

Om dit on topic Nvidia te houden: de CPU overhead bij Nvidia zou dan dus nog groter worden vergeleken met de concurrentie. Je hebt dan de DX12 calls en BVH op de CPU, tenzij Vera Rubin / RTX 6000 gaming GPU's verrassen. We'll see.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Steve nogal bearish over de pc / gpu consumer market. + de video start bij een slide met nogal insane numbers.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 08:08

Format-C

Tracing Rays

Dat er zoveel GPU's voor het/een leger gebruikt gaan worden is niet best.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX5090 Phantom/ Gbyte B650 GAMING PLUS/ 32GB G.Skill Z5 6000 CL30 / Team M2 1TB/ 990Pro M2 1TB/ MX500 1TB/ 5TB SATA / Gbyte WBAX200/ Corsair 1000w/ Scarlett Solo / AOC AG493UCX/ LG 65" OLED TV


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Help!!!! schreef op maandag 22 december 2025 @ 18:56:
Steve nogal bearish over de pc / gpu consumer market. + de video start bij een slide met nogal insane numbers.


[YouTube: NVIDIA: WTF?]
Het laat vooral zien dat Nvidia heer en meester is in de AI accelerator markt. Want dat Nvidia zo'n gigantische koper is van geheugen chips voor AI is niet omdat ze daarmee allemaal DLLS 5 gaan trainen, maar omdat ze die als complete oplossing doorverkopen aan hun klanten.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

- OPP program (nvidia AIB cashback om tegen msrp te kunnen verkopen) cancelled
- 5070Ti productie sterk gereduceerd tgv 5080


Der8auer


NVIDIA Ends "Open Price Program," Pushing GPUs Way Past MSRPs

[ Voor 51% gewijzigd door Help!!!! op 23-01-2026 13:56 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 08:08

Format-C

Tracing Rays

Ik zag gisteren in de HW Unboxed/ Moores law is dead collab podcast dat de beschikbaarheid van de gehele 5000 serie in 2026 zeeeeeer slecht zal zijn. De 5090 zal er nagenoeg niet zijn, de 5080 en 5070ti zeer slecht of niet verkrijgbaar. 5060ti 16gb niet verkrijgbaar....

Dus het wordt voor mensen die nog een 5000 kaart willen hebben lastig. Bijna onmogelijk.

Of heel duur.

[ Voor 20% gewijzigd door Format-C op 23-01-2026 11:55 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX5090 Phantom/ Gbyte B650 GAMING PLUS/ 32GB G.Skill Z5 6000 CL30 / Team M2 1TB/ 990Pro M2 1TB/ MX500 1TB/ 5TB SATA / Gbyte WBAX200/ Corsair 1000w/ Scarlett Solo / AOC AG493UCX/ LG 65" OLED TV


  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:36
Format-C schreef op vrijdag 23 januari 2026 @ 11:48:
Ik zag gisteren in de HW Unboxed/ Moores law is dead collab podcast dat de beschikbaarheid van de gehele 5000 serie in 2026 zeeeeeer slecht zal zijn. De 5090 zal er nagenoeg niet zijn, de 5080 en 5070ti zeer slecht of niet verkrijgbaar. 5060ti 16gb niet verkrijgbaar....

Dus het wordt voor mensen die nog een 5000 kaart willen hebben lastig. Bijna onmogelijk.

Of heel duur.

[YouTube: Nvidia RTX 50 Supply Lies, AMD RDNA 5 Strategy, Intel B770 | Hardware Unboxed | Broken Silicon 345]
Hou er wel rekening mee dat MLID een redelijk matig trackrecord* heeft als het over verkrijgbaarheid gaat. Ik zou er dus niet direct vanuit dat dit 100% klopt, in het filmpje hierboven geeft Der 8Auer bijvoorbeeld al weer aan dat 'bepaalde geruchten' (waarbij ik vermoed dat het gaat over de MLID leak) over verkrijgbaarheid niet kloppen.

*MLID riep hetzelfde tijdens bijvoorbeeld corona e.d. dat Nvidia toen veel minder supply had en wat niet meer. En dat AMD in het volume segment (RTX 3060 tegen ik meer de 6600XT uit mijn hoofd) veel meer zou leveren dan Nvidia en wat niet meer. Terwijl alle marktaandeel en install base cijfers eigenlijk exact het tegenovergestelde lieten zien de RTX 3060 was bijvoorbeeld razend populair en groeide relatief snel qua install base (en is volgens mij mogelijk nog steeds de meest gebruikte kaart in o.a. de Steam Survey), bij de RDNA 2 release zat AMD bijv. op +-17% markt aandeel, terwijl in het laatste kwartaal voor de RTX4000 / RDNA3 release ze nog maar 10% van de markt hadden.

Ik denk dat we minimaal de marktaandeel cijfers van Q1 2026 en mogelijk zelfs Q2 2026 moeten afwachten voordat we met enige zekerheid kunnen stellen dat deze stellingen van MLID kloppen. Hij geeft immers ook aan dat AMD volgens zijn leaks niet minder kaarten gaat maken dan geplanned (maar ook niet meer, wat logisch is gezien de geheugen problematiek). Als MLID's leaks dan zouden kloppen en Nvidia zou quasi niets meer produceren terwijl AMD hetzelfde volume zou verschepen zou je dan in Q1 / Q2 een scherpe stijging moeten zien van AMD's marktaandeel in die 3/6 maanden (meer dan een paar % de ene of de andere kant op zoals je nu eigenlijk ieder kwartaal ziet).

Het zal mijn inziens dus zeer interessant zijn om te zien of AMD ineens straks in 2026 echte stappen gaat zetten qua marktaandeel. Of dat, zoals in het verleden gebleken is, dat ondanks geruchten als deze, uiteindelijk het redelijk status quo blijft of Nvidia zelfs blijft groeien.

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 26-02 09:38
Sowieso altijd MLID vermijden als bron van waarheid. Hij heeft er al zo vaak ver vanaf gezeten dat het echt niet meer serieus te nemen is. Zal echt een pittig jaar worden voor de consument en de industrie op deze manier. Deze kunstmatige inflatie zal een behoorlijke dip geven in de verkoop van hardware en dat gaan alle partijen wel voelen in de omzet.

  • !mark
  • Registratie: November 2013
  • Laatst online: 14:10
sjekneck schreef op vrijdag 23 januari 2026 @ 16:14:
Sowieso altijd MLID vermijden als bron van waarheid. Hij heeft er al zo vaak ver vanaf gezeten dat het echt niet meer serieus te nemen is.
Dit x100.
MLID staat er toch wel een beetje om met hagel het ene naar het andere gerucht de ether in te schieten, dat er dan eens wat van uit komt kan bijna niet anders gezien de hoeveelheid, alleen zo veel blijkt achteraf gewoon fout/onzin. Voornamelijk de uplift van Zen4 naar Zen5 was zo ver van de werkelijkheid af als het maar kan.

Vind het dan ook erg jammer dat een kanaal wat ik wel vrij hoog heb zitten qua betrouwbaarheid als HW Unboxed zich leent voor een samenwerking met dit veredelde sensatiezoekend kanaal.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 00:36
!mark schreef op vrijdag 23 januari 2026 @ 16:42:
[...]


Vind het dan ook erg jammer dat een kanaal wat ik wel vrij hoog heb zitten qua betrouwbaarheid als HW Unboxed zich leent voor een samenwerking met dit veredelde sensatiezoekend kanaal.
Dat vind ik ook wel soms, maar ik moet wel zeggen dat op het gebied van dit soort zaken als verkopen / marktaandeel / installbase e.d. HuB de plank ook wel eens misslaat. Laatst was er bijv. een podcast over van Tim met iemand van Sapphire en wanneer het dan over marktaandeel gaat, komen ze ook gelijk met de steamsurvey om marktaandeel te duiden, terwijl de Steamsurvey bijvoorbeeld installbase meet en niet marktaandeel. En ook in hun eigen Q/A maand afsluitingingen en andere podcast afleveren halen ze marktaandeel en installbase regelmatig door elkaar, terwijl het compleet verschillende zaken zijn.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • jimh307
  • Registratie: Februari 2014
  • Niet online
Werelds schreef op maandag 6 oktober 2025 @ 09:48:
[...]

De upscalers/interpolators (DLSS, FSR, XESS) zijn geen vooruitgang, niet qua graphics rendering. Performance is niet beter, er wordt juist minder werk gedaan. De rekeneenheden die daarvoor gebruikt worden zijn ook niet nuttig voor daadwerkelijk renderen.

Die dingen zijn pleisters op een wonde en verhullen enkel het gebrek aan vooruitgang. Het is genereren van pixels/frames, niet rendering.


[...]

Jawel hoor. We zitten nog steeds op eerste generatie RT hardware; wat de GPU's nu doen is niet meer dan 7 jaar geleden toen de geforceerde transitie naar gedeeltelijke RT in werd gezet. Zodra één van de drie eindelijk uit vogelt hoe ze meer van het RT werk op de GPU kunnen doen zodat het schaalbaar wordt, zullen we een grote sprong zien - dan zullen we simultaan betere prestaties én beeldkwaliteit krijgen. Die stap zal minstens zo groot zijn als T&L toentertijd, zoniet groter.

Dat laatste klinkt wellicht tegenstrijdig, maar RT kan nu al prestatiewinst opleveren. Met name op soft shadows zijn er talloze situaties waar je via RT sneller klaar bent, vooral bij vele kleine objecten in een scène. Denoisers komen we niet vanaf, dat zal nog heel lang duren. Maar de huidige afhankelijkheid van de CPU wel, er wordt veel te veel aan de CPU kant gedaan om daadwerkelijk winst te boeken aan de GPU kant. En als het dan eenmaal op de GPU zit, wordt er ontiegelijk veel werk tienduizenden keren dubbel uitgevoerd omdat er geen coherency is. Als ze dat eindelijk in hardware doen, zullen er een hoop shaders niet meer nodig zijn en overgeslagen worden.
Hier ben ik het volledig mee eens. Ik gebruik ray tracing en frame gen, maar geen DLSS. Ik gebruik DLAA en dat is alleen anti aliasing zonder upscaling. Met een rtx4070 op 1080P360Hz heb je geen DLSS nodig. In veel Assassin's Creed titels heb je geen van deze technieken, maar gebruik ik downsampling wat er heel goed en scherp uitziet. In Odyssey is dit 1,40x waarbij het spel zeer soepel blijft lopen. Hier geen nood aan een nieuwe GPU en mijn 7800X3D houdt het prima bij ;)

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • chim0
  • Registratie: Mei 2000
  • Laatst online: 08:58
Zal wel bij specifieke kaarten zijn want hier is ie 2 weken geleden al geïnstalleerd met een 3060 nergens last van.

  • jimh307
  • Registratie: Februari 2014
  • Niet online
chim0 schreef op zondag 1 februari 2026 @ 04:04:
[...]

Zal wel bij specifieke kaarten zijn want hier is ie 2 weken geleden al geïnstalleerd met een 3060 nergens last van.
Hier op mijn gamerig met een rtx4070 ook nergens last van. Alles werkt zoals het hoort. Nu kan dit wel mooi zijn, maar dit neemt niet weg dat Microsoft flinke steken heeft laten vallen. Een update moet gewoon werken en met hun supercomputers moet zoiets meteen opvallen. Ik voel me een beetje een "shot missed" geval. Ik kruip door het oog van de naald en dit is precies wat me benauwd. Ik snap heel goed dat veel mensen naar Linux kijken. Het is dat OneDrive voor mij heel nuttig is door zijn automatische synchronisatie op al mijn apparaten, maar als dit wegvalt ga ik ook denken aan een andere oplossing.

Mijn laptop daarentegen slikt de update niet en loopt erop vast. Dat kost me een nieuwe Windows 11 installatie zónder die update. Nu kost een verse installatie niet veel tijd en hier hebben we bloedsnel internet zodat software er vlug weer opstaat, maar het geeft wel aan dat Windows vrij kwetsbaar is.

Nu heb ik de een na laatste Nvidia driver op PC en laptop, maar met die Nvidia drivers is/was ook een hoop mis waar ik wel degelijk last van had. AC Valhalla crashte toen heel vaak. YouTube deed soms raar en in AC Odyssey had ik heel vaak een CTD :F Kan het écht niet beter :?

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 08:58
@jimh307 Dit soort dingen zullen altijd blijven bestaan. Is met alles zo. We leven helaas niet in een "perfecte" wereld anders had het er heel anders uitgezien dan nu.

  • jimh307
  • Registratie: Februari 2014
  • Niet online
chim0 schreef op zondag 1 februari 2026 @ 18:24:
@jimh307 Dit soort dingen zullen altijd blijven bestaan. Is met alles zo. We leven helaas niet in een "perfecte" wereld anders had het er heel anders uitgezien dan nu.
Niets is perfect en ik blijf erbij dat Microsoft en co er nog goed mee wegkomen. Microsoft beloofd beterschap en dat zullen ze niet voor niets zeggen. Ik snap jouw opmerking goed en ik ben het er grotendeels mee eens, maar dit kun je gewoon niet verkopen aan je klanten. Ze hebben een gigantisch marktaandeel en ze kunnen het zich permitteren, maar dat kan ook omslaan. Kijk de jan26 update en zie Nvidia-drivers.

Er is gewoon werk aan de winkel en ze zijn groot geworden en het is lange tijd beter geweest, maar nu is het pet. Ook kan Microsoft veel geld besparen als ze betere updates maken want nu gaan er veel manuren inzitten voor noodpatches. Dit kan hoe dan ook niet de bedoeling zijn.

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 08:58
@jimh307 Tja vraag maar eens aan de kenners hoeveel problemen een Ferrari auto heeft. Zit je dan met je 2 miljoen. En dan heb ik het niet over het ontbreken van een bekerhouder. :X

  • Polyprobatos
  • Registratie: Maart 2017
  • Laatst online: 27-02 16:53
chim0 schreef op zondag 1 februari 2026 @ 04:04:
[...]

Zal wel bij specifieke kaarten zijn want hier is ie 2 weken geleden al geïnstalleerd met een 3060 nergens last van.
jimh307 schreef op zondag 1 februari 2026 @ 14:44:
[...]

Hier op mijn gamerig met een rtx4070 ook nergens last van.
Een 5070 hier, anderhalve maand oud. Ook nergens last van.

Ik laat KB5074109 dus maar geinstalleerd. Als ik hem nu verwijder, geeft dat misschien juist wel issues als de volgende updates die een fix met zich meebrengen geïnstalleerd worden.

  • jimh307
  • Registratie: Februari 2014
  • Niet online
Polyprobatos schreef op woensdag 11 februari 2026 @ 19:02:
[...]

[...]


Een 5070 hier, anderhalve maand oud. Ook nergens last van.

Ik laat KB5074109 dus maar geinstalleerd. Als ik hem nu verwijder, geeft dat misschien juist wel issues als de volgende updates die een fix met zich meebrengen geïnstalleerd worden.
Met de nieuwste KB5077181 update geen issues zover. De KB5074109 update gaf hier ook geen problemen. Ook de prestaties in games was zo als het moet lopen. Sowieso geen last van 'lag'.

Ik denk dat mijn geluk misschien te maken heeft met de eenvoud van mijn setup. Geen exotische hardware hier. Ik ben ook heel voorzichtig met software installeren en alleen de software die ik écht nodig heb kom erop te staan. Des te minder software en een des te minder complex systeem heb je wat de kans op problemen drastisch verminderd.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Interessant, fwiw:

ComputerBase conducted a massive online blind test, allowing thousands of gamers to vote on their preferred game video output.

Blind Testing Shows Gamers Prefer NVIDIA DLSS 4.5 Over Native Resolution Rendering and AMD FSR 4

Afbeeldingslocatie: https://tweakers.net/i/u2sL6qhGR5U_7n8_8xC8kxulyG0=/800x/filters:strip_icc():strip_exif()/f/image/OFFRM8qst1NxTrkHY55cldUj.jpg?f=fotoalbum_large

[ Voor 25% gewijzigd door Help!!!! op 18-02-2026 09:36 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Polyprobatos
  • Registratie: Maart 2017
  • Laatst online: 27-02 16:53
Help!!!! schreef op woensdag 18 februari 2026 @ 09:19:
Interessant, fwiw:

ComputerBase conducted a massive online blind test, allowing thousands of gamers to vote on their preferred game video output.
Ik denk dat DLSS vaak verkeerd begrepen/gebruikt wordt, niet in de laatste plaats misschien vanwege hoe NVIDIA zelf de technologie aanprijst.

Men haalt <60 FPS, verwacht dit te kunnen pushen met DLSS en is vervolgens ontevreden over de 'fake frames'.

Ik zit in ARC Raiders zónder DLSS op 180~200 FPS. Mét DLSS is dat >400 FPS. Die extra FPS kunnen me in theorie gestolen worden, want we zitten dan allang in het bereik dat een menselijk oog het verschil niet waarneemt. Toch is het beeld duidelijk vloeiender en scherper.

Het lijkt erop dat DLSS de overgangen tussen de frames opvult, afhankelijk wellicht ook van hoe efficient de 'echte' frames gegenereerd worden. Ik heb DLSS dus graag aan staan.

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 08:08

Format-C

Tracing Rays

Als je DLSS gebruikt heb je geen fake frames als je geen frame generation gebruikt. (Dan schaal je alleen een lagere reso op naar hoge reso

DLAA is anti aliasing en genereert ook geen fake frames.

Dus als je 50 fps zonder DLSS hebt en 80 met DLSS dan voelt dat laatste normaal gesproken vloeiender aan dan 50 FPS.

Als je 50 FPS hebt en frame generation gebruikt dan heb je misschien 100 fps maar dan voelt het nog steeds als 50. En dan heb er er niks aan.

Ik heb tot nu toe maar 1 game waarin in frame generation goed vind werken en dat is Avatar frontiers of pandora. Dat is zon beetje de enige game waarin ik het niet kan zien of voelen.


(Gelukkig heb ik dat ook niet echt nodig met mn 5090)

Mav van het artikel van @Help!!!! Is het wel duidelijk dat DLSS echt iets toevoegt. Mensen vinden dat vaak beter dan native en dat is toch knap van nV

Het jammere is dat we nu nog opgescheept zitten met een lading unreal 5 games die er niet uit zien als 2026 games en die vaak voor geen meter draaien... In die games is DLSS bijna een must als je alles maxed out wil spelen..(en zelfs maxed out zien sommige games er echt slecht uit, Avowed bv. Of ze draaien slecht (en hebben veel patches nodig), zoals bijv Stalker 2, Borderlands 4. Edit; laat ik het zo zeggen: de framerates die je in unreal 5 games haalt zijn naar mijn mening eigenlijk te laag voor wat je er aan graphics voor terug krijgt.)

Edit: Framegeneration werkt zws het beste als je al meer dan 60 fps hebt. Dus het is imho meer een feature om op hoge refresh rate monitoren te spelen dan om games speelbaar te maken.

[ Voor 46% gewijzigd door Format-C op 18-02-2026 15:26 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX5090 Phantom/ Gbyte B650 GAMING PLUS/ 32GB G.Skill Z5 6000 CL30 / Team M2 1TB/ 990Pro M2 1TB/ MX500 1TB/ 5TB SATA / Gbyte WBAX200/ Corsair 1000w/ Scarlett Solo / AOC AG493UCX/ LG 65" OLED TV


  • rapture
  • Registratie: Februari 2004
  • Nu online

rapture

Zelfs daar netwerken?

Help!!!! schreef op woensdag 18 februari 2026 @ 09:19:
Interessant, fwiw:

ComputerBase conducted a massive online blind test, allowing thousands of gamers to vote on their preferred game video output.

Blind Testing Shows Gamers Prefer NVIDIA DLSS 4.5 Over Native Resolution Rendering and AMD FSR 4

[Afbeelding]
De marketingafdeling heeft de smaken/voorkeuren van de gamers goed geïdentificeerd. Blurry games is een trend en als ze wat sharpening aan DLSS toevoegen dan vinden de mensen dat het mooier dan native eruit ziet.

Voor de grote multinationals is het normaal dat ze in elk land testen welke smaken/voorkeuren dat de bevolking heeft. Hetzelfde product in de supermarkt smaakt in een ander land anders omdat het op een andere bevolking afgesteld is. Zo ontstaat een markt voor de migranten/expats die eten uit hun thuisland importeren.

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 08:08

Format-C

Tracing Rays

Blurryness is wat voor mij games verpest.

Ik denk met weemoed terug aan MSAA met SuperSampling :9~

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX5090 Phantom/ Gbyte B650 GAMING PLUS/ 32GB G.Skill Z5 6000 CL30 / Team M2 1TB/ 990Pro M2 1TB/ MX500 1TB/ 5TB SATA / Gbyte WBAX200/ Corsair 1000w/ Scarlett Solo / AOC AG493UCX/ LG 65" OLED TV


  • jimh307
  • Registratie: Februari 2014
  • Niet online
Format-C schreef op woensdag 18 februari 2026 @ 12:33:

DLAA is anti aliasing en genereert ook geen fake frames.
Dat is helemaal correct en deze setting gebruik ik ook. Het is toch mooier dan opgeschaalde pixels.
Dus als je 50 fps zonder DLSS hebt en 80 met DLSS dan voelt dat laatste normaal gesproken vloeiender aan dan 50 FPS.

Als je 50 FPS hebt en frame generation gebruikt dan heb je misschien 100 fps maar dan voelt het nog steeds als 50. En dan heb er er niks aan.
Hier ben ik het niet mee eens. In TW3 had ik FG nodig om een goede framerate te krijgen en het voelt vloeiender aan, maar de vijanden in het spel bewogen inderdaad houteriger dan zonder FG. Als je bedoeld dat de inputlag hetzelfde blijft geef ik je wel gelijk. Met de moderne mogelijkheid om tot 6x FG te gebruiken zal de inputlag dramatisch worden. Ik zou dat nooit willen en dan maar een paar minder frames. FG is alleen goed als de basisframerate goed is. Koop je een mooie gamingmuis; gebruik je multi-FG. Zonde. Toch heb je zeker een punt hier, maar niet compleet ;)
Ik heb tot nu toe maar 1 game waarin in frame generation goed vind werken en dat is Avatar frontiers of pandora. Dat is zon beetje de enige game waarin ik het niet kan zien of voelen.


(Gelukkig heb ik dat ook niet echt nodig met mn 5090)
Met zo'n kaart wil je geen FG gebruiken. De 5090 is wel zo'n beuker van een kaart dat die 6x FG nooit nodig zal worden. Hier een eenvoudige 4070 op 1080p360Hz en ik kan alles op ultra settings spelen zonder poespas, maar ik hecht meer waarde aan soepele framerates dan resolutie. 360Hz is boterzacht.
Mav van het artikel van @Help!!!! Is het wel duidelijk dat DLSS echt iets toevoegt. Mensen vinden dat vaak beter dan native en dat is toch knap van nV
Deze mening deel ik persoonlijk niet. DLAA is echt 'far better' en zeker met sharpening.
Het jammere is dat we nu nog opgescheept zitten met een lading unreal 5 games die er niet uit zien als 2026 games en die vaak voor geen meter draaien... In die games is DLSS bijna een must als je alles maxed out wil spelen..(en zelfs maxed out zien sommige games er echt slecht uit, Avowed bv. Of ze draaien slecht (en hebben veel patches nodig), zoals bijv Stalker 2, Borderlands 4. Edit; laat ik het zo zeggen: de framerates die je in unreal 5 games haalt zijn naar mijn mening eigenlijk te laag voor wat je er aan graphics voor terug krijgt.)
Het optimaliseren van de Unreal 5 engine is een kwestie van tijd. Ik zal dus nergens suggereren dat DLSS slecht zou zijn en zeker niet met het nieuwe transformer model, maar DLAA is beter. Toch is een hogere framerate beter met DLSS als je kaart het nodig heeft zoals jij noemt in die games. Goede punten hier, maar een kwestie van tijd.
Edit: Framegeneration werkt zws het beste als je al meer dan 60 fps hebt. Dus het is imho meer een feature om op hoge refresh rate monitoren te spelen dan om games speelbaar te maken.

  • Polyprobatos
  • Registratie: Maart 2017
  • Laatst online: 27-02 16:53
[b]Format-C in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"Edit: Framegeneration werkt zws het beste als je al meer dan 60 fps hebt. Dus het is imho meer een feature om op hoge refresh rate monitoren te spelen dan om games speelbaar te maken.
My bad, maar dan hebben we het uiteindelijk dus over hetzelfde: framegeneration en het feit dat het vaak onterecht gezien wordt als middel om acceptabele FPS te halen, waar het vervolgens vaak bij faalt, terwijl het wél een goede middel is om reeds goede FPS beter weer te geven.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Probleem is denk ik dat voor velen toch onvoldoende duidelijk is dat DLSS verschillende onderdelen bevat die naast elkaar bestaan. En dat DLSS evolueert met de tijd. Er worden zowel features verbeterd als toegevoegd.

Daardoor onstaat al snel spraakverwarring als men het heeft over 'DLSS'.

(Even snel via AI:)
  • DLSS Super Resolution: Uses AI to upscale lower-resolution images into higher-resolution outputs, allowing games to run faster while maintaining sharp visuals.
  • DLSS Frame Generation (Multi Frame Generation): Leverages AI, including the Optical Flow Accelerator on RTX 40/50 series GPUs, to generate entirely new frames, increasing FPS up to 5x or more (in DLSS 4).
  • DLSS Ray Reconstruction: Replaces hand-tuned denoisers with an AI network trained by NVIDIA supercomputers to enhance the quality of lighting and shadows in ray-traced scenes.
  • Deep Learning Anti-Aliasing (DLAA): Uses the same AI technology as Super Resolution but applies it to native resolution images to provide higher-quality anti-aliasing.
  • NVIDIA Reflex: Integrated with Frame Generation to minimize input lag and latency, ensuring responsiveness.

[ Voor 4% gewijzigd door Help!!!! op 19-02-2026 10:56 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-02 12:32
De naam DLSS zelf was dan ook al onzin vanaf het begin en is inmiddels een merknaam, net als GeForce. Deep Learning Super Sampling. Super in de context van graphics betekent "meer dan nodig"; voor de output van één pixel, gebruik je meerdere input samples. Dus, op hogere resolutie renderen en dan downsamplen (klassiek SSAA) geeft je dat: je gebruikt meerdere pixels om één output pixel te berekenen. DLSS in z'n originele vorm ("Super" Resolution) gebruikt niet meerdere samples om één pixel te berekenen. Het gebruikt wel meerdere inputs (motion vectors, depth buffers), maar niet meerdere pixel samples; en het berekent een pixel ook niet, het "gokt" wat de pixel zou moeten zijn. Dat is nu eenmaal hoe "AI" momenteel werkt. Voor veel mensen lijken ze wel intelligent, maar LLM's (en ook alles wat onder DLSS valt) zijn cru gezegd kansberekening. Ze "denken" niet, ze berekenen welk token de hoogste kans heeft om "juist" te zijn en dat krijg jij op je scherm te zien van ChatGPT, Claude, etc. Vaak komt het dicht bij het gewenste resultaat in de buurt, mits je de juiste inputs (prompts) geeft, maar meestal is het net niet juist.

Geen van de DLSS features zijn supersampling, je kunt het hooguit multisampling noemen vanwege het temporele aspect. Super Resolution is upsampling, DLAA is downsampling en komt het dichtst bij Supersampling in de buurt. DLSS "SS" is TAAU met een neuraal netwerk om artifacts zo veel mogelijk op te lossen. MLTAAU ligt echter niet zo lekker in de mond :p

Wat CB's poll betreft ben ik het er overigens niet mee eens dat het een blinde test is. Een video is sowieso al problematisch, maar nu kun je ze side-by-side inzoomen en dergelijke, waardoor veel mensen op minuscule details letten. Zet ze eens op 3 monitors naast elkaar en kijk dan wat de uitkomst is; ik vermoed dat DLSS en FSR dan dichter bij elkaar zouden liggen, wel nog steeds met winst voor DLSS. Het hele punt van "good enough" komt dan echt tot z'n recht, want ja, voor velen zijn de resultaten goed genoeg. De reden dat de upscalers er dan waarschijnlijk alsnog bovenuit zouden steken is omdat "native" tegenwoordig helaas ofwel 0,0 AA betekent, of goedkope AA (FXAA) zonder sharpening. Vergeet niet dat de upscalers er ook meerdere post processing filters overheen laten lopen.

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 25-02 08:13
Werelds schreef op donderdag 19 februari 2026 @ 09:27:
Wat CB's poll betreft ben ik het er overigens niet mee eens dat het een blinde test is. Een video is sowieso al problematisch, maar nu kun je ze side-by-side inzoomen en dergelijke, waardoor veel mensen op minuscule details letten. Zet ze eens op 3 monitors naast elkaar en kijk dan wat de uitkomst is; ik vermoed dat DLSS en FSR dan dichter bij elkaar zouden liggen, wel nog steeds met winst voor DLSS.
Het is nog steeds wel een blinde test. Er was een optie "ik zie geen/weinig verschil". Als je 3 schermen naast elkaar zet dan gaat die optie gewoon vaker gekozen worden.

Waarom is een video trouwens problematisch? Ze kiezen juist voor videos omdat screenshots veel verbergen en veel zaken enkel te zien zijn in beweging. Het is de enige goede manier om TAA implementaties met elkaar te vergelijken. Als je wat geeft om IQ en weet waar je op moet letten dan ga je echt wel redelijk goed de verschillen kunnen zien. Vergeet niet dat er op CB al een voorselectie is door het soort mensen dat zo'n site bezoekt. Ik geef je gelijk dat de gemiddelde persoon niet veel verschil zal merken, net zoals je veel mensen hebt die geen verschil zullen zien tussen 120hz en 360hz terwijl ik dat onmiddellijk zie in beweging. Al denk ik ook wel dat als je de UFO test van Blurbusters gebruikt velen toch wel verschillen zullen zien, omdat het dan veel duidelijker vergeleken kan worden.
Werelds schreef op donderdag 19 februari 2026 @ 09:27:
De reden dat de upscalers er dan waarschijnlijk alsnog bovenuit zouden steken is omdat "native" tegenwoordig helaas ofwel 0,0 AA betekent, of goedkope AA (FXAA) zonder sharpening. Vergeet niet dat de upscalers er ook meerdere post processing filters overheen laten lopen.
Native betekent bijna altijd met TAA implementatie van de devs. Volgens mij kan je bij veel games zelfs niet meer kiezen? Ik denk niet dat iemand nog FXAA gebruikt. Games tegenwoordig worden in ieder geval gemaakt met het idee dat er een vorm van TAA zal gebruikt worden.

De meeste standaard TAA implementaties zijn niet al te best. Dat is ook de rede dat men al zo lang zegt dat DLSS beter is dan native. Je doet 1 stap achteruit door van een lagere resolutie te vertrekken maar wel 2 stappen vooruit door de veel betere TAA implementatie van DLSS.

1 van de grote nadelen van TAA is smearing, maar devs hebben gemerkt dat ze dit nadeel in een voordeel kunnen veranderen door het te gebruiken om effecten en vegetatie op een goedkope manier te renderen. DLSS 4.0 is echter heel sterk in dit te beperken en behoorlijk scherp in beweging. Zo goed zelfs dat ik onlangs (ik denk in FF7 Rebirth) een spel had waar DLSS 4.0 de bladeren van de bomen verknalde door te weinig smearing op de bladeren toe te passen. De bomen zagen er heel gelijkaardig uit met wat je kreeg door TAA uit te schakelen.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 20-02 12:32
napata schreef op donderdag 19 februari 2026 @ 10:46:
Als je 3 schermen naast elkaar zet dan gaat die optie gewoon vaker gekozen worden.
En dat is precies mijn punt ;)
Waarom is een video trouwens problematisch? Ze kiezen juist voor videos omdat screenshots veel verbergen en veel zaken enkel te zien zijn in beweging.
Screenshots zou inderdaad nog erger zijn. Met video heb je echter ook nog encoding artifacts bovenop de upscaling artifacts; dat versterkt elkaar. Je kunt ook pauzeren om op een enkel frame te focussen, wat niet representatief van de werkelijkheid is. En dan kun je ook nog inzoomen. Stilstaan in een spel is niet hetzelfde als het pauzeren van een video; ga maar eens van veel beweging naar complete stilstand in een spel, waarbij je dan expliciet focust op probleem gebieden van de gebruikte techniek (textures bij FSR, transparantie bij DLSS, zulke dingen). Je zult zien dat die artifacts oplossen door de extra temporele informatie van de voorgaande frames uit stilstand. Het beeld komt dan tot rust. Maar in beweging vallen die artifacts meestal niet op, of enkel onder bepaalde omstandigheden. Als je met een auto naast hekwerk rijdt of de camera draait, zul je transparantie artifacts niet zo zeer zien. Kijk je vervolgens naar een stilstaand beeld (ongeacht of dat een screenshot of een frame uit een video is), zie je dat wel. En bij hekwerk recht voor je, waarbij het hekwerk zelf dus niet echt beweegt, ook.
Native betekent bijna altijd met TAA implementatie van de devs. Volgens mij kan je bij veel games zelfs niet meer kiezen? Ik denk niet dat iemand nog FXAA gebruikt. Games tegenwoordig worden in ieder geval gemaakt met het idee dat er een vorm van TAA zal gebruikt worden.

De meeste standaard TAA implementaties zijn niet al te best. Dat is ook de rede dat men al zo lang zegt dat DLSS beter is dan native. Je doet 1 stap achteruit door van een lagere resolutie te vertrekken maar wel 2 stappen vooruit door de veel betere TAA implementatie van DLSS.
TAA is in de meeste gevallen min of meer Temporal FXAA, als je het temporele component even negeert, doen ze min of meer hetzelfde. En de meeste implementaties zijn inderdaad ruk. Het feit dat je meestal ook geen sharpening toe kunt passen (terwijl dat bij DLSS/FSR/XeSS ingebakken zit) is ook een probleem. Je ziet het maar zelden, maar SMAA TX geeft meestal betere resultaten (SMAA is sowieso beter dan FXAA), vooral met wat lichte sharpening. CoD dan weer niet echt omdat SMAA daar ook film grain betekent :')
1 van de grote nadelen van TAA is smearing, maar devs hebben gemerkt dat ze dit nadeel in een voordeel kunnen veranderen door het te gebruiken om effecten en vegetatie op een goedkope manier te renderen. DLSS 4.0 is echter heel sterk in dit te beperken en behoorlijk scherp in beweging. Zo goed zelfs dat ik onlangs (ik denk in FF7 Rebirth) een spel had waar DLSS 4.0 de bladeren van de bomen verknalde door te weinig smearing op de bladeren toe te passen. De bomen zagen er heel gelijkaardig uit met wat je kreeg door TAA uit te schakelen.
Mja, het grote probleem is dat het allemaal post-processing is en blijft. Het werkt op pixels, dus er is maar weinig extra informatie beschikbaar.
Pagina: 1 ... 135 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.