[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56 Vorige deel Overzicht

Pagina: 1 ... 135 136 Laatste
Acties:

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18:07
napata schreef op donderdag 5 juni 2025 @ 14:36:
[...]

Hier. Excuses, die link had ik in m'n eerste post er al aan toe moeten voegen. Het is zonder framegen. Zo'n kromme vergelijking ga je normaal niet vinden bij PCGH zonder dat het staat aangegeven.

3% sneller in raster, 18% in RT en 31% in PT. Hangt wel sterk af van resolutie. Op 4K met DLSS Q is de 4070Ti Super zelfs 43% sneller. Voor beiden is het wel onspeelbaar maar dat maakt voor dit argument weinig uit. Ik zie gelijkaardige % bij PT in andere games. Die gebruiken natuurlijk allemaal SER wat waarschijnlijk gedeeltelijk verantwoordelijk is voor de vooruitgang maar dat is ook deels hardware. In pure RT benchmarks zie je ook redelijke verschillen. Niet heel relevant voor games maar wel voor het argument dat ze er niet op vooruitgaan. Als ik zo eens kijk dan moet ik toch stellen dat je het niet bij het rechte eind hebt.
Ha. Excuses, ik kijk nooit naar PT en heb ook 0,0 interesse in AW in z'n algemeen, dus ik heb me nooit verdiept in die resultaten.

AW is eindelijk een voorbeeld waar SER impact heeft (zou eens tijd worden), maar de 4070 Ti Super is dan niet eens het beste voorbeeld. De 4070 en 4080 zitten beide ruim 35-40% boven waar ze zouden moeten zitten; de 4090 wint juist zo goed als niets. En ik zie ook meteen waarom. Het is evenredig met de verhouding tussen L2$ en aantal SM's. De 4070 Ti Super en 4090 komen L2$ tekort. Ook eindelijk een geval waar de L2$ nuttig blijkt.

Overigens niet echt een hardware wijziging, in de zin dat er iets heel erg nieuws is is. SER is een opt-in shader (vereist dus software implementatie) die een hit flag op true/false zet. En op basis daarvan herordent de scheduler de threads binnen een SM. Dat herordenen (sorteren) deed de scheduler al (is een kerntaak van die dingen :p), hij gebruikt daar nu een extra datapunt voor (en extra instructies, daarom zal het niet voor Ampère komen). Wat er qua hardware anders is, is het lokale geheugen gebruik. De manier waarop Nvidia het in de whitepapers beschrijft is dat de SER shader in feite alles in het geheugen dumpt, de bijbehorende threads stopt, een sort triggert en dan een nieuw wavefront aan maakt. Het is niet GPU-breed (dan hadden ze er wel melding van gemaakt), dus de impact is enigszins beperkt en SER kan dus ook nadelig zijn bij een slechte implementatie (veel stalls). Ik ben benieuwd of AMD het ook aan RDNA3 toe gaat voegen (SER komt in een driver update voor RDNA4), geen idee of hun instructieset dit al zou kunnen. Ze zijn immers wel flexibeler.

Neemt ook niet weg dat Nvidia's claims omtrent RT core performance nog steeds bullshit zijn. Een Ampère RT core zou 2x ray/tri doen ten opzichte van Turing; Ada zou daar wéér 2x op doen (en Blackwell nóg eens 2x). Maar in de praktijk zie je dat niet. SER _zou_ dat misschien wel kunnen laten zien, maar met het gigantische kloksnelheidsverschil is dat lastig te zien en de kloksnelheid doet er waarschijnlijk meer toe. Je zou al een clock-for-clock test moeten doen; GPU's met vergelijkbare aantallen SM's (en L2$ verhouding op Ada/Blackwell!), allemaal op 1500 MHz laten draaien ofzo en dan kijken wat er uit komt.
Dit geldt zowel voor AMD als Nvidia en hangt tevens af van game tot game alsook resolutie.
Game en resolutie doen er uiteraard toe, maar je ziet bij Nvidia weldegelijk vrij consistent dat RT 1080p en 1440p meer verbruikt. Is ook niet vreemd, omdat ze op die resoluties de bredere GPU's niet bezig kunnen houden met raster workloads, met RT wel omdat we daar een harde bottleneck hebben. Op 2160p is het wisselend, daar loop je met veel GPU's inderdaad altijd tegen de limiet aan. Bij AMD is dat een stuk minder, omdat die hun WGP's over het algemeen meer aan het werk hebben.

Overigens niet op TPU gebaseerd. Hun nieuwste methode ben ik ook geen fan van.
Sissors schreef op vrijdag 6 juni 2025 @ 12:46:
Meer transistoren voor extra functies (die actief gebruikt worden) is idd nadelig voor het stroomverbruik. Maar transistoren voor de primaire functie is positief normaal voor het stroomverbruik. Een 5070Ti die je op 5070 snelheid laat draaien, zal minder stroom verbruiken. Een cache hit is een stuk zuiniger dan memory access.
Een 5070 Ti draait al licht trager dan een 5070 en draait maar net even efficiënt :p

IC hits zullen inderdaad wat besparen, maar dat zal in verhouding niet veel zijn. De belangrijkste reden voor IC is juist performance. Memory access is traag, IC is minder traag.
Als AMD echt een niet verwaarloosbaar gedeelte van hun power en area budget gebruiken voor iets wat Nvidia in de drivers doet, dan zouden ze moeten overwegen dat ook in hun drivers te doen.
Oneens. Nvidia's CPU overhead brengt al wat problemen met zich mee waardoor hun GPU's niet lekker schalen qua grootte. En juist voor RT willen we minder afhankelijk van de CPU worden dan nu het geval is. Alle scheduling en dergelijke in de driver doen maakt het geheel ook foutgevoelig en vereist een gigantisch software team. Je hardware scheduler kun je met je GPU mee schalen, een driver is afhankelijk van de onderliggende CPU. Er zijn wel meer dingen die één van beide ooit in een driver deed, wat toch echt beter in hardware kon.

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 01:06

CMT

XWB schreef op vrijdag 6 juni 2025 @ 11:38:
[...]


AMD's marktaandeel in de AIB markt is inmiddels onder de 10% gedoken, vooralsnog pakt AMD niets terug. Het is ook best een flinke daling: van 15% in Q4 naar afgerond 8% in Q1.

[Afbeelding]


[...]


In de totale GPU markt liggen de verhoudingen anders.
Hmm ik vind het erg lastig om iets uit deze percentages te halen.
Hoe relevant is dit voor de dGPU verkoop aan consumenten en dan met name aan gamers?
Het zou mij niet verbazen als het leeuwendeel van de omzetgroei bij AIB's te danken is aan bijv. de 5090.
Met bedragen van €2500-4000/ stuk gaat het hard met de omzet.

Weet iemand of gpu's in laptops ook onder de AIB noemer vallen?

  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:09
CMT schreef op vrijdag 6 juni 2025 @ 14:37:
[...]

Hmm ik vind het erg lastig om iets uit deze percentages te halen.
Hoe relevant is dit voor de dGPU verkoop aan consumenten en dan met name aan gamers?
Het zou mij niet verbazen als het leeuwendeel van de omzetgroei bij AIB's te danken is aan bijv. de 5090.
Met bedragen van €2500-4000/ stuk gaat het hard met de omzet.

Weet iemand of gpu's in laptops ook onder de AIB noemer vallen?
Dit is unit share, geen omzet share, van iedere 100 door AIB's geshipte insteekkaarten met een dGPU in Q1 zijn er dus gemiddeld 92 units van Nvidia, 8 van AMD en 0 van Intel. Een enkele 5090 of RX 9070XT zou dus net zo veel gewicht in deze schaal leggen als een enkele 5060 (als er al 5060's door Nvidia shipped zijn in Q1, ik vermoed van wel, maar het zou natuurlijk kunnen van niet, omdat het een midden Q2 product is voor de retail) of B580

Normaliter vallen valt laptop niet onder AIB unitshare, maar voor zover ik weet wel de insteekkaarten in bijv. HP / Dell en Boutique prebuilds.

quote van tom's hardware over dit rapport:
The industry shipped 9.2 million standalone graphics processing units for desktop PCs during the first quarter, up 8.5% compared to the prior quarter and by 5.3% on an annual basis. In terms of market share dynamics, Nvidia was the only major vendor to expand its position, gaining 8.5%. AMD’s share declined by 7.3%, while Intel's share saw a smaller contraction of 1.2%.

AMD's GPU shipments totaled approximately 740,000 to 750,000 units, the company's worst results in three years. To make matters worse, for the first time in decades (if not ever), the quarterly sales of AMD GPUs declined despite the launch of new halo products.

Nvidia sold around 8.46 million standalone graphics processors for desktops, the company's best result in three years, especially keeping in mind that the company sold quite expensive products ($379 - $1999) during the first quarter and these products happen to be some of the best graphics cards around.
Tom heeft ook nog wat meer duiding: https://www.tomshardware....s-nvidia-extends-its-lead

Waar het dus op lijkt is, zoals ik hier ook al aangaf: Dennism in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"

Dat AMD dus de RX 9070 modellen (grotendeels) in Q4 geleverd heeft, vandaar die piek in Q4 van 12 naar 15% AIB share wat op zich logisch is, want alles leek te wijzen op dee CES introductie met daarna direct verkrijgbaarheid, de kaarten lagen immers al bij diverse retailers in redelijk volume, tot AMD de introductie vermoedelijk uitstelde.

Maar dit lijkt er dus ook op te wijzen dat AMD daar in Q1 niet op heeft doorgepakt en dus niet de productie verder opgehoogd heeft zoals gebruikelijk om na een introductie het volume verder te verhogen en de verkrijgbaarheid te verbeteren na de launch, maar juist veel minder heeft geleverd in Q1 dan in het kwartaal ervoor in units.

Tis jammer dat we dit artikel niet gratis kunnen lezen..... Ben heel benieuwd wat hier instaat met welke duiding: https://www.jonpeddie.com/techwatch/game-over/

[ Voor 56% gewijzigd door Dennism op 06-06-2025 16:21 ]


  • CMT
  • Registratie: Januari 2003
  • Laatst online: 01:06

CMT

@Dennism
Ah zo, ja dat maakt een stuk meer duidelijk. Bedankt.
Ik zou het merkwaardig hebben gevonden als AMD marktaandeel heeft weten te veroveren met de huidige prijsstelling. Dat is imho veel te hoog om twijfelaars over de streep te trekken.
Nu lijkt het mij wel zo dat de cijfers enigszins verbloemt worden, doordat er geen onderscheid gemaakt wordt tussen de consumenten en zakelijke markt (pro kaarten) en het feit dat de consumenten 5090's vanwege de 32GB ook erg in trek is puur voor video / AI toepassingen.

Het zal mij benieuwen of de FTC ingrijpt wanneer het het verschil nog schrijnender wordt.
Hopelijk wordt UDNA het Zen moment voor de GPU divisie van AMD.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Mja, 750.000 (AMD) versus 8 miljoen (Nvidia) shipments is nogal een gat om te overbruggen... als AMD dat ooit wil inhalen moet het ook forse capaciteit inkopen bij TSMC.

March of the Eagles


  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:09
@CMT Zakelijke markt doet hier niet heel veel vermoed ik qua volume, mensen lijken vaak te denken dat die markt heel veel invloed heeft. Kijk je echter naar de marges daar (die veel hoger zijn dan in het gaming segment), lijkt het volume vrij laag te zijn. Nvidia zet bijv in Q1 3.8 miljard om in gaming (RTX en Switch), AMD 647 miljoen (Radeon en semi custom gaming SoC's, o.a. consoles), en Nvidia's dGPU segment voor de zakelijke markt is zelfs qua omzet nog minder dan AMD's gaming segment met 509 miljoen, kijk je echter naar de marges daar (een GB202 in een 5090 gaat in retail voor $1999 MSRP weg, een RTX Blackwell pro kaart voor +-10k uit mijn hoofd) dan kan je daar wel uit afleiden dat wanneer die markt in omzet al zo klein is, door de veel hogere marges per unit de volumes in die markt qua units shipped nog veel kleiner zijn, anders zou de omzet van dat markt segment vele malen hoger moeten zijn.

[ Voor 9% gewijzigd door Dennism op 06-06-2025 18:07 ]


  • CMT
  • Registratie: Januari 2003
  • Laatst online: 01:06

CMT

Leuk voor een inkijkje in hoe duur de Samsung 3GB GDDR7 chips nu zijn met verkoop via een 3e partij.
Van Chinese yuan naar euro is dat omgerekend minimaal €8.84/chip.
Dat is toch best pittig. Dan snap ik wel waarom AIB's een pakket afnemen van Nvidia.

https://videocardz.com/ne...x-5090-48gb-mods-incoming

Afbeeldingslocatie: https://cdn.videocardz.com/1/2025/06/SAMSUNG-3GB-GDDR7.jpg

  • !mark
  • Registratie: November 2013
  • Laatst online: 18-03 18:44
CMT schreef op maandag 9 juni 2025 @ 17:46:
Leuk voor een inkijkje in hoe duur de Samsung 3GB GDDR7 chips nu zijn met verkoop via een 3e partij.
Van Chinese yuan naar euro is dat omgerekend minimaal €8.84/chip.
Dat is toch best pittig. Dan snap ik wel waarom AIB's een pakket afnemen van Nvidia.
Dat valt mij juist heel erg mee, dan zit je op 36, 54 resp. 72 euro voor 12, 18 of 24GB GDDR7 i.p.v. 8, 12 en 16 nu. Waarbij je nog rekening moet hadden dat met de volumes welke AIBs kunnen inkomen de stukprijs naar beneden gaat en de 2GB modules welke ze vervangen ook niet gratis zijn waardoor de meerprijs nog een stuk lager ligt.

  • meljor
  • Registratie: November 2004
  • Laatst online: 18-03 11:19
!mark schreef op maandag 9 juni 2025 @ 18:24:
[...]

Dat valt mij juist heel erg mee, dan zit je op 36, 54 resp. 72 euro voor 12, 18 of 24GB GDDR7 i.p.v. 8, 12 en 16 nu. Waarbij je nog rekening moet hadden dat met de volumes welke AIBs kunnen inkomen de stukprijs naar beneden gaat en de 2GB modules welke ze vervangen ook niet gratis zijn waardoor de meerprijs nog een stuk lager ligt.
Valt mij ook erg mee. 5080 met 24gb zouden als warme broodjes gaan. Ook nog voor iets hogere prijzen.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

'Glimmers of hope' 8) :

Igor: NVIDIA removes China from its sales forecasts – When export controls become a business risk

“Our forecasts no longer include China in the future.” This dry statement by Jensen Huang to Reuters may sound sober, but it is a strategic tremor. Just a few years ago, China was a goldmine for NVIDIA. Now it is becoming an unpredictable risk.

The reason? The increasingly strict US export controls, which are now banning even trimmed AI chips such as the H20 from the Chinese market. What used to mean predictability is now a geopolitical roulette.

The consequence: NVIDIA is not cutting China because it wants to, but because it has to. A sales region the size of a continent is simply being “booked out”

___

Ze zullen de chips vast wel kwijt kunnen in het westen. Maar zoniet, mag een mens dan hopen: Lagere prijzen, betere leverbaarheid gamingchips. :9

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • meljor
  • Registratie: November 2004
  • Laatst online: 18-03 11:19
Help!!!! schreef op zaterdag 14 juni 2025 @ 10:17:
'Glimmers of hope' 8) :

Igor: NVIDIA removes China from its sales forecasts – When export controls become a business risk

“Our forecasts no longer include China in the future.” This dry statement by Jensen Huang to Reuters may sound sober, but it is a strategic tremor. Just a few years ago, China was a goldmine for NVIDIA. Now it is becoming an unpredictable risk.

The reason? The increasingly strict US export controls, which are now banning even trimmed AI chips such as the H20 from the Chinese market. What used to mean predictability is now a geopolitical roulette.

The consequence: NVIDIA is not cutting China because it wants to, but because it has to. A sales region the size of a continent is simply being “booked out”

___

Ze zullen de chips vast wel kwijt kunnen in het westen. Maar zoniet, mag een mens dan hopen: Lagere prijzen, betere leverbaarheid gamingchips. :9
Via een "backdoor" komen er vast nog genoeg in China terecht. Handel is handel.

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 01:06

CMT

@Help!!!!

We blijven hopen ^^. Het is toch een behoorlijk stuk van de taart / chip allocatie als China niet meer als afzetmarkt beschouwt wordt. Maar of hiermee de gamers ook weer uit het verdomhoekje komen?

  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:09
CMT schreef op zondag 15 juni 2025 @ 22:07:
@Help!!!!

We blijven hopen ^^. Het is toch een behoorlijk stuk van de taart / chip allocatie als China niet meer als afzetmarkt beschouwt wordt. Maar of hiermee de gamers ook weer uit het verdomhoekje komen?
Zodra gaming weer de hoogste marge is die ze ook daadwerkelijk kunnen verkopen, uiteraard. Maar ik zie dat niet snel gebeuren. Dan moet er wel heel van handel wegvallen. Er was immers ook sprake van dat Nvidia (en volgens mij de anderen ook) Chinese business al tijden naar voren aan het halen zijn om maar zoveel mogelijk te kunnen leveren tot men vanuit de US echt aangeeft van 'nu stoppen we met de export naar China van AI server chips', waardoor de 'backlog' voor Non-China ook flink opgelopen zou zijn met extreem lange leadtimes. Voor de eerste tijd zullen ze dus waarschijnlijk makkelijk die backlog kunnen gaan vullen, zou het inderdaad zo zijn dat er een volledige 'China stop' komt.

Vooralsnog lijkt het er immers op dat het enkel een 'dingetje' is voor de SEC / aandeelhouders, omzet voor China wordt niet meer meegenomen in de forward looking statements, zodat Nvidia niet nat kan gaan zou die omzet ineens voor 100% wegvallen, terwijl ze aandeelhouders er wel lekker mee hebben gemaakt.

En het zou me verder ook weinig verbazen als zoals @meljor al aangeeft een deel van die chips wel via 'alternative routes' China zullen bereiken, en dat ineens in China de vraag zal stijgen naar andere kaarten die niet onder het huidige verbod vallen. Dat zal nog wel even een 'kat en muis' spelletje blijven vermoed ik tussen Nvida en de US regering waarbij Nvidia met nieuwe cut down Sku's komt en de regering die dan weer verbied met nieuwe regels.

Niet dat dit Nvidia's bottomline niet zal raken, maar met hoeveel, zeker op korte termijn gaat wel de vraag zijn.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

fwiw:

CUDA on RISC-V: NVIDIA’s silent stab in the back against the x86/ARM cartel

Anyone who thought that NVIDIA would continue to cuddle up in its wedding bed with ARM while secretly displacing AMD GPUs must have missed the clattering in the RISC-V workshop.

Because what has been quietly announced here is nothing less than a seismic tremor in the foundations of the AI infrastructure: CUDA is now running on RISC-V processors.

This is not just a technical curiosity, but a strategic broadside against the architecture duopolists x86 and ARM. And exactly where it hurts the most, in the heart of the AI power centers: data centers, edge computing and AI accelerator solutions.

etc...

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Gezien hoever weg RISCV zover ik weet is van x86 / ARM voor high end toepassingen, ben ik erg benieuwd of dit een serieus iets is binnen Nvidia, of meer een zij-project die half uit marketing budgetten wordt betaald. Uiteindelijk wil Nvidia natuurlijk gewoon dat hun hardware met zoveel mogelijk andere samenwerkt, zodat je geen reden hebt om naar de concurrent over te stappen. Maar volgens mij is igorslab wel heel erg de impact hiervan aan het overdrijven.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nou die durven wel bij GamersNexus. Ze zijn gewoon gaan graven naar hoe Nvidia GPU's die niet naar China geëxporteerd mogen worden, daar toch terechtkomen. En Nvidia zou er van weten en de andere kant opkijken.
Dit is een introductie, op de 15de komt de hele video.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:09
Ook gezien inderdaad, vond deze intro nog wel wat nietszeggend, met als die duidingen met zaken als 'blackmarket' e.d. terwijl een deel van die handel mogelijk gewoon legaal is, ook is de VS er niet blij mee.

Hoop wel dat ie in het 'eindproduct', met namen en rugnummers van eventuele US partijen die de initiele verkopen doen en dat het niet grotendeels gaat over de handel en wandel in China / Azie, want zodra die kaarten daar zijn c.q. niet met in eigendom zijn van een Amerikaanse entiteit is er een grote kans dat de tussenhandel gewoon binnen de wetten daar valt. En dan kan ook Nvidia er weinig meer aan doen, al zullen die sowieso niet meer willen doen dan het minimale, kijk bijv. ook naar AMD's datacenter cijfers van vorige week die flink geraakt worden door het China verhaal, dat zal bij Nvidia niet anders zijn vermoed ik.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Oke, dat is 3,5 uur. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:09
Zal even duren voor ik tijd heb deze te kijken, maar de reddit reviews zijn niet direct lovend. Veel commentaren dat het te lang is, er stukken in zitten die voor de casus (het smokkelen van GPU's) niet heel erg interessant zijn, er teveel herhaling in zit en zoals ik al vermoedde, er te veel focus is op de China / Azie kant van het verhaal, in plaats van de US kant, terwijl als er verboden zaken gebeuren, dat vooral zal gebeuren zolang de kaarten nog in handen zijn van zakelijk US entiteiten.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Denk dat 3.5 uur ook een beetje teveel van het goede is om de boodschap goed neer te zetten.

Steve is bezig om te diversificeren en meer de kant van investigative journalism en consumer advocacy op te gaan. Zie ook zijn relatief nieuwe kanaal: GNCA - GamersNexus Consumer Advocacy

Het zal vast allemaal nog niet perfect zijn en af en toe draaft hij nogal door maar ik vind het een goede ontwikkeling.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Yonix
  • Registratie: April 2004
  • Laatst online: 23:14
Bijzonder dat Tweakers hier nog niets over heeft gepubliceerd. Misschien zijn ze bang voor de gevolgen? Looking at Nvidia. 👀

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Het is inderdaad erg lang, te lang geworden.
Maar de essentie lijkt te zijn dat die GPU's gewoon naar China worden verscheept vanuit TSMC om geassembleerd te worden en dan "van de vrachtwagen vallen". Nvidia zal er echt wel van weten, maar lijkt de andere kant op te kijken. Daarnaast lijken videokaarten op meerdere plekken buiten China opgekocht te worden en alsnog China gesmokkeld te worden.

Ondertussen is de video ook offline gehaald vanwege een vage copyright strike van Bloomberg. Dat wordt de volgende video. :P
https://www.youtube.com/p...ahdEqjmbr2ki2vkhRNZ3N17Y7

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:09
Yonix schreef op zaterdag 23 augustus 2025 @ 12:36:
[...]


Bijzonder dat Tweakers hier nog niets over heeft gepubliceerd. Misschien zijn ze bang voor de gevolgen? Looking at Nvidia. 👀
Ik vermoed eerder omdat het lang niet zo interessant lijkt dan men deed / doet vermoeden. Als het er nu over ging dat bijv. H200 massaal gesmokkeld zou worden naar China vanuit de US, door US bedrijven, was dat natuurlijk heel erg interessant geweest.

Maar als het inderdaad is zoals o.a. op reddit wordt aangegeven, maar ook wat @DaniëlWW2 lijkt aan te geven dat het voornamelijk een langdradig verhaal is geworden dat gaat over bedrijvigheid aangaande gaming / prosumer kaarten in China / Azië waar deze handel mogelijk niet eens verboden is het eigenlijk niet eens zo heel erg nieuwswaardig en dus ook niet heel erg bijzonder dat dit niet direct globaal wordt opgepakt in de media.

En daarom kon ik de video dus niet vinden gister....

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 02:13
Wanneer verwachten jullie de 6080? Volgend jaar al?

  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:09
@Yonix Nu wel een vermelding op de FP, al gaat dat niet direct over de inhoud van de video, maar meer over het Bloomberg 'gedoe'. nieuws: YouTube accepteert tegenclaim Gamers Nexus over offline gehaalde docu...

  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:09
MetalSonic schreef op maandag 25 augustus 2025 @ 08:48:
Wanneer verwachten jullie de 6080? Volgend jaar al?
Normaliter ergens eind 2026 / begin 2027.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
nieuws: Omzet Nvidia uit consumenten-gpu's groeit, omzet datacenter-gpu's gro...

De omzet uit gaming is weer gestegen, dat lijkt me voor de doelgroep in dit topic wel relevant:
De omzet van Nvidia die komt uit videokaarten voor consumenten, vooral voor gaming, groeide met 49 procent ten opzichte van dezelfde periode vorig jaar. De omzet uit videokaarten voor datacenters groeide in diezelfde periode met 56 procent.

De omzet uit videokaarten voor gaming groeide zo sterk vanwege de release van de RTX5000-serie aan videokaarten, zoals de RTX5060 in mei. Vorig jaar was er geen nieuwe serie aan videokaarten op de markt. De vraag naar videokaarten voor datacenters groeide sterk door de AI-trend van afgelopen jaren.

March of the Eagles


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Yikes, gelukkig hebben ze bij AMD nog de console markt waarvoor ze toch GPUs moeten ontwerpen, anders was ik me echt zorgen gaan maken dat ze uit de GPU markt zouden stappen.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
En een Nederlandstalig artikeltje:

nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...

Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?

March of the Eagles


  • rapture
  • Registratie: Februari 2004
  • Laatst online: 03:01

rapture

Zelfs daar netwerken?

XWB schreef op woensdag 3 september 2025 @ 20:46:
En een Nederlandstalig artikeltje:

nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...

Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?
Doet mij denken aan de Nvidia strategie in het begin versus 3dfx.
  • Nvidia had de focus op de OEM's gezet. Zorg dat de leken in hun Dell, HP,... PC's een Nvidia grafische kaart hebben. Zo kregen ze stabiele continue omzet en winst ongeacht wat de gamers, reviewers,... ervan vinden en wie de performancekroon heeft. Zie ook de mensen die default Intel kiezen of Intel voorgeschoteld krijgen.
  • 3dfx had een AIB (bedrijf die losse chips koopt en grafische kaarten ervan maakt) opgekocht en wou de marges van de AIB's voor zichzelf houden. Een groot deel van hun distributienetwerk buitengooien.
Nvidia moet wel idioot veel grafische kaarten aan de OEM's leveren.

Als ik naar afdankertjes bij klanten kijk, dat zijn veel Quadro's met 4 mini-DisplayPort uitgangen om meerdere schermen aan te sturen en/of video decoding.

Het is een vertekend beeld als deze kaarten in zakelijke computers meetellen.
Afbeeldingslocatie: https://blog.pny.com/hubfs/T-Series-Blog-main-list-view.jpg

Voor ons begint een budget grafische kaart met minstens 1x 8-pin PCIe connector en rond 150W TDP? Beetje mid-end grafische kaart stookt toch rond 300W, heeft 3 fans, is 3-slot dik en langer dan een liniaal (30cm).

  • meljor
  • Registratie: November 2004
  • Laatst online: 18-03 11:19
XWB schreef op woensdag 3 september 2025 @ 20:46:
En een Nederlandstalig artikeltje:

nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...

Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?
Dominant zijn in de highend helpt ook altijd. 5070ti is lichtelijk beter (ook duurder), 5080 kent geen concurrentie en 5090 zit compleet op een eigen eiland.....
AMD had net even wat scherper moeten prijzen nog nu ze een redelijke kans hadden in het midden segment. In plaats daarvan bieden ze wederom een fractie mindere kaarten voor een fractie lagere prijs. Not good enough.

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Ik blijf me afvragen hoeveel dat hoge segment uitmaakt. En ja ik weet dat mensen zeggen dat als je daar de kroon hebt, mensen ook mindere kaarten van je gaan kopen, maar is dat echt zo'n groot effect?

Algemeen op het internet is het toch voor een link gedeelte "pro AMD", als je ook kijkt naar Youtube influencers, maar ook een Tweakers was veel enthousiaster over de AMD kaarten als de Nvidia. En toch doet Nvidia het gewoon veel beter. Misschien gedeeltelijk omdat er heel hard geklaagd wordt op de prijs van Nvidia, maar niet op de performance (ook al is het natuurlijk gelinkt aan elkaar). Onder de streep is AMD ook de underdog, maar ze blijven voor de "€50 minder voor zelfde performance" strategie gaan. En eerlijk is eerlijk, vraag is als ze €150 goedkoper gaan of Nvidia dan niet ook gewoon de prijs meeverlaagt. Al zou ik ook denken dat die liever een ~80% marktaandeel hebben: Meer dan zat zonder dat concurrentiewaakhonden het wel erg twijfelachtig gaan vinden.

  • meljor
  • Registratie: November 2004
  • Laatst online: 18-03 11:19
Sissors schreef op woensdag 3 september 2025 @ 23:20:
Ik blijf me afvragen hoeveel dat hoge segment uitmaakt. En ja ik weet dat mensen zeggen dat als je daar de kroon hebt, mensen ook mindere kaarten van je gaan kopen, maar is dat echt zo'n groot effect?

Algemeen op het internet is het toch voor een link gedeelte "pro AMD", als je ook kijkt naar Youtube influencers, maar ook een Tweakers was veel enthousiaster over de AMD kaarten als de AMD. En toch doet Nvidia het gewoon veel beter. Misschien gedeeltelijk omdat er heel hard geklaagd wordt op de prijs van Nvidia, maar niet op de performance (ook al is het natuurlijk gelinkt aan elkaar). Onder de streep is AMD ook de underdog, maar ze blijven voor de "€50 minder voor zelfde performance" strategie gaan. En eerlijk is eerlijk, vraag is als ze €150 goedkoper gaan of Nvidia dan niet ook gewoon de prijs meeverlaagt. Al zou ik ook denken dat die liever een ~80% marktaandeel hebben: Meer dan zat zonder dat concurrentiewaakhonden het wel erg twijfelachtig gaan vinden.
Zijn al generaties lang "de beste" dus dat werkt wel door. Verder zijn er veel mensen die alleen maar een "GeForce" kopen want dat is goed

Net als de "pentium" nog steeds sterk is qua bekendheid. Velen kopen zelfs nu nog liever een Intel dan een Amd want Amd was altijd zo "slecht".

Zulke dingen hebben dus sowieso tijd nodig maar je moet ergens beginnen met een extreem goede indruk, en daar slaagt Amd steeds niet in door domweg teveel achter Nvidia aan te hobbelen.

Persoonlijk kijk ik vooral naar functies, bang for buck en de fuckups in het verleden.

Zo hoef ik voorlopig geen Intel na 13th/14th gen gepruts.
Geen Asrock borden voorlopig na am4 vrm's en am5 dode cpu's.
En Nvidia wil ook graag op mijn lijstje vanwege gesmolten connectors, black screens en de driver problemen van afgelopen maanden.

Had Amd high end gehad dan had ik gewoon weer Amd gekocht deze gen. Is mij altijd prima bevallen qua cpu's en gpu's (tot nu toe).

[ Voor 13% gewijzigd door meljor op 04-09-2025 12:55 ]


  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 20-03 14:35
Sissors schreef op woensdag 3 september 2025 @ 23:20:
Ik blijf me afvragen hoeveel dat hoge segment uitmaakt. En ja ik weet dat mensen zeggen dat als je daar de kroon hebt, mensen ook mindere kaarten van je gaan kopen, maar is dat echt zo'n groot effect?

Algemeen op het internet is het toch voor een link gedeelte "pro AMD", als je ook kijkt naar Youtube influencers, maar ook een Tweakers was veel enthousiaster over de AMD kaarten als de AMD. En toch doet Nvidia het gewoon veel beter. Misschien gedeeltelijk omdat er heel hard geklaagd wordt op de prijs van Nvidia, maar niet op de performance (ook al is het natuurlijk gelinkt aan elkaar). Onder de streep is AMD ook de underdog, maar ze blijven voor de "€50 minder voor zelfde performance" strategie gaan. En eerlijk is eerlijk, vraag is als ze €150 goedkoper gaan of Nvidia dan niet ook gewoon de prijs meeverlaagt. Al zou ik ook denken dat die liever een ~80% marktaandeel hebben: Meer dan zat zonder dat concurrentiewaakhonden het wel erg twijfelachtig gaan vinden.
Hoger segment geeft bragging rights en dat zien toch best veel mensen. Heel veel reviews nemen vaak de uiterste producten mee in de test. Daarom zie je heel vaak de 5090 en ook de 9800X3D en bijna iedereen kent ze wel. Nvidia is voor de minder bekende dus de snelste.

Maar in de praktijk is het volgens mij eerder een combinatie van factoren:
(let op dit is puur mijn mening, niet een feitenlijst)

Stabiliteit en vertrouwen
Bij Nvidia weet je dat je elke generatie een complete line-up hebt van high tot low end. Bij AMD is het elke generatie weer afwachten of ze überhaupt wel een high end zullen uitbrengen.

First to market
Nvidia legt al generaties lang de lat en AMD wacht constant met releasen om te kunnen antwoorden op Nvidia. Namen en prijzen worden soms kort voor lancering aangepast. Kortom, ze vertrouwen zelf niet in hun eigen producten en willen koste wat kost Nvidia kunnen counteren.

Naam en naamgeving
Geforce + hoger nummer = superduidelijk. Je weet gelijk over welke generatie het gaat en het tweede deel laat duidelijk zien in welke stack je koopt. AMD maakt hier geregeld een zooi van door weer de gehele naamgeving op de schop te gooien. Soms nog erger, spelen met het tweede deel van de cijfers om sneller te lijken (RX 7000)

Architectuur
Velen lopen geregeld te klagen dat Nvidia weinig verandert, maar de praktijk laat zien dat Nvidia het nooit echt laat afweten en altijd meedoet in rauwe prestaties. AMD doet haar best om elke generatie weer het wiel opnieuw uit te vinden en alles om te gooien. Deze is om nog een reden belangrijk.....

....Drivers prestaties
Bij Nvidia zitten de prestaties bij release vaak al dicht tegen het plafond en AMD groeit vaak meer. AMD heeft waarschijnlijk veel meer gedoe om haar drivers op orde te krijgen vanwege de constante wijzigingen in architectuur. Sommige noemen het fine-wine, ik noem het too little too late

Tools en features
Dit is meer van de laatste 10 jaar, maar Nvidia loopt tegenwoordig gewoon constant weg bij AMD als het gaat om features. Nvidia dicteert letterlijk wat AMD gaat doen en tegen de tijd dat ze bij zijn brengt Nvidia de volgende feature set uit die AMD hoofdpijn geeft.

Als AMD echt stappen wil maken op de PC markt dan zullen ze fors moeten investeren. Ik denk echter dat de PC markt meer een extraatje is geworden om wat meer inkomsten te genereren vanuit de R&D bij console chips. Ze produceren momenteel gewoon te weinig Radeon chips om marktaandeel af te pakken en alles wat ze op de markt brengen gaat met een bak slechte marketing.

  • Yaksa
  • Registratie: December 2008
  • Laatst online: 23:40
Sissors schreef op woensdag 3 september 2025 @ 23:20:
Ik blijf me afvragen hoeveel dat hoge segment uitmaakt. En ja ik weet dat mensen zeggen dat als je daar de kroon hebt, mensen ook mindere kaarten van je gaan kopen, maar is dat echt zo'n groot effect?

Algemeen op het internet is het toch voor een link gedeelte "pro AMD", als je ook kijkt naar Youtube influencers, maar ook een Tweakers was veel enthousiaster over de AMD kaarten als de Nvidia. En toch doet Nvidia het gewoon veel beter. Misschien gedeeltelijk omdat er heel hard geklaagd wordt op de prijs van Nvidia, maar niet op de performance (ook al is het natuurlijk gelinkt aan elkaar). Onder de streep is AMD ook de underdog, maar ze blijven voor de "€50 minder voor zelfde performance" strategie gaan. En eerlijk is eerlijk, vraag is als ze €150 goedkoper gaan of Nvidia dan niet ook gewoon de prijs meeverlaagt. Al zou ik ook denken dat die liever een ~80% marktaandeel hebben: Meer dan zat zonder dat concurrentiewaakhonden het wel erg twijfelachtig gaan vinden.
Misschien wel dezelfde performance in games, maar er zijn ook mensen die iets anders met hun PC doen waar Nvidia kaarten beter in zijn.
Bovendien maken veel mid- en highend AMD kaarten nog gebruik van GDDR6 geheugen, daar waar NVidia al overgestapt is op GDDR7 geheugen wat een 2x zo hoge data transfer kan halen. Voor sommige toepassingen is dat een voordeel.

Only two things are infinite, the universe and human stupidity, and I'm not sure about the former


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 24-02 21:27
XWB schreef op woensdag 3 september 2025 @ 20:46:
En een Nederlandstalig artikeltje:

nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...

Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?
De top 10 bij Newegg laat toch vooral AMD zien voor de DIY markt: https://www.newegg.com/d/...o-Graphics-Device/c/ID-38
rapture schreef op woensdag 3 september 2025 @ 22:00:
[...]

Doet mij denken aan de Nvidia strategie in het begin versus 3dfx.
  • Nvidia had de focus op de OEM's gezet. Zorg dat de leken in hun Dell, HP,... PC's een Nvidia grafische kaart hebben.
Dit is een van de redenen. De bestellingen van Dell, HP, etc. zorgen voor een constante stroom units.

Er is nog een reden waarom de AMD kaarten niet in de cijfers van Jon Peddie opduiken, en dat is als ze gratis verkocht worden aan AIB partners. Jon Peddie kijkt alleen naar de omzet, deelt dit door de gemiddelde stuksprijs (groothandel kostprijs, niet de verkoopprijs) en berekent zo de aantallen. Als er flinke kortingen worden gegeven, betekent dat bij Jon Peddie minder aantallen.

Laat AMD nou net op Radeon nog wat korting verplichtingen hebben overgehouden aan de RX7000 series. Belofte maakt schuld.

Steam hardware survey is helaas ook vertekend door de wereldwijde internet cafe's: elke Steam gebruiker die in en uitlogt op zo'n PC vaak met een Nvidia kaart, geeft Nvidia door. Ik heb ook deze maand een Steam survey gekregen: 2,5 jaar nadat ik m'n PC gebouwd had (met AMD CPU + GPU). Er zijn waarschijnlijk meer PC gamers zonder eigen game PC, dan met.

Gerucht: volgens AMD's eigen interne getallen (leaks) is de "gaming market share" van 15% RDNA3 naar 22% RDNA4 gegaan.
YouTube: RX 9070 GRE 16GB Specs Leak, AMD FSR 4 on RDNA 3, Nvidia RTX 5080 & ...

Maar zelfs al zou het 6% zijn: het zal niet naar 0% gaan, en het zal waarschijnlijk geen invloed op de consumenten prijzen hebben. In het kort:
  • De investeringskosten voor AMD zijn te laag om niet met Radeon door te gaan. Dit komt omdat ze al moeten investeren in AI en consoles. Radeon gaat dus niet wegvallen.
  • Een hoger volume Radeon kaarten gaat er niet voor zorgen dat prijzen omlaag gaan voor DIY consumenten. Dat hebben we in de afgelopen 10 jaar ook niet gezien. Zelfs toen het 60%-40% was, bleven de bruto marges van Nvidia dik 50%.
(meer detail: https://gathering.tweakers.net/forum/view_message/83339698)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Interessante ontwikkelingen. Ben er nog niet uit of ik deze financial entanglement nu zo'n fijn idee vind.

NVIDIA's $5B Intel Investment Reveals x86-GPU NVLink Project

NVIDIA Buys $5B Worth of Intel, RTX iGPUs Coming to x86

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 20-03 14:35
Vinden we het wel een fijn idee als hun grootste concurrenten zowel GPU als CPU's maken?

Ik snap de zorgen, maar gelijktijding is deze stap wel vanuit Nvidia's perspectief compleet begrijpelijk. Ze proberen al wat jaren in cpu voet aan de grond te krijgen om niet afhankelijk te zijn van AMD/Intel. Ik mag alleen maar hopen dat we straks niet een situatie gaan krijgen waarin de keuze voor Nvidia verplicht Intel te nemen en hetzelfde bij AMD. De crux voor Nvidia zit in de datacenter in deze keuze. Als AMD het ooit gaat proberen om Nvidia te excluden door hun GPU aan de CPU divisie te koppelen in één pakket, dan zou Nvidia letterlijk buitenspel gezet worden. Mocht Intel echt wegvallen, dan zou dit letterlijk de deur opengooien voor AMD en dat moeten we ook niet willen.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • emeralda
  • Registratie: Maart 2024
  • Laatst online: 27-10-2025
XWB schreef op woensdag 3 september 2025 @ 20:46:
En een Nederlandstalig artikeltje:

nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...

Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?
Die reviews gaan er altijd vanuit dat mensen iedere generatie een nieuwe GPU kopen.

Ik ben van een 3060 naar een 5080 gegaan dus ik was wel enthousiast.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:09
emeralda schreef op dinsdag 30 september 2025 @ 11:50:
[...]


Die reviews gaan er altijd vanuit dat mensen iedere generatie een nieuwe GPU kopen.

Ik ben van een 3060 naar een 5080 gegaan dus ik was wel enthousiast.
Dat denk ik niet zo zeer, de meeste reviewers weten best dat mensen vaak pas na een jaar of 5 upgraden gemiddeld gezien, en benoemen dat ook vrij vaak.

Wat je echter natuurlijk wel ziet is dat in een review de directe voorganger wel over het algemeen 'de benchmark' is om mee te vergelijken, met daarnaast de directe concurrentie (als deze er is). Wat ook logisch is, immers daarmee laat je zien wat de gen on gen verbetering is, en wat de concurrentie ertegen overzet.

Ik zou van een 3060 naar een 5080 persoonlijk ook wel enthousiast worden, maar dat zal je denk ik altijd wel hebben als je van een €300 budget GPU naar een €1059+ GPU gaat en dan de performance upgrade ziet, zeker als je ook een scherm hebt dat eer doet aan de nieuwe GPU. Echter dat laat zich natuurlijk in een review ook lastiger vergelijken, je stapt immers met die 5080 een compleet ander segment in.

Van een 3060 naar een 5060 was je mogelijk een stuk minder enthousiast geweest, omdat je dan gemiddeld genomen 'maar' 44% omhoog gaat in performance (over 2 generaties, wat vrij matig is), je ineens met een 8GB kaart zit, wat er voor zorgt dat in bepaalde titels de 3060 sneller kan / een betere spelervaring geeft dan de 5060 en er ook geen echte prijsdaling te zien is in dat segment, dat zou compenseren voor de matige performance uplift over 2 generaties.

[ Voor 16% gewijzigd door Dennism op 30-09-2025 12:11 ]


  • emeralda
  • Registratie: Maart 2024
  • Laatst online: 27-10-2025
Als je kijkt naar DLSS4 is er best wel veel vooruitgang geboekt.

Ik was ooit in eind jaren 90 ook al een paar jaar PC gamer. Zo snel als toen zal het nooit meer gaan.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18:07
emeralda schreef op zaterdag 4 oktober 2025 @ 12:13:
Als je kijkt naar DLSS4 is er best wel veel vooruitgang geboekt.
De upscalers/interpolators (DLSS, FSR, XESS) zijn geen vooruitgang, niet qua graphics rendering. Performance is niet beter, er wordt juist minder werk gedaan. De rekeneenheden die daarvoor gebruikt worden zijn ook niet nuttig voor daadwerkelijk renderen.

Die dingen zijn pleisters op een wonde en verhullen enkel het gebrek aan vooruitgang. Het is genereren van pixels/frames, niet rendering.
Ik was ooit in eind jaren 90 ook al een paar jaar PC gamer. Zo snel als toen zal het nooit meer gaan.
Jawel hoor. We zitten nog steeds op eerste generatie RT hardware; wat de GPU's nu doen is niet meer dan 7 jaar geleden toen de geforceerde transitie naar gedeeltelijke RT in werd gezet. Zodra één van de drie eindelijk uit vogelt hoe ze meer van het RT werk op de GPU kunnen doen zodat het schaalbaar wordt, zullen we een grote sprong zien - dan zullen we simultaan betere prestaties én beeldkwaliteit krijgen. Die stap zal minstens zo groot zijn als T&L toentertijd, zoniet groter.

Dat laatste klinkt wellicht tegenstrijdig, maar RT kan nu al prestatiewinst opleveren. Met name op soft shadows zijn er talloze situaties waar je via RT sneller klaar bent, vooral bij vele kleine objecten in een scène. Denoisers komen we niet vanaf, dat zal nog heel lang duren. Maar de huidige afhankelijkheid van de CPU wel, er wordt veel te veel aan de CPU kant gedaan om daadwerkelijk winst te boeken aan de GPU kant. En als het dan eenmaal op de GPU zit, wordt er ontiegelijk veel werk tienduizenden keren dubbel uitgevoerd omdat er geen coherency is. Als ze dat eindelijk in hardware doen, zullen er een hoop shaders niet meer nodig zijn en overgeslagen worden.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 24-02 21:27
Werelds schreef op maandag 6 oktober 2025 @ 09:48:
[...]

De upscalers/interpolators (DLSS, FSR, XESS) zijn geen vooruitgang, niet qua graphics rendering. Performance is niet beter, er wordt juist minder werk gedaan. De rekeneenheden die daarvoor gebruikt worden zijn ook niet nuttig voor daadwerkelijk renderen.

Die dingen zijn pleisters op een wonde en verhullen enkel het gebrek aan vooruitgang. Het is genereren van pixels/frames, niet rendering.


[...]

Jawel hoor. We zitten nog steeds op eerste generatie RT hardware; wat de GPU's nu doen is niet meer dan 7 jaar geleden toen de geforceerde transitie naar gedeeltelijke RT in werd gezet. Zodra één van de drie eindelijk uit vogelt hoe ze meer van het RT werk op de GPU kunnen doen zodat het schaalbaar wordt, zullen we een grote sprong zien - dan zullen we simultaan betere prestaties én beeldkwaliteit krijgen. Die stap zal minstens zo groot zijn als T&L toentertijd, zoniet groter.

Dat laatste klinkt wellicht tegenstrijdig, maar RT kan nu al prestatiewinst opleveren. Met name op soft shadows zijn er talloze situaties waar je via RT sneller klaar bent, vooral bij vele kleine objecten in een scène. Denoisers komen we niet vanaf, dat zal nog heel lang duren. Maar de huidige afhankelijkheid van de CPU wel, er wordt veel te veel aan de CPU kant gedaan om daadwerkelijk winst te boeken aan de GPU kant. En als het dan eenmaal op de GPU zit, wordt er ontiegelijk veel werk tienduizenden keren dubbel uitgevoerd omdat er geen coherency is. Als ze dat eindelijk in hardware doen, zullen er een hoop shaders niet meer nodig zijn en overgeslagen worden.
Eens dat DLSS 4 niet zoveel toevoegt aan DLSS 3.5, maar Ray Reconstruction (zo'n denoiser) is wel nice to have, juist voor die ray tracing workloads om toch net even een wat scherper beeld neer te zitten met minder gerenderde pixels en meer performance. Is dat ook niet het hele idee van upscaling, minder pixels renderen, meer interpoleren?

Wat nu nog teveel op CPU gedaan wordt, is BVH + ray coherence? De ray tracing van RDNA 4 is al stukken beter, en AMD breidt nog steeds de shaders uit voor ray tracing functionaliteit. Lijkt een goede strategie, maar in de RDNA 5 willen ze ray tracing wel sterk verbeteren: hoe dan zonder BVH coherence sorting dedicated hardware? Meer BVH units? Dat is meer de brute force aanpak van Geforce, ook nog steeds niet next level ray tracing, toch?

https://blog.imaginationt...-it-will-mean-for-gaming/

Level 0 – Legacy Solutions
Level 1 – Software on Traditional GPUs
Level 2 – Ray/Box and Ray/Tri Testers in Hardware
Level 3 – Bounding Volume Hierarchy (BVH) Processing in Hardware
Level 4 – BVH Processing with Coherency Sorting in Hardware
Level 5 – Coherent BVH Processing with Scene Hierarchy Generator in Hardware

Level 3 zie ik wel in RDNA 4 en Blackwell (en zelfs Battlemage), Level 4 nog steeds niet echt.. of ik mis wat.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • SG
  • Registratie: Januari 2001
  • Laatst online: 07-03 07:21

SG

SG surft naar info hardewaren

Werelds schreef op maandag 6 oktober 2025 @ 09:48:
[...]

De upscalers/interpolators (DLSS, FSR, XESS) zijn geen vooruitgang, niet qua graphics rendering. Performance is niet beter, er wordt juist minder werk gedaan. De rekeneenheden die daarvoor gebruikt worden zijn ook niet nuttig voor daadwerkelijk renderen.

Die dingen zijn pleisters op een wonde en verhullen enkel het gebrek aan vooruitgang. Het is genereren van pixels/frames, niet rendering.


[...]

Jawel hoor. We zitten nog steeds op eerste generatie RT hardware; wat de GPU's nu doen is niet meer dan 7 jaar geleden toen de geforceerde transitie naar gedeeltelijke RT in werd gezet. Zodra één van de drie eindelijk uit vogelt hoe ze meer van het RT werk op de GPU kunnen doen zodat het schaalbaar wordt, zullen we een grote sprong zien - dan zullen we simultaan betere prestaties én beeldkwaliteit krijgen. Die stap zal minstens zo groot zijn als T&L toentertijd, zoniet groter.

Dat laatste klinkt wellicht tegenstrijdig, maar RT kan nu al prestatiewinst opleveren. Met name op soft shadows zijn er talloze situaties waar je via RT sneller klaar bent, vooral bij vele kleine objecten in een scène. Denoisers komen we niet vanaf, dat zal nog heel lang duren. Maar de huidige afhankelijkheid van de CPU wel, er wordt veel te veel aan de CPU kant gedaan om daadwerkelijk winst te boeken aan de GPU kant. En als het dan eenmaal op de GPU zit, wordt er ontiegelijk veel werk tienduizenden keren dubbel uitgevoerd omdat er geen coherency is. Als ze dat eindelijk in hardware doen, zullen er een hoop shaders niet meer nodig zijn en overgeslagen worden.
Dit doet mij denken aan 1st generaties met hardware T&L dus fixed hardware voor specifiek acceleratie. Dat is dus later vervangen door meer general purpouse shaders die elke gen steeds krachtiger werden.
Het aantal schaders is nu zo groot dat halo gpu zo veel shaders heeft dat 1080P vs 1440p de shaders niet kan verzadigen. En dat houd in dat mogelijk is de RT en of tensor welke het minste inneemt kwa real estate onderdeel kan worden van schader. Want bij nog meer dieshrinks en ver dubbeling van shaders zal 1440p niet genoeg zijn om shader aantallen te verzadigen. Dus de nextstep kan zijn dat vooral RT naar shader verhuist dan krijg je enorme hoeveelheid aan RT compute en dat mogelijk full RT mogelijk kan zijn . Zal de shader flink groter maken kwa transistor count maar apart RT cores vervallen ook als AI ook nog erbij kan, vervallen die ook.
Doet mij denken aan larabee wat mogelijk 8 generaties te vroeg is. Maximaal generalpurpouse. Maar met te laag aantal. Voor RT en AI zul je toch wat extenties ook in hardware moeten hebben om dat hardware matig te versnellen. Kan zijn dat RT en AI core met matrix compute nogal wat registers heeft en compute units dat krengen groot maakt dat mogelijk niet gaat. Als dat shaders dan reduceerd naar 1/5 of zelfs 1/10 dat shaders dan enorm worden. Want dat was larabee probleem generalpurpuse lever je fix hardware performance in vs flexibiliteit. General purpouse stap was toen enorm. Maar meestal volgt hardware gamedev de,and en API door feedback onderling waar api en hardware en games mee tot stand komen. Gpu bakker kan wel wat features pushen. Maar dan krijg kip en ei probleem. Bijna monopool kan dat met eco systeem RT en AI features. Waar de markten concurrentie na 3gen rtx volgen zelfs apple silicon. Gpu cores

Ben dus benieuwt wat RTX 7000 8000 9000 x000 gaat brengen.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18:07
sunsmountain schreef op donderdag 9 oktober 2025 @ 01:05:
Eens dat DLSS 4 niet zoveel toevoegt aan DLSS 3.5, maar Ray Reconstruction (zo'n denoiser) is wel nice to have, juist voor die ray tracing workloads om toch net even een wat scherper beeld neer te zitten met minder gerenderde pixels en meer performance. Is dat ook niet het hele idee van upscaling, minder pixels renderen, meer interpoleren?
Ja, maar dat zou niet nodig moeten zijn voor met name het raster deel. RT is vaak ook nauwelijks beter dan baked lighting kan zijn.
Wat nu nog teveel op CPU gedaan wordt, is BVH + ray coherence? De ray tracing van RDNA 4 is al stukken beter, en AMD breidt nog steeds de shaders uit voor ray tracing functionaliteit. Lijkt een goede strategie, maar in de RDNA 5 willen ze ray tracing wel sterk verbeteren: hoe dan zonder BVH coherence sorting dedicated hardware? Meer BVH units? Dat is meer de brute force aanpak van Geforce, ook nog steeds niet next level ray tracing, toch?
Ja, dat is wat mist en nee, dat is niet hoe Nvidia het aan pakt. Nvidia's aanpak is vooral meer RT cores er tegenaan gooien zodat ze meer hits kunnen testen, maar daar is het bij gebleven. De enige daadwerkelijke verbetering die er sinds de Turing release in zit is SER, maar dat is een opt-in shader en is vooral een optimalisatie voor scheduling. Werkt ook niet op alle GPU's, als er niet genoeg L2$ beschikbaar is (ten opzichte van het aantal SM's en dus RT cores - ironisch genoeg de 4090 bijvoorbeeld) heeft het geen effect - het kan zelfs nadelig werken en stalls veroorzaken. Ik heb daar een tijd geleden al eens iets over gepost.

AMD is sowieso al flexibeler qua scheduling en hun optimalisaties zijn vooral op geheugen (cache, niet VRAM) gebruik gericht geweest, naast meer hits/clock te kunnen doen.

Wat AMD gaat doen weet ik niet, wel durf ik te stellen dat zij in de beste positie zitten om uit te breiden. Qua raster prestaties zijn we al lang voorbij waar meer units iets doet. Dat heb ik ook al vaak zat gezegd, de sweet spot lijkt voor beide tussen de 60 en 80 CU's/SM's te liggen op dat vlak, en rasterisation gaat altijd nodig zijn. Door AMD's architectuur kunnen zij eenvoudiger het huidige ontwerp nemen en dingen toevoegen, omdat ze data beter rond kunnen pompen. Omdat we nog steeds op Turing+ zitten bij Nvidia, moeten zij een veel grotere wijziging doorvoeren. Vergeet niet dat RT alsnog pixel shaders vereist (hits testen is leuk en aardig, maar een pixel moet toch nog een kleurtje krijgen), dus door de manier waarop hun SM's in elkaar steken en hoe hun geheugen hiërarchie werkt zijn ze heel erg beperkt. RT is veel meer een big-picture dingetje dan raster is.
Ze hebben die whitepaper al een paar keer geüpdated, we zitten nu op 3.5: thread coherency sorting, maar dat is gelokaliseerde coherency. Maar dat deed Turing al. SER werkt op Turing ook, heeft enkel geen impact door een gebrek aan cache. Alle generaties er na hebben opt-in optimalisaties toegevoegd, maar geen hardware capabiliteiten. Zelfde geldt voor AMD. We zitten al 7 jaar op level 3, 3.5 komt nu mondjesmaat door omdat het een opt-in dingetje is.
SG schreef op donderdag 9 oktober 2025 @ 07:18:
Dus de nextstep kan zijn dat vooral RT naar shader verhuist dan krijg je enorme hoeveelheid aan RT compute en dat mogelijk full RT mogelijk kan zijn .
1: "full RT" gaat nog tientallen jaren duren; waarbij "full" ook altijd relatief zal zijn, want je kunt per definitie altijd net iets preciezere resultaten krijgen. RT heeft geen bovenlimiet. "Full" betekent hier "genoeg rays zodat een denoiser niet essentieel is".
2: Nee, zo werkt dat niet. De schakeling naar unified "shaders" was omdat er steeds meer logica kwam om pixels te kleuren, waarbij er een serie instructies uitgevoerd kon worden die allemaal vrij simpel van aard zijn en voor elke pixel uitgevoerd moeten worden, maar met andere data - dat is waar SIMD voor staat: single instruction, multiple data. RT is complexer en heeft juist wél weer een fixed pipeline nodig (heb ik ook al eerder gezegd). Dat verhuis je niet zomaar naar de FP32 ALU's. Voor RT kun je ook toe met minder ALU's per "test", dus de verhoudingen zijn compleet anders. Alle 3 de fabrikanten gebruiken hun SIMD's ook voor RT, het probleem is dat dat proces elke keer opnieuw uitgevoerd wordt door een gebrek aan coherency.
Doet mij denken aan larabee wat mogelijk 8 generaties te vroeg is.
Enkele ideeën van Larrabee zouden wel nuttig kunnen zijn, maar nee, die aanpak zou ook niet te doen zijn. Zou veel te groot moeten worden.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 24-02 21:27
Werelds schreef op donderdag 9 oktober 2025 @ 11:50:
[...]

Ja, maar dat zou niet nodig moeten zijn voor met name het raster deel. RT is vaak ook nauwelijks beter dan baked lighting kan zijn.
Dus native raster zou net zo snel kunnen zijn als upscaled raster, tenminste wanneer het om RT games gaat (immers RT is dan de bottleneck)? Eens dat baked lighting vaak heel goed kan zijn, maar dat komt ook omdat de meeste RT implementaties niet volledig zijn (global illumination benadering, geen path tracing of oneindig aantal lichtbronnen, etc.).
Werelds schreef op donderdag 9 oktober 2025 @ 11:50:
Ja, dat is wat mist en nee, dat is niet hoe Nvidia het aan pakt. Nvidia's aanpak is vooral meer RT cores er tegenaan gooien zodat ze meer hits kunnen testen, maar daar is het bij gebleven. De enige daadwerkelijke verbetering die er sinds de Turing release in zit is SER, maar dat is een opt-in shader en is vooral een optimalisatie voor scheduling. Werkt ook niet op alle GPU's, als er niet genoeg L2$ beschikbaar is (ten opzichte van het aantal SM's en dus RT cores - ironisch genoeg de 4090 bijvoorbeeld) heeft het geen effect - het kan zelfs nadelig werken en stalls veroorzaken. Ik heb daar een tijd geleden al eens iets over gepost.
Ik neem dat je Shader Execution Reordering bedoelt, dat klinkt in de buurt van coherency sorting, maar net niet, vandaar de level "3,5" waarschijnlijk. Eens dat verbeteringen in cache en register geheugen wel dichter bij level 4 en 5 kunnen komen, omdat elke ray tracing geometrie / game scene weer net even anders is, anders gezegd ik zou niet weten hoe een hardware "Full Coherency Sorting" of "Scene Hierarchy Generator" er uit zou moeten zien, want elke willekeurige verzameling rays in een game scene is denk ik te verschillend.
Werelds schreef op donderdag 9 oktober 2025 @ 11:50:
AMD is sowieso al flexibeler qua scheduling en hun optimalisaties zijn vooral op geheugen (cache, niet VRAM) gebruik gericht geweest, naast meer hits/clock te kunnen doen.

Wat AMD gaat doen weet ik niet, wel durf ik te stellen dat zij in de beste positie zitten om uit te breiden. Qua raster prestaties zijn we al lang voorbij waar meer units iets doet. Dat heb ik ook al vaak zat gezegd, de sweet spot lijkt voor beide tussen de 60 en 80 CU's/SM's te liggen op dat vlak, en rasterisation gaat altijd nodig zijn. Door AMD's architectuur kunnen zij eenvoudiger het huidige ontwerp nemen en dingen toevoegen, omdat ze data beter rond kunnen pompen. Omdat we nog steeds op Turing+ zitten bij Nvidia, moeten zij een veel grotere wijziging doorvoeren. Vergeet niet dat RT alsnog pixel shaders vereist (hits testen is leuk en aardig, maar een pixel moet toch nog een kleurtje krijgen), dus door de manier waarop hun SM's in elkaar steken en hoe hun geheugen hiërarchie werkt zijn ze heel erg beperkt. RT is veel meer een big-picture dingetje dan raster is.
Aan de top wel ja, ga je bijvoorbeeld in Battlefield 6 van een 5080 naar een 5090, met meer dan dubbel zoveel motortjes (SM 80 -> 176) gaat de fps op 4k overkill van 70 naar maar 115 fps.
Maar de andere kant op merk je het verschil in motortjes wel, neem je de 5060 Ti met 38 SM motortjes (ietsje minder dan de helft), dan halveert je fps ook gewoon naar 35 fps, bij dezelfde settings, t.o.v. de 5080.

Goed om te horen dat AMD's investeringen in de gedeelde cache voor WGP's, unified register / instruction cache, en infinity cache een mogelijk voordeel gaan geven voor Ray Tracing, ze kunnen het goed gebruiken met hun naar verluid 6% markt aandeel in nieuwe dGPU shipments (Jon Peddie Research).
Werelds schreef op donderdag 9 oktober 2025 @ 11:50:
Ze hebben die whitepaper al een paar keer geüpdated, we zitten nu op 3.5: thread coherency sorting, maar dat is gelokaliseerde coherency. Maar dat deed Turing al. SER werkt op Turing ook, heeft enkel geen impact door een gebrek aan cache. Alle generaties er na hebben opt-in optimalisaties toegevoegd, maar geen hardware capabiliteiten. Zelfde geldt voor AMD. We zitten al 7 jaar op level 3, 3.5 komt nu mondjesmaat door omdat het een opt-in dingetje is.
Ik zie het inderdaad, ze hebben level 3, 4 en 5 gewijzigd:

Afbeeldingslocatie: https://tweakers.net/i/E9jS0uYG_huJ5KOM4ITDtaJlwd4=/800x/filters:strip_exif()/f/image/nOctv1LngWR6N53CGeQxrgzT.png?f=fotoalbum_large

Level 3 – Bounding Volume Hierarchy (BVH) Processing in Hardware
->
Level 3 – BVH traversal
Level 3,5 – BVH traversal and thread coherency sorting

Level 4 – BVH Processing with Coherency Sorting in Hardware
->
Level 4 – BVH traversal with full coherency sorting

Level 5 – Coherent BVH Processing with Scene Hierarchy Generator in Hardware
->
Level 5 – BVH traversal, BVH builder and full coherency sorting

Dat is al wat concreter dan Scene Hierarchy Generator :P
Toch geven ze van level 4 en 5 geen RL Data Flow diagrammen, waarschijnlijk het geheim van de smid en als je hun product koopt, krijg je dat "ingebakken" mee.

Je zou nog kunnen zeggen dat "Mega Geometry" in Blackwell en Nanite in UE5 pogingen zijn tot een BVH builder, zij het softwarematig. RDNA 4 met zijn "Oriented Bounding Boxes" en de kleinere footprint van BVH, verbetert de BVH wel, maar is daar nog geen poging toe. Maar ik geloof dat ze wel iets vergelijkbaars proberen met een Dense Geometry Format (DGF).

Full coherency sorting hebben ze nog geen van allen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18:07
sunsmountain schreef op donderdag 9 oktober 2025 @ 23:54:
Dus native raster zou net zo snel kunnen zijn als upscaled raster, tenminste wanneer het om RT games gaat (immers RT is dan de bottleneck)?
Voor raster zitten we al heel lang tegen een scalability limiet aan. De render technieken voor raster veranderen niet meer, wat betekent dat het parallelisme tegen een muur aan loopt. Kijk maar eens naar de resultaten over de generaties heen, vooral bij Nvidia. Sweet spot loopt van 4k tot zo'n 6k FP32 ALU's. Exacte aantal verschilt tussen groen, rood en blauw door de SIMD grootte en indeling, maar zelfs bij ~6k ALU's zie je al verminderd rendement. Vergelijk de resultaten tussen die GPU's en de GPU's er omheen maar eens, vooral kijkend naar de prestaties op verschillende resoluties - en zet dat dan af tegen theoretische rekenkracht. De grotere GPU's van Nvidia zetten simpelweg geen zoden aan de dijk. Schaalt simpelweg niet meer.

Waarom? De render technieken kunnen simpelweg niet in zo'n niveau van parallelisme voorzien. En dat rest ons met slechts één factor waar raster momenteel sneller mee kan worden: kloksnelheid. En rara, wat zien we wanneer er geen kloksnelheid winst is? Teleurstelling, zoals met Blackwell.
Eens dat baked lighting vaak heel goed kan zijn, maar dat komt ook omdat de meeste RT implementaties niet volledig zijn (global illumination benadering, geen path tracing of oneindig aantal lichtbronnen, etc.).
Mja, dat ligt aan de beperkte hardware.
Ik neem dat je Shader Execution Reordering bedoelt, dat klinkt in de buurt van coherency sorting, maar net niet, vandaar de level "3,5" waarschijnlijk. Eens dat verbeteringen in cache en register geheugen wel dichter bij level 4 en 5 kunnen komen, omdat elke ray tracing geometrie / game scene weer net even anders is, anders gezegd ik zou niet weten hoe een hardware "Full Coherency Sorting" of "Scene Hierarchy Generator" er uit zou moeten zien, want elke willekeurige verzameling rays in een game scene is denk ik te verschillend.
Sorry, dat bedoelde ik inderdaad. Vergeten de afkorting uit te leggen :p

Maar ja, dat is wat 3,5 is - thread coherency sorting, maar enkel binnen een enkele workload (een SM). Verder dan dat vereist nieuwe hardware. Je moet de GPU dan alles zelf bij laten houden, wat nieuwe logica vereist en de juiste geheugen setup. Die data moet niet alleen beschikbaar zijn voor alle RT units, maar moet real-time beschikbaar zijn en coherent.
Aan de top wel ja, ga je bijvoorbeeld in Battlefield 6 van een 5080 naar een 5090, met meer dan dubbel zoveel motortjes (SM 80 -> 176) gaat de fps op 4k overkill van 70 naar maar 115 fps.
Maar de andere kant op merk je het verschil in motortjes wel, neem je de 5060 Ti met 38 SM motortjes (ietsje minder dan de helft), dan halveert je fps ook gewoon naar 35 fps, bij dezelfde settings, t.o.v. de 5080.
Precies dat. Onder de 60 clusters zie je nagenoeg lineaire schaling, boven de 80 gaat het hard achteruit en krijg je verminderd rendement.
Goed om te horen dat AMD's investeringen in de gedeelde cache voor WGP's, unified register / instruction cache, en infinity cache een mogelijk voordeel gaan geven voor Ray Tracing, ze kunnen het goed gebruiken met hun naar verluid 6% markt aandeel in nieuwe dGPU shipments (Jon Peddie Research).
Niet zo zeer dat hun opstelling nuttig is voor RT, het is meer dat hun opstelling van nature ze minder beperkt qua data rondpompen.
Toch geven ze van level 4 en 5 geen RL Data Flow diagrammen, waarschijnlijk het geheim van de smid en als je hun product koopt, krijg je dat "ingebakken" mee.
Nee, er is ergens een uitgebreider diagram, zal kijken of ik het kan vinden. Maar IT verkoopt tegenwoordig sowieso maar weinig, geen idee hoe ze nog bestaan :p
Je zou nog kunnen zeggen dat "Mega Geometry" in Blackwell en Nanite in UE5 pogingen zijn tot een BVH builder, zij het softwarematig.
Nee. Dat zijn optimalisaties om de BVH kleiner / efficiënter te maken (minder triangles én boxes om te testen). Qua hardware zit er hooguit iets voor decompressie in de RT core, de BVH wordt nog steeds niet op de GPU gebouwd of bijgehouden.

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 24-02 21:27
Werelds schreef op vrijdag 10 oktober 2025 @ 11:56:
[...]

Nee. Dat zijn optimalisaties om de BVH kleiner / efficiënter te maken (minder triangles én boxes om te testen). Qua hardware zit er hooguit iets voor decompressie in de RT core, de BVH wordt nog steeds niet op de GPU gebouwd of bijgehouden.
Interessant hier is dat de nieuwe PS6 mogelijk wel dedicated AMD hardware gaat hebben voor de BVH (ze noemen het Ray traversal) bouwen en bijhouden:
YouTube: From Project Amethyst to the Future of Play: AMD and Sony Interactiv...

Om dit on topic Nvidia te houden: de CPU overhead bij Nvidia zou dan dus nog groter worden vergeleken met de concurrentie. Je hebt dan de DX12 calls en BVH op de CPU, tenzij Vera Rubin / RTX 6000 gaming GPU's verrassen. We'll see.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Steve nogal bearish over de pc / gpu consumer market. + de video start bij een slide met nogal insane numbers.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 00:10

Format-C

Tracing Rays

Dat er zoveel GPU's voor het/een leger gebruikt gaan worden is niet best.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX5090 Phantom/ Gbyte B650 GAMING PLUS/ 32GB G.Skill Z5 6000 CL30 / Team M2 1TB/ 990Pro M2 1TB/ MX500 1TB/ 5TB SATA / Gbyte WBAX200/ Corsair 1000w/ Scarlett Solo / AOC AG493UCX/ LG 65" OLED TV


  • Sissors
  • Registratie: Mei 2005
  • Niet online
Help!!!! schreef op maandag 22 december 2025 @ 18:56:
Steve nogal bearish over de pc / gpu consumer market. + de video start bij een slide met nogal insane numbers.


[YouTube: NVIDIA: WTF?]
Het laat vooral zien dat Nvidia heer en meester is in de AI accelerator markt. Want dat Nvidia zo'n gigantische koper is van geheugen chips voor AI is niet omdat ze daarmee allemaal DLLS 5 gaan trainen, maar omdat ze die als complete oplossing doorverkopen aan hun klanten.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

- OPP program (nvidia AIB cashback om tegen msrp te kunnen verkopen) cancelled
- 5070Ti productie sterk gereduceerd tgv 5080


Der8auer


NVIDIA Ends "Open Price Program," Pushing GPUs Way Past MSRPs

[ Voor 51% gewijzigd door Help!!!! op 23-01-2026 13:56 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 00:10

Format-C

Tracing Rays

Ik zag gisteren in de HW Unboxed/ Moores law is dead collab podcast dat de beschikbaarheid van de gehele 5000 serie in 2026 zeeeeeer slecht zal zijn. De 5090 zal er nagenoeg niet zijn, de 5080 en 5070ti zeer slecht of niet verkrijgbaar. 5060ti 16gb niet verkrijgbaar....

Dus het wordt voor mensen die nog een 5000 kaart willen hebben lastig. Bijna onmogelijk.

Of heel duur.

[ Voor 20% gewijzigd door Format-C op 23-01-2026 11:55 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX5090 Phantom/ Gbyte B650 GAMING PLUS/ 32GB G.Skill Z5 6000 CL30 / Team M2 1TB/ 990Pro M2 1TB/ MX500 1TB/ 5TB SATA / Gbyte WBAX200/ Corsair 1000w/ Scarlett Solo / AOC AG493UCX/ LG 65" OLED TV


  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:09
Format-C schreef op vrijdag 23 januari 2026 @ 11:48:
Ik zag gisteren in de HW Unboxed/ Moores law is dead collab podcast dat de beschikbaarheid van de gehele 5000 serie in 2026 zeeeeeer slecht zal zijn. De 5090 zal er nagenoeg niet zijn, de 5080 en 5070ti zeer slecht of niet verkrijgbaar. 5060ti 16gb niet verkrijgbaar....

Dus het wordt voor mensen die nog een 5000 kaart willen hebben lastig. Bijna onmogelijk.

Of heel duur.

[YouTube: Nvidia RTX 50 Supply Lies, AMD RDNA 5 Strategy, Intel B770 | Hardware Unboxed | Broken Silicon 345]
Hou er wel rekening mee dat MLID een redelijk matig trackrecord* heeft als het over verkrijgbaarheid gaat. Ik zou er dus niet direct vanuit dat dit 100% klopt, in het filmpje hierboven geeft Der 8Auer bijvoorbeeld al weer aan dat 'bepaalde geruchten' (waarbij ik vermoed dat het gaat over de MLID leak) over verkrijgbaarheid niet kloppen.

*MLID riep hetzelfde tijdens bijvoorbeeld corona e.d. dat Nvidia toen veel minder supply had en wat niet meer. En dat AMD in het volume segment (RTX 3060 tegen ik meer de 6600XT uit mijn hoofd) veel meer zou leveren dan Nvidia en wat niet meer. Terwijl alle marktaandeel en install base cijfers eigenlijk exact het tegenovergestelde lieten zien de RTX 3060 was bijvoorbeeld razend populair en groeide relatief snel qua install base (en is volgens mij mogelijk nog steeds de meest gebruikte kaart in o.a. de Steam Survey), bij de RDNA 2 release zat AMD bijv. op +-17% markt aandeel, terwijl in het laatste kwartaal voor de RTX4000 / RDNA3 release ze nog maar 10% van de markt hadden.

Ik denk dat we minimaal de marktaandeel cijfers van Q1 2026 en mogelijk zelfs Q2 2026 moeten afwachten voordat we met enige zekerheid kunnen stellen dat deze stellingen van MLID kloppen. Hij geeft immers ook aan dat AMD volgens zijn leaks niet minder kaarten gaat maken dan geplanned (maar ook niet meer, wat logisch is gezien de geheugen problematiek). Als MLID's leaks dan zouden kloppen en Nvidia zou quasi niets meer produceren terwijl AMD hetzelfde volume zou verschepen zou je dan in Q1 / Q2 een scherpe stijging moeten zien van AMD's marktaandeel in die 3/6 maanden (meer dan een paar % de ene of de andere kant op zoals je nu eigenlijk ieder kwartaal ziet).

Het zal mijn inziens dus zeer interessant zijn om te zien of AMD ineens straks in 2026 echte stappen gaat zetten qua marktaandeel. Of dat, zoals in het verleden gebleken is, dat ondanks geruchten als deze, uiteindelijk het redelijk status quo blijft of Nvidia zelfs blijft groeien.

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 20-03 14:35
Sowieso altijd MLID vermijden als bron van waarheid. Hij heeft er al zo vaak ver vanaf gezeten dat het echt niet meer serieus te nemen is. Zal echt een pittig jaar worden voor de consument en de industrie op deze manier. Deze kunstmatige inflatie zal een behoorlijke dip geven in de verkoop van hardware en dat gaan alle partijen wel voelen in de omzet.

  • !mark
  • Registratie: November 2013
  • Laatst online: 18-03 18:44
sjekneck schreef op vrijdag 23 januari 2026 @ 16:14:
Sowieso altijd MLID vermijden als bron van waarheid. Hij heeft er al zo vaak ver vanaf gezeten dat het echt niet meer serieus te nemen is.
Dit x100.
MLID staat er toch wel een beetje om met hagel het ene naar het andere gerucht de ether in te schieten, dat er dan eens wat van uit komt kan bijna niet anders gezien de hoeveelheid, alleen zo veel blijkt achteraf gewoon fout/onzin. Voornamelijk de uplift van Zen4 naar Zen5 was zo ver van de werkelijkheid af als het maar kan.

Vind het dan ook erg jammer dat een kanaal wat ik wel vrij hoog heb zitten qua betrouwbaarheid als HW Unboxed zich leent voor een samenwerking met dit veredelde sensatiezoekend kanaal.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:09
!mark schreef op vrijdag 23 januari 2026 @ 16:42:
[...]


Vind het dan ook erg jammer dat een kanaal wat ik wel vrij hoog heb zitten qua betrouwbaarheid als HW Unboxed zich leent voor een samenwerking met dit veredelde sensatiezoekend kanaal.
Dat vind ik ook wel soms, maar ik moet wel zeggen dat op het gebied van dit soort zaken als verkopen / marktaandeel / installbase e.d. HuB de plank ook wel eens misslaat. Laatst was er bijv. een podcast over van Tim met iemand van Sapphire en wanneer het dan over marktaandeel gaat, komen ze ook gelijk met de steamsurvey om marktaandeel te duiden, terwijl de Steamsurvey bijvoorbeeld installbase meet en niet marktaandeel. En ook in hun eigen Q/A maand afsluitingingen en andere podcast afleveren halen ze marktaandeel en installbase regelmatig door elkaar, terwijl het compleet verschillende zaken zijn.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • jimh307
  • Registratie: Februari 2014
  • Niet online
Werelds schreef op maandag 6 oktober 2025 @ 09:48:
[...]

De upscalers/interpolators (DLSS, FSR, XESS) zijn geen vooruitgang, niet qua graphics rendering. Performance is niet beter, er wordt juist minder werk gedaan. De rekeneenheden die daarvoor gebruikt worden zijn ook niet nuttig voor daadwerkelijk renderen.

Die dingen zijn pleisters op een wonde en verhullen enkel het gebrek aan vooruitgang. Het is genereren van pixels/frames, niet rendering.


[...]

Jawel hoor. We zitten nog steeds op eerste generatie RT hardware; wat de GPU's nu doen is niet meer dan 7 jaar geleden toen de geforceerde transitie naar gedeeltelijke RT in werd gezet. Zodra één van de drie eindelijk uit vogelt hoe ze meer van het RT werk op de GPU kunnen doen zodat het schaalbaar wordt, zullen we een grote sprong zien - dan zullen we simultaan betere prestaties én beeldkwaliteit krijgen. Die stap zal minstens zo groot zijn als T&L toentertijd, zoniet groter.

Dat laatste klinkt wellicht tegenstrijdig, maar RT kan nu al prestatiewinst opleveren. Met name op soft shadows zijn er talloze situaties waar je via RT sneller klaar bent, vooral bij vele kleine objecten in een scène. Denoisers komen we niet vanaf, dat zal nog heel lang duren. Maar de huidige afhankelijkheid van de CPU wel, er wordt veel te veel aan de CPU kant gedaan om daadwerkelijk winst te boeken aan de GPU kant. En als het dan eenmaal op de GPU zit, wordt er ontiegelijk veel werk tienduizenden keren dubbel uitgevoerd omdat er geen coherency is. Als ze dat eindelijk in hardware doen, zullen er een hoop shaders niet meer nodig zijn en overgeslagen worden.
Hier ben ik het volledig mee eens. Ik gebruik ray tracing en frame gen, maar geen DLSS. Ik gebruik DLAA en dat is alleen anti aliasing zonder upscaling. Met een rtx4070 op 1080P360Hz heb je geen DLSS nodig. In veel Assassin's Creed titels heb je geen van deze technieken, maar gebruik ik downsampling wat er heel goed en scherp uitziet. In Odyssey is dit 1,40x waarbij het spel zeer soepel blijft lopen. Hier geen nood aan een nieuwe GPU en mijn 7800X3D houdt het prima bij ;)

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • chim0
  • Registratie: Mei 2000
  • Laatst online: 20-03 03:54
Zal wel bij specifieke kaarten zijn want hier is ie 2 weken geleden al geïnstalleerd met een 3060 nergens last van.

  • jimh307
  • Registratie: Februari 2014
  • Niet online
chim0 schreef op zondag 1 februari 2026 @ 04:04:
[...]

Zal wel bij specifieke kaarten zijn want hier is ie 2 weken geleden al geïnstalleerd met een 3060 nergens last van.
Hier op mijn gamerig met een rtx4070 ook nergens last van. Alles werkt zoals het hoort. Nu kan dit wel mooi zijn, maar dit neemt niet weg dat Microsoft flinke steken heeft laten vallen. Een update moet gewoon werken en met hun supercomputers moet zoiets meteen opvallen. Ik voel me een beetje een "shot missed" geval. Ik kruip door het oog van de naald en dit is precies wat me benauwd. Ik snap heel goed dat veel mensen naar Linux kijken. Het is dat OneDrive voor mij heel nuttig is door zijn automatische synchronisatie op al mijn apparaten, maar als dit wegvalt ga ik ook denken aan een andere oplossing.

Mijn laptop daarentegen slikt de update niet en loopt erop vast. Dat kost me een nieuwe Windows 11 installatie zónder die update. Nu kost een verse installatie niet veel tijd en hier hebben we bloedsnel internet zodat software er vlug weer opstaat, maar het geeft wel aan dat Windows vrij kwetsbaar is.

Nu heb ik de een na laatste Nvidia driver op PC en laptop, maar met die Nvidia drivers is/was ook een hoop mis waar ik wel degelijk last van had. AC Valhalla crashte toen heel vaak. YouTube deed soms raar en in AC Odyssey had ik heel vaak een CTD :F Kan het écht niet beter :?

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 20-03 03:54
@jimh307 Dit soort dingen zullen altijd blijven bestaan. Is met alles zo. We leven helaas niet in een "perfecte" wereld anders had het er heel anders uitgezien dan nu.

  • jimh307
  • Registratie: Februari 2014
  • Niet online
chim0 schreef op zondag 1 februari 2026 @ 18:24:
@jimh307 Dit soort dingen zullen altijd blijven bestaan. Is met alles zo. We leven helaas niet in een "perfecte" wereld anders had het er heel anders uitgezien dan nu.
Niets is perfect en ik blijf erbij dat Microsoft en co er nog goed mee wegkomen. Microsoft beloofd beterschap en dat zullen ze niet voor niets zeggen. Ik snap jouw opmerking goed en ik ben het er grotendeels mee eens, maar dit kun je gewoon niet verkopen aan je klanten. Ze hebben een gigantisch marktaandeel en ze kunnen het zich permitteren, maar dat kan ook omslaan. Kijk de jan26 update en zie Nvidia-drivers.

Er is gewoon werk aan de winkel en ze zijn groot geworden en het is lange tijd beter geweest, maar nu is het pet. Ook kan Microsoft veel geld besparen als ze betere updates maken want nu gaan er veel manuren inzitten voor noodpatches. Dit kan hoe dan ook niet de bedoeling zijn.

  • chim0
  • Registratie: Mei 2000
  • Laatst online: 20-03 03:54
@jimh307 Tja vraag maar eens aan de kenners hoeveel problemen een Ferrari auto heeft. Zit je dan met je 2 miljoen. En dan heb ik het niet over het ontbreken van een bekerhouder. :X

  • Polyprobatos
  • Registratie: Maart 2017
  • Laatst online: 15:37
chim0 schreef op zondag 1 februari 2026 @ 04:04:
[...]

Zal wel bij specifieke kaarten zijn want hier is ie 2 weken geleden al geïnstalleerd met een 3060 nergens last van.
jimh307 schreef op zondag 1 februari 2026 @ 14:44:
[...]

Hier op mijn gamerig met een rtx4070 ook nergens last van.
Een 5070 hier, anderhalve maand oud. Ook nergens last van.

Ik laat KB5074109 dus maar geinstalleerd. Als ik hem nu verwijder, geeft dat misschien juist wel issues als de volgende updates die een fix met zich meebrengen geïnstalleerd worden.

  • jimh307
  • Registratie: Februari 2014
  • Niet online
Polyprobatos schreef op woensdag 11 februari 2026 @ 19:02:
[...]

[...]


Een 5070 hier, anderhalve maand oud. Ook nergens last van.

Ik laat KB5074109 dus maar geinstalleerd. Als ik hem nu verwijder, geeft dat misschien juist wel issues als de volgende updates die een fix met zich meebrengen geïnstalleerd worden.
Met de nieuwste KB5077181 update geen issues zover. De KB5074109 update gaf hier ook geen problemen. Ook de prestaties in games was zo als het moet lopen. Sowieso geen last van 'lag'.

Ik denk dat mijn geluk misschien te maken heeft met de eenvoud van mijn setup. Geen exotische hardware hier. Ik ben ook heel voorzichtig met software installeren en alleen de software die ik écht nodig heb kom erop te staan. Des te minder software en een des te minder complex systeem heb je wat de kans op problemen drastisch verminderd.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Interessant, fwiw:

ComputerBase conducted a massive online blind test, allowing thousands of gamers to vote on their preferred game video output.

Blind Testing Shows Gamers Prefer NVIDIA DLSS 4.5 Over Native Resolution Rendering and AMD FSR 4

Afbeeldingslocatie: https://tweakers.net/i/u2sL6qhGR5U_7n8_8xC8kxulyG0=/800x/filters:strip_icc():strip_exif()/f/image/OFFRM8qst1NxTrkHY55cldUj.jpg?f=fotoalbum_large

[ Voor 25% gewijzigd door Help!!!! op 18-02-2026 09:36 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Polyprobatos
  • Registratie: Maart 2017
  • Laatst online: 15:37
Help!!!! schreef op woensdag 18 februari 2026 @ 09:19:
Interessant, fwiw:

ComputerBase conducted a massive online blind test, allowing thousands of gamers to vote on their preferred game video output.
Ik denk dat DLSS vaak verkeerd begrepen/gebruikt wordt, niet in de laatste plaats misschien vanwege hoe NVIDIA zelf de technologie aanprijst.

Men haalt <60 FPS, verwacht dit te kunnen pushen met DLSS en is vervolgens ontevreden over de 'fake frames'.

Ik zit in ARC Raiders zónder DLSS op 180~200 FPS. Mét DLSS is dat >400 FPS. Die extra FPS kunnen me in theorie gestolen worden, want we zitten dan allang in het bereik dat een menselijk oog het verschil niet waarneemt. Toch is het beeld duidelijk vloeiender en scherper.

Het lijkt erop dat DLSS de overgangen tussen de frames opvult, afhankelijk wellicht ook van hoe efficient de 'echte' frames gegenereerd worden. Ik heb DLSS dus graag aan staan.

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 00:10

Format-C

Tracing Rays

Als je DLSS gebruikt heb je geen fake frames als je geen frame generation gebruikt. (Dan schaal je alleen een lagere reso op naar hoge reso

DLAA is anti aliasing en genereert ook geen fake frames.

Dus als je 50 fps zonder DLSS hebt en 80 met DLSS dan voelt dat laatste normaal gesproken vloeiender aan dan 50 FPS.

Als je 50 FPS hebt en frame generation gebruikt dan heb je misschien 100 fps maar dan voelt het nog steeds als 50. En dan heb er er niks aan.

Ik heb tot nu toe maar 1 game waarin in frame generation goed vind werken en dat is Avatar frontiers of pandora. Dat is zon beetje de enige game waarin ik het niet kan zien of voelen.


(Gelukkig heb ik dat ook niet echt nodig met mn 5090)

Mav van het artikel van @Help!!!! Is het wel duidelijk dat DLSS echt iets toevoegt. Mensen vinden dat vaak beter dan native en dat is toch knap van nV

Het jammere is dat we nu nog opgescheept zitten met een lading unreal 5 games die er niet uit zien als 2026 games en die vaak voor geen meter draaien... In die games is DLSS bijna een must als je alles maxed out wil spelen..(en zelfs maxed out zien sommige games er echt slecht uit, Avowed bv. Of ze draaien slecht (en hebben veel patches nodig), zoals bijv Stalker 2, Borderlands 4. Edit; laat ik het zo zeggen: de framerates die je in unreal 5 games haalt zijn naar mijn mening eigenlijk te laag voor wat je er aan graphics voor terug krijgt.)

Edit: Framegeneration werkt zws het beste als je al meer dan 60 fps hebt. Dus het is imho meer een feature om op hoge refresh rate monitoren te spelen dan om games speelbaar te maken.

[ Voor 46% gewijzigd door Format-C op 18-02-2026 15:26 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX5090 Phantom/ Gbyte B650 GAMING PLUS/ 32GB G.Skill Z5 6000 CL30 / Team M2 1TB/ 990Pro M2 1TB/ MX500 1TB/ 5TB SATA / Gbyte WBAX200/ Corsair 1000w/ Scarlett Solo / AOC AG493UCX/ LG 65" OLED TV


  • rapture
  • Registratie: Februari 2004
  • Laatst online: 03:01

rapture

Zelfs daar netwerken?

Help!!!! schreef op woensdag 18 februari 2026 @ 09:19:
Interessant, fwiw:

ComputerBase conducted a massive online blind test, allowing thousands of gamers to vote on their preferred game video output.

Blind Testing Shows Gamers Prefer NVIDIA DLSS 4.5 Over Native Resolution Rendering and AMD FSR 4

[Afbeelding]
De marketingafdeling heeft de smaken/voorkeuren van de gamers goed geïdentificeerd. Blurry games is een trend en als ze wat sharpening aan DLSS toevoegen dan vinden de mensen dat het mooier dan native eruit ziet.

Voor de grote multinationals is het normaal dat ze in elk land testen welke smaken/voorkeuren dat de bevolking heeft. Hetzelfde product in de supermarkt smaakt in een ander land anders omdat het op een andere bevolking afgesteld is. Zo ontstaat een markt voor de migranten/expats die eten uit hun thuisland importeren.

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 00:10

Format-C

Tracing Rays

Blurryness is wat voor mij games verpest.

Ik denk met weemoed terug aan MSAA met SuperSampling :9~

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX5090 Phantom/ Gbyte B650 GAMING PLUS/ 32GB G.Skill Z5 6000 CL30 / Team M2 1TB/ 990Pro M2 1TB/ MX500 1TB/ 5TB SATA / Gbyte WBAX200/ Corsair 1000w/ Scarlett Solo / AOC AG493UCX/ LG 65" OLED TV


  • jimh307
  • Registratie: Februari 2014
  • Niet online
Format-C schreef op woensdag 18 februari 2026 @ 12:33:

DLAA is anti aliasing en genereert ook geen fake frames.
Dat is helemaal correct en deze setting gebruik ik ook. Het is toch mooier dan opgeschaalde pixels.
Dus als je 50 fps zonder DLSS hebt en 80 met DLSS dan voelt dat laatste normaal gesproken vloeiender aan dan 50 FPS.

Als je 50 FPS hebt en frame generation gebruikt dan heb je misschien 100 fps maar dan voelt het nog steeds als 50. En dan heb er er niks aan.
Hier ben ik het niet mee eens. In TW3 had ik FG nodig om een goede framerate te krijgen en het voelt vloeiender aan, maar de vijanden in het spel bewogen inderdaad houteriger dan zonder FG. Als je bedoeld dat de inputlag hetzelfde blijft geef ik je wel gelijk. Met de moderne mogelijkheid om tot 6x FG te gebruiken zal de inputlag dramatisch worden. Ik zou dat nooit willen en dan maar een paar minder frames. FG is alleen goed als de basisframerate goed is. Koop je een mooie gamingmuis; gebruik je multi-FG. Zonde. Toch heb je zeker een punt hier, maar niet compleet ;)
Ik heb tot nu toe maar 1 game waarin in frame generation goed vind werken en dat is Avatar frontiers of pandora. Dat is zon beetje de enige game waarin ik het niet kan zien of voelen.


(Gelukkig heb ik dat ook niet echt nodig met mn 5090)
Met zo'n kaart wil je geen FG gebruiken. De 5090 is wel zo'n beuker van een kaart dat die 6x FG nooit nodig zal worden. Hier een eenvoudige 4070 op 1080p360Hz en ik kan alles op ultra settings spelen zonder poespas, maar ik hecht meer waarde aan soepele framerates dan resolutie. 360Hz is boterzacht.
Mav van het artikel van @Help!!!! Is het wel duidelijk dat DLSS echt iets toevoegt. Mensen vinden dat vaak beter dan native en dat is toch knap van nV
Deze mening deel ik persoonlijk niet. DLAA is echt 'far better' en zeker met sharpening.
Het jammere is dat we nu nog opgescheept zitten met een lading unreal 5 games die er niet uit zien als 2026 games en die vaak voor geen meter draaien... In die games is DLSS bijna een must als je alles maxed out wil spelen..(en zelfs maxed out zien sommige games er echt slecht uit, Avowed bv. Of ze draaien slecht (en hebben veel patches nodig), zoals bijv Stalker 2, Borderlands 4. Edit; laat ik het zo zeggen: de framerates die je in unreal 5 games haalt zijn naar mijn mening eigenlijk te laag voor wat je er aan graphics voor terug krijgt.)
Het optimaliseren van de Unreal 5 engine is een kwestie van tijd. Ik zal dus nergens suggereren dat DLSS slecht zou zijn en zeker niet met het nieuwe transformer model, maar DLAA is beter. Toch is een hogere framerate beter met DLSS als je kaart het nodig heeft zoals jij noemt in die games. Goede punten hier, maar een kwestie van tijd.
Edit: Framegeneration werkt zws het beste als je al meer dan 60 fps hebt. Dus het is imho meer een feature om op hoge refresh rate monitoren te spelen dan om games speelbaar te maken.

  • Polyprobatos
  • Registratie: Maart 2017
  • Laatst online: 15:37
[b]Format-C in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"Edit: Framegeneration werkt zws het beste als je al meer dan 60 fps hebt. Dus het is imho meer een feature om op hoge refresh rate monitoren te spelen dan om games speelbaar te maken.
My bad, maar dan hebben we het uiteindelijk dus over hetzelfde: framegeneration en het feit dat het vaak onterecht gezien wordt als middel om acceptabele FPS te halen, waar het vervolgens vaak bij faalt, terwijl het wél een goede middel is om reeds goede FPS beter weer te geven.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Probleem is denk ik dat voor velen toch onvoldoende duidelijk is dat DLSS verschillende onderdelen bevat die naast elkaar bestaan. En dat DLSS evolueert met de tijd. Er worden zowel features verbeterd als toegevoegd.

Daardoor onstaat al snel spraakverwarring als men het heeft over 'DLSS'.

(Even snel via AI:)
  • DLSS Super Resolution: Uses AI to upscale lower-resolution images into higher-resolution outputs, allowing games to run faster while maintaining sharp visuals.
  • DLSS Frame Generation (Multi Frame Generation): Leverages AI, including the Optical Flow Accelerator on RTX 40/50 series GPUs, to generate entirely new frames, increasing FPS up to 5x or more (in DLSS 4).
  • DLSS Ray Reconstruction: Replaces hand-tuned denoisers with an AI network trained by NVIDIA supercomputers to enhance the quality of lighting and shadows in ray-traced scenes.
  • Deep Learning Anti-Aliasing (DLAA): Uses the same AI technology as Super Resolution but applies it to native resolution images to provide higher-quality anti-aliasing.
  • NVIDIA Reflex: Integrated with Frame Generation to minimize input lag and latency, ensuring responsiveness.

[ Voor 4% gewijzigd door Help!!!! op 19-02-2026 10:56 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18:07
De naam DLSS zelf was dan ook al onzin vanaf het begin en is inmiddels een merknaam, net als GeForce. Deep Learning Super Sampling. Super in de context van graphics betekent "meer dan nodig"; voor de output van één pixel, gebruik je meerdere input samples. Dus, op hogere resolutie renderen en dan downsamplen (klassiek SSAA) geeft je dat: je gebruikt meerdere pixels om één output pixel te berekenen. DLSS in z'n originele vorm ("Super" Resolution) gebruikt niet meerdere samples om één pixel te berekenen. Het gebruikt wel meerdere inputs (motion vectors, depth buffers), maar niet meerdere pixel samples; en het berekent een pixel ook niet, het "gokt" wat de pixel zou moeten zijn. Dat is nu eenmaal hoe "AI" momenteel werkt. Voor veel mensen lijken ze wel intelligent, maar LLM's (en ook alles wat onder DLSS valt) zijn cru gezegd kansberekening. Ze "denken" niet, ze berekenen welk token de hoogste kans heeft om "juist" te zijn en dat krijg jij op je scherm te zien van ChatGPT, Claude, etc. Vaak komt het dicht bij het gewenste resultaat in de buurt, mits je de juiste inputs (prompts) geeft, maar meestal is het net niet juist.

Geen van de DLSS features zijn supersampling, je kunt het hooguit multisampling noemen vanwege het temporele aspect. Super Resolution is upsampling, DLAA is downsampling en komt het dichtst bij Supersampling in de buurt. DLSS "SS" is TAAU met een neuraal netwerk om artifacts zo veel mogelijk op te lossen. MLTAAU ligt echter niet zo lekker in de mond :p

Wat CB's poll betreft ben ik het er overigens niet mee eens dat het een blinde test is. Een video is sowieso al problematisch, maar nu kun je ze side-by-side inzoomen en dergelijke, waardoor veel mensen op minuscule details letten. Zet ze eens op 3 monitors naast elkaar en kijk dan wat de uitkomst is; ik vermoed dat DLSS en FSR dan dichter bij elkaar zouden liggen, wel nog steeds met winst voor DLSS. Het hele punt van "good enough" komt dan echt tot z'n recht, want ja, voor velen zijn de resultaten goed genoeg. De reden dat de upscalers er dan waarschijnlijk alsnog bovenuit zouden steken is omdat "native" tegenwoordig helaas ofwel 0,0 AA betekent, of goedkope AA (FXAA) zonder sharpening. Vergeet niet dat de upscalers er ook meerdere post processing filters overheen laten lopen.

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 20-03 09:39
Werelds schreef op donderdag 19 februari 2026 @ 09:27:
Wat CB's poll betreft ben ik het er overigens niet mee eens dat het een blinde test is. Een video is sowieso al problematisch, maar nu kun je ze side-by-side inzoomen en dergelijke, waardoor veel mensen op minuscule details letten. Zet ze eens op 3 monitors naast elkaar en kijk dan wat de uitkomst is; ik vermoed dat DLSS en FSR dan dichter bij elkaar zouden liggen, wel nog steeds met winst voor DLSS.
Het is nog steeds wel een blinde test. Er was een optie "ik zie geen/weinig verschil". Als je 3 schermen naast elkaar zet dan gaat die optie gewoon vaker gekozen worden.

Waarom is een video trouwens problematisch? Ze kiezen juist voor videos omdat screenshots veel verbergen en veel zaken enkel te zien zijn in beweging. Het is de enige goede manier om TAA implementaties met elkaar te vergelijken. Als je wat geeft om IQ en weet waar je op moet letten dan ga je echt wel redelijk goed de verschillen kunnen zien. Vergeet niet dat er op CB al een voorselectie is door het soort mensen dat zo'n site bezoekt. Ik geef je gelijk dat de gemiddelde persoon niet veel verschil zal merken, net zoals je veel mensen hebt die geen verschil zullen zien tussen 120hz en 360hz terwijl ik dat onmiddellijk zie in beweging. Al denk ik ook wel dat als je de UFO test van Blurbusters gebruikt velen toch wel verschillen zullen zien, omdat het dan veel duidelijker vergeleken kan worden.
Werelds schreef op donderdag 19 februari 2026 @ 09:27:
De reden dat de upscalers er dan waarschijnlijk alsnog bovenuit zouden steken is omdat "native" tegenwoordig helaas ofwel 0,0 AA betekent, of goedkope AA (FXAA) zonder sharpening. Vergeet niet dat de upscalers er ook meerdere post processing filters overheen laten lopen.
Native betekent bijna altijd met TAA implementatie van de devs. Volgens mij kan je bij veel games zelfs niet meer kiezen? Ik denk niet dat iemand nog FXAA gebruikt. Games tegenwoordig worden in ieder geval gemaakt met het idee dat er een vorm van TAA zal gebruikt worden.

De meeste standaard TAA implementaties zijn niet al te best. Dat is ook de rede dat men al zo lang zegt dat DLSS beter is dan native. Je doet 1 stap achteruit door van een lagere resolutie te vertrekken maar wel 2 stappen vooruit door de veel betere TAA implementatie van DLSS.

1 van de grote nadelen van TAA is smearing, maar devs hebben gemerkt dat ze dit nadeel in een voordeel kunnen veranderen door het te gebruiken om effecten en vegetatie op een goedkope manier te renderen. DLSS 4.0 is echter heel sterk in dit te beperken en behoorlijk scherp in beweging. Zo goed zelfs dat ik onlangs (ik denk in FF7 Rebirth) een spel had waar DLSS 4.0 de bladeren van de bomen verknalde door te weinig smearing op de bladeren toe te passen. De bomen zagen er heel gelijkaardig uit met wat je kreeg door TAA uit te schakelen.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18:07
napata schreef op donderdag 19 februari 2026 @ 10:46:
Als je 3 schermen naast elkaar zet dan gaat die optie gewoon vaker gekozen worden.
En dat is precies mijn punt ;)
Waarom is een video trouwens problematisch? Ze kiezen juist voor videos omdat screenshots veel verbergen en veel zaken enkel te zien zijn in beweging.
Screenshots zou inderdaad nog erger zijn. Met video heb je echter ook nog encoding artifacts bovenop de upscaling artifacts; dat versterkt elkaar. Je kunt ook pauzeren om op een enkel frame te focussen, wat niet representatief van de werkelijkheid is. En dan kun je ook nog inzoomen. Stilstaan in een spel is niet hetzelfde als het pauzeren van een video; ga maar eens van veel beweging naar complete stilstand in een spel, waarbij je dan expliciet focust op probleem gebieden van de gebruikte techniek (textures bij FSR, transparantie bij DLSS, zulke dingen). Je zult zien dat die artifacts oplossen door de extra temporele informatie van de voorgaande frames uit stilstand. Het beeld komt dan tot rust. Maar in beweging vallen die artifacts meestal niet op, of enkel onder bepaalde omstandigheden. Als je met een auto naast hekwerk rijdt of de camera draait, zul je transparantie artifacts niet zo zeer zien. Kijk je vervolgens naar een stilstaand beeld (ongeacht of dat een screenshot of een frame uit een video is), zie je dat wel. En bij hekwerk recht voor je, waarbij het hekwerk zelf dus niet echt beweegt, ook.
Native betekent bijna altijd met TAA implementatie van de devs. Volgens mij kan je bij veel games zelfs niet meer kiezen? Ik denk niet dat iemand nog FXAA gebruikt. Games tegenwoordig worden in ieder geval gemaakt met het idee dat er een vorm van TAA zal gebruikt worden.

De meeste standaard TAA implementaties zijn niet al te best. Dat is ook de rede dat men al zo lang zegt dat DLSS beter is dan native. Je doet 1 stap achteruit door van een lagere resolutie te vertrekken maar wel 2 stappen vooruit door de veel betere TAA implementatie van DLSS.
TAA is in de meeste gevallen min of meer Temporal FXAA, als je het temporele component even negeert, doen ze min of meer hetzelfde. En de meeste implementaties zijn inderdaad ruk. Het feit dat je meestal ook geen sharpening toe kunt passen (terwijl dat bij DLSS/FSR/XeSS ingebakken zit) is ook een probleem. Je ziet het maar zelden, maar SMAA TX geeft meestal betere resultaten (SMAA is sowieso beter dan FXAA), vooral met wat lichte sharpening. CoD dan weer niet echt omdat SMAA daar ook film grain betekent :')
1 van de grote nadelen van TAA is smearing, maar devs hebben gemerkt dat ze dit nadeel in een voordeel kunnen veranderen door het te gebruiken om effecten en vegetatie op een goedkope manier te renderen. DLSS 4.0 is echter heel sterk in dit te beperken en behoorlijk scherp in beweging. Zo goed zelfs dat ik onlangs (ik denk in FF7 Rebirth) een spel had waar DLSS 4.0 de bladeren van de bomen verknalde door te weinig smearing op de bladeren toe te passen. De bomen zagen er heel gelijkaardig uit met wat je kreeg door TAA uit te schakelen.
Mja, het grote probleem is dat het allemaal post-processing is en blijft. Het werkt op pixels, dus er is maar weinig extra informatie beschikbaar.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:09
Nvidia naar 94% dGPU marketshare, ondanks verminderde beschikbaarheid. https://www.jonpeddie.com...th-a-cagr-to-2029-of-5-9/

  • jimh307
  • Registratie: Februari 2014
  • Niet online
napata schreef op donderdag 19 februari 2026 @ 10:46:
[...]
Ik geef je gelijk dat de gemiddelde persoon niet veel verschil zal merken, net zoals je veel mensen hebt die geen verschil zullen zien tussen 120hz en 360hz terwijl ik dat onmiddellijk zie in beweging. Al denk ik ook wel dat als je de UFO test van Blurbusters gebruikt velen toch wel verschillen zullen zien, omdat het dan veel duidelijker vergeleken kan worden.
Dat klopt helemaal. 360hz is boterzacht en in AC Valhalla haal ik die waarde soms. Dat zie je inderdaad aan beweging want alles blijft scherper bij beweging. Ik koos bewust voor 1080p omdat het op een CRT lijkt en daar ben ik mee opgevoed, alleen nu met een hoge framerate en eigenlijk is de rtx4070 overkill voor 1080p. Ik heb een 25 inch Alienware monitor met G-sync en het heeft een goed panel met mooie kleuren en een lage reactietijd. 1080p op 25 inch is best goed te doen, maar het scherm moet niet groter worden want dan is 1080p niet voldoende meer.
[...]

Native betekent bijna altijd met TAA implementatie van de devs. Volgens mij kan je bij veel games zelfs niet meer kiezen? Ik denk niet dat iemand nog FXAA gebruikt. Games tegenwoordig worden in ieder geval gemaakt met het idee dat er een vorm van TAA zal gebruikt worden.

De meeste standaard TAA implementaties zijn niet al te best. Dat is ook de rede dat men al zo lang zegt dat DLSS beter is dan native. Je doet 1 stap achteruit door van een lagere resolutie te vertrekken maar wel 2 stappen vooruit door de veel betere TAA implementatie van DLSS.
TAAU is beter en kan nog overwogen worden, maar FXAA is net als vaseline op je scherm smeren.
1 van de grote nadelen van TAA is smearing, maar devs hebben gemerkt dat ze dit nadeel in een voordeel kunnen veranderen door het te gebruiken om effecten en vegetatie op een goedkope manier te renderen. DLSS 4.0 is echter heel sterk in dit te beperken en behoorlijk scherp in beweging. Zo goed zelfs dat ik onlangs (ik denk in FF7 Rebirth) een spel had waar DLSS 4.0 de bladeren van de bomen verknalde door te weinig smearing op de bladeren toe te passen. De bomen zagen er heel gelijkaardig uit met wat je kreeg door TAA uit te schakelen.
DLSS 4 is veel beter dan de voorgaande versies, maar zelf kies ik altijd DLAA want dat is veel beter en dus native. DLAA biedt hele goede anti aliasing en dat kan ik ook zeggen met de Assassin's Creed games. Die gebruiken geen DLAA, maar hele goede AA.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18:07
En daar zijn we dan. AI bullshittery complete.

YouTube: Announcing NVIDIA DLSS 5 | AI-Powered Breakthrough in Visual Fidelit...

Ik heb hier echt geen woorden voor. Het ergste is nog dat zovelen janken over dingen die door AI gegenereerd worden -vooral ook als het aan komt op afbeeldingen, muziek en dergelijke-, maar dit gaat geheid weer geaccepteerd worden. Zoals door DF.

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Zolang ze nog twee 5090's nodig hebben zal het hopelijk nog wel even duren.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 3840*1600p 160Hz | Corsair RM1000x Shift


  • napata
  • Registratie: Oktober 2020
  • Laatst online: 20-03 09:39
Help!!!! schreef op dinsdag 17 maart 2026 @ 12:58:
Zolang ze nog twee 5090's nodig hebben zal het hopelijk nog wel even duren.


[YouTube: DLSS 5 is worse than you think]
Ik vrees dat het einde van deze weg zich uiteindelijk aan de developerskant gaat bevinden en dat dit zal gepositioneerd worden als een developerstool. Je gaat het dan sowieso moeten slikken. Dit is natuurlijk nog maar de eerste stap.

Je maakt een simpele versie van een game zonder veel werk en aandacht te steken in belichting, textures en details en laat dan AI gewoon de rest invullen/vervolledigen. Dit levert natuurlijk enorme besparingen op qua mankracht. Plots heb je talloze functies niet meer nodig.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:09
Help!!!! schreef op dinsdag 17 maart 2026 @ 12:58:
Zolang ze nog twee 5090's nodig hebben zal het hopelijk nog wel even duren.


[YouTube: DLSS 5 is worse than you think]
Damn, Coreteks dat is een naam in het leaker circuit die ik al even niet meer heb gehoord :o Had geen idee dat ie nog actief was.

  • Dennism
  • Registratie: September 1999
  • Laatst online: 01:09
Werelds schreef op dinsdag 17 maart 2026 @ 12:42:
En daar zijn we dan. AI bullshittery complete.

YouTube: Announcing NVIDIA DLSS 5 | AI-Powered Breakthrough in Visual Fidelit...

Ik heb hier echt geen woorden voor. Het ergste is nog dat zovelen janken over dingen die door AI gegenereerd worden -vooral ook als het aan komt op afbeeldingen, muziek en dergelijke-, maar dit gaat geheid weer geaccepteerd worden. Zoals door DF.
Ik denk dat dit vaak simpelweg verschillende kampen zijn. Je ziet overal bij AI vrij veel polarisatie van aan de ene kant een groep evangelisten, die 'alles AI' geweldig vinden, en dan aan de andere kant een groep die 'alles AI' helemaal niets vindt. Groep 1 zal dit dus zeker accepteren, maar ik vermoed ook dat groep 2 ook zeer kritisch gaat zijn.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18:07
Dennism schreef op dinsdag 17 maart 2026 @ 15:44:
Ik denk dat dit vaak simpelweg verschillende kampen zijn. Je ziet overal bij AI vrij veel polarisatie van aan de ene kant een groep evangelisten, die 'alles AI' geweldig vinden, en dan aan de andere kant een groep die 'alles AI' helemaal niets vindt. Groep 1 zal dit dus zeker accepteren, maar ik vermoed ook dat groep 2 ook zeer kritisch gaat zijn.
In veel gevallen wel, maar als het op "DLSS" aan komt heb ik toch al vaker gezien dat men denkt dat hier meer bij komt kijken dan bij andere generatieve AI. Opmerkingen dat het "in tegenstelling tot <insert LLM>" een basis in een echt frame heeft, gebaseerd is op wat de engine aan data heeft, en daarom niet hetzelfde is, dat soort dingen. Quatsch.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Werelds schreef op dinsdag 17 maart 2026 @ 12:42:
En daar zijn we dan. AI bullshittery complete.

YouTube: Announcing NVIDIA DLSS 5 | AI-Powered Breakthrough in Visual Fidelit...

Ik heb hier echt geen woorden voor. Het ergste is nog dat zovelen janken over dingen die door AI gegenereerd worden -vooral ook als het aan komt op afbeeldingen, muziek en dergelijke-, maar dit gaat geheid weer geaccepteerd worden. Zoals door DF.
Jensen denkt dat je het niet snapt :p

nieuws: Nvidia-ceo: gamers die kritiek hebben op DLSS 5 hebben het 'totaal verkeerd'

March of the Eagles


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18:07
XWB schreef op woensdag 18 maart 2026 @ 09:38:
Jensen denkt dat je het niet snapt :p
I'm holding it wrong? :p

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Werelds schreef op dinsdag 17 maart 2026 @ 16:05:
[...]

In veel gevallen wel, maar als het op "DLSS" aan komt heb ik toch al vaker gezien dat men denkt dat hier meer bij komt kijken dan bij andere generatieve AI. Opmerkingen dat het "in tegenstelling tot <insert LLM>" een basis in een echt frame heeft, gebaseerd is op wat de engine aan data heeft, en daarom niet hetzelfde is, dat soort dingen. Quatsch.
Ik zie het meer als ook bij normale LLMs: Als iemand een stuk tekst schrijft, en dan AI gebruikt om er nog eens overheen te gaan: Prima. Als je gewoon de AI alles laat genereren, dan zit je in de AI slop regio. Vooralsnog vind ik het iig zeer indrukwekkend wat ze hebben laten zien, en benieuwd hoe dat in de praktijk uitgewerkt gaat worden.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18:07
Sissors schreef op woensdag 18 maart 2026 @ 13:55:
Ik zie het meer als ook bij normale LLMs: Als iemand een stuk tekst schrijft, en dan AI gebruikt om er nog eens overheen te gaan: Prima. Als je gewoon de AI alles laat genereren, dan zit je in de AI slop regio. Vooralsnog vind ik het iig zeer indrukwekkend wat ze hebben laten zien, en benieuwd hoe dat in de praktijk uitgewerkt gaat worden.
Mij gaat het niet zo zeer om hoe het er uit ziet. Persoonlijk vind ik dat het in bijna alle getoonde voorbeelden een achteruitgang is. Het is ontzettend duidelijk dat het een afbeelding is die uit een LLM komt en er juist níet realistisch uit ziet. Veel te veel highlights, glanzende oppervlakken, verzadigde kleuren, overbelicht. Maar goed, dat is een kwestie van smaak. De meeste mensen vinden oververzadigde foto's ook mooi, ook al slaan ze nergens op.

Ik heb hier problemen mee vanwege twee andere redenen. Allereerst het artistieke aspect; het is gewoon niet mogelijk dat ze genoeg controle hierover hebben, dus het gaat altijd tegen het origineel in. Kijk maar naar de voorbeelden uit RE, Starfield en Hogwarts. De personages zien er gewoon anders uit - vooral in RE. Grotere ogen, dikkere lippen, highlights in het haar. Waar dit toe gaat leiden, is minder gedetailleerd artwork en scene design, "want de AI gaat er toch overheen"...en dat kan dan weer banen gaan kosten, want zo werken de grote bedrijven als EA wel. En zoals gezegd, naar mijn mening geen verbetering (Hogwarts wordt ineens cartoony...en Virgil ziet er hartstikke dood uit).

En dat laatste is ook meteen m'n andere probleem: dit speelt wederom het goedkope hackwerk in de hand. Niks high-res textures, niks optimaliseren, niks high-poly models. Heb je niet Nvidia's latest en greatest voor bedragen die de meeste mensen niet op kunnen hoesten? Pech, krijg je een spuuglelijke game die als dikke stront door een trechter loopt.

  • Palindrome
  • Registratie: September 2020
  • Laatst online: 19-03 09:59
Ik zie meer details/realisme in gezichten. Vind het best mooi dat AI, gaan we eindelijke richting film realisme/interactieve films.

Snap de haat niet helemaal en zie het als hetzelfde als mensen die moderne animatie films haten en willen vasthouden aan de oude getekende animatiefilms of mensen die CGI afkraken toen dat nog in de kinderschoenen stond.

[ Voor 52% gewijzigd door Palindrome op 18-03-2026 17:19 ]


  • jimh307
  • Registratie: Februari 2014
  • Niet online
Palindrome schreef op woensdag 18 maart 2026 @ 16:45:
Ik zie meer details/realisme in gezichten. Vind het best mooi dat AI, gaan we eindelijke film realisme/interactieve films.

Snap de haat niet helemaal en zie het als hetzelfde als mensen die moderne animatie films haten en willen vasthouden aan de oude getekende animatiefilms of mensen die CGI afkraken toen dat nog in de kinderschoenen stond.
Nou, de techniek is er, maar reken maar dat je een 5090 nodig zal hebben voor al die eye candy. Dat is voor heel veel mensen een ver van hun bed show. Ik vind games er nu al heel goed uitzien.

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Palindrome schreef op woensdag 18 maart 2026 @ 16:45:
Ik zie meer details/realisme in gezichten. Vind het best mooi dat AI, gaan we eindelijke richting film realisme/interactieve films.

Snap de haat niet helemaal en zie het als hetzelfde als mensen die moderne animatie films haten en willen vasthouden aan de oude getekende animatiefilms of mensen die CGI afkraken toen dat nog in de kinderschoenen stond.
En het is prima dat je daar natuurlijk de voorkeur aan geeft, maar de standaard haat op alles wat begint met "AI" of "DLSS" is imo ook een beetje saai.
Werelds schreef op woensdag 18 maart 2026 @ 14:52:
[...]

Mij gaat het niet zo zeer om hoe het er uit ziet. Persoonlijk vind ik dat het in bijna alle getoonde voorbeelden een achteruitgang is. Het is ontzettend duidelijk dat het een afbeelding is die uit een LLM komt en er juist níet realistisch uit ziet. Veel te veel highlights, glanzende oppervlakken, verzadigde kleuren, overbelicht. Maar goed, dat is een kwestie van smaak. De meeste mensen vinden oververzadigde foto's ook mooi, ook al slaan ze nergens op.

Ik heb hier problemen mee vanwege twee andere redenen. Allereerst het artistieke aspect; het is gewoon niet mogelijk dat ze genoeg controle hierover hebben, dus het gaat altijd tegen het origineel in. Kijk maar naar de voorbeelden uit RE, Starfield en Hogwarts. De personages zien er gewoon anders uit - vooral in RE. Grotere ogen, dikkere lippen, highlights in het haar. Waar dit toe gaat leiden, is minder gedetailleerd artwork en scene design, "want de AI gaat er toch overheen"...en dat kan dan weer banen gaan kosten, want zo werken de grote bedrijven als EA wel. En zoals gezegd, naar mijn mening geen verbetering (Hogwarts wordt ineens cartoony...en Virgil ziet er hartstikke dood uit).

En dat laatste is ook meteen m'n andere probleem: dit speelt wederom het goedkope hackwerk in de hand. Niks high-res textures, niks optimaliseren, niks high-poly models. Heb je niet Nvidia's latest en greatest voor bedragen die de meeste mensen niet op kunnen hoesten? Pech, krijg je een spuuglelijke game die als dikke stront door een trechter loopt.
We weten nog helemaal niet hoeveel vrijheid de developers krijgen in hoe het geinterpreteerd wordt door DLSS 5 (wat sowieso work in progress is). En ik vind het wel een ding als er echt grote verschillen komen in hoe het eruit ziet tussen een AMD, Intel en Nvidia GPU, dus dat lijkt mij geen positief iets. Maar ik vond hoewel er zeker reden is voor twijfels hoe het in de praktijk gaat uitpakken, het er ook indrukwekkend uitzien.

Overigens zijn zat high res textures natuurlijk ook triviaal te maken: Als ze allemaal 48GB VRAM op GPUs gaan gooien zal dat betekenen dat er ook minder optimalisaties nodig zijn qua texture gebruik.

Onder de streep, en dat is op de FP ook gedownvote al blijf ik erbij: Brute force meer raster performance is een doodlopende weg. En ja met een nieuwe tech node zullen we best wel weer een redelijke boost in raster performance zien bij de 60XX serie. Maar wil je ik zeg maar, 4k 120-240Hz gamen op een beetje nieuw spel, dan moet je of een kleine kerncentrale naast je PC zetten, of je moet voor slimmere oplossingen gaan dan meer raster performance. En dat is nog meer waard als je gewoon zoveel gedetailleerdere beelden wil als wat Nvidia nu met DLSS 5 heeft laten zien.

  • jimh307
  • Registratie: Februari 2014
  • Niet online
Sissors schreef op woensdag 18 maart 2026 @ 17:31:
[...]

En het is prima dat je daar natuurlijk de voorkeur aan geeft, maar de standaard haat op alles wat begint met "AI" of "DLSS" is imo ook een beetje saai.
Het is de mens' eigen om te klagen voor alles wat nieuw is en vreemd lijkt. Ik zie wel waar het schip strandt en ik game gewoon lekker verder met mijn rtx4070, maar ik ben verder dik tevreden met mijn systeem.
[...]

We weten nog helemaal niet hoeveel vrijheid de developers krijgen in hoe het geinterpreteerd wordt door DLSS 5 (wat sowieso work in progress is). En ik vind het wel een ding als er echt grote verschillen komen in hoe het eruit ziet tussen een AMD, Intel en Nvidia GPU, dus dat lijkt mij geen positief iets. Maar ik vond hoewel er zeker reden is voor twijfels hoe het in de praktijk gaat uitpakken, het er ook indrukwekkend uitzien.
Dat weten we pas als het zover is. Het lijkt wel verkapte reclame om voor Nvidia te kiezen. En ja, het ziet er zeker goed uit.
Overigens zijn zat high res textures natuurlijk ook triviaal te maken: Als ze allemaal 48GB VRAM op GPUs gaan gooien zal dat betekenen dat er ook minder optimalisaties nodig zijn qua texture gebruik.
Hier beantwoord jij mijn onderbuikgevoel. Zul je net zien met de hoge geheugenprijzen van nu. Dan maar high settings in plaats van alle op ultra.
Onder de streep, en dat is op de FP ook gedownvote al blijf ik erbij: Brute force meer raster performance is een doodlopende weg. En ja met een nieuwe tech node zullen we best wel weer een redelijke boost in raster performance zien bij de 60XX serie. Maar wil je ik zeg maar, 4k 120-240Hz gamen op een beetje nieuw spel, dan moet je of een kleine kerncentrale naast je PC zetten,
Stroomverbruik is tegenwoordig een achilleshiel en we zitten tegen netcongestie aan. Mijn systeem trekt max 300-400 watt uit de muur en dat is nog te verantwoorden, maar een 5090 lust alleen al 600 watt voor de videokaart alleen al. Natuurlijk nog een flinke airco ernaast om het binnen behaaglijk te houden en je hebt het recept voor compleet falen.
of je moet voor slimmere oplossingen gaan dan meer raster performance. En dat is nog meer waard als je gewoon zoveel gedetailleerdere beelden wil als wat Nvidia nu met DLSS 5 heeft laten zien.

  • jimh307
  • Registratie: Februari 2014
  • Niet online
Werelds schreef op woensdag 18 maart 2026 @ 14:52:
[...]

Mij gaat het niet zo zeer om hoe het er uit ziet. Persoonlijk vind ik dat het in bijna alle getoonde voorbeelden een achteruitgang is. Het is ontzettend duidelijk dat het een afbeelding is die uit een LLM komt en er juist níet realistisch uit ziet. Veel te veel highlights, glanzende oppervlakken, verzadigde kleuren, overbelicht. Maar goed, dat is een kwestie van smaak. De meeste mensen vinden oververzadigde foto's ook mooi, ook al slaan ze nergens op.
Vergelijkbaar met de mismatch van de artistieke kunst van de developers zoals bedoeld. De graphics zijn dan niet zoals ze origineel waren. Mee eens dus.
Ik heb hier problemen mee vanwege twee andere redenen. Allereerst het artistieke aspect; het is gewoon niet mogelijk dat ze genoeg controle hierover hebben, dus het gaat altijd tegen het origineel in. Kijk maar naar de voorbeelden uit RE, Starfield en Hogwarts. De personages zien er gewoon anders uit - vooral in RE. Grotere ogen, dikkere lippen, highlights in het haar. Waar dit toe gaat leiden, is minder gedetailleerd artwork en scene design, "want de AI gaat er toch overheen"...en dat kan dan weer banen gaan kosten, want zo werken de grote bedrijven als EA wel. En zoals gezegd, naar mijn mening geen verbetering (Hogwarts wordt ineens cartoony...en Virgil ziet er hartstikke dood uit).
Dit geld niet voor de oudere assassin's creed serie: Origins, Odyssey, Valhalla en Shadows. Pure rastering spellen en deze spellen zien er heel goed uit. Ook de wat oudere. Shadows heeft wel dlss aan boord.
En dat laatste is ook meteen m'n andere probleem: dit speelt wederom het goedkope hackwerk in de hand. Niks high-res textures, niks optimaliseren, niks high-poly models. Heb je niet Nvidia's latest en greatest voor bedragen die de meeste mensen niet op kunnen hoesten? Pech, krijg je een spuuglelijke game die als dikke stront door een trechter loopt.
Ja, ik begrijp jouw denkwijze, maar er zullen ook games genoeg komen die wel goed zijn. Alleen moet je ze weten te vinden. Vaak heb je veel keuze in grafische instellingen en zelfs op medium settings ziet een modern spel er meer dan prima uit. We kijken louter naar de hoogst mogelijke grafische instellingen, maar het zou ook goed zijn om te kijken hoe zo'n spel presteert op medium of high settings in vergelijking met ultra.

Wellicht speel ik advocaat van de duivel. Het is niet allemaal slecht.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18:07
Palindrome schreef op woensdag 18 maart 2026 @ 16:45:
Ik zie meer details/realisme in gezichten. Vind het best mooi dat AI, gaan we eindelijke richting film realisme/interactieve films.

Snap de haat niet helemaal en zie het als hetzelfde als mensen die moderne animatie films haten en willen vasthouden aan de oude getekende animatiefilms of mensen die CGI afkraken toen dat nog in de kinderschoenen stond.
Het probleem is niet per se hoe het er uit ziet, maar het verschil tussen de twee. Kijk naar RE: dat is gewoon een ander spel, met een ander personage - maar belangrijker, het is geen rendering, het is een herinterpretatie van het originele frame. Het personage zelf heeft geheel andere ogen, andere wenkbrauwen, haar haar heeft ineens highlights, haar lippen zijn dikker, haar kin is het kuiltje kwijt, de kaaklijn is anders. De belichting is ook niet "beter" (laat staan realistischer) - het geheel is overbelicht, waarbij er nu ineens een onzichtbare lichtbron aan de linkerkant is, maar het tegelijkertijd alsnog donker genoeg moet zijn waardoor de verlichting van de winkel aan de rechterkant haar haar sterk verlicht.

Of je het post-DLSS resultaat mooier vind is persoonlijk, dat is een kwestie van smaak. Maar vanuit technisch oogpunt is het geen verbetering. In sommige gevallen wel; Virgil's gezicht ziet er stukken beter uit (maar ook hartstikke dood). Daar staat tegenover dat het origineel ook wel lage kwaliteit is.

Wat dit is, is een afbeelding in een LLM gooien en vragen om deze te verbeteren. Dit doen mensen al een hele tijd met verschillende LLM's en er zijn ook websites die puur daarop focussen.
Sissors schreef op woensdag 18 maart 2026 @ 17:31:
We weten nog helemaal niet hoeveel vrijheid de developers krijgen in hoe het geinterpreteerd wordt door DLSS 5 (wat sowieso work in progress is). En ik vind het wel een ding als er echt grote verschillen komen in hoe het eruit ziet tussen een AMD, Intel en Nvidia GPU, dus dat lijkt mij geen positief iets. Maar ik vond hoewel er zeker reden is voor twijfels hoe het in de praktijk gaat uitpakken, het er ook indrukwekkend uitzien.
Dat verschil tussen niet-Blackwell+ en de rest gaat er uiteraard zeker zijn. 0,0 kans dat Nvidia dit beschikbaar gaat maken voor hun eigen oudere GPU's, laat staan die van anderen. Dus dat is sowieso een probleem. En ik zie vooralsnog geen beter resultaat hieruit komen, dan wat LLM's nu al doen met afbeeldingen. Dan zou ik nog liever zien dat er een schets of een extreem laag kwaliteit frame als input gebruikt wordt, zodat er performance winst bij komt kijken. Als je kijkt wat je met hele slechte schetsen voor elkaar kunt krijgen tegenwoordig, zou dát indrukwekkend zijn - dat soort interpretaties nu real-time op 60+ FPS kunnen doen.

En wederom, net als bij DLSS-upscaling, is het ook vervelend dat degenen die hier het meeste baat bij hebben (oude / zwakke hardware) het dus niet zullen krijgen. Die kloof wordt dus nóg groter. De 1060 wordt nog steeds bizar veel gebruikt.
Overigens zijn zat high res textures natuurlijk ook triviaal te maken: Als ze allemaal 48GB VRAM op GPUs gaan gooien zal dat betekenen dat er ook minder optimalisaties nodig zijn qua texture gebruik.
Er past in 16 GB VRAM al meer dan genoeg, maar helaas gebruiken veel games toch nog lage kwaliteit textures.
Onder de streep, en dat is op de FP ook gedownvote al blijf ik erbij: Brute force meer raster performance is een doodlopende weg. En ja met een nieuwe tech node zullen we best wel weer een redelijke boost in raster performance zien bij de 60XX serie. Maar wil je ik zeg maar, 4k 120-240Hz gamen op een beetje nieuw spel, dan moet je of een kleine kerncentrale naast je PC zetten, of je moet voor slimmere oplossingen gaan dan meer raster performance. En dat is nog meer waard als je gewoon zoveel gedetailleerdere beelden wil als wat Nvidia nu met DLSS 5 heeft laten zien.
Dat brute force niet de juiste manier is, ben ik helemaal met je eens - en voor pure raster kunnen we ook niet veel sneller, omdat dat te veel software-driven (CPU) is. Dat zeg ik ook al jaren en vooral Nvidia heeft geen enkele poging gedaan om hun hardware daadwerkelijk sneller te maken - enkel meer units en meer kloksnelheid. Maar er is nog zo veel dat beter zou kunnen in hardware voor Raytracing. RT zit nog steeds op de eerste generatie hardware van 2018. Hogere kloksnelheden, meer RT units, maar dat is het dan ook. Ik heb daar een tijd geleden al eens een post aan gewijd, tussen Turing en Blackwell zit nauwelijks verschil. De BVH's worden nog steeds aan de CPU kant gebouwd en bijgehouden, waardoor er zelfs in een 5090 niet optimaal gebruik gemaakt kan worden van de RT cores. Veel te veel roundtrips en veel te veel dubbel rekenwerk - we hebben zelfs nog steeds geen coherency. Maar de hardware die daarvoor nodig is heeft geen nut buiten graphics, dus de kans dat Nvidia daar iets voor gaat doen is nihil. Nvidia is nu een AI bedrijf. En dan krijg je dit.
jimh307 schreef op woensdag 18 maart 2026 @ 21:08:
Dit geld niet voor de oudere assassin's creed serie: Origins, Odyssey, Valhalla en Shadows. Pure rastering spellen en deze spellen zien er heel goed uit. Ook de wat oudere. Shadows heeft wel dlss aan boord.
Ik had het hier specifiek over "DLSS 5", niet DLSS in z'n algemeen ;)
Ja, ik begrijp jouw denkwijze, maar er zullen ook games genoeg komen die wel goed zijn. Alleen moet je ze weten te vinden. Vaak heb je veel keuze in grafische instellingen en zelfs op medium settings ziet een modern spel er meer dan prima uit. We kijken louter naar de hoogst mogelijke grafische instellingen, maar het zou ook goed zijn om te kijken hoe zo'n spel presteert op medium of high settings in vergelijking met ultra.

Wellicht speel ik advocaat van de duivel. Het is niet allemaal slecht.
Oh begrijp me niet verkeerd, zat games die er goed uit zien. Maar met deze techniek gaat de kloof gewoon bizar worden. Krijg je straks demo's waarbij de kleine lettertjes zeggen "60 FPS on a 6090 with DLSS Quality, Ray Reconstruction, MFG x6" en de rest van de wereld met DLSS/FSR/XeSS Ultra performance zonder RT amper 30 haalt in een spuuglelijke game.

  • Albinoraptor
  • Registratie: Juli 2000
  • Laatst online: 02:43
Nou zoals ik het begrijp na onderstaande video gezien te hebben, lijkt het eigenlijk gewoon een 2d filter is over het gerenderde frame. Letterlijk dus instagram filter over de output.

  • jimh307
  • Registratie: Februari 2014
  • Niet online
Werelds schreef op donderdag 19 maart 2026 @ 09:38:
[...]
Oh begrijp me niet verkeerd, zat games die er goed uit zien. Maar met deze techniek gaat de kloof gewoon bizar worden. Krijg je straks demo's waarbij de kleine lettertjes zeggen "60 FPS on a 6090 with DLSS Quality, Ray Reconstruction, MFG x6" en de rest van de wereld met DLSS/FSR/XeSS Ultra performance zonder RT amper 30 haalt in een spuuglelijke game.
Zekers ;) Toch verbaast het me dat developers hier makkelijk mee weg komen. Je zag het met de Witcher 3, een game uit 2015 die een next gen upgrade heeft gekregen en die in 2015 al zwaar was en zelfs nu nog menig high-end systeem op z'n knieën kan krijgen. Wil je die game op ultra willen spelen op 4K dan reken maar op een high-end kaart. Toch heeft deze upgrade zeker z'n charme.

Dan valt mij verder op dat steeds minder mensen een high-end videokaart kunnen kopen en als een game alleen maar draait op de duurste kaarten dan bereikt zo'n game maar weinig marktaandeel en hebben ze minder inkomsten. Vandaar dat bijna alle games instellingen hebben die je kunt aanpassen.

Een van de redenen dat ik nog op 1080p zit is het feit dat een rtx4070 hier heel goed mee uit de voeten kan. Ik heb 360Hz op het scherm en in AC Valhalla tik ik die waarde soms even aan met alles op ultra, maar zoals bovenstaande heb ik in TW3 wel framegen nodig voor een leuke framerate mét ray tracing. Ik denk dat als mensen tevreden zouden zijn met een wat lagere framerate dat de settings best wel hoog kunnen gaan.

*jimh307 was blij dat Duke3D destijds draaide op 320*240 met soms 2-3 fps :o
Pagina: 1 ... 135 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.