Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
MneoreJ schreef op zaterdag 22 juli 2023 @ 09:28:
[...]

Dit is misschien nog wel de meest zorgelijke ontwikkeling. Het is volkomen begrijpelijk en zelfs verdedigbaar dat de spellenbakkers compenseren voor het gebrek aan RAM door dynamisch aan de textures te gaan sleutelen, want immers heb je liever een spel dat er minder uitziet dan een spel dat compleet onspeelbaar is door stuttering
Wanneer ik aan het tunen ben heb ik juist liever FPS-problemen dan dat het spel stiekem de kwaliteit gaat verlagen, op manieren die wellicht niet optimaal zijn.

Spelmakers zou ook gewoon een optie kunnen bieden om dit aan of uit te zetten. Zolang ze dat niet doen zijn ze eigenlijk aan het vals spelen, waarbij ze niet de settings gebruiken die je gekozen hebt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 10:52
Ludewig schreef op zaterdag 22 juli 2023 @ 10:03:
Wanneer ik aan het tunen ben heb ik juist liever FPS-problemen dan dat het spel stiekem de kwaliteit gaat verlagen, op manieren die wellicht niet optimaal zijn.
Ja jij wil tunen, want je bent een tweaker. :P De gemiddelde plof-op-de-bank-en-speel gamer heeft geen zin om dat te doen voorbij "low / medium / high / ultra", en hoewel die meestal eerder een console dan een PC zullen hebben is dat natuurlijk ook waar de engines en de spellenbakkers zich grotendeels op richten. Het is dan ook allesbehalve onredelijk dat beeldkwaliteit inruilen voor speelbaarheid waarschijnlijk een goede default is, want als producent sla je een modderfiguur & word je in reviews genadeloos afgefakkeld als je spel 5 FPS haalt op defaults met de gemiddelde hardware. Er is zelfs iets voor te zeggen dat dat dan dynamisch gebeurt in plaats van bijvoorbeeld constant gewoon alle textures op low te forceren, want dan heb je in ieder geval soms nog een betere ervaring.
Spelmakers zou ook gewoon een optie kunnen bieden om dit aan of uit te zetten. Zolang ze dat niet doen zijn ze eigenlijk aan het vals spelen, waarbij ze niet de settings gebruiken die je gekozen hebt.
Het zou inderdaad een goed idee zijn als er een schuifje was om dynamische frutselarij uit te zetten zodat eerlijke vergelijkingen mogelijk zijn. En valsspelen, tja. Voor benchmarks wel, maar je zult in de handleiding van je spel tevergeefs zoeken naar de "spelregels" van wat de instellingen precies doen, zodat je je moeilijk kunt beroepen op misleiding.

Wat zeg ik, spellen hebben al heel lang geen handleidingen meer. :P

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
MneoreJ schreef op zaterdag 22 juli 2023 @ 10:15:
[...]
Wat zeg ik, spellen hebben al heel lang geen handleidingen meer. :P
Ik heb nog fantastische handleidingen van bijvoorbeeld flight sims uit het verleden, wat eigenlijk gewoon een studieboek was van hoe je moest vliegen en dogfighten. Tegenwoordig is het wat dat betreft wel treurig.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Ludewig schreef op zaterdag 22 juli 2023 @ 10:03:
[...]


Wanneer ik aan het tunen ben heb ik juist liever FPS-problemen dan dat het spel stiekem de kwaliteit gaat verlagen, op manieren die wellicht niet optimaal zijn.

Spelmakers zou ook gewoon een optie kunnen bieden om dit aan of uit te zetten. Zolang ze dat niet doen zijn ze eigenlijk aan het vals spelen, waarbij ze niet de settings gebruiken die je gekozen hebt.
Precies, standaard staat het aan en de echte tweakers kunnen het spel tunen naar wat ze willen. Dit zou ook vooral goed zijn voor reviewers, het wordt hun dan een stuk makkelijker gemaakt.

Een van de comments op youtube somde de 4060 Ti goed op:
Een 60 kaart bij naam, met 50 klasse performance en 70 klasse prijs.

Acties:
  • +1 Henk 'm!

  • ruftman
  • Registratie: Augustus 2003
  • Laatst online: 05-09 14:13
Sp3ci3s8472 schreef op zaterdag 22 juli 2023 @ 15:05:
[...]


Precies, standaard staat het aan en de echte tweakers kunnen het spel tunen naar wat ze willen. Dit zou ook vooral goed zijn voor reviewers, het wordt hun dan een stuk makkelijker gemaakt.

Een van de comments op youtube somde de 4060 Ti goed op:
Een 60 kaart bij naam, met 50 klasse performance en 70 klasse prijs.
Ik vrees dat dit wel klopt. Ik had met best verheugd op de 4060 TI met 16 GB geheugen als vervanging van mijn RTX 3060. Maar nu heb ik zoiets van laat maar zitten, ik hou mijn videokaart gewoon.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
ruftman schreef op zondag 23 juli 2023 @ 01:13:
[...]

Ik vrees dat dit wel klopt. Ik had met best verheugd op de 4060 TI met 16 GB geheugen als vervanging van mijn RTX 3060. Maar nu heb ik zoiets van laat maar zitten, ik hou mijn videokaart gewoon.
Als er 1 generatie is om over te slaan, als je al een 3000-kaart hebt, dan is het de 4000-serie wel. De enige uitzondering is de kopers in het topsegment (4090).

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Nieuwste gerucht is dat Nvidia voor de volgende generatie een 512-bit vlaggenschip gaat maken en dat er geen 4090 Ti komt:

https://videocardz.com/ne...eature-512-bit-memory-bus

Dat laatste is voor mij geen verrassing, want alle goede AD-102 chips kunnen ze met gigantische marges verkopen voor AI. Er is totaal geen reden om die chips aan gamers te verkopen.

De 512-bit bus is op zich niet zo vreemd aangezien de top-chip eigenlijk ontworpen is voor professionele toepassingen. Aangezien de AI-modellen steeds groter worden, is het geheugen vermoedelijk steeds meer een probleem. Zodra het AI-model niet meer in het geheugen past storten de prestaties totaal in. De huidige A6000 verkopen ze met een 48 GB clamshell en bij een 512-bits bus kunnen ze een 64 GB clamshell gaan verkopen.

Het potentieel goede nieuws is dan dat dit vermoedelijk betekent dat alle kaarten (weer) een grotere bus krijgen en daarmee ook meer geheugen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Doet me weer terug denken aan de GTX 280 met een 512-bits bus en 1024mb gddr3. Door het langzame gddr3 geheugen had de RTX 280 ook maar een geheugenbandbreedte van 141.7 GB/s.

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
DaniëlWW2 schreef op donderdag 27 juli 2023 @ 20:54:
Komt er ook nog eens bij dat ReLive al een tijdje echt niet slechter is dan Shadowplay. Je moet alleen je bitrate iets hoger zetten voor encoding, maar je hebt meer features. Idem voor AV1. Verder heeft Nvidia juist behoorlijk wat problemen met flikkerende schermen met Ada en AMD doet het veel beter.
Welke features heeft Relive die Shadowplay niet heeft, ik ben erg benieuwd? Ik heb zelf overigens geen last van flikkeren. Bedoel je het probleem waar jaren terug ook al een een firmware tool voor was voor was voor DP 1.3 en DP 1.4 ondersteuning met nieuwe monitoren?

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
3DEXP schreef op donderdag 27 juli 2023 @ 22:43:
[...]


Welke features heeft Relive die Shadowplay niet heeft, ik ben erg benieuwd? Ik heb zelf overigens geen last van flikkeren. Bedoel je het probleem waar jaren terug ook al een een firmware tool voor was voor was voor DP 1.3 en DP 1.4 ondersteuning met nieuwe monitoren?
Jaren terug? Een maand geleden, bedoel je. Of de tool voor Ampere 2 jaar geleden. Meer is er nooit geweest. DP is bij Nvidia al sinds 2013 buggy (3 verschillende monitors op 4 verschillende Nvidia GPU's, met meerdere kabels). Ze waren laat met DP en hebben het nooit fatsoenlijk geïmplementeerd. Lijkt er op dat ze dat nu pas hebben gedaan. Nvidia en monitors is sowieso altijd een probleem geweest (DVI-I DL gaf 15 jaar geleden problemen; DVI-I SL en DVI-D SL+DL werkten zonder problemen; eerste HDMI implementaties hadden soortgelijke problemen dankzij hun non-standaard implementatie op GT200). En breek me de bek niet open over multi-monitor bij Nvidia :p

Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Werelds schreef op vrijdag 28 juli 2023 @ 10:44:
[...]

Jaren terug? Een maand geleden, bedoel je. Of de tool voor Ampere 2 jaar geleden. Meer is er nooit geweest. DP is bij Nvidia al sinds 2013 buggy (3 verschillende monitors op 4 verschillende Nvidia GPU's, met meerdere kabels). Ze waren laat met DP en hebben het nooit fatsoenlijk geïmplementeerd. Lijkt er op dat ze dat nu pas hebben gedaan. Nvidia en monitors is sowieso altijd een probleem geweest (DVI-I DL gaf 15 jaar geleden problemen; DVI-I SL en DVI-D SL+DL werkten zonder problemen; eerste HDMI implementaties hadden soortgelijke problemen dankzij hun non-standaard implementatie op GT200). En breek me de bek niet open over multi-monitor bij Nvidia :p
Met ADA is het probleem geloof ik opgelost want de update van een paar weken of maanden terug is voor oudere series. Storm in een glas water.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

3DEXP schreef op vrijdag 28 juli 2023 @ 14:38:
[...]


Met ADA is het probleem geloof ik opgelost want de update van een paar weken of maanden terug is voor oudere series. Storm in een glas water.
Weet je dat zeker? Ik zat namelijk laatst iets van LTT, Gamers Nexus of HU te kijken (weet niet welke het meer was) en die zaten te zeuren hoe vaak ze last hadden van flickering met Nvidia kaarten ivm DP.
Het kan zijn dat de situatie verbeterd is met kaarten voor ouder dan ADA, maar ze hadden het specifiek over problemen met ADA.

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Jullie bedoelen met DP toch DisplayPort? Want als inderdaad Nvidia het nog nooit goed geimplementeerd heeft, en het bij een significant gedeelte van de gebruikers flikkert, dan zou het hele internet overstromen met klachten over Nvidia en niemand ze meer kopen. Displayport is de standaard voor heel wat jaren al om je monitor te verbinden. Als dat grootschalig niet werkt dan zouden er heel veel meer klachten over zijn.

Zelf gebruik ik het niet, maar voor realtime low latency encoding voor VR van wat ik begrepen heb is Nvidia gewoon de standaard, en AMD lijkt wel dichterbij te komen, maar er niet te zijn. Sowieso nogal wisselvallig bij VR hoe AMD het doet.

Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Sp3ci3s8472 schreef op vrijdag 28 juli 2023 @ 16:41:
[...]

Weet je dat zeker? Ik zat namelijk laatst iets van LTT, Gamers Nexus of HU te kijken (weet niet welke het meer was) en die zaten te zeuren hoe vaak ze last hadden van flickering met Nvidia kaarten ivm DP.
Het kan zijn dat de situatie verbeterd is met kaarten voor ouder dan ADA, maar ze hadden het specifiek over problemen met ADA.
Dat staat in de beschrijving.
https://www.nvidia.com/en-us/drivers/nv-uefi-update-x64/

Als ik mijn ADA wil updaten staat er ook dat ik de laatste firmware heb. Ik heb alleen de GTX 1080 Ti moeten updaten omdat er geen ondersteuning was voor DP1.4. Met Ampere had ik ook geen flicker problemen daarom denk ik dat het sporadisch voorkomt. Een probleem blijft een probleem ik ga dat ook niet ontkennen.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Ik plaats alleen wat ik heb gehoord van een van die reviewers, het zou mij niks verbazen dat dit vooral met dualscreen opstellingen gebeurt waar het ene scherm een andere refreshrate heeft dan het andere. Waardoor de kans dat het internet er mee vol staat kleiner is.

Als ik overigens zoek op "reddit nvidia displayport flicker" dan komt er genoeg voorbij. Reddit toegevoegd als extra term gezien google en engines die google gebruiken de laatste paar jaar steeds slechter wordt....

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Sissors schreef op vrijdag 28 juli 2023 @ 17:03:
Jullie bedoelen met DP toch DisplayPort? Want als inderdaad Nvidia het nog nooit goed geimplementeerd heeft, en het bij een significant gedeelte van de gebruikers flikkert, dan zou het hele internet overstromen met klachten over Nvidia en niemand ze meer kopen. Displayport is de standaard voor heel wat jaren al om je monitor te verbinden. Als dat grootschalig niet werkt dan zouden er heel veel meer klachten over zijn.
Nee, de basis werkt over het algemeen wel. Maar doe iets dat verder dan simpel beeld + geluid op een enkel scherm gaat en je gaat gekke dingen zien. Multi monitor (zoals @Sp3ci3s8472 suggereert, iets waar ik pas pakweg een jaar vanaf ben gestapt, na bijna 20 jaar ;)) is altijd een probleem geweest bij Nvidia. En daar kun je zat over vinden. Maar het wordt erger als je DP + HDMI combineert met verschillende refreshrates. Je moet dan af en toe de DP monitor opnieuw insteken omdat hij hem niet meer "ziet"; en tijdens boot zal hij de HDMI monitor gebruiken...behalve op Kepler, waar het dan ook nog eens uit maakte wélke HDMI poort de monitor op zat, want de gedeelde poort werkte daarvoor dan weer niet. Daisy chainen is ook hartstikke buggy; maar werkt tenminste wel soort van, in tegenstelling tot Apple, die dat doodleuk simpelweg niet toestaan.

Het is niet voor niets dat Nvidia hun DP implementatie pas met Kepler (2012 dus) mainstream maakten, ook al had zelfs Tesla (2007 of 2008 met de refresh) al kaarten met DP. Begrijp me niet verkeerd, ik zeg niet dat Nvidia giga veel problemen heeft met monitors of DP, maar de problemen bestaan wel en bestaan ook al heel lang én zijn te reproduceren. 90+% van de gebruikers zal er nooit tegen aan lopen omdat ze op een enkele 1080p60 monitor zitten via HDMI.

Bovenstaande zijn allemaal dingen waar ik met AMD nooit last van heb gehad. Nu heb ik niet veel AMD GPU's gehad. 5870, 6950 en daarna Nvidia tot m'n 6650 XT nu, dus ik weet niet hoe het in de tussentijd is geweest, maar met die eerste twee heb ik er toen zelfs 3 monitors aan gehangen om Eyefinity te proberen en dat werkte zonder problemen. 2 van die 3 monitors zijn tot vorig jaar ook in gebruik geweest ;)

Overigens zou DP inderdaad dé standaard moeten zijn (technisch superieur op alle vlakken en royalty-free - het enige dat "mist" is CEC...), maar het is pas relatief recent (+- 5 jaar hooguit?) dat je het écht op veel monitors ziet en zelfs dan zijn er nog steeds high-end monitors die enkel met HDMI geleverd worden. Zie bijvoorbeeld de Neo G8 (non-OLED): 2xHDMI 2.1, that's it. Vreemd genoeg is het hopen op meer type-C waar mensen nu aan beginnen te wennen. Vooralsnog is HDMI nog steeds dé standaard en dat zal buiten monitors helaas ook nog lang zo blijven, dankzij de mafia daarachter (waar Samsung overigens bij hoort ;)). En daardoor zullen we het ook altijd op monitors zien en zal er soms voor gekozen worden om DP achterwege te laten.

Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 11-09 17:47
Werelds schreef op zaterdag 29 juli 2023 @ 09:28:
[...]
90+% van de gebruikers zal er nooit tegen aan lopen omdat ze op een enkele 1080p60 monitor zitten via HDMI.
Dat is niet (enige) de onderscheidende eigenschap. Ik gebruik al jaren een 240Hz 1440p scherm verbonden via DP, en een 120Hz 4k (TV) scherm verbonden via HDMI, eerder via een gtx1080ti en nu een rtx3090, en nooit problemen met DP. Had alleen zo nu en dan wat problemen met initialiseren HDMI totdat de TV een software update voor betere HDCP kreeg. Vriendin heeft een 144Hz 1440p scherm via DP en een 60Hz 1080p scherm via HDMI op een gtx1080ti, ook nooit problemen mee.

Acties:
  • +1 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 10:31
Had hier een 1080P 144Hz en een 1080P 60Hz scherm staan op een GTX980, RTX3080 en een RTX4090, nooit problemen gehad. Nu een 34" scherm, daarom het tweede scherm niet nodig.

Geloof gerust dat er in bepaalde gevallen het wel voorkomt, maar als ik de persoon boven mij zie reageren, lijkt het in specifieke gevallen te zijn en niet een standaard probleem. Wel vervelend voor de mensen die het wel ervaren/ervaren hebben.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
Het interessante hier:
  • Geen GDDR7X voor nVidia, gewoon GDDR7.
  • VRAM configuraties mogelijk van 12, 18, 24 en 36GB ipv 8, 12, 16 en 24GB, met de huidige board ontwerpen.
Daarbij klinken 18 en 36GB wat raar, maar kunnen prima.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 10:16
Werelds schreef op zaterdag 29 juli 2023 @ 09:28:

Het is niet voor niets dat Nvidia hun DP implementatie pas met Kepler (2012 dus) mainstream maakten, ook al had zelfs Tesla (2007 of 2008 met de refresh) al kaarten met DP. Begrijp me niet verkeerd, ik zeg niet dat Nvidia giga veel problemen heeft met monitors of DP, maar de problemen bestaan wel en bestaan ook al heel lang én zijn te reproduceren. 90+% van de gebruikers zal er nooit tegen aan lopen omdat ze op een enkele 1080p60 monitor zitten via HDMI.
Als ik kijk naar de situaties waar bij Nvidia wegzetten is dat anders, vrijwel alles is Intel (en nu ook AMD) want iGPU en Nvidia zetten wij eigenlijk alleen weg in (zware) workstation configuraties.

Dat zijn vrijwel allemaal multimonitor opstellingen, maar ook daar zijn de issues op een hand te tellen. Wat ook moet, want zeker bij dit soort systemen zou het simpelweg niet acceptabel zijn als een gebruiker veel tijd kwijt zou zijn aan troubleshooting of het uitvoeren van noodgrepen die de productiviteit verminderen.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op dinsdag 1 augustus 2023 @ 09:41:
[...]

Het interessante hier:
[list]
• Geen GDDR7X voor nVidia, gewoon GDDR7.
GDDR7X bestaat ook (nog) helemaal niet, dus dat is logisch.

Bij GDDR7 is er ook bewust voor gekozen om PAM3 encoding te gebruiken, dus anderhalf bits per clock, ipv PAM4 zoals bij GDDR6X.

Het idee is dat dit een stuk goedkoper en minder foutgevoelig is dan PAM4. Doordat je minder snel last hebt van ruis kun je vermoedelijk just hogere frequenties halen, wat er dan deels al voor compenseert dat je per clocktick minder data verstuurd. Sowieso lijkt GDDR6X nu minder dan anderhalf keer de snelheid te halen van GDDR6, dus de theoretische verdubbeling van PAM4 door 2 bits per clock ipv 1 bit wordt helemaal niet gehaald.

Meer info: https://www.anandtech.com...ddr7-36gbps-pam3-encoding
• VRAM configuraties mogelijk van 12, 18, 24 en 36GB ipv 8, 12, 16 en 24GB, met de huidige board ontwerpen.
[/list]

Daarbij klinken 18 en 36GB wat raar, maar kunnen prima.
De 2080 Ti en 1080 Ti hadden 11 GB. Op zich maakt het ook totaal niet uit waar de grens precies ligt, zolang de data er maar in past.

Het goede nieuws is meteen het slechte nieuws. Ze kunnen dan flink wat geheugen koppelen aan een kleine bus. Dus misschien blijven we daardoor opgescheept met een 128 bit 5060 e.d.

[ Voor 6% gewijzigd door Ludewig op 01-08-2023 11:26 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Dennism schreef op dinsdag 1 augustus 2023 @ 11:22:
[...]


Als ik kijk naar de situaties waar bij Nvidia wegzetten is dat anders, vrijwel alles is Intel (en nu ook AMD) want iGPU en Nvidia zetten wij eigenlijk alleen weg in (zware) workstation configuraties.

Dat zijn vrijwel allemaal multimonitor opstellingen, maar ook daar zijn de issues op een hand te tellen. Wat ook moet, want zeker bij dit soort systemen zou het simpelweg niet acceptabel zijn als een gebruiker veel tijd kwijt zou zijn aan troubleshooting of het uitvoeren van noodgrepen die de productiviteit verminderen.
Ook daar heb je het doorgaans over identieke schermen en waarschijnlijk niet op DP :)
sunsmountain schreef op dinsdag 1 augustus 2023 @ 09:41:
Het interessante hier:
  • Geen GDDR7X voor nVidia, gewoon GDDR7.
  • VRAM configuraties mogelijk van 12, 18, 24 en 36GB ipv 8, 12, 16 en 24GB, met de huidige board ontwerpen.
Daarbij klinken 18 en 36GB wat raar, maar kunnen prima.
Ik denk dat je even goed naar de b's moet kijken ;)

GDDR6 modules zijn nu beschikbaar in 16 Gb modules en GDDR7 wordt beschikbaar in 24 (en later 32) Gb modules. Punt daarbij is echter de kleine b: bits. 16 Gb = 2 GB, 24 Gb = 3 GB, 32 Gb = 4 GB.

Hoeveel geheugen je in totaal hebt heeft verder geen bal met die modules te maken, enkel met de geheugenbus. Een GDDR chip heeft een 32-bit interface, dus van 32 tot 512 bits kun je (zonder clamshelling) met 16 Gb modules tot 32 GB komen, waarbij elk veelvoud van 2 daar tussenin geldig is (omdat de modules 2 GB zijn).

Met 24 of 32 Gb modules is dat precies hetzelfde, echter heb je het dan over veelvouden van 3 of 4. 36 / 4 = 9 * 32 = 288-bits bus. Vreemd en onwaarschijnlijk, maar kan gewoon. 18 / 4 = 4,5 en gaat dus niet. Daarentegen is 18 / 2 = 9 * 32 = diezelfde 288-bits bus, maar dan zit je dus wel op 16 Gb modules, niet op 32 Gb. Maar dat kan nu dus ook al. En 36 kan nu ook al, met een 576-bits bus of clamshelling op 288. En met 24 Gb modules heb je het over 6 chips, dus een 192-bits bus ;)

HBM is een heel ander verhaal.

Edit: die 11 GB van de 1080 Ti / 2080 Ti komt ook gewoon van de bus: 352-bit bus; 352 / 32 = 11 chips en de chips waren toen 8 Gb oftewel 1 GB dus dan kom je op 11 GB (of 22 met clamshell). De volledige controller op beide was 384-bit, dus 12/24 GB.

[ Voor 8% gewijzigd door Werelds op 01-08-2023 11:55 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 10:16
Werelds schreef op dinsdag 1 augustus 2023 @ 11:47:
[...]

Ook daar heb je het doorgaans over identieke schermen en waarschijnlijk niet op DP :)
Dat is juist (vrijwel) allemaal DP, schermen zijn uiteraard wel identiek in de meeste gevallen (al komt het bijvoorbeeld wel voor dat er 2 identieke schermen zijn en dan een 3de afwijkend in bijv. een portrait mode) juist HDMI wordt vrij weinig gebruikt zakelijk, dat is eigenlijk allemaal DP van het lagere segment tot de high end. Een boel van die systemen (HPE / Dell e.d.) hebben zelfs niet eens HDMI meer. 3 identieke Schermen is trouwens ook niet ongebruikelijk, allerlei combinaties zijn mogelijk.

Het enige waar ik HDMI eigenlijk nog regelmatig gebruikt zie worden is laptops. Maar ook dat gaat in sneltrein vaart naar USB-C of naar USB-C Docking stations, waar dan meerdere DP poorten op zitten. Het zou mij weinig verbazen als HDMI zakelijk straks vrijwel alleen nog voor incidentele connecties gebruikt wordt.

Maar ook in privé, zie ik mijn omgeving ook steeds minder HDMI gebruikt worden in combinatie met de PC. Ik gebruik het zelf al jaren niet meer (2x DP) voor heen met Nvidia en nu met AMD. Beide trouwens geen issues. Maar ook wanneer ik een systeem bouw voor mensen is dat de laatste jaren eigenlijk altijd geplaatst met (meerdere) DP in gebruik en niet HDMI.

[ Voor 43% gewijzigd door Dennism op 01-08-2023 12:05 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Persoonlijk gebruik ik alleen nog HDMI voor mijn HTPC op de TV (want die hebben helaas nauwelijks DP) en voor een versterker aan mijn pc zodat ik 5.1+ audio heb.
Ik hoop serieus dat er eens een goede vervanger van die opstelling komt, ik wil helemaal geen beeld naar mijn versterker sturen op mijn pc; een audio kaart die geen beeld nodig heeft voor HDMI naar een versterker zou ideaal zijn.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 10:16
Sp3ci3s8472 schreef op dinsdag 1 augustus 2023 @ 13:58:
Persoonlijk gebruik ik alleen nog HDMI voor mijn HTPC op de TV (want die hebben helaas nauwelijks DP) en voor een versterker aan mijn pc zodat ik 5.1+ audio heb.
Ik hoop serieus dat er eens een goede vervanger van die opstelling komt, ik wil helemaal geen beeld naar mijn versterker sturen op mijn pc; een audio kaart die geen beeld nodig heeft voor HDMI naar een versterker zou ideaal zijn.
Dat is eigenlijk, naast laptops, het enige veel voorkomende scenario dat ik HDMI nog veel gebruikt zie worden, wanneer er een TV in het spel is, denk inderdaad aan HTPC, al wordt dat ook steeds minder met zaken als de shields e.d., en aan gamers die graag een 40"+ (LG) Oled als scherm willen gebruiken.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
Werelds schreef op dinsdag 1 augustus 2023 @ 11:47:
Ik denk dat je even goed naar de b's moet kijken ;)

GDDR6 modules zijn nu beschikbaar in 16 Gb modules en GDDR7 wordt beschikbaar in 24 (en later 32) Gb modules. Punt daarbij is echter de kleine b: bits. 16 Gb = 2 GB, 24 Gb = 3 GB, 32 Gb = 4 GB.
Ja dat is precies het nieuws dat ik vertaal naar:

12, 18, 24 en 36GB ipv 8, 12, 16 en 24GB

links = rechts met 24 Gb / 3 GB ipv 16 Gb / 2 GB.
Werelds schreef op dinsdag 1 augustus 2023 @ 11:47:
Hoeveel geheugen je in totaal hebt heeft verder geen bal met die modules te maken, enkel met de geheugenbus. Een GDDR chip heeft een 32-bit interface, dus van 32 tot 512 bits kun je (zonder clamshelling) met 16 Gb modules tot 32 GB komen, waarbij elk veelvoud van 2 daar tussenin geldig is (omdat de modules 2 GB zijn).
In theorie heb je gelijk, in de praktijk niet. Daarom voegde ik de "met de huidige board ontwerpen" aan toe. Natuurlijk kan je modules naar wens combineren en op elk aantal GB uitkomen dat je maar wil, maar dan moet je je board ontwerp aanpassen. Misschien moeten ze dat toch al door de wijziging van GDDR6 naar GDDR7, maar als je uitgaat van gebruik van 1 grootte geheugenmodule per board ontwerp - praktisch verdedigbare keuze bij montage - èn als je uitgaat van chips met een typische geheugenbus van 128-bit, 192-bit, 256-bit en 384-bit, dan zijn de mogelijkheden in de praktijk beperkt, namelijk:

12, 18, 24 en 36GB en 8, 12, 16 en 24GB

Daarbij vind ik nog steeds 18GB opvallend omdat het geen veelvoud is van van 4. Ik heb het niet over videokaarten die de 4, 6, 8 of 12 geheugen controllers beperkt aansluiten. Ik ga daarbij uit van een even aantal geheugen controllers op een chip, omdat er geen tegenvoorbeeld bestaat (binnen GPU chips, voor zover ik weet). Mogelijk een ontwerpbeperking. 10 of 14 geheugen controllers maakt het niet beter, 16 wel.
Werelds schreef op dinsdag 1 augustus 2023 @ 11:47:
Met 24 of 32 Gb modules is dat precies hetzelfde, echter heb je het dan over veelvouden van 3 of 4. 36 / 4 = 9 * 32 = 288-bits bus. Vreemd en onwaarschijnlijk, maar kan gewoon. 18 / 4 = 4,5 en gaat dus niet. Daarentegen is 18 / 2 = 9 * 32 = diezelfde 288-bits bus, maar dan zit je dus wel op 16 Gb modules, niet op 32 Gb. Maar dat kan nu dus ook al. En 36 kan nu ook al, met een 576-bits bus of clamshelling op 288. En met 24 Gb modules heb je het over 6 chips, dus een 192-bits bus ;)
Ja je komt dan met 36 / 4 of 18 / 2 uit op een beperkt aangesloten bus zoals 288-bit van oorspronkelijk een 384-bit chip (9 van de 12 controllers), 18 / 3 kan prima en geeft een 192-bit bus. Een 576-bit bus heb ik nog nooit gezien of gehoord, je zou dan 18 geheugencontrollers aansluiten, van de oorspronkelijk, 24? 32?

Wat wel kan is mixen, ook met de huidige generatie. Als we dan uitgaan van een "normale" bit bus, kan je al aardig wat geheugen configuraties krijgen met GDDR6 geheugen modules:

Bijvoorbeeld 128-bit met 8Gb en 16Gb GDDR6: 4, 5, 6, 7, 8GB , waarbij 5GB bestaat https://www.gpuzoo.com/GPU-NVIDIA/GeForce_GTX_1060_5_GB.html en 7GB ook: https://gadgettendency.co...ith-rtx-3060-performance/
5 configuraties.

Dezelfde 128-bit met GDDR7 16Gb, 24Gb en 32Gb: 8, 9, 10, 11, 12, 13, 14, 15, 16GB.
9 configuraties.

Aantal configuraties = (aantal controllers * aantal modules om uit te kiezen) - (aantal controllers -1)

Voor 384-bit (12 controllers) en 16,24,32 Gb (3) modules dus 36 - 9 = 25 configuraties. Alles mogelijk tussen de 24GB en 48GB :)
Werelds schreef op dinsdag 1 augustus 2023 @ 11:47:
HBM is een heel ander verhaal.

Edit: die 11 GB van de 1080 Ti / 2080 Ti komt ook gewoon van de bus: 352-bit bus; 352 / 32 = 11 chips en de chips waren toen 8 Gb oftewel 1 GB dus dan kom je op 11 GB (of 22 met clamshell). De volledige controller op beide was 384-bit, dus 12/24 GB.
Voor de 1080Ti is een van de 32-bit controllers niet gebruikt, het chip design is dus nog steeds een 384-bit "normaal / gebruikelijk" GP102 getuige de 12GB op de Titan X / Xp en 12 geheugen controllers op de chip zelf.

De 5GB en 7GB kaarten huizen ook allebei een chip met een even aantal geheugen controllers. Of ze allemaal aangesloten worden is een tweede.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
Ludewig schreef op dinsdag 1 augustus 2023 @ 11:24:
[...]


GDDR7X bestaat ook (nog) helemaal niet, dus dat is logisch.

Bij GDDR7 is er ook bewust voor gekozen om PAM3 encoding te gebruiken, dus anderhalf bits per clock, ipv PAM4 zoals bij GDDR6X.

Het idee is dat dit een stuk goedkoper en minder foutgevoelig is dan PAM4. Doordat je minder snel last hebt van ruis kun je vermoedelijk just hogere frequenties halen, wat er dan deels al voor compenseert dat je per clocktick minder data verstuurd. Sowieso lijkt GDDR6X nu minder dan anderhalf keer de snelheid te halen van GDDR6, dus de theoretische verdubbeling van PAM4 door 2 bits per clock ipv 1 bit wordt helemaal niet gehaald.

Meer info: https://www.anandtech.com...ddr7-36gbps-pam3-encoding


[...]


De 2080 Ti en 1080 Ti hadden 11 GB. Op zich maakt het ook totaal niet uit waar de grens precies ligt, zolang de data er maar in past.

Het goede nieuws is meteen het slechte nieuws. Ze kunnen dan flink wat geheugen koppelen aan een kleine bus. Dus misschien blijven we daardoor opgescheept met een 128 bit 5060 e.d.
Nieuws is vooral dat de instap / onderkant omhoog gaat naar 12GB ipv 8GB, als GPU board partners voldoende 24Gb modules inkopen. Uitgaande van een budget chip met een 128-bit bus. Dus als je nu nog een 8GB videokaart hebt of koopt, weet je dat je de volgende generatie "te weinig VRAM" hebt.

En als ze meteen voor bulk 32Gb modules gaan, is de instap 16GB. Happa!

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op woensdag 2 augustus 2023 @ 16:16:
[...]
Nieuws is vooral dat de instap / onderkant omhoog gaat naar 12GB ipv 8GB, als GPU board partners voldoende 24Gb modules inkopen. Uitgaande van een budget chip met een 128-bit bus. Dus als je nu nog een 8GB videokaart hebt of koopt, weet je dat je de volgende generatie "te weinig VRAM" hebt.

En als ze meteen voor bulk 32Gb modules gaan, is de instap 16GB. Happa!
Dan ga je er van uit dat ze niet naar een 96- of 64-bit bus gaan voor de echte onderkant. Zie de 3050 6 GB voor laptops met een 96-bit bus en de 6400 & 6500 XT met een 64-bit bus.

Nvidia en AMD kennende zou ik er niet zomaar van uit gaan dat de instap verwend zal gaan worden. Misschien de mainstream x060/x600-kaarten voor een 'mainstream-prijs' van 400 euro of zo :P.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
sunsmountain schreef op woensdag 2 augustus 2023 @ 16:12:
12, 18, 24 en 36GB en 8, 12, 16 en 24GB

Daarbij vind ik nog steeds 18GB opvallend omdat het geen veelvoud is van van 4. Ik heb het niet over videokaarten die de 4, 6, 8 of 12 geheugen controllers beperkt aansluiten. Ik ga daarbij uit van een even aantal geheugen controllers op een chip, omdat er geen tegenvoorbeeld bestaat (binnen GPU chips, voor zover ik weet). Mogelijk een ontwerpbeperking. 10 of 14 geheugen controllers maakt het niet beter, 16 wel.
10 is ook geen veelvoud van 4? Of 6? En ook die 12 is juist geen veelvoud van vier, dat hebben we omdat we op veelvouden van 1 en 2 zaten met 8 en 16 Gb modules - en voorheen op veelvouden van 512 MB, 256...enzovoort :)

Dat is juist mijn punt, er is niets vreemds aan die 18 GB als je met 24 Gb modules werkt. Zo komt dat gewoon uit. De 10 GB van een 3080 zit op een 320-bit bus met 8 Gb modules.

Geheugen controllers worden overigens ook nooit beperkt aangesloten; als een MC ingeschakeld is, wordt hij ook aangesloten. Op een 3080 10 GB zijn er 2 controllers uitgeschakeld (van de 12). Zo ook op de 970 3.5 + 0.5 GB, alle 8 MC's waren gewoon ingeschakeld en aangesloten. Dat ze vervolgens binnen de chip een fout maakten en intern moesten schakelen tussen 2 MC's is een ander verhaal ;)

Je koppelt hier veel te veel dingen aan elkaar die eigenlijk relatief los van elkaar staan.

Neem een chip met 12 MC's, ongeacht of dat AMD of Nvidia is en ongeacht welke generatie chip. Die heeft 12 * 32 = 384 pinnen voor geheugen chips. Het PCB heeft vervolgens dus ook 12 sets van 32 traces voor geheugen chips. Schakelt de GPU fabrikant vervolgens 2 MC's uit, kan dat PCB gewoon gebruikt worden, dan laten ze 2 plekken open.. Wat er vervolgens over die traces loopt doet er in principe niet toe. In de praktijk is dat niet 100% waar, omdat er met nieuwere (G)DDR generaties soms strengere eisen gesteld worden, pinouts veranderen, enzovoort. Dat is nu niet het geval, wat betekent dat de bestaande PCB's al voldoende zijn voor GDDR7. Wat verandert is de signaal encodering, waar het PCB geen bal mee te maken heeft. De spanning verandert ook (van 1,35V naar 1,2V en later 1,1V), maar het PCB zelf heeft daar ook niets mee te maken, dat zijn de onderdelen óp het PCB.

De grootte heeft niets te maken met het PCB. Enkel de modules zelf en de GPU zijn daarvoor van belang. Er zijn tal van modders die grotere chips op PCB's hebben gesoldeerd. De meest recente die ik me kan herinneren is de 3070 waar de 8 Gb modules vervangen werden door 16 Gb modules. De BIOS moet dan wel aangepast worden zodat hij weet waar hij mee te maken heeft, maar that's it. Wat niet kan, is GDDR6 vervangen door GDDR7 op bestaande GPU's. De GPU kan niet overweg met de PAM3 van GDDR7, dus dat gaat niet werken. Maar daar heeft het PCB geen bal mee te maken.
Ja je komt dan met 36 / 4 of 18 / 2 uit op een beperkt aangesloten bus zoals 288-bit van oorspronkelijk een 384-bit chip (9 van de 12 controllers), 18 / 3 kan prima en geeft een 192-bit bus. Een 576-bit bus heb ik nog nooit gezien of gehoord, je zou dan 18 geheugencontrollers aansluiten, van de oorspronkelijk, 24? 32?
Die 576 was een hypothetisch voorbeeld, puur om het rekenwerk te demonstreren ;)
Wat wel kan is mixen, ook met de huidige generatie. Als we dan uitgaan van een "normale" bit bus, kan je al aardig wat geheugen configuraties krijgen met GDDR6 geheugen modules:

Bijvoorbeeld 128-bit met 8Gb en 16Gb GDDR6: 4, 5, 6, 7, 8GB , waarbij 5GB bestaat
Dat is toch precies wat ik zeg? Overigens is de 1060 GDDR5, dus groter dan 8 Gb bestaat voor dat ding niet. Is ook een 160-bit bus (niet 128), want er is één MC uitgeschakeld, de volledige chip is 192-bit.

Wat níet kan, wat jij hier wel suggereert, is groottes tegelijkertijd mixen. Die 1060 @ 160-bit kan enkel overweg met 2,5 of 5 GB (en nog minder dan dat, als je kleinere GDDR5 chips zou gebruiken, vergeet niet dat we al 15 jaar GDDR5 chips hebben :P). Op die specifieke chip kun je geen 4 of 6 aansluiten, want er moeten 5 MC's aangesloten worden en er zijn geen GDDR5 chips van 6,4 Gb / 800 MB. De volledige chip kan ook enkel met 3, 6 of 12 GB werken. Hetzelfde geldt voor de S70; dat is een 224-bit bus en vereist GDDR6, dus je krijgt óf 7 GB óf 14 GB op die specifieke chip, want GDDR6 is beschikbaar in capaciteiten van 8 en 16 Gb. Het PCB daarentegen zal gewoon 8 plekken hebben, want de volledige chip (S80) heeft een 256-bit bus.
Aantal configuraties = (aantal controllers * aantal modules om uit te kiezen) - (aantal controllers -1)

Voor 384-bit (12 controllers) en 16,24,32 Gb (3) modules dus 36 - 9 = 25 configuraties. Alles mogelijk tussen de 24GB en 48GB :)
Dit klopt dus volstrekt niet, althans niet met alle GPU's tot op heden, want die kunnen met slechts één grootte overweg. Je hebt exact 3 mogelijke configuraties zonder clamshelling: 24, 36 en 48. Met clamshelling kun je dan ook nog 72 en 96 doen, dus 5 totaal. Meer of minder dan dat is niet mogelijk. Dat kan pas als er een MC uitgeschakeld wordt en de bus dus kleiner wordt. Voor het PCB maakt dat dus niets uit, gewoon een plek open laten.
Voor de 1080Ti is een van de 32-bit controllers niet gebruikt, het chip design is dus nog steeds een 384-bit "normaal / gebruikelijk" GP102 getuige de 12GB op de Titan X / Xp en 12 geheugen controllers op de chip zelf.

De 5GB en 7GB kaarten huizen ook allebei een chip met een even aantal geheugen controllers. Of ze allemaal aangesloten worden is een tweede.
Je herhaalt nu precies wat ik zeg, met als verschil dat je het aansluiten verkeerd begrijpt. Het is niet dat er gekozen wordt een MC niet aan te sluiten, het is dat die MC uitgeschakeld is, de bus daardoor kleiner is en er dus minder chips aangesloten kúnnen worden.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
Ludewig schreef op woensdag 2 augustus 2023 @ 19:44:
[...]


Dan ga je er van uit dat ze niet naar een 96- of 64-bit bus gaan voor de echte onderkant. Zie de 3050 6 GB voor laptops met een 96-bit bus en de 6400 & 6500 XT met een 64-bit bus.

Nvidia en AMD kennende zou ik er niet zomaar van uit gaan dat de instap verwend zal gaan worden. Misschien de mainstream x060/x600-kaarten voor een 'mainstream-prijs' van 400 euro of zo :P.
Klopt, met instap kaart bedoel ik een recommended instapkaart, en niemand raadt de 6500 etc. aan, precies vanwege de te lage bandbreedte en/of PCIe lanes. En ja dat zijn verschillende dingen.

Maar zelfs voor 64-bit (chips in) videokaarten gaat het geheugen omhoog van minimaal 4 naar 6 of 8GB bij deze transitie van GDDR6 naar GDDR7.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op donderdag 3 augustus 2023 @ 13:17:
[...]

Klopt, met instap kaart bedoel ik een recommended instapkaart, en niemand raadt de 6500 etc. aan, precies vanwege de te lage bandbreedte en/of PCIe lanes. En ja dat zijn verschillende dingen.
Ik denk wel dat dit heel erg is vanuit het perspectief van een relatief rijke Tweakers met veel kennis en relatief veel inkomen. De echte instapkaarten zoals de 1650 lijken toch massaal te zijn verkocht.
Maar zelfs voor 64-bit (chips in) videokaarten gaat het geheugen omhoog van minimaal 4 naar 6 of 8GB bij deze transitie van GDDR6 naar GDDR7.
Dat is allemaal op basis van de aanname dat de bus dezelfde grootte blijft, maar Nvidia heeft de bus voor de meeste ADA-tiers afgeknepen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
Werelds schreef op donderdag 3 augustus 2023 @ 09:57:
[...]

Dat is juist mijn punt, er is niets vreemds aan die 18 GB als je met 24 Gb modules werkt. Zo komt dat gewoon uit. De 10 GB van een 3080 zit op een 320-bit bus met 8 Gb modules.
We hebben nieuwe kaarten gezien van 16, 20 en 24. Dus voor mij blijft 18 daarin vreemd. Waarom niet 16 of 20? Welke game gaat mikken op 18 (geen enkele)?
Werelds schreef op donderdag 3 augustus 2023 @ 09:57:
Geheugen controllers worden overigens ook nooit beperkt aangesloten; als een MC ingeschakeld is, wordt hij ook aangesloten.
Ah, kijk weer wat nieuws geleerd. Op zich logisch, anders gaan shaders (proberen te) praten met MC's die niks kunnen. Uitgeschakeld in BIOS of gelaserd/geknipt in hardware?
Werelds schreef op donderdag 3 augustus 2023 @ 09:57:
Je koppelt hier veel te veel dingen aan elkaar die eigenlijk relatief los van elkaar staan.
Mogelijk, ik koppel graag verschillende gegevens voor nieuwe inzichten. Blame my associative mind.
Werelds schreef op donderdag 3 augustus 2023 @ 09:57:
Neem een chip met 12 MC's, ongeacht of dat AMD of Nvidia is en ongeacht welke generatie chip. Die heeft 12 * 32 = 384 pinnen voor geheugen chips. Het PCB heeft vervolgens dus ook 12 sets van 32 traces voor geheugen chips. Schakelt de GPU fabrikant vervolgens 2 MC's uit, kan dat PCB gewoon gebruikt worden, dan laten ze 2 plekken open.. Wat er vervolgens over die traces loopt doet er in principe niet toe. In de praktijk is dat niet 100% waar, omdat er met nieuwere (G)DDR generaties soms strengere eisen gesteld worden, pinouts veranderen, enzovoort. Dat is nu niet het geval, wat betekent dat de bestaande PCB's al voldoende zijn voor GDDR7. Wat verandert is de signaal encodering, waar het PCB geen bal mee te maken heeft. De spanning verandert ook (van 1,35V naar 1,2V en later 1,1V), maar het PCB zelf heeft daar ook niets mee te maken, dat zijn de onderdelen óp het PCB.

De grootte heeft niets te maken met het PCB. Enkel de modules zelf en de GPU zijn daarvoor van belang. Er zijn tal van modders die grotere chips op PCB's hebben gesoldeerd. De meest recente die ik me kan herinneren is de 3070 waar de 8 Gb modules vervangen werden door 16 Gb modules. De BIOS moet dan wel aangepast worden zodat hij weet waar hij mee te maken heeft, maar that's it. Wat niet kan, is GDDR6 vervangen door GDDR7 op bestaande GPU's. De GPU kan niet overweg met de PAM3 van GDDR7, dus dat gaat niet werken. Maar daar heeft het PCB geen bal mee te maken.
Het PCB ontwerp kan dus wel hergebruikt worden, alleen de chip zelf niet. Ik gaf aan zelfde PCB, om de nieuwe geheugen mogelijkheden en configuraties duidelijk te maken. Geen verschil van mening hier.
Werelds schreef op donderdag 3 augustus 2023 @ 09:57:
[...]

Die 576 was een hypothetisch voorbeeld, puur om het rekenwerk te demonstreren ;)


[...]

Dat is toch precies wat ik zeg? Overigens is de 1060 GDDR5, dus groter dan 8 Gb bestaat voor dat ding niet. Is ook een 160-bit bus (niet 128), want er is één MC uitgeschakeld, de volledige chip is 192-bit.
Ook hier zijn we het eens. Ik had van die 5GB en 7GB kaarten niet de originele chip bus gespecificeerd, maar je punt blijft dat MC's uitgeschakeld moeten worden op chip niveau, niet op PCB niveau.
Werelds schreef op donderdag 3 augustus 2023 @ 09:57:
Wat níet kan, wat jij hier wel suggereert, is groottes tegelijkertijd mixen. Die 1060 @ 160-bit kan enkel overweg met 2,5 of 5 GB (en nog minder dan dat, als je kleinere GDDR5 chips zou gebruiken, vergeet niet dat we al 15 jaar GDDR5 chips hebben :P). Op die specifieke chip kun je geen 4 of 6 aansluiten, want er moeten 5 MC's aangesloten worden en er zijn geen GDDR5 chips van 6,4 Gb / 800 MB. De volledige chip kan ook enkel met 3, 6 of 12 GB werken. Hetzelfde geldt voor de S70; dat is een 224-bit bus en vereist GDDR6, dus je krijgt óf 7 GB óf 14 GB op die specifieke chip, want GDDR6 is beschikbaar in capaciteiten van 8 en 16 Gb. Het PCB daarentegen zal gewoon 8 plekken hebben, want de volledige chip (S80) heeft een 256-bit bus.
Interessant, dat vereenvoudigt mogelijke configuraties sterk. Is dit omdat de GPU chip aannames moet kunnen doen over geheugen-capaciteit, als een shader met een MC praat?
Werelds schreef op donderdag 3 augustus 2023 @ 09:57:
Dit klopt dus volstrekt niet, althans niet met alle GPU's tot op heden, want die kunnen met slechts één grootte overweg. Je hebt exact 3 mogelijke configuraties zonder clamshelling: 24, 36 en 48. Met clamshelling kun je dan ook nog 72 en 96 doen, dus 5 totaal. Meer of minder dan dat is niet mogelijk. Dat kan pas als er een MC uitgeschakeld wordt en de bus dus kleiner wordt. Voor het PCB maakt dat dus niets uit, gewoon een plek open laten.
Eens, dan worden de GDDR7 configuraties, met 24Gb, 32Gb, zonder clamshell:

--
128-bit, 24Gb: 12GB
128-bit, 32Gb: 16GB
--
192-bit, 24Gb: 18GB
192-bit, 32Gb: 24GB
--
256-bit, 24Gb: 24GB
256-bit, 32Gb: 32GB
--
384-bit, 24Gb: 36GB
384-bit, 32Gb: 48GB
--
512-bit, 24Gb: 48GB
512-bit, 32Gb: 64GB
--
Werelds schreef op donderdag 3 augustus 2023 @ 09:57:
Je herhaalt nu precies wat ik zeg, met als verschil dat je het aansluiten verkeerd begrijpt. Het is niet dat er gekozen wordt een MC niet aan te sluiten, het is dat die MC uitgeschakeld is, de bus daardoor kleiner is en er dus minder chips aangesloten kúnnen worden.
Gelukkig komt het voor de eindgebruiker op hetzelfde neer: minder geheugen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op donderdag 3 augustus 2023 @ 15:17:
[...]
We hebben nieuwe kaarten gezien van 16, 20 en 24. Dus voor mij blijft 18 daarin vreemd. Waarom niet 16 of 20? Welke game gaat mikken op 18 (geen enkele)?
Ik zie weinig bewijs dat er duidelijke grenzen zijn. Sowieso zijn er allemaal features/opties in spellen die invloed hebben op het VRAM-gebruik, dus hoe meer je hebt, hoe meer features je aan kunt zetten.

En zelfs als het zo is dat bijvoorbeeld 16 GB een sweet spot is, dan zou 14 GB een probleem zijn, maar 18 uiteraard niet.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

fwiw: Volgens geruchten pauzeert Nvidia productie van RTX 4000-videokaarten

Ivm AI vraag maar er zou nog genoeg voorraad zijn.

[ Voor 12% gewijzigd door Help!!!! op 03-08-2023 15:47 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
MLID zeker?

GPU prijzen gaan een beetje omhoog -> hij claimt gelijk dat vorige maand het dieptepunt was / beste tijd om te kopen.
Als hij dan Black Friday (weer) ongelijk krijgt, zal hij zeggen: ja maar.
etc.

Onbetrouwbare bron.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
Ludewig schreef op donderdag 3 augustus 2023 @ 14:42:
[...]


Ik denk wel dat dit heel erg is vanuit het perspectief van een relatief rijke Tweakers met veel kennis en relatief veel inkomen. De echte instapkaarten zoals de 1650 lijken toch massaal te zijn verkocht.
Je mag wel iets hoger dan €150 gaan zitten voor de grote groep die massaal verkocht is:
~€ 250
uitvoering: MSI GeForce GTX 1060 Gaming X 6G
uitvoering: Inno3D GeForce RTX 3060 8GB TWIN X2

En daarbij zijn alle 3 de instap-kaarten 128-bit of hoger. De 1650 is de enige met 4GB, maar:
- de RTX 3000 generatie heeft geen 4GB kaart, kleinste is 8GB
- de RX 6000 generatie heeft wel 2 4GB kaarten, en het verschil is tussen de €40 à €66 voor 8GB
uitvoering: ASUS TUF Gaming Radeon RX 6500 XT OC Edition
uitvoering: Powercolor Fighter AMD Radeon RX 6600 8GB GDDR6

Voor een groep consumenten binnen de groep consumenten zonder kennis is die €40 à €66 een groot bedrag, maar ze kijken toch wel naar dat geheugen-getalletje dat op de doos staat.

De volgende generaties met 128-bit worden dus hopelijk meer 12GB, ook voor hen.
Ludewig schreef op donderdag 3 augustus 2023 @ 14:42:

[...]


Dat is allemaal op basis van de aanname dat de bus dezelfde grootte blijft, maar Nvidia heeft de bus voor de meeste ADA-tiers afgeknepen.
Niet dezelfde grootte, maar een bepaalde ondergrens.

De meest afgeknepen versie komt voor desktop ADA (nog) niet onder de 128-bit :
Wikipedia: GeForce 40 series

Alleen bij laptops is er 1 RTX 4050 variant die 96-bit aandurft (niet eens 64-bit):
categorie: Laptops

maar dan moet je wel €899 neertellen en is je prijs-argument niet meer van toepassing.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
sunsmountain schreef op donderdag 3 augustus 2023 @ 15:17:
We hebben nieuwe kaarten gezien van 16, 20 en 24. Dus voor mij blijft 18 daarin vreemd. Waarom niet 16 of 20? Welke game gaat mikken op 18 (geen enkele)?
Welke nieuwe kaarten? Heb ik wellicht gemist, heb de topics niet echt bijgehouden. Maar waarom niet 16 of 20: omdat je bijvoorbeeld 6 MC's hebt en je dan dus op 12/24 (single/clamshell) uit komt met 16 Gb chips, op 18/36 met 24 Gb chips. En uiteindelijk op 24/48 met 32 Gb. Met die 6 MC's is 16 of 20 simpelweg niet mogelijk, geen van beide getallen is deelbaar door 6 :p
Ah, kijk weer wat nieuws geleerd. Op zich logisch, anders gaan shaders (proberen te) praten met MC's die niks kunnen. Uitgeschakeld in BIOS of gelaserd/geknipt in hardware?
Meestal gewoon uitgeschakeld in de firmware, wellicht omdat de MC zelf een defect heeft bijvoorbeeld.
Interessant, dat vereenvoudigt mogelijke configuraties sterk. Is dit omdat de GPU chip aannames moet kunnen doen over geheugen-capaciteit, als een shader met een MC praat?
Yep, precies dat. Het beschikbare geheugen moet geadresseerd kunnen worden en het is nogal onhandig als je X identieke L2$ blokken aan afwijkende hoeveelheden geheugen moet hangen. Dan moet je ineens gaan routeren omdat MC 1 misschien maar half zo veel adressen kan bedienen als MC2. De shaders doen dat verder niet echt zelf, daar zit nog een hoop tussen, maar als puntje bij paaltje komt, komt het daar inderdaad wel op neer.

Technisch gezien uiteraard wel te doen, maar het zou de hele handel nog een stuk complexer maken dus dat doen ze niet. Sterker nog, de firmware is niet alleen op de hoogte van de grootte van de chips, maar zelfs van het type chip. Je kunt Samsung en Micron ook niet zomaar mixen, want die hebben net iets andere timings en dergelijke. Ze moeten allemaal identiek zijn.
Eens, dan worden de GDDR7 configuraties, met 24Gb, 32Gb, zonder clamshell:

...

Gelukkig komt het voor de eindgebruiker op hetzelfde neer: minder geheugen.
Die 32 Gb chips komen overigens ook pas over een paar jaar, bij mijn weten heeft nog niemand daar iets van geproduceerd. Dus voorlopig blijft het op de veelvouden van 3. Minder niet per se, we gaan er overal met minimaal 1 GB per MC op vooruit :p

We zullen wel meer chips gaan zien met kleine bussen, wellicht té klein.

Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op donderdag 3 augustus 2023 @ 16:42:
[...]
De volgende generaties met 128-bit worden dus hopelijk meer 12GB, ook voor hen.
Nvidia heeft allerlei opties. We weten niet eens of Nvidia wel GDDR7 gaat gebruiken voor de goedkopere kaarten. Bij zowel Turing als Pascal verkochten ze low-end kaarten met de vorige generatie geheugen.

En als je GDDR6X meetelt als een nieuwe geheugenvariant, dan ook bij Ampere.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • waterkoud
  • Registratie: Oktober 2003
  • Niet online
*knip* offtopic voor aankoopadvies dien je in Componenten koopadvies te zijn. Verder zijn er legio ervaringen over kopen buiten Nederland te vinden als je de zoekfunctie gebruikt.

[ Voor 92% gewijzigd door br00ky op 03-08-2023 23:04 ]


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Ik kwam de volgende reparatie video tegen:


Blijkbaar zijn de koelers van een 4090 zo zwaar dat de gpu gewoon los van het pcb komt.
Hij raad ook aan om zulke kaarten (dus waarschijnlijk niet alleen de 4090) verticaal te mounten ipv op de normale manier.

Zelf gebruik ik een meegeleverde ondersteuning bij de mijn 7900 XTX en ik vermoed dat dat nog wel voldoende is. Toch zie je dat kaarten die zoveel gebruiken als tegenwoordig en dus meer koeling nodig hebben dat horizontaal mounten eigenlijk niet meer goed is.
Edit: zeker met transport zou ik de kaart er gewoon uithalen, of de kast op zijn zijde leggen.

[ Voor 6% gewijzigd door Sp3ci3s8472 op 10-08-2023 16:32 ]


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
Laatste geruchten, combinatie van:

YouTube: RTX 50 UPDATED Specs & Perf Are MONSTROUS - Can RDNA 4 Compete? (~16:00)

en

https://wccftech.com/nvid...3-gb205-gb206-gb207-skus/

De eerdere GB102 met 204SM en GB103 met 108SM lijken nu onder de professionele line-up te vallen, met gamer chips de GB202, 3, 5, 6 en 7. Geen 04 dit keer. Belangrijker dan dat: GB20x heeft mogelijk kleinere chips dan GB10x, omdat er minder te verdienen valt aan de gamer kaarten.


YouTube: RTX 50 Blackwell SPECS & PERFORMANCE Update | RTX TITAN Is Alive?!
(~9.00)
Best kans dat Nvidia het aantal SM gelijk houdt bij de node shrink van N4 naar N3, en de SMs zelf krachtiger probeert te maken qua IPC en cache.

Als je een directe GA102 (N4) shrink doet naar GB202 zit je onder de 400 mm2. Handig met het oog op de reticle limit (alvast voor N2): 26 mm by 16,5 mm or 429 mm² .

(143,7÷220)×609 mm2 = 397 mm2

Wikipedia: 3 nm process
Wikipedia: 5 nm process

Ze zullen wel iets meer ruimte nemen, maar ik vermoed niet veel. Er is ook wel wat te winnen met het opruimen van legacy pipelines.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op maandag 14 augustus 2023 @ 07:46:
De eerdere GB102 met 204SM en GB103 met 108SM lijken nu onder de professionele line-up te vallen, met gamer chips de GB202, 3, 5, 6 en 7. Geen 04 dit keer. Belangrijker dan dat: GB20x heeft mogelijk kleinere chips dan GB10x, omdat er minder te verdienen valt aan de gamer kaarten.
Dit suggereert vooral ook dat Nvidia aparte chips gaat maken voor de professionele kaarten, net zoals AMD dat al doet met CDNA chips, die een andere configuratie hebben dan de RDNA gaming-chips.

Ik kan mij voorstellen dat de GB102 helemaal wordt toegespitst op AI-workloads, terwijl de GB202 dan meer een gaming/rendering-configuratie heeft. Dan kan de GB202 ook gewoon een grote chip worden, want de render-farms van ILM e.d. zijn ook bereid om flink te betalen voor hoge prestaties.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op maandag 14 augustus 2023 @ 10:29:
[...]


Dit suggereert vooral ook dat Nvidia aparte chips gaat maken voor de professionele kaarten, net zoals AMD dat al doet met CDNA chips, die een andere configuratie hebben dan de RDNA gaming-chips.

Ik kan mij voorstellen dat de GB102 helemaal wordt toegespitst op AI-workloads, terwijl de GB202 dan meer een gaming/rendering-configuratie heeft. Dan kan de GB202 ook gewoon een grote chip worden, want de render-farms van ILM e.d. zijn ook bereid om flink te betalen voor hoge prestaties.
Dat doet Nvidia al sinds Pascal met GP100. Vervolgens Volta als aparte architectuur, toen wel A100, maar ook apart van de rest van Ampere en nu Hopper in plaats van een "AD100". Het lijkt wel tick tock. :P

Maar als je kijkt hoe AD102 nu werkelijk presteert tegenover AD103, dan snap ik het wel. Die RTX4090 zou eigenlijk nog eens 30% (voor een totaal meer rond de 60%) sneller moeten zijn dan de RTX4080 als je naar de SM's kijkt. Dat is die niet en ik denk niet dat geheugenbrandbreedte het helemaal verklaard. Ik zie Nvidia eigenlijk ook niet met een compleet nieuwe architectuur komen die breekt met de Maxwell/Turing fundamenten, dus meer SM's voor gaming lijkt me vooralsnog, vrij zinloos. Meer caches lijkt me zinvoller omdat ik vermoed dat Ada tegen een aardige limiet aanloopt qua BvH creatie.

Let ook op die RTX4090 over een tijdje. Die zie ik met bijvoorbeeld Zen 5 of Arrow Lake, opeens een stukje weglopen van de rest van Ada Lovelace of RDNA3. Gebeurd ook al met de 7800X3D tegenover zoiets als een 5800X3D, 7700X, 13700K etc. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
Ludewig schreef op maandag 14 augustus 2023 @ 10:29:
[...]


Dit suggereert vooral ook dat Nvidia aparte chips gaat maken voor de professionele kaarten, net zoals AMD dat al doet met CDNA chips, die een andere configuratie hebben dan de RDNA gaming-chips.

Ik kan mij voorstellen dat de GB102 helemaal wordt toegespitst op AI-workloads, terwijl de GB202 dan meer een gaming/rendering-configuratie heeft. Dan kan de GB202 ook gewoon een grote chip worden, want de render-farms van ILM e.d. zijn ook bereid om flink te betalen voor hoge prestaties.
Nvidia moet meters maken met chiplets, anders produceert AMD de AI kaarten goedkoper èn groter, belangrijk voor de grotere complexere modellen. GB10x zal dus ten minste 1 chiplet ontwerp hebben.

Ik weet niet of GB202 heel groot gaat worden, omdat Nvidia weet dat het niet hoeft, en zo'n chip is natuurlijk ook gewoon duur. Hoeveel RTX 4090's zijn er verkocht? Mag je de ontwerpkosten door delen. Ik denk 400 mm2 max dit keer, en SMs op de schop.

Dus geen RTX 5090, allemaal monolitisch en alsnog de performance crown pakken. Hoewel dat niet echt moeilijk is tegen een sub afdelinkje van AMD, met een triljoen gewaardeerd bedrijf. Het is een wonder dat Radeon het überhaupt overleeft.

ps.: Radeon marketing blijft wel gewoon slecht.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op maandag 14 augustus 2023 @ 16:43:
[...]
Hoeveel RTX 4090's zijn er verkocht?
De 4090 is het 'afval.' De echte goede chips gaan in de professionele kaarten. Dus de vraag is dan of de professionele markt voldoende kan worden afgedekt met de (chiplet?) GB102. Alleen dan zie ik een kleinere GB202-chip als een reële optie.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
Ludewig schreef op maandag 14 augustus 2023 @ 18:12:
[...]


De 4090 is het 'afval.' De echte goede chips gaan in de professionele kaarten. Dus de vraag is dan of de professionele markt voldoende kan worden afgedekt met de (chiplet?) GB102. Alleen dan zie ik een kleinere GB202-chip als een reële optie.
Je kan geen monolitisch "afval" maken van chiplets. Wat GB102 ook moge worden, GB202 heeft er niets aan.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op dinsdag 15 augustus 2023 @ 00:21:
[...]

Je kan geen monolitisch "afval" maken van chiplets. Wat GB102 ook moge worden, GB202 heeft er niets aan.
Mijn punt is dat ze mogelijk alsnog een redelijk grote monolitische chip nodig hebben omdat bepaalde professionele toepassingen niet goed schalen met chiplets. Dan gaan de deels kapotte chips uiteraard alsnog in een 5090.

Ik verwacht namelijk zelf dat ze zowel professionele kaarten met chiplets als met monolieten gaan verkopen.

Net even gekeken en het is wel zo dat de GP102 (1080 Ti) slechts 470 mm2 was, terwijl TU102 (2080 Ti) een gigantische 750 mm2 was. Dus ik kan mij voorstellen dat de GB202 weer kleiner wordt en ergens tussen AD102 en AD103 in komt, al lijkt mij de 380 mm2 van AD103 wel erg klein.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
Ludewig schreef op dinsdag 15 augustus 2023 @ 10:49:
[...]


Mijn punt is dat ze mogelijk alsnog een redelijk grote monolitische chip nodig hebben omdat bepaalde professionele toepassingen niet goed schalen met chiplets. Dan gaan de deels kapotte chips uiteraard alsnog in een 5090.

Ik verwacht namelijk zelf dat ze zowel professionele kaarten met chiplets als met monolieten gaan verkopen.

Net even gekeken en het is wel zo dat de GP102 (1080 Ti) slechts 470 mm2 was, terwijl TU102 (2080 Ti) een gigantische 750 mm2 was. Dus ik kan mij voorstellen dat de GB202 weer kleiner wordt en ergens tussen AD102 en AD103 in komt, al lijkt mij de 380 mm2 van AD103 wel erg klein.
Ah zo, ja dan kunnen de restjes naar de gamers ja. En eens met dat laatste, er komen immers weer 5 designs, van 100, 200, 300, 400 mm2 en hun grootste zal 500+ blijven afhankelijk van wat ze nodig hebben.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Voor zo ver ik het begrijp is het nog wel wachten op een tool zoals nibitor. Ik wil namelijk van de lage powerlimit af van mijn eigen bios en temperatuur limit die de boostclock al vanaf 60 graden aanpast.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 09:28
Ik heb het draadje even door zitten spitten, maar het is mij nog niet helemaal duidelijk of je zelf een bios faal met de hand kunt aanpassen, of dat je nu alleen kunt crossflashen? Als ze "alleen" alle bypasses hebben omgezet, maar je moet nog altijd een signed bios hebben, dan moet ik een beetje denken aan hetgeen ik ooit voor de 2000-series had gedaan, alleen had ik niet ervoor gezorgd dat je ook verschillende GPU dies kon flashen, want wie wil dat nou? Buiten oplichters die dus nu kaarten met een ander typenummer gaan verkopen op eBay...
Ampere and Ada - only signed bioses have full access ~ but pretty much every Boardpartners Bios is signed :)
The Tool can not flash random files that the average joe made.
Files made by a Bios editor, won't be such - but it is a different form of access.
One does not change the cards behavior or flash a custom OS.
Falcon behavior remains to NVIDIA™ property, and RiscV loads Nvidia™ proprietary software.
Ja, dit is dus eigenlijk hetzelfde, alleen met meer flags omgezet, waardoor cross-die ook kan. Interessant dat het zo lang duurde voordat iemand anders hetzelfde heeft gedaan.
3DEXP schreef op maandag 21 augustus 2023 @ 10:26:
[...]


Voor zo ver ik het begrijp is het nog wel wachten op een tool zoals nibitor. Ik wil namelijk van de lage powerlimit af van mijn eigen bios en temperatuur limit die de boostclock al vanaf 60 graden aanpast.
Dit werkt dus nog altijd niet.

[ Voor 64% gewijzigd door Paprika op 21-08-2023 13:44 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En Nvidia komt met DLSS3.5 met de focus op Ray Reconstruction voor een verbeterde denoising. Komt uiteraard naar Cyberpunk. :+
https://videocardz.com/ne...uction-launches-this-fall

[ Voor 32% gewijzigd door DaniëlWW2 op 22-08-2023 13:32 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Het tweede kwartaal was erg goed voor Nvidia:

NVIDIA Announces Record Financial Results for Q2 of 2023
NVIDIA today reported revenue for the second quarter ended July 30, 2023, of $13.51 billion, up 101% from a year ago and up 88% from the previous quarter. GAAP earnings per diluted share for the quarter were $2.48, up 854% from a year ago and up 202% from the previous quarter. Non-GAAP earnings per diluted share were $2.70, up 429% from a year ago and up 148% from the previous quarter.

March of the Eagles


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Deze is best interessant, Nvidia kaarten zijn niet al te snel in Starfield:


Schijnbaar krijgt de gaming divisie van Nvidia minder geld dan dat ze zouden willen voor het optimaliseren van drivers voor Starfield:


Dit is schijnbaar ook de reden dat DLSS niet in alle titels zit waar FSR in zit? Dit is volgens bronnen binnen Nvidia die Moores Law is Dead heeft. Het is niet dat AMD het blokkeerd, het is dat de gaming divisie binnen Nvidia niet genoeg budget heeft (minder dan ze zouden willen).

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 11-09 16:57
Nu Nvidia zo ver voorloopt op AMD, zijn games even geen prioriteit, grappig inderdaad. Ze verdienen teveel met AI kaarten, dus dat zal voorlopig wel zo blijven.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Sp3ci3s8472 schreef op zaterdag 2 september 2023 @ 14:02:
Deze is best interessant, Nvidia kaarten zijn niet al te snel in Starfield:
[YouTube: Starfield GPU Benchmarks & Comparison: NVIDIA vs. AMD Performance]

Schijnbaar krijgt de gaming divisie van Nvidia minder geld dan dat ze zouden willen voor het optimaliseren van drivers voor Starfield:
[YouTube: RX 7800 / 7700 XT Benchmark Leak: AMD doesn't need Starfield to Win]

Dit is schijnbaar ook de reden dat DLSS niet in alle titels zit waar FSR in zit? Dit is volgens bronnen binnen Nvidia die Moores Law is Dead heeft. Het is niet dat AMD het blokkeerd, het is dat de gaming divisie binnen Nvidia niet genoeg budget heeft (minder dan ze zouden willen).
Zo wel AMD als Nvidia zijn niet snel en word zwaar tegen gehouden door de CPU en dat zelfs op 4k. De game is uiterst slecht geoptimaliseerd na mijn idee want je krijgt enorme framedrops waar je het niet verwacht. De game draaid alleen redelijk als je FSR, resolutionscale en 75% resolutie in stelt, of te wel standaard ultra present. Ik vermaak me overigens prima met Starfield.

Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

3DEXP schreef op zaterdag 2 september 2023 @ 17:07:
[...]


Zo wel AMD als Nvidia zijn niet snel en word zwaar tegen gehouden door de CPU en dat zelfs op 4k. De game is uiterst slecht geoptimaliseerd na mijn idee want je krijgt enorme framedrops waar je het niet verwacht. De game draaid alleen redelijk als je FSR, resolutionscale en 75% resolutie in stelt, of te wel standaard ultra present. Ik vermaak me overigens prima met Starfield.
Niet door de cpu, maar door de geheugenbandbreedte van de cpu:

Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Lijkt me dan ook eerder een game probleem. Ik kom op 4k niet over de 10gb heen met een RTX 4090 en de bandbreedte is ook enorm hoog van de RTX 4090.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

3DEXP schreef op zaterdag 2 september 2023 @ 19:52:
[...]


Lijkt me dan ook eerder een game probleem. Ik kom op 4k niet over de 10gb heen met een RTX 4090 en de bandbreedte is ook enorm hoog van de RTX 4090.
Lees nog eens mijn post door of bekijk het filmpje, ik heb het niet over gpu bandbreedte ;). Daarnaast heeft geheugen bandbreedte vrij weing te maken met of je nu 10GB of 20GB video geheugen gebruikt.
Laat ik overigens gelijk mijn stelling aanpassen, op de 4090 lijkt het een cpu geheugen bandbreedte probleem, ben benieuwd of dit met AMD gpus ook zo is doordat die minder driver overhead hebben.

[ Voor 8% gewijzigd door Sp3ci3s8472 op 02-09-2023 20:04 ]


Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Sp3ci3s8472 schreef op zaterdag 2 september 2023 @ 20:02:
[...]


Lees nog eens mijn post door of bekijk het filmpje, ik heb het niet over gpu bandbreedte ;). Daarnaast heeft geheugen bandbreedte vrij weing te maken met of je nu 10GB of 20GB video geheugen gebruikt.
Laat ik overigens gelijk mijn stelling aanpassen, op de 4090 lijkt het een cpu geheugen bandbreedte probleem, ben benieuwd of dit met AMD gpus ook zo is doordat die minder driver overhead hebben.
Zo kan iedereen ergens wat achter zoeken en gezien het probleem overal op zo erg is zal het wel snel met updates worden opgelost.

Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 11-09 17:47
Sp3ci3s8472 schreef op zaterdag 2 september 2023 @ 14:02:
Dit is schijnbaar ook de reden dat DLSS niet in alle titels zit waar FSR in zit? Dit is volgens bronnen binnen Nvidia die Moores Law is Dead heeft. Het is niet dat AMD het blokkeerd, het is dat de gaming divisie binnen Nvidia niet genoeg budget heeft (minder dan ze zouden willen).
Het is duidelijk waarom DLSS doorgaans niet beschikbaar is in AMD gesponsorde spellen. Meerdere mensen hebben AMD gevraagd (oa wffctech, hardware unboxed en gamersnexus) of ze contractueel DLSS verbieden/verboden, en AMD weigerd daar een duidelijk antwoord op te geven.

En waarom zou Nvidia een game developer uberhaupt betalen om DLSS toe te voegen? DLSS maakt het spel beter, en is heel makkelijk toe te voegen aan spellen waarin FSR al beschikbaar is. Dat zou nog makkelijker zijn als AMD mee wil werken aan een open upscaling standaard, maar dat gaat waarschijnlijk niet gebeuren.

Maar ook zonder open standaard is het triviaal.
Dit wordt bevestigd door een Nixxes dev https://twitter.com/mempodev/status/1673759246498910208
En als voorbeeld, op de dag van de Starfield launch zijn er al twee mods die FSR vervangen voor DLSS in Starfield, en één daarvan heeft ook een XESS versie.

[ Voor 4% gewijzigd door cnieuweboer op 03-09-2023 00:11 ]


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

3DEXP schreef op zaterdag 2 september 2023 @ 20:12:
[...]


Zo kan iedereen ergens wat achter zoeken en gezien het probleem overal op zo erg is zal het wel snel met updates worden opgelost.
Welk punt bedoel je precies? Zonder specifiek te zijn is het lastig te reageren op je post.
Als je bedoelt dat AMD kaarten misschien minder last van de geheugen bandbreedte bottleneck hebben, dat is inderdaad een aanname van mij en ik wacht ook op een goede review die dat of onderbouwd of debunked. Ik bracht mijn stelling ook niet als waarheid.
Als je reageerd op het geheugen bandbreedte gedeelte dan is dat geen aanname maar gewoon kijken naar de statistieken. Want de 4090 heeft hier overduidelijk geen cpu bottleneck maar wel absoluut een geheugen bandbreedte bottleneck. Gezien je reactie ga ik er van uit dat je de video nog steeds niet hebt gezien en daarom zo reageerd. Had je hem wel gezien dan was het namelijk overduidelijk en hadden we deze discussie niet gehad.
Om een van de resultaten uit het filmpje te pakken:
De score van een 12900K is 79 fps, die van een 13700k (nagenoeg dezelfde cpu) haalt in het zelfde scenario 101 fps.
Het enige grote verschil tussen die de twee is dat de 12900k geheugen heeft van DDR5-4400 en de 13700k DDR5-5600.

@cnieuweboer
AMD heeft daar nu zover ik weet antwoord op gegeven; en lijkt niet actief bezig te zijn met het blokkeren van DLSS. Tenminste dat is van de twee bronnen binnen Nvidia van MLID. Hoever dat de waarheid is mag je zelf bepalen. Het is dus schijnbaar meer het geval dat Nvidia geen geld wil spenderen aan het uitlenen van developers aan game studio's.

Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 11-09 17:47
Sp3ci3s8472 schreef op zondag 3 september 2023 @ 01:47:
AMD heeft daar nu zover ik weet antwoord op gegeven; en lijkt niet actief bezig te zijn met het blokkeren van DLSS. Tenminste dat is van de twee bronnen binnen Nvidia van MLID. Hoever dat de waarheid is mag je zelf bepalen. Het is dus schijnbaar meer het geval dat Nvidia geen geld wil spenderen aan het uitlenen van developers aan game studio's.
Het laatste statement van AMD lijkt beter dan de eerdere, maar nog steeds wordt allemaal heel indirect, en op meerdere manieren te interpreteren.
https://www.theverge.com/...-fsr-exclusive-frank-azor

Als ze echt DLSS niet blokkeren, kunnen ze Nvidia's antwoord over FSR kopieren.
https://wccftech.com/what...amd-sponsored-fsr-titles/

En MLID is leuk voor geruchten en meningen, maar voor feitelijk nieuws natuurlijk niet heel goed. En als hij wel gelijk zou hebben roept dat meer vragen op dan het beantwoord. Zoals (nogmaals) waarom zou Nvidia veel geld moeten uitgeven om DLSS in een spel te krijgen als FSR al beschikbaar is. De integratie is triviaal. En waarom is het voor AMD zo moeilijk een duidelijk antwoord te geven op de vragen over blokkeren van DLSS.

Ik kan maar één reden verzinnen waarom gebrek aan geld bij Nvidia een rol speelt bij implementeren van DLSS, en die past bij de informatie uit betrouwbare bronnen. En het is een beetje een flauwe. Als Nvidia zoveel geld uit zou geven dat het alle games sponsored, kan AMD DLSS niet blokkeren.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 08:49

CMT

Het is erg opvallend inderdaad. Maar ik zie ook dat PCGH.de officieel ondersteunde geheugensnelheden heeft gebruikt *zucht*. Dat maakt het weer een appels met peren vergelijking.
De latencies zullen behoorlijk beroerd zijn en met name voor Ryzen heeft dat veel impact omdat daarmee ook een lagere Fclock gemoeid is.
Ik heb dus nog mijn vraagtekens in hoeverre dit bandbreedte gerelateerd is en/of DDR latency gerelateerd.
Hopelijk pakt HUB deze vraag op.
cnieuweboer schreef op zondag 3 september 2023 @ 00:05:
[...]


Het is duidelijk waarom DLSS doorgaans niet beschikbaar is in AMD gesponsorde spellen. Meerdere mensen hebben AMD gevraagd (oa wffctech, hardware unboxed en gamersnexus) of ze contractueel DLSS verbieden/verboden, en AMD weigerd daar een duidelijk antwoord op te geven.

En waarom zou Nvidia een game developer uberhaupt betalen om DLSS toe te voegen? DLSS maakt het spel beter, en is heel makkelijk toe te voegen aan spellen waarin FSR al beschikbaar is. Dat zou nog makkelijker zijn als AMD mee wil werken aan een open upscaling standaard, maar dat gaat waarschijnlijk niet gebeuren.

Maar ook zonder open standaard is het triviaal.
Dit wordt bevestigd door een Nixxes dev https://twitter.com/mempodev/status/1673759246498910208
En als voorbeeld, op de dag van de Starfield launch zijn er al twee mods die FSR vervangen voor DLSS in Starfield, en één daarvan heeft ook een XESS versie.
Verdacht is het wel, maar bewijs dat het verboden wordt is er niet. Daar zou dan een juridisch staartje aan vast kunnen zitten i.v.m. 'koppelverkoop'.
Hoogstwaarschijnlijk gehinderd is denk ik een betere omschrijving, maar daarnaast is DLSS een gesloten standaard alléén voor Nvidia kaarten. Dus wie zegt dat een Gamestudio om die reden niet de voorkeur geeft voor FSR dat wel op alle hardware kan draaien? Omdat DLSS propiertary is zullen de software tools om dit in een spel te implementeren ook niet vrij beschikbaar zijn lijkt mij.

Is er ook een lijst van games die enkel de support laat zien tijdens de launch daarvan? Veel FSR is achteraf toegevoegd.
Als consument heb ik trouwens liever dit dan andersom en vendor locked te zijn..

Acties:
  • +4 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
cnieuweboer schreef op zondag 3 september 2023 @ 00:05:
Het is duidelijk waarom DLSS doorgaans niet beschikbaar is in AMD gesponsorde spellen. Meerdere mensen hebben AMD gevraagd (oa wffctech, hardware unboxed en gamersnexus) of ze contractueel DLSS verbieden/verboden, en AMD weigerd daar een duidelijk antwoord op te geven.
Dat hebben ze wel gedaan. Zie hier.
En waarom zou Nvidia een game developer uberhaupt betalen om DLSS toe te voegen?
Omdat de game op die manier "beter" wordt voor Nvidia's klanten, maar niet voor de klanten van Intel en Nvidia. Lijkt me vrij eenvoudig. AMD heeft veel minder baat bij het betalen van devs voor FSR implementaties, omdat ze daar ook de concurrenten mee helpen.
DLSS maakt het spel beter, en is heel makkelijk toe te voegen aan spellen waarin FSR al beschikbaar is.
Je bedoelt hoe het andersom ook zo is, waarbij FSR2 heel eenvoudig geïmplementeerd kan worden in games die al DLSS hebben en waarbij modders dat, net zoals met DLSS, ook gedaan hebben?
Dat zou nog makkelijker zijn als AMD mee wil werken aan een open upscaling standaard, maar dat gaat waarschijnlijk niet gebeuren.
Een open standaard? Zoals FSR2 zelf bedoel je, dat volledig open source is en op alle GPU's werkt (effectiviteit op hele oude GPU's even daar gelaten), in tegenstelling tot slechts 3 generaties van Nvidia?

Of bedoel je zoiets als Nvidia's Streamline middleware voor RT, waar Nvidia het tot op de dag van vandaag heeft over "Nvidia plugins", "Intel plugins" en "Hardware Vendor #3"?

Als Nvidia een open standaard zou willen, waarom hebben ze dat dan niet meteen bij MS, AMD, Intel en de Khronos Group aangedragen?


Sorry, maar dit soort posts zijn gewoon FUD. Als er één partij is die 0,0 interesse heeft in open standaarden, is het Nvidia wel. OpenCL hebben ze bijvoorbeeld ook nooit echt aan mee gewerkt. Als ze dachten dat ze de macht er voor hadden, zouden ze net als Apple ook echt wel hun eigen render API introduceren. Godzijdank heeft Microsoft daar voor games de overmacht. Ik sta er nog steeds van te kijken dat ze wel soort van achter Vulkan staan.

Ga voor de gein eens kijken wat er écht open is van Nvidia, Intel en AMD. Één van die 3 is een stuk meer gesloten dan de andere twee. Kleine hint: hun kleur kun je niet met een ander combineren tot paars ;)

Hun definitie van "open" is ook iets heel anders, want ze leveren dan vaak alsnog zwarte dozen.

Ik heb hier onlangs ook op de FP een reactie over geplaatst. Zie https://www.pcgamingwiki....t_high-fidelity_upscaling

Niets exact geteld (schrijf ik wel een script voor als het hier een keer regent :p)
- ~400 games in totaal
- ~220 met een vorm van FSR
- ~280 met een vorm van DLSS
- ~50 FSR2 titels zonder DLSS; minder dan 5 daarvan zijn AAA (met andere woorden, vooral kleine devs die de gratis, open source oplossing implementeren)
- ~150 DLSS2 titels zonder FSR
- ~25 DLSS2 titels met FSR 1.0 (meer werk dus)
- ~75 games die DLSS2+ en FSR2+ hebben

Bijna de helft van de 400 is dus Nvidia-biased - en ja, sommige van die games zijn lang vóór FSR2 uit gekomen, dus dat is ze vergeven. Maar niet allemaal - en er zijn ook patches met nieuwere versies van DLSS uitgekomen voor sommige van die games.


Wat mij betreft is het juist DLSS dat games kapot maakt. Het zal me worst wezen dat het soms net iets beter werkt dan FSR2, want het werkt ook voor een beperkt deel van gamers. Zolang de meest populaire videokaarten nog steeds producten met een architectuur van 7 jaar geleden (Pascal; of TU116/117, die functioneel equivalent zijn) zijn heeft zulke exclusiviteit geen enkele bestaansreden. Dat is alsof 12 jaar geleden met D3D11 tessellation vanaf dag 1 vereist zou zijn voor alle games.

Laat MS, Intel, AMD en Sony de handen maar ineen slaan voor een universele, geoptimaliseerde techniek - waarschijnlijk met FSR2/3 als basis, net zoals Mantle de basis vormde voor de huidige API's. Laat Valve ook maar mee doen, want die hebben ook veel goed werk gedaan de laatste jaren. En als ik dan toch bezig ben, laat Apple hun gaming aspiraties maar eens waar maken en ook mee doen. Daar zouden wij, als consumenten, veel meer baat bij hebben dan bij zo'n techniek als DLSS die niet werkt juist op de producten die het momenteel hard nodig hebben. De GPU markt is nog steeds hartstikke kapot.

Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 11-09 17:47
CMT schreef op zondag 3 september 2023 @ 10:34:
Hoogstwaarschijnlijk gehinderd is denk ik een betere omschrijving, maar daarnaast is DLSS een gesloten standaard alléén voor Nvidia kaarten. Dus wie zegt dat een Gamestudio om die reden niet de voorkeur geeft voor FSR dat wel op alle hardware kan draaien?
DLSS en FSR zijn beide geen standaarden, laat staan een open standaard. Software opensource maken, maakt het nog geen open standaard. Voor een mooie definitie zie https://www.itu.int/en/ITU-T/ipr/Pages/open.aspx

Tot nu toe is er één intiatief geweest voor een open standaard, en dat is Streamline. AMD wil daar niet aan meewerken.
CMT schreef op zondag 3 september 2023 @ 10:34:
Omdat DLSS propiertary is zullen de software tools om dit in een spel te implementeren ook niet vrij beschikbaar zijn lijkt mij.
Dat is gewoon vrij beschikbaar.
https://github.com/NVIDIA/DLSS
https://github.com/NVIDIAGameWorks/Streamline
CMT schreef op zondag 3 september 2023 @ 10:34:
Is er ook een lijst van games die enkel de support laat zien tijdens de launch daarvan? Veel FSR is achteraf toegevoegd.
Geen idee, maar persoonlijk vind ik dat niet zo belangrijk. De lijst met spellen is (wat mij betreft) alleen een reden om vragen te gaan stellen. Het wordt pas problematisch bij de antwoorden van AMD.
CMT schreef op zondag 3 september 2023 @ 10:34:
Als consument heb ik trouwens liever dit dan andersom en vendor locked te zijn..
Eens, maar op het randje. Door de weigering van AMD om mee te werken aan een open standaard, en de hogere kwaliteit van DLSS.

Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
cnieuweboer schreef op zondag 3 september 2023 @ 10:54:
Tot nu toe is er één intiatief geweest voor een open standaard, en dat is Streamline. AMD wil daar niet aan meewerken.
Ook dat is geen standaard. Dat is een shim waar gesloten blobs in geprikt kunnen worden, onder de controle van Nvidia.

Overigens doet ook Intel níet mee aan Streamline, ook al doet Nvidia het voor komen van wel. Streamline valt gewoon onder dezelfde berg "standaarden" die ze voor Linux geproduceerd hebben, waarbij het allemaal voor hun hardware bedoeld is, maar technisch beperkter is dan andere (vaak al bestaande) oplossingen waar ze zélf een bijdrage aan hadden kunnen leveren.
Vrij beschikbaar* ** **

* Mits je een gesloten blob kan/wil gebruiken
** Mits je niet onder open source licentie werkt
*** Mits je NVIDIA en alles om hen heen ook verdedigt en van kwaad vrij spreekt wanneer nodig omtrent je product (geen grap, staat letterlijk in de licentie)

Acties:
  • +2 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 11-09 17:47
Werelds schreef op zondag 3 september 2023 @ 11:18:
Ook dat is geen standaard. Dat is een shim waar gesloten blobs in geprikt kunnen worden, onder de controle van Nvidia.
Een intiatief is geen uitkomst. De eerste stap is gezet, maar overduidelijk is er geen open standaard uitgekomen. Altijd nog beter dan doen daar principieel niet voor open staan. En een shim als standaard is geen enkel probleem.
Werelds schreef op zondag 3 september 2023 @ 11:18:
Overigens doet ook Intel níet mee aan Streamline, ook al doet Nvidia het voor komen van wel.
Ik heb daar alleen iets over gezien toen streamline voor het eerst werd geintroduceerd. En Intel leek destijds niet onwelwillend, ook tijdens interviews van Gamersnexus met.. (ben de naam kwijt, die Intel engineer die vaker interviews doet). Waar heeft Nvidia recent nog gezegd dat Intel meedoet?
Werelds schreef op zondag 3 september 2023 @ 11:18:
Streamline valt gewoon onder dezelfde berg "standaarden" die ze voor Linux geproduceerd hebben, waarbij het allemaal voor hun hardware bedoeld is, maar technisch beperkter is dan andere (vaak al bestaande) oplossingen waar ze zélf een bijdrage aan hadden kunnen leveren.
Dus compleet anders dan de situatie met betreking tot FSR en DLSS.
Werelds schreef op zondag 3 september 2023 @ 11:18:
Vrij beschikbaar* ** **

* Mits je een gesloten blob kan/wil gebruiken
Zoals 99.99% van de spellen al doet.
Werelds schreef op zondag 3 september 2023 @ 11:18:
** Mits je niet onder open source licentie werkt
Zoals 99.99% van de spellen al doet.
Werelds schreef op zondag 3 september 2023 @ 11:18:
*** Mits je NVIDIA en alles om hen heen ook verdedigt en van kwaad vrij spreekt wanneer nodig omtrent je product (geen grap, staat letterlijk in de licentie)
In alle licentie voorwaarden staan vreemde dingen, die vooral een juridische betekenis hebben en niet goed vertalen naar informele taal. Als je dat toch probeert ga je tegen veel meer problemen aanlopen.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 08:49

CMT

cnieuweboer schreef op zondag 3 september 2023 @ 10:54:
[...]


DLSS en FSR zijn beide geen standaarden, laat staan een open standaard. Software opensource maken, maakt het nog geen open standaard. Voor een mooie definitie zie https://www.itu.int/en/ITU-T/ipr/Pages/open.aspx

Tot nu toe is er één intiatief geweest voor een open standaard, en dat is Streamline. AMD wil daar niet aan meewerken.
Ok, ik bedoel techniek dan. Dat AMD of Intel trouwens niet aan Streamline wil meewerken is mijn inziens logisch. Het incorporeren van Nvidia (propertiary) features zoals Nvidia Reflex, DLSS, Denoiser, Image scaler mag dan vrij zijn, het gebruik daarvan niet. Het maakt de initiatief daarmee een wassen neus.
Nvidia kwam hier trouwens pas in maart 2022 mee, vlak voordat DLSS3 a.k.a Frame Generation/Interpolatie geïntroduceerd werd.
Ik weet verder niet of het überhaupt mogelijk is gebruik te mogen maken van Nvidia features via royalties. Het lijkt mij van niet.
Geen idee, maar persoonlijk vind ik dat niet zo belangrijk. De lijst met spellen is (wat mij betreft) alleen een reden om vragen te gaan stellen. Het wordt pas problematisch bij de antwoorden van AMD.
Ik vind het just wel relevant als het gaat om de vraag of sponsoring ervoor zorgt dat integratie van een bepaalde upscaling techniek geblocked wordt. Zij het DLSS of FSR.
Als daarna een duidelijk patroon te zien is waarbij een tegenhangende upscaling techniek achteraf niet wordt toegevoegd, dan zie ik dat als sterker indirect bewijs.

Eigenlijk heeft AMD nog altijd geen officieel antwoord op de vraag gegeven.
Alleen via een interview i.v.m. Starfield zijn er aan aantal vragen beantwoord dat meer duidelijkheid schept.
Maar daar is ook veel geld mee gemoeid, dus dat er geen statement wordt gemaakt is te verwachten.
Persoonlijk vind ik het wel zwak dat AMD niet reageert. Nu heeft het een eigen leven geleid met vermoedens.
Eens, maar op het randje. Door de weigering van AMD om mee te werken aan een open standaard, en de hogere kwaliteit van DLSS.
Afgaande op de definitie van open standaard die je eerder gepost hebt, is er geen open standaard om aan mee te werken? FRS is dan nog het meeste wat daar op lijkt = opensource en niet vendor locked.
Het is Nvidia die met een propiertary upscaling techniek aan kwam zetten en daarmee de concurrent ook dwong om met een eigen techniek op de proppen te komen.
In dat licht bekeken kan je Nvidia net zo goed verwijten om niet mee te werken aan een open standaard.
De hogere kwaliteit van DLSS vind ik verder niet zo belangrijk. Het verschil is niet groot, maar het nadeel van vendor locking wel.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

In het kort:
FSR is beter omdat het open is.
DLSS is beter omdat de kwaliteit wat hoger ligt en extra functionaliteit biedt (DLSS 3).
  • DLSS1 vond ik niets
  • DLSS2 is goed
  • DLSS3 was ik bij introductie niet enthousiast over maar nu bij gebruik in de praktijk blijkt het in mijn systeem een zeer waardevolle toevoeging bij niet competitieve games.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
cnieuweboer schreef op zondag 3 september 2023 @ 11:42:
Een intiatief is geen uitkomst. De eerste stap is gezet, maar overduidelijk is er geen open standaard uitgekomen. Altijd nog beter dan doen daar principieel niet voor open staan. En een shim als standaard is geen enkel probleem.
De enige standaarden waar Nvidia aan mee heeft gewerkt zijn de standaarden waar letterlijke de hele rest van de industrie al in zit en omarmd heeft. En zelfs dan is hun ondersteuning vaak beperkt; zie OpenCL, zij waren eerder met CUDA en hun OpenCL ondersteuning is altijd vooral functioneel geweest. En wederom: Linux en alles daar in/omheen.

Nvidia staat principieel niet open voor open standaarden. Ze werken mee aan dingen als D3D en Vulkan omdat ze wel moeten; D3D omdat MS die macht nu eenmaal heeft, Vulkan omdat dat vanuit de Khronos Group komt en er was (én ondersteund werd!) voordat zij iets konden bedenken. En dát hebben we dan weer te danken aan AMD, dat met Mantle kwam, vrij beschikbaar maakte en die revolutie in gang zette. Nvidia had toen ook al meteen voor Mantle kunnen kiezen, maar dat deden ze niet.

Ik ben heel hard aan het denken over een open standaard die Nvidia heeft bedacht of omarmd vóórdat deze een industrie standaard was (en ze dus wel mee móesten); en nee, Streamline telt niet, omdat de licentie alles behalve open is. Door daar aan mee te doen dien je je te onderwerpen aan Nvidia.

Ik kan er serieus geen bedenken. Als jij er wel één weet, hoor ik dat graag.
Ik heb daar alleen iets over gezien toen streamline voor het eerst werd geintroduceerd. En Intel leek destijds niet onwelwillend, ook tijdens interviews van Gamersnexus met.. (ben de naam kwijt, die Intel engineer die vaker interviews doet). Waar heeft Nvidia recent nog gezegd dat Intel meedoet?
Datzelfde plaatje staat nog steeds op hun eigen Streamline pagina: https://developer.nvidia.com/rtx/streamline

Het is nog steeds Nvidia, Intel en Hardware Vendor #3. Zeg nou zelf, als Nvidia echt zo welwillend was, zouden ze toch zeker ook de ballen hebben hun grootste concurrent bij naam te noemen, in plaats van enkel de nieuwe speler op de GPU markt?
Dus compleet anders dan de situatie met betreking tot FSR en DLSS.
Vind je?

Wederom, als Nvidia zo welwillend is, waarom stellen ze dan geen DLSS SDK beschikbaar waarmee bepaalde berekeningen versneld kunnen worden door drivers van derden? Hoeft niet eens broncode te zijn, een simpele API waar andere fabrikanten aan kunnen voldoen zou al genoeg zijn. Het gaat immers vooral om matrix vermenigvuldiging, wat zowel Intel en AMD kunnen versnellen. Dan zou DLSS alweer een stuk breder beschikbaar zijn. Of dat dan hetzelfde zou presteren is twijfelachtig, maar dát zouden de eerste stappen zijn.

Ze hadden het idee ook gewoon bij MS en/of de Khronos Group aan kunnen dragen, zodat er vanaf dag 1 aan een open standaard gewerkt had kunnen worden zónder onderwerping aan Nvidia.


Het zal mij persoonlijk verder worst wezen hoe DLSS, FSR en XeSS zich verhouden, want ik blijf er bij dat al deze frame-benaderingen een stap terug zijn. We renderen niet meer sneller en beter, we gokken beter.

Maar zeggen dat het AMD (of Intel) is die niet aan een "open" standaard van Nvidia mee wil werken is gewoon onzin. Er is niets open aan, want het ligt volledig in handen van Nvidia.

Uiteindelijk ligt de verantwoordelijkheid toch bij de devs, want alle grote engines hebben inmiddels plug 'n play integraties van alle 3 de oplossingen - en in elk geval tussen DLSS2+/FSR2+ is de integratie nagenoeg identiek en zie ik persoonlijk geen reden níet beide te implementeren...tenzij je een onzinnig contract getekend, danwel licentie geaccepteerd, hebt.

Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 10:13
Om van upscalingtechhnieken een standaard te maken moet het in zowel Vulkan als DirectX komen, en moeten alle IVH's het ondersteunen. Maar daar is het eigenlijk gewoon te vroeg voor. Intel kwam maar nog net aan met XeSS. Verder zijn de technieken gewoon nog niet goed genoeg uitontwikkeld. Nieuwe versies bieden steeds nieuwe toevoegingen en wijzigingen aan de api. Zowel Microsoft en Khronos Group zouden dit niet bij kunnen houden. Laat de techniek eerst stabiliseren en dan komt er vanzelf wel een standaard. Om er nu al een standaard van te maken belemmert alleen de vooruitgang want het zorgt ervoor dat de IHV's minder snel verbeteringen kunnen toevoegen aangezien de specificatie, en ook dus de inputs, ineens vast staan.

Als voor of AMD wel en niet dlss tegenhoudt, tja we zullen het nooit zeker weten. Mensen die het wel weten zitten aan een NDA en mensen die niet onder NDA vallen hebben baat bij om AMD in goed licht te zetten. Zelf heb ik een Nvidia kaart en ik vind het jammer dat ik straks Starfield zonder dlss. Maar weet je ik heb de beelden gezien en fsr lijkt goed genoeg te werken. Mijn gok is dat ze dat bij Bethesda ook dachten. Waarom nog dlss implementeren als fsr ook werkt.

Ja de ene is snel te implementeren als je de andere techniek al hebt. Maar implementatie is maar een klein deel van de puzzel. Alles moet getest worden op verschillende hardware en de ui eromheen moet ook goed werken, iets wat andere graphics ontwikkelaars ook lijken te steunen. Als dat zo makkelijk is, waarom had Cyberpunk bij release dan een bug dat zo maar fsr aan zette? Iets wat zelfs per ongeluk in sommige charts bij benchmarks ingesneakd was. Of toen FG geïntroduceerd was kon je het aanzetten op een systeem met een AMD videokaart. En Cyberpunk is niet de enige spel, ik heb ook spellen voorbij zien komen die er met dlss slechter uit zagen dan met fsr omdat ze vergeten waren de motion vectors mee te leveren, of omdat de mipmap bias niet goed ingesteld was. Ik vind het dus niet erg dat sommige spellen alleen maar met fsr komen, zolang de implementatie maar goed is. Dat is altijd beter dan een buggy implementatie van dlss.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Sp3ci3s8472 schreef op zondag 3 september 2023 @ 01:47:

Als je bedoelt dat AMD kaarten misschien minder last van de geheugen bandbreedte bottleneck hebben, dat is inderdaad een aanname van mij en ik wacht ook op een goede review die dat of onderbouwd of debunked. Ik bracht mijn stelling ook niet als waarheid.
Bij HUB is de 7900XTX zo'n 10% sneller op 1080p. Lijkt dat AMD misschien toch minder last heeft van die geheugen bandbreedte bottleneck. Het onderbouwd in ieder geval mijn eerdere stelling.
YouTube: Starfield: 32 GPU Benchmark, 1080p, 1440p, 4K / Ultra, High, Medium

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Werelds schreef op zondag 3 september 2023 @ 12:53:
[...]

De enige standaarden waar Nvidia aan mee heeft gewerkt zijn de standaarden waar letterlijke de hele rest van de industrie al in zit en omarmd heeft. En zelfs dan is hun ondersteuning vaak beperkt; zie OpenCL, zij waren eerder met CUDA en hun OpenCL ondersteuning is altijd vooral functioneel geweest. En wederom: Linux en alles daar in/omheen.

Nvidia staat principieel niet open voor open standaarden. Ze werken mee aan dingen als D3D en Vulkan omdat ze wel moeten; D3D omdat MS die macht nu eenmaal heeft, Vulkan omdat dat vanuit de Khronos Group komt en er was (én ondersteund werd!) voordat zij iets konden bedenken. En dát hebben we dan weer te danken aan AMD, dat met Mantle kwam, vrij beschikbaar maakte en die revolutie in gang zette. Nvidia had toen ook al meteen voor Mantle kunnen kiezen, maar dat deden ze niet.

Ik ben heel hard aan het denken over een open standaard die Nvidia heeft bedacht of omarmd vóórdat deze een industrie standaard was (en ze dus wel mee móesten); en nee, Streamline telt niet, omdat de licentie alles behalve open is. Door daar aan mee te doen dien je je te onderwerpen aan Nvidia.

Ik kan er serieus geen bedenken. Als jij er wel één weet, hoor ik dat graag.
Maar Nvidia kan het doen, omdat ze stelselmatig voorlopen met zulk soort software opties. Dat AMD dan met een open standaard komt, is op zijn minst gedeeltelijk omdat ze wel een voordeel moeten bieden tov wat Nvidia heeft.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op zaterdag 2 september 2023 @ 14:02:
Deze is best interessant, Nvidia kaarten zijn niet al te snel in Starfield:
[YouTube: Starfield GPU Benchmarks & Comparison: NVIDIA vs. AMD Performance]

Schijnbaar krijgt de gaming divisie van Nvidia minder geld dan dat ze zouden willen voor het optimaliseren van drivers voor Starfield:
[YouTube: RX 7800 / 7700 XT Benchmark Leak: AMD doesn't need Starfield to Win]

Dit is schijnbaar ook de reden dat DLSS niet in alle titels zit waar FSR in zit? Dit is volgens bronnen binnen Nvidia die Moores Law is Dead heeft. Het is niet dat AMD het blokkeerd, het is dat de gaming divisie binnen Nvidia niet genoeg budget heeft (minder dan ze zouden willen).
Van wat ik van Starfield heb gezien (mijn RX7900XT kwam zonder), denk ik eigenlijk dat een andere, simpelere verklaring hier speelt. Ik vermoed eigenlijk dat er geen duistere deals met clausules zijn. Ik denk gewoon dat het een Todd Howard game is waar ze op de meest simpele manier iets hebben afgevinkt. Game moet upscaling hebben en dan doen we toch FSR2 want dat werkt op alle GPU's en de Xbox Series S/X. Modders mogen het dan oplossen, zoals altijd.

De game lijkt namelijk niet bepaald goed om te gaan met CPU's. Totaal onverwacht met Bethesda. :z
Resultaat is dat de game eigenlijk al slecht draait op veel AMD videokaarten en soms ronduit waardeloos op Nvidia. Je hebt voor zoveel videokaarten gewoon FSR2 nodig om überhaupt een speelbare frame rates te behalen. En ik zie de grafische verklaring ervoor echt niet.

Ik weet ook niet of ik zomaar geloof dat Nvidia weinig moeite gestoken heeft in optimalisatie. Ik vermoed eerder dat deze game dusdanig flinke problemen heeft in de hele render pipeline dat Nvidia hun aanpak van meer shaders/lagere occupency gewoon niet werkt omdat ze hun shaders niet aan het werk krijgen, omdat er niet genoeg werk is. Daarom lijken de RX7600 en RTX4060 dicht bij elkaar te liggen en word het steeds slechter voor Nvidia met de grotere GPU's. Pas op 4K herstelt het zich weer een beetje, maar voornamelijk de RTX4090. Ondertussen lijkt RDNA beter om te gaan met de niet geoptimaliseerde zooi die nu uit Bethesda is gekomen.

Als hier al een sinistere deal was geweest, dan had het voor FSR3 moeten zijn. Want deze game lijkt het nodig te hebben. Maar ja, dat werkt ook voor Nvidia, Intel en de Xbox. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op zondag 3 september 2023 @ 15:18:
[...]


Van wat ik van Starfield heb gezien (mijn RX7900XT kwam zonder), denk ik eigenlijk dat een andere, simpelere verklaring hier speelt. Ik vermoed eigenlijk dat er geen duistere deals met clausules zijn. Ik denk gewoon dat het een Todd Howard game is waar ze op de meest simpele manier iets hebben afgevinkt. Game moet upscaling hebben en dan doen we toch FSR2 want dat werkt op alle GPU's en de Xbox Series S/X. Modders mogen het dan oplossen, zoals altijd.

De game lijkt namelijk niet bepaald goed om te gaan met CPU's. Totaal onverwacht met Bethesda. :z
Resultaat is dat de game eigenlijk al slecht draait op veel AMD videokaarten en soms ronduit waardeloos op Nvidia. Je hebt voor zoveel videokaarten gewoon FSR2 nodig om überhaupt een speelbare frame rates te behalen. En ik zie de grafische verklaring ervoor echt niet.

Ik weet ook niet of ik zomaar geloof dat Nvidia weinig moeite gestoken heeft in optimalisatie. Ik vermoed eerder dat deze game dusdanig flinke problemen heeft in de hele render pipeline dat Nvidia hun aanpak van meer shaders/lagere occupency gewoon niet werkt omdat ze hun shaders niet aan het werk krijgen, omdat er niet genoeg werk is. Daarom lijken de RX7600 en RTX4060 dicht bij elkaar te liggen en word het steeds slechter voor Nvidia met de grotere GPU's. Pas op 4K herstelt het zich weer een beetje, maar voornamelijk de RTX4090. Ondertussen lijkt RDNA beter om te gaan met de niet geoptimaliseerde zooi die nu uit Bethesda is gekomen.

Als hier al een sinistere deal was geweest, dan had het voor FSR3 moeten zijn. Want deze game lijkt het nodig te hebben. Maar ja, dat werkt ook voor Nvidia, Intel en de Xbox. :P
Wellicht iets te maken met instancing? Als ik het goed begrijp wordt een groot gedeelte van de wereld procedureel gegenereerd wat zich met die engine misschien minder goed leent voor dingen zoals instancing?

Ook FSR2 lijkt vrij weinig te doen in sommige instanties, met name op Nvidia kaarten.

Ik wacht nog even voor ik het spel ga kopen (het blijft een Bethesda spel dus ik wacht o.a. op updates :+ ), heb namelijk nog niet gekeken of het goed op Linux draait middels Proton. Het zou hilarisch zijn als het met Proton beter draait dan op Windows zo meteen.

Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 10:13
Sp3ci3s8472 schreef op zondag 3 september 2023 @ 16:35:
[...]


Wellicht iets te maken met instancing? Als ik het goed begrijp wordt een groot gedeelte van de wereld procedureel gegenereerd wat zich met die engine misschien minder goed leent voor dingen zoals instancing?

Ook FSR2 lijkt vrij weinig te doen in sommige instanties, met name op Nvidia kaarten.

Ik wacht nog even voor ik het spel ga kopen (het blijft een Bethesda spel dus ik wacht o.a. op updates :+ ), heb namelijk nog niet gekeken of het goed op Linux draait middels Proton. Het zou hilarisch zijn als het met Proton beter draait dan op Windows zo meteen.
Daniel Owen had een snelle test gedaan met verschillende CPU's op 1080p met 50% resolution scale, dus eigenlijk 540p op een 4090: YouTube: Starfield CPU Bottlenecks Tested- Is your CPU ready for Starfield?. Ziet er echt uit dat dit spel CPU limited is. De gedeeltes waar de fps echt laag is, is juist de stad en die is niet procedureel gegenereerd maar met de hand gemaakt lijkt me. De cpu limit kan ook in totaal iets anders liggen zoals AI of zo. Ik heb me nooit in de scripting taal van de creation kit engine gekeken dut dit is maar een gok maar veel custom scripting talen in spellen worden vaak naar zelfbedachte bytecode gecompileerd en gebruiken vaak in-house interpreters. Deze zijn minder doorontwikkeld als .net, python of lua oid. Dus geen hippe features zoals JIT compilation. Daar kan dus behoorlijk wat CPU overhead in zitten.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op zondag 3 september 2023 @ 16:35:
[...]


Wellicht iets te maken met instancing? Als ik het goed begrijp wordt een groot gedeelte van de wereld procedureel gegenereerd wat zich met die engine misschien minder goed leent voor dingen zoals instancing?

Ook FSR2 lijkt vrij weinig te doen in sommige instanties, met name op Nvidia kaarten.
Tja Ampere en Ada ondersteunen geen double rate FP16, waar FSR2 juist veel gebruik van maakt. ;)
PjotrX schreef op zondag 3 september 2023 @ 13:33:
Om van upscalingtechhnieken een standaard te maken moet het in zowel Vulkan als DirectX komen, en moeten alle IVH's het ondersteunen. Maar daar is het eigenlijk gewoon te vroeg voor. Intel kwam maar nog net aan met XeSS. Verder zijn de technieken gewoon nog niet goed genoeg uitontwikkeld. Nieuwe versies bieden steeds nieuwe toevoegingen en wijzigingen aan de api. Zowel Microsoft en Khronos Group zouden dit niet bij kunnen houden. Laat de techniek eerst stabiliseren en dan komt er vanzelf wel een standaard. Om er nu al een standaard van te maken belemmert alleen de vooruitgang want het zorgt ervoor dat de IHV's minder snel verbeteringen kunnen toevoegen aangezien de specificatie, en ook dus de inputs, ineens vast staan.
Het is ook zo dat we eigenlijk pas iets meer dan een jaar, überhaupt FSR2 en XeSS hebben.
Het is ook wel noemenswaardig dat qua upscaling relevante lage precisie capaciteiten, Intel en AMD eigenlijk behoorlijk vergelijkbaar zijn.

ARC en RDNA doen immers 2x FP16 per ALU in packed math. Voor AMD dus 64x FP15 per SIMD32 en voor ARC 32x FP16 omdat Intel haar SIMD32 net zoals Turing bestaat uit 16x FP en 16x INT. Turing doet hetzelfde als ARC hier. Ampere en Ada hebben geen 2x FP16 packed math meer. Die draaien FSR2 noodgedwongen in de FP32 fall back layer.

Vervolgens doen ARC haar XMX engines, RDNA3 WMMA en de twee Turing tensor cores met SIMD32 allen 128x INT8 per clock (256 met FMA). Ampere en Ada hebben een tensor core per SIMD32 met dezelfde 128x INT8 (256 met FMA) als twee Turing tensor cores.

Intel zou de XMX versie van XeSS beschikbaar kunnen maken voor RDNA3 en Turing/Ampere/Ada. Dat ze het niet doen is, vermoed ik, omdat Intel graag dat voordeel over AMD wil behouden alsmede een forse lijst aan andere software zaken moet aanpakken. Helaas want XeSS lijkt soms beter te zijn dan FSR2 en de openstelling aan RDNA3 zou ook verbeteringen voor FSR2 kunnen afdwingen.

De andere kant op is dat nu AMD hun eigen frame generation heeft en er komt ook een FSR2 native resolution AA mode. Gezien het langzame uitsterven van MSAA en de vaak slechte TAA, is dat zeker welkom als standaard optie. Zeker als je ook de FSR2 sharpening slider geïmplementeerd krijgt. :)

Ze kunnen daar nu wel eens de focus gaan leggen op FSR2 verbeteren met matrix hardware ondersteuning. Immers ondersteunt RDNA3 ook 128x FP16 (256 FMA) in matrix mode. Intel haar XMX engine doet daar 64 (128 FMA). Turing haar twee tensor cores doen elk 32x FP16 (64 FMA) Totaal is dus 64x FP16 (128 FMA). Ampere en Ada doen ook 128x FP16 (256 FMA) met de enkele tensor core. In theorie zou AMD het kunnen spelen dat ze een open source "FSR2 AI quality" maken die meer rekenkracht tot haar beschikking heeft met RDNA3 dan ARC of Turing. Ampere en Ada trekken dat gelijk. Of die mode komt alleen voor RDNA3 zoals Intel het met XeSS heeft gedaan. In dat geval zou met name Nvidia zwaar benadeeld worden. Immers doen Turing, Ampere en Ada elk maar 32x FP16 (64 met FMA) per clock.

Probleem daar is alleen dat ze comptabiliteit met RDNA1 en RDNA2 opgeven of een fall back moeten maken met shader based FP16, waarmee je voor de extra kwaliteit, minder frame rate verbetering haalt uit de upscaling omdat er meer workload op de ALU's valt. Een dergelijke fall back zou ook redelijk moeten werken op ARC. Op Nvidia niet. Een potentieel cynisch argument voor AMD om het zo te doen en dan echt proberen DLSS2 in de hoek te drukken met een kwalitatief hoogwaardigere FSR2. Want dat algoritme lijkt echt niet slecht te zijn. Maar een verdubbeling van rekenkracht zou denk ik niet mis staan. Dat is dan alleen voornamelijk wel voor RDNA3. Intel en Nvidia

Want inhakend op de discussie hiervoor. Nvidia open sourced echt bijna niks. Nvidia geeft überhaupt zelden toegang tot hun tech aan derden. DLSS2 zie ik niet beschikbaar komen voor AMD of Intel. Het is inmiddels tot het niveau dat DLSS2 game ondersteuning, vrij standaard word vermeld in Nvidia haar kwartaalcijfers. Het is allang geen extra meer. Het is een vitaal onderdeel van hun marketingstrategie. Dat gaan ze niet opgeven. En dat zou het ook juist zo relevant voor zowel Intel als AMD moeten maken om het te doorbreken.
Als voor of AMD wel en niet dlss tegenhoudt, tja we zullen het nooit zeker weten. Mensen die het wel weten zitten aan een NDA en mensen die niet onder NDA vallen hebben baat bij om AMD in goed licht te zetten. Zelf heb ik een Nvidia kaart en ik vind het jammer dat ik straks Starfield zonder dlss. Maar weet je ik heb de beelden gezien en fsr lijkt goed genoeg te werken. Mijn gok is dat ze dat bij Bethesda ook dachten. Waarom nog dlss implementeren als fsr ook werkt.
Er is al een DLSS2 mod. :P
Ja de ene is snel te implementeren als je de andere techniek al hebt. Maar implementatie is maar een klein deel van de puzzel. Alles moet getest worden op verschillende hardware en de ui eromheen moet ook goed werken, iets wat andere graphics ontwikkelaars ook lijken te steunen. Als dat zo makkelijk is, waarom had Cyberpunk bij release dan een bug dat zo maar fsr aan zette? Iets wat zelfs per ongeluk in sommige charts bij benchmarks ingesneakd was. Of toen FG geïntroduceerd was kon je het aanzetten op een systeem met een AMD videokaart. En Cyberpunk is niet de enige spel, ik heb ook spellen voorbij zien komen die er met dlss slechter uit zagen dan met fsr omdat ze vergeten waren de motion vectors mee te leveren, of omdat de mipmap bias niet goed ingesteld was. Ik vind het dus niet erg dat sommige spellen alleen maar met fsr komen, zolang de implementatie maar goed is. Dat is altijd beter dan een buggy implementatie van dlss.
Dit ja. :Y
DLSS2 is in principe de beste nu. Dat komt waarschijnlijk vooral omdat Nvidia er al langer mee bezig is en het alleen laat draaien op zeer specifieke hardware. Er is voor DLSS2 gewoon een beduidend hogere minimale hardware standaard. Maar nog steeds hebben veel gamers die hardware niet.

FSR2 is vooralsnog het beste antwoord, maar lijkt ook wel te vragen om een goed aangepaste implementatie. Dan is er ook nog XeSS. Daarmee loop je altijd het risico dat niet elke upscaler even goed geïmplementeerd is. Het liefst heb ik er ook maar een. Of het XeSS of FSR2 is, kan me weinig schelen. Ideaal gezien worden beiden ook voorzien van bredere en meer capabele hardware ondersteuning zodat je niet echt de situatie krijgt dat je het "juiste merk" videokaart moet hebben voor de beste ervaring. Dat staat me namelijk tegen aan hoe XeSS nu is. Zoals ik hierboven al zei. AMD kan dit ook doen. Ik hoop van niet, maar ik vermoed dat dit ook gaat komen waarbij Turing, RDNA1-2 en ARC met minder capabele hardware zitten.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Sf draaid echt als dikke stront in een trechter. 200 fps naar 50 fps op 4k met rtx 4090 en een 7800x3d terwijl er niks gebeurd. Eerst maar de paches afwachten om de gpu prestaties serieus te nemen. Zware games met RT doen het beter.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Er is ook niet zoveel reden om te haasten met een single player spel als Starfield. Zeker omdat het een Bethesda-spel is, dus de mods gaan vast flink wat meerwaarde bieden, maar die zijn toch niet a la minuut klaar.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Sissors schreef op zondag 3 september 2023 @ 14:49:
[...]

Maar Nvidia kan het doen, omdat ze stelselmatig voorlopen met zulk soort software opties. Dat AMD dan met een open standaard komt, is op zijn minst gedeeltelijk omdat ze wel een voordeel moeten bieden tov wat Nvidia heeft.
In sommige gevallen is Nvidia eerder, maar er is gewoon een filosofisch verschil in de aanpak van dit soort dingen tussen de bedrijven. Zelfs toen AMD/ATI de overhand had, deden zij niet dit soort dingen en Intel doorgaans ook niet. En dat heeft weer te maken met het feit dat die bedrijven (Intel, AMD en toentertijd ATI, maar ook bijvoorbeeld Matrox, Cirrus, Apple, enzovoort) uit een tijd stammen dat er veel meer concurrentie was en niemand zo'n overmacht kon krijgen; hooguit IBM zou je dat toe kunnen schrijven, maar zelfs dat was niet vergelijkbaar omdat er toen ook wat losser om werd gegaan met reverse engineering en dergelijke (godzijdank :P). Je zou zoiets er gewoon nooit op continentale schaal doorgedrukt krijgen, laat staan wereldwijd.

Er zijn tal van voorbeelden waar je dit kunt zien (Mantle/Vulkan/D3D12 heb ik al genoemd), mijn favoriete voorbeeld daarvan is echter tessellation. Het idee van tessellation bestaat al heel lang. AMD (of toen, ATI) kan dat al in hardware sinds 2001 - alles vanaf de 8500 en nieuwer heeft een vorm van tessellation in hardware (ook Xenos in de Xbox); TruForm noemden ze dat. Het had in 2007 als vereiste in D3D10 moeten komen, maar Nvidia was er nog niet klaar voor, dus het kwam pas in 2008 in D3D11 (eigenlijk SM 5.0). De units in de oudere GPU's waren helaas niet compatible met die spec (vooral vanwege de pipeline structuur), maar functioneel deed het hetzelfde. In de paar games/engines die de extensies wel ondersteunden, werkte het wel goed en kostte het nagenoeg geen performance. Dat kwam doordat het ook met weinig input werkte en pipelines toen heel anders in elkaar zaten; nadeel was dat het soms wel rare dingen deed (werkte bijvoorbeeld voor geen meter met de wapen models in CS 1.x :P), juist vanwege het gebrek aan input.

Afbeeldingslocatie: https://i0.wp.com/wololo.net/wagic/wp-content/uploads/2013/05/truform.jpg

In die tijd had ATI dat er makkelijk door kunnen drukken bij devs in die periode, maar zo werkte het bedrijf simpelweg niet - en dat is met de overname niet veranderd. Als business model is Nvidia's aanpak beter als je het succesvol uitvoert, maar voor ons als consument is die aanpak juist ruk. De consument heeft 0,0 baat bij Nvidia's aanpak, want features worden op die manier op een subset van hardware ondersteund en lopen zo het risico niet gebruikt te worden en een stille dood te sterven.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 10:16
Werelds schreef op zondag 3 september 2023 @ 10:50:
[...]

Dat hebben ze wel gedaan. Zie hier.
Het probleem daar is dat het onder andere Frank Azor is, een bewezen fantast met een historie van zaken die op zijn best marketing blunders genoemd kunnen worden en / of minachting voor de klant. AMD had, willen ze in deze geloofwaardig overkomen, het best een andere C-Suite executive uit de kast kunnen trekken voor die statement :+

Persoonlijk had ik graag gezien dat AMD deze man nooit had aangenomen, en nu hoop ik dat ze z.s.m afscheid nemen na de PR debacles de afgelopen jaren van deze man, vooral op Twitter. Denk bijvoorbeeld aan dit 'gedoe' op Twitter destijds over launch volumes.. https://wccftech.com/amd-...000-graphics-card-volume/

Daarnaast, wordt er zelfs tijdens het gesprek om de hete brij heen gedraaid door Frank, zoals de journalist opmerkt tijdens de inleiding van het artikel.
AMD gaming chief Frank Azor is trying to thread a needle. He seemingly wants to say that AMD did not actually make Starfield, quite possibly the year’s biggest PC game, exclusively support AMD’s FSR upscaling technology at the expense of competitors like Nvidia DLSS.

But he clearly can’t. Azor says he can’t say what the contract includes. Instead, he repeatedly lands on this: “If they want to do DLSS, they have AMD’s full support.” He says there’s nothing blocking Bethesda from adding it to the game.
Maar wat mij als AMD aandeelhouder nog het meest irriteert, waarom nu na bijna 2 maand oid zo'n halfslachtige statement bij The Verge (al is het iets minder halfslachtig dan de statement in juni). Waarom niet kort maar krachtig destijds de waarheid vertellen toen HUB, GN, WCCFTech e.d. daar mee bezig waren terwijl Nvidia dat wel deed. Ik snap dat dus niet, tenzij ze destijds de waarheid niet kort maar krachtig konden vertellen omdat er toch 'iets' speelde. Wat dat iets dan ook exact was.

Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09-09 13:52
Dennism schreef op maandag 4 september 2023 @ 13:05:
[...]


Het probleem daar is dat het onder andere Frank Azor is, een bewezen fantast met een historie van zaken die op zijn best marketing blunders genoemd kunnen worden en / of minachting voor de klant. AMD had, willen ze in deze geloofwaardig overkomen, het best een andere C-Suite executive uit de kast kunnen trekken voor die statement :+

Persoonlijk had ik graag gezien dat AMD deze man nooit had aangenomen, en nu hoop ik dat ze z.s.m afscheid nemen na de PR debacles de afgelopen jaren van deze man, vooral op Twitter. Denk bijvoorbeeld aan dit 'gedoe' op Twitter destijds over launch volumes.. https://wccftech.com/amd-...000-graphics-card-volume/

Daarnaast, wordt er zelfs tijdens het gesprek om de hete brij heen gedraaid door Frank, zoals de journalist opmerkt tijdens de inleiding van het artikel.


[...]


Maar wat mij als AMD aandeelhouder nog het meest irriteert, waarom nu na bijna 2 maand oid zo'n halfslachtige statement bij The Verge (al is het iets minder halfslachtig dan de statement in juni). Waarom niet kort maar krachtig destijds de waarheid vertellen toen HUB, GN, WCCFTech e.d. daar mee bezig waren terwijl Nvidia dat wel deed. Ik snap dat dus niet, tenzij ze destijds de waarheid niet kort maar krachtig konden vertellen omdat er toch 'iets' speelde. Wat dat iets dan ook exact was.
Dan heb je ook nog deze tweet (ondertussen verwijderd):
John Linneman (Digital Foundry) "What I can say, because it was on DF Direct, is that I've personally spoken with three devs that implemented DLSS pre-release and had to remove it due to sponsorship."
https://www.reddit.com/r/...al_foundry_what_i_can_say

Hij verduidelijkt wel dat hij geen weet heeft van Starfield en dat dit niet één van de devs was die hij heeft gesproken:

https://twitter.com/dark1x/status/1698394695922000246

Nogal wat rook eerlijk gezegd.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Dennism

De verklaring die het best past bij de communicatie is dat AMD wel degelijk beperkingen had in (sommige) van hun contracten, maar dat ze dit na de ophef aangepast hebben.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
@Dennism mja dat is wel waar, Azor is wellicht niet de handigste bron.

@napata tegelijkertijd is dat DigitalFoundry, wat ook weer tegen die claims spreekt aangezien zij behoorlijk groen zijn.

Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Ludewig schreef op woensdag 6 september 2023 @ 15:48:
Ik denk dat de AI-boom ervoor zorgt dat deze bedrijven minder ontwikkelcapaciteit alloceren aan de grafische kant (naar verluid heeft Nvidia al behoorlijk wat ontwikkelaars van het driver-team verplaatst naar de AI-teams) en dat de prijzen relatief hoog blijven.
Is dit vanuit Nvidia zelf gezegd of gewoon een aanname?

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
3DEXP schreef op woensdag 6 september 2023 @ 17:12:
[...]
Is dit vanuit Nvidia zelf gezegd of gewoon een aanname?
Volgens MLID is dat door een lekker binnen Nvidia aan hem verteld als verklaring waarom Starfield nu zo matig draait op Nvidia kaarten.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Ludewig schreef op woensdag 6 september 2023 @ 18:50:
[...]


Volgens MLID is dat door een lekker binnen Nvidia aan hem verteld als verklaring waarom Starfield nu zo matig draait op Nvidia kaarten.
Dan weet ik genoeg. Kan er niks mee.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 10:16
Ludewig schreef op woensdag 6 september 2023 @ 18:50:
[...]


Volgens MLID is dat door een lekker binnen Nvidia aan hem verteld als verklaring waarom Starfield nu zo matig draait op Nvidia kaarten.
Zolang zaken 'geleaked' door MLID niet door anderen onafhankelijk bevestigd worden zal er vanwege zijn trackrecord altijd vermoed ik wel een zweem van onbetrouwbaarheid aan blijven hangen.

Die heeft voor velen in het verleden iets teveel met hagel geschoten en wat te vaak zaken verwijderd om nog direct het voordeel van de twijfel te krijgen.

Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Ik kijk ook kritisch naar wat MLID meldt. Dergelijke leaks zijn meer om in je achterhoofd te houden. Als spellen relatief slecht presteren op Nvidia kaarten moeten we bijvoorbeeld oppassen om dan meteen de ontwikkelaars te verwijten dat ze slecht optimaliseren. Het kan ook zijn dat Nvidia slechter gaat optimaliseren.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Nu weet ik ook waarom de Nvidia kaarten minder goed presteren in Starfield. De drivers zijn nog niet optimaal voor Starfield en daar word nu aan gewerkt. Met de nieuwe driver van 2 dagen geleden is R-bar alvast toegevoegd en gam3 heeft een update gehad maar het is niet duidelijk of daar ook al performance optimalisaties in zitten. Maar goed dat helpt allemaal nog niet echt tegen de CPU bottlenek op 4k in bepaalde gebieden waar de FPS het laagste is. Ik haal nu wel wat hogere FPS gemiddeld, met FSR op 100% gemiddeld zo'n 70-80 fps. Wat dat betreft kloppen de oude benchmarks ook niet meer. Met Starfield kun je ook niet bepalen welke GPU sneller is want in gebied A is Nvidia sneller en in gebied B is AMD weer sneller met vergelijkbare kaarten terwijl er honderden verschillende gebieden zijn.

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver

March of the Eagles


Acties:
  • +1 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
DLSS 3.5. Ray reconstruction review. Better than native.

https://www.techpowerup.c...ss-35-ray-reconstruction/

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 08:49

CMT

Bedankt voor de link :).

Ik heb de plaatjes vergeleken, maar beter dan native is erg wensvol of ze hebben een MyFi definitie van wat beter is. Er zijn bepaalde objecten die er 'beter' uitzien, maar dat kan ook vanwege een soort sharpening effect komen/inkleuren van 'schaduw'. Globaal gezien redelijk wat detail verlies, dat vooral te zien is aan de textures, diepte van de schaduw, bomen die op een redelijke afstand staan etc.

Kijk maar eens hoe dramatisch de laatste afbeelding is, waarbij het detail van de marmeren vloer bijna helemaal verloren gaat. Het blijft een upscale poetsmiddel mensen en zal globaal niet beter zijn dan Native.
En nooit beter dan Native + DLAA.

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Er lijkt op de laatste afbeelding wat faal maar objecten en teksten zijn scherper. Native lijkt minder detail te hebben en DLSS 3.5 maakt het allemaal wat faal. Ik wil het zelf ook wel zien tijdens get gamen maar ik heb niks met CP 2077 dus dat word hem pas als Alan Wake 2 uit is.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Rare conclussie van TPU want soms zijn de reflecties inderdaad scherper, in andere screenshots is zoveel detail verloren vergeleken met native en normale DLSS dat je niks meer ziet; bijvoorbeeld:
In het tweede plaatje verdwijnt ineens links een lamp in de container die op native en met normale DLSS wel aanwezig zijn.
In het laatste plaatje is de hele reflectie rechtsonder raar en zijn alle details van de tegels weg. Het ziet er echt niet uit imho.

Dit is wat ik heb gevonden door snel even te kijken, dus er zullen vast nog wel meer dingen zijn die raar zijn. Het idee is leuk, maar het is er nog lang niet naar mijn mening eerder een DLSS 1.* waar het pas goed werd met 2.*; misschien dat het over een jaar wat is.

Ik zou het zelf niet aanzetten gezien de geringe performance winst en de nogal afwijkende resultaten.

Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Het witte spul wat verdwijnt zijn artifect, die komen en gaan met DLSS of met native. Ik Zelf zou kiezen voor DLSSQ+FG vanwege de fps winst en het mooiere totaalplaatje. Mijn mening is ook dat native slechter is in dit geval maar dat zal waarschijnlijk door TAA komen wat een gedrocht is.

Acties:
  • +3 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 10:13
Sp3ci3s8472 schreef op vrijdag 22 september 2023 @ 01:19:
[...]


Rare conclussie van TPU want soms zijn de reflecties inderdaad scherper, in andere screenshots is zoveel detail verloren vergeleken met native en normale DLSS dat je niks meer ziet; bijvoorbeeld:
In het tweede plaatje verdwijnt ineens links een lamp in de container die op native en met normale DLSS wel aanwezig zijn.
In het laatste plaatje is de hele reflectie rechtsonder raar en zijn alle details van de tegels weg. Het ziet er echt niet uit imho.

Dit is wat ik heb gevonden door snel even te kijken, dus er zullen vast nog wel meer dingen zijn die raar zijn. Het idee is leuk, maar het is er nog lang niet naar mijn mening eerder een DLSS 1.* waar het pas goed werd met 2.*; misschien dat het over een jaar wat is.

Ik zou het zelf niet aanzetten gezien de geringe performance winst en de nogal afwijkende resultaten.
Hmm, dit soort dingen lijken mij meer bugs in de game/engine dan inherent aan ray reconstruction. Bij gamers nexus hebben ze het ook getest en ze zeiden ook dat er veel bugs waren. Vooral als men settings ging veranderen, dan moest je soms het spel restarten voordat de nieuwe settings enig effect hadden. Het verbaast me ook niet echt, eerdere versies van Cyberpunk hadden er ook last van (bijvoorbeeld dat je dlss kon aanzetten met een amd kaart). Cyberpunk heeft nu zowel een rasterized, ray-tracing en een path tracing rendering path en met ray reconstruction aan en uit en dit is los van alle andere instellingen die je kan tweaken. Elke path verreist een ander volgorde van rendering. Soms worden zelfs andere modellen en textures gebruikt (als je bijvoorbeeld geen ssr or ray traced reflections hebt ga je over naar een material met een environment map en zo zijn er veel andere voorbeelden). Het kan best wel zijn dat men hier en daar een verkeerde combinatie van assets heeft gebruikt en men dat over het hoofd heeft gezien of geen tijd had om te fixen voor de release. Zelf werk ik veel met Unreal Engine, dat is ook zo'n engine die alles moet kunnen en daar zie je ook dat niet elke rendering feature goed werkt bij alle combinatie van settings.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 08:49

CMT

@PjotrX
Maar als settings niet werden toegepast dan moet dat gelijk zichtbaar zijn in de vergelijking.
Tot nu toe heb ik duidelijke verschillen gezien tussen Native, DLSS en DLSS+RR.
Kan het niet gewoon zijn dat de denoiser veel te aggressief is i.c.m. RR?
TPU geeft verder zelf ook aan dat er veel gedoe is met settings, dus ze zijn op de hoogte van de quirks en 'bugs'.

Voor de conclusie veranderd er echter niets. Wanneer de afbeeldingen met elkaar vergeleken worden is de statement die TPU maakt is gewoon onwaar. Ik zou haast denken dat de titel clickbait is of dat ze op de DLSS bandwagon gesprongen zijn.

Maar RR schijnt ook een flinke beperking te hebben op dit moment:
Unfortunately Ray Reconstruction is not supported with DLAA or rendering at native resolution. NVIDIA confirmed that they will be training RR for DLAA in the future. What's even more problematic in my opinion is that right now, Ray Reconstruction only works with Path Tracing enabled. This limits the technology to very few gamers—basically those with RTX 4080 or RTX 4090. Everybody else will be playing with classic ray tracing, or even RT disabled. From a technology perspective, nothing stops Ray Reconstruction from working with classic Ray Tracing effects.
Wat bij mij de vraag oproept waarom het niet op Native werkt als RR de denoiser alleen 'intelligenter' maakt met patroon herkenning?
Pagina: 1 ... 131 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.