When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ja jij wil tunen, want je bent een tweaker.Ludewig schreef op zaterdag 22 juli 2023 @ 10:03:
Wanneer ik aan het tunen ben heb ik juist liever FPS-problemen dan dat het spel stiekem de kwaliteit gaat verlagen, op manieren die wellicht niet optimaal zijn.
Het zou inderdaad een goed idee zijn als er een schuifje was om dynamische frutselarij uit te zetten zodat eerlijke vergelijkingen mogelijk zijn. En valsspelen, tja. Voor benchmarks wel, maar je zult in de handleiding van je spel tevergeefs zoeken naar de "spelregels" van wat de instellingen precies doen, zodat je je moeilijk kunt beroepen op misleiding.Spelmakers zou ook gewoon een optie kunnen bieden om dit aan of uit te zetten. Zolang ze dat niet doen zijn ze eigenlijk aan het vals spelen, waarbij ze niet de settings gebruiken die je gekozen hebt.
Wat zeg ik, spellen hebben al heel lang geen handleidingen meer.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Ik heb nog fantastische handleidingen van bijvoorbeeld flight sims uit het verleden, wat eigenlijk gewoon een studieboek was van hoe je moest vliegen en dogfighten. Tegenwoordig is het wat dat betreft wel treurig.MneoreJ schreef op zaterdag 22 juli 2023 @ 10:15:
[...]
Wat zeg ik, spellen hebben al heel lang geen handleidingen meer.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Precies, standaard staat het aan en de echte tweakers kunnen het spel tunen naar wat ze willen. Dit zou ook vooral goed zijn voor reviewers, het wordt hun dan een stuk makkelijker gemaakt.Ludewig schreef op zaterdag 22 juli 2023 @ 10:03:
[...]
Wanneer ik aan het tunen ben heb ik juist liever FPS-problemen dan dat het spel stiekem de kwaliteit gaat verlagen, op manieren die wellicht niet optimaal zijn.
Spelmakers zou ook gewoon een optie kunnen bieden om dit aan of uit te zetten. Zolang ze dat niet doen zijn ze eigenlijk aan het vals spelen, waarbij ze niet de settings gebruiken die je gekozen hebt.
Een van de comments op youtube somde de 4060 Ti goed op:
Een 60 kaart bij naam, met 50 klasse performance en 70 klasse prijs.
Ik vrees dat dit wel klopt. Ik had met best verheugd op de 4060 TI met 16 GB geheugen als vervanging van mijn RTX 3060. Maar nu heb ik zoiets van laat maar zitten, ik hou mijn videokaart gewoon.Sp3ci3s8472 schreef op zaterdag 22 juli 2023 @ 15:05:
[...]
Precies, standaard staat het aan en de echte tweakers kunnen het spel tunen naar wat ze willen. Dit zou ook vooral goed zijn voor reviewers, het wordt hun dan een stuk makkelijker gemaakt.
Een van de comments op youtube somde de 4060 Ti goed op:
Een 60 kaart bij naam, met 50 klasse performance en 70 klasse prijs.
Als er 1 generatie is om over te slaan, als je al een 3000-kaart hebt, dan is het de 4000-serie wel. De enige uitzondering is de kopers in het topsegment (4090).ruftman schreef op zondag 23 juli 2023 @ 01:13:
[...]
Ik vrees dat dit wel klopt. Ik had met best verheugd op de 4060 TI met 16 GB geheugen als vervanging van mijn RTX 3060. Maar nu heb ik zoiets van laat maar zitten, ik hou mijn videokaart gewoon.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
https://videocardz.com/ne...eature-512-bit-memory-bus
Dat laatste is voor mij geen verrassing, want alle goede AD-102 chips kunnen ze met gigantische marges verkopen voor AI. Er is totaal geen reden om die chips aan gamers te verkopen.
De 512-bit bus is op zich niet zo vreemd aangezien de top-chip eigenlijk ontworpen is voor professionele toepassingen. Aangezien de AI-modellen steeds groter worden, is het geheugen vermoedelijk steeds meer een probleem. Zodra het AI-model niet meer in het geheugen past storten de prestaties totaal in. De huidige A6000 verkopen ze met een 48 GB clamshell en bij een 512-bits bus kunnen ze een 64 GB clamshell gaan verkopen.
Het potentieel goede nieuws is dan dat dit vermoedelijk betekent dat alle kaarten (weer) een grotere bus krijgen en daarmee ook meer geheugen.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason

[ Voor 73% gewijzigd door Help!!!! op 27-07-2023 18:05 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Welke features heeft Relive die Shadowplay niet heeft, ik ben erg benieuwd? Ik heb zelf overigens geen last van flikkeren. Bedoel je het probleem waar jaren terug ook al een een firmware tool voor was voor was voor DP 1.3 en DP 1.4 ondersteuning met nieuwe monitoren?DaniëlWW2 schreef op donderdag 27 juli 2023 @ 20:54:
Komt er ook nog eens bij dat ReLive al een tijdje echt niet slechter is dan Shadowplay. Je moet alleen je bitrate iets hoger zetten voor encoding, maar je hebt meer features. Idem voor AV1. Verder heeft Nvidia juist behoorlijk wat problemen met flikkerende schermen met Ada en AMD doet het veel beter.
Jaren terug? Een maand geleden, bedoel je. Of de tool voor Ampere 2 jaar geleden. Meer is er nooit geweest. DP is bij Nvidia al sinds 2013 buggy (3 verschillende monitors op 4 verschillende Nvidia GPU's, met meerdere kabels). Ze waren laat met DP en hebben het nooit fatsoenlijk geïmplementeerd. Lijkt er op dat ze dat nu pas hebben gedaan. Nvidia en monitors is sowieso altijd een probleem geweest (DVI-I DL gaf 15 jaar geleden problemen; DVI-I SL en DVI-D SL+DL werkten zonder problemen; eerste HDMI implementaties hadden soortgelijke problemen dankzij hun non-standaard implementatie op GT200). En breek me de bek niet open over multi-monitor bij Nvidia3DEXP schreef op donderdag 27 juli 2023 @ 22:43:
[...]
Welke features heeft Relive die Shadowplay niet heeft, ik ben erg benieuwd? Ik heb zelf overigens geen last van flikkeren. Bedoel je het probleem waar jaren terug ook al een een firmware tool voor was voor was voor DP 1.3 en DP 1.4 ondersteuning met nieuwe monitoren?
Met ADA is het probleem geloof ik opgelost want de update van een paar weken of maanden terug is voor oudere series. Storm in een glas water.Werelds schreef op vrijdag 28 juli 2023 @ 10:44:
[...]
Jaren terug? Een maand geleden, bedoel je. Of de tool voor Ampere 2 jaar geleden. Meer is er nooit geweest. DP is bij Nvidia al sinds 2013 buggy (3 verschillende monitors op 4 verschillende Nvidia GPU's, met meerdere kabels). Ze waren laat met DP en hebben het nooit fatsoenlijk geïmplementeerd. Lijkt er op dat ze dat nu pas hebben gedaan. Nvidia en monitors is sowieso altijd een probleem geweest (DVI-I DL gaf 15 jaar geleden problemen; DVI-I SL en DVI-D SL+DL werkten zonder problemen; eerste HDMI implementaties hadden soortgelijke problemen dankzij hun non-standaard implementatie op GT200). En breek me de bek niet open over multi-monitor bij Nvidia
Weet je dat zeker? Ik zat namelijk laatst iets van LTT, Gamers Nexus of HU te kijken (weet niet welke het meer was) en die zaten te zeuren hoe vaak ze last hadden van flickering met Nvidia kaarten ivm DP.3DEXP schreef op vrijdag 28 juli 2023 @ 14:38:
[...]
Met ADA is het probleem geloof ik opgelost want de update van een paar weken of maanden terug is voor oudere series. Storm in een glas water.
Het kan zijn dat de situatie verbeterd is met kaarten voor ouder dan ADA, maar ze hadden het specifiek over problemen met ADA.
Zelf gebruik ik het niet, maar voor realtime low latency encoding voor VR van wat ik begrepen heb is Nvidia gewoon de standaard, en AMD lijkt wel dichterbij te komen, maar er niet te zijn. Sowieso nogal wisselvallig bij VR hoe AMD het doet.
Dat staat in de beschrijving.Sp3ci3s8472 schreef op vrijdag 28 juli 2023 @ 16:41:
[...]
Weet je dat zeker? Ik zat namelijk laatst iets van LTT, Gamers Nexus of HU te kijken (weet niet welke het meer was) en die zaten te zeuren hoe vaak ze last hadden van flickering met Nvidia kaarten ivm DP.
Het kan zijn dat de situatie verbeterd is met kaarten voor ouder dan ADA, maar ze hadden het specifiek over problemen met ADA.
https://www.nvidia.com/en-us/drivers/nv-uefi-update-x64/
Als ik mijn ADA wil updaten staat er ook dat ik de laatste firmware heb. Ik heb alleen de GTX 1080 Ti moeten updaten omdat er geen ondersteuning was voor DP1.4. Met Ampere had ik ook geen flicker problemen daarom denk ik dat het sporadisch voorkomt. Een probleem blijft een probleem ik ga dat ook niet ontkennen.
Als ik overigens zoek op "reddit nvidia displayport flicker" dan komt er genoeg voorbij. Reddit toegevoegd als extra term gezien google en engines die google gebruiken de laatste paar jaar steeds slechter wordt....
Nee, de basis werkt over het algemeen wel. Maar doe iets dat verder dan simpel beeld + geluid op een enkel scherm gaat en je gaat gekke dingen zien. Multi monitor (zoals @Sp3ci3s8472 suggereert, iets waar ik pas pakweg een jaar vanaf ben gestapt, na bijna 20 jaarSissors schreef op vrijdag 28 juli 2023 @ 17:03:
Jullie bedoelen met DP toch DisplayPort? Want als inderdaad Nvidia het nog nooit goed geimplementeerd heeft, en het bij een significant gedeelte van de gebruikers flikkert, dan zou het hele internet overstromen met klachten over Nvidia en niemand ze meer kopen. Displayport is de standaard voor heel wat jaren al om je monitor te verbinden. Als dat grootschalig niet werkt dan zouden er heel veel meer klachten over zijn.
Het is niet voor niets dat Nvidia hun DP implementatie pas met Kepler (2012 dus) mainstream maakten, ook al had zelfs Tesla (2007 of 2008 met de refresh) al kaarten met DP. Begrijp me niet verkeerd, ik zeg niet dat Nvidia giga veel problemen heeft met monitors of DP, maar de problemen bestaan wel en bestaan ook al heel lang én zijn te reproduceren. 90+% van de gebruikers zal er nooit tegen aan lopen omdat ze op een enkele 1080p60 monitor zitten via HDMI.
Bovenstaande zijn allemaal dingen waar ik met AMD nooit last van heb gehad. Nu heb ik niet veel AMD GPU's gehad. 5870, 6950 en daarna Nvidia tot m'n 6650 XT nu, dus ik weet niet hoe het in de tussentijd is geweest, maar met die eerste twee heb ik er toen zelfs 3 monitors aan gehangen om Eyefinity te proberen en dat werkte zonder problemen. 2 van die 3 monitors zijn tot vorig jaar ook in gebruik geweest
Overigens zou DP inderdaad dé standaard moeten zijn (technisch superieur op alle vlakken en royalty-free - het enige dat "mist" is CEC...), maar het is pas relatief recent (+- 5 jaar hooguit?) dat je het écht op veel monitors ziet en zelfs dan zijn er nog steeds high-end monitors die enkel met HDMI geleverd worden. Zie bijvoorbeeld de Neo G8 (non-OLED): 2xHDMI 2.1, that's it. Vreemd genoeg is het hopen op meer type-C waar mensen nu aan beginnen te wennen. Vooralsnog is HDMI nog steeds dé standaard en dat zal buiten monitors helaas ook nog lang zo blijven, dankzij de mafia daarachter (waar Samsung overigens bij hoort
Dat is niet (enige) de onderscheidende eigenschap. Ik gebruik al jaren een 240Hz 1440p scherm verbonden via DP, en een 120Hz 4k (TV) scherm verbonden via HDMI, eerder via een gtx1080ti en nu een rtx3090, en nooit problemen met DP. Had alleen zo nu en dan wat problemen met initialiseren HDMI totdat de TV een software update voor betere HDCP kreeg. Vriendin heeft een 144Hz 1440p scherm via DP en een 60Hz 1080p scherm via HDMI op een gtx1080ti, ook nooit problemen mee.Werelds schreef op zaterdag 29 juli 2023 @ 09:28:
[...]
90+% van de gebruikers zal er nooit tegen aan lopen omdat ze op een enkele 1080p60 monitor zitten via HDMI.
Geloof gerust dat er in bepaalde gevallen het wel voorkomt, maar als ik de persoon boven mij zie reageren, lijkt het in specifieke gevallen te zijn en niet een standaard probleem. Wel vervelend voor de mensen die het wel ervaren/ervaren hebben.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Het interessante hier:
- Geen GDDR7X voor nVidia, gewoon GDDR7.
- VRAM configuraties mogelijk van 12, 18, 24 en 36GB ipv 8, 12, 16 en 24GB, met de huidige board ontwerpen.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Als ik kijk naar de situaties waar bij Nvidia wegzetten is dat anders, vrijwel alles is Intel (en nu ook AMD) want iGPU en Nvidia zetten wij eigenlijk alleen weg in (zware) workstation configuraties.Werelds schreef op zaterdag 29 juli 2023 @ 09:28:
Het is niet voor niets dat Nvidia hun DP implementatie pas met Kepler (2012 dus) mainstream maakten, ook al had zelfs Tesla (2007 of 2008 met de refresh) al kaarten met DP. Begrijp me niet verkeerd, ik zeg niet dat Nvidia giga veel problemen heeft met monitors of DP, maar de problemen bestaan wel en bestaan ook al heel lang én zijn te reproduceren. 90+% van de gebruikers zal er nooit tegen aan lopen omdat ze op een enkele 1080p60 monitor zitten via HDMI.
Dat zijn vrijwel allemaal multimonitor opstellingen, maar ook daar zijn de issues op een hand te tellen. Wat ook moet, want zeker bij dit soort systemen zou het simpelweg niet acceptabel zijn als een gebruiker veel tijd kwijt zou zijn aan troubleshooting of het uitvoeren van noodgrepen die de productiviteit verminderen.
GDDR7X bestaat ook (nog) helemaal niet, dus dat is logisch.sunsmountain schreef op dinsdag 1 augustus 2023 @ 09:41:
[...]
Het interessante hier:
[list]
• Geen GDDR7X voor nVidia, gewoon GDDR7.
Bij GDDR7 is er ook bewust voor gekozen om PAM3 encoding te gebruiken, dus anderhalf bits per clock, ipv PAM4 zoals bij GDDR6X.
Het idee is dat dit een stuk goedkoper en minder foutgevoelig is dan PAM4. Doordat je minder snel last hebt van ruis kun je vermoedelijk just hogere frequenties halen, wat er dan deels al voor compenseert dat je per clocktick minder data verstuurd. Sowieso lijkt GDDR6X nu minder dan anderhalf keer de snelheid te halen van GDDR6, dus de theoretische verdubbeling van PAM4 door 2 bits per clock ipv 1 bit wordt helemaal niet gehaald.
Meer info: https://www.anandtech.com...ddr7-36gbps-pam3-encoding
De 2080 Ti en 1080 Ti hadden 11 GB. Op zich maakt het ook totaal niet uit waar de grens precies ligt, zolang de data er maar in past.• VRAM configuraties mogelijk van 12, 18, 24 en 36GB ipv 8, 12, 16 en 24GB, met de huidige board ontwerpen.
[/list]
Daarbij klinken 18 en 36GB wat raar, maar kunnen prima.
Het goede nieuws is meteen het slechte nieuws. Ze kunnen dan flink wat geheugen koppelen aan een kleine bus. Dus misschien blijven we daardoor opgescheept met een 128 bit 5060 e.d.
[ Voor 6% gewijzigd door Ludewig op 01-08-2023 11:26 ]
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ook daar heb je het doorgaans over identieke schermen en waarschijnlijk niet op DPDennism schreef op dinsdag 1 augustus 2023 @ 11:22:
[...]
Als ik kijk naar de situaties waar bij Nvidia wegzetten is dat anders, vrijwel alles is Intel (en nu ook AMD) want iGPU en Nvidia zetten wij eigenlijk alleen weg in (zware) workstation configuraties.
Dat zijn vrijwel allemaal multimonitor opstellingen, maar ook daar zijn de issues op een hand te tellen. Wat ook moet, want zeker bij dit soort systemen zou het simpelweg niet acceptabel zijn als een gebruiker veel tijd kwijt zou zijn aan troubleshooting of het uitvoeren van noodgrepen die de productiviteit verminderen.
Ik denk dat je even goed naar de b's moet kijkensunsmountain schreef op dinsdag 1 augustus 2023 @ 09:41:
Het interessante hier:Daarbij klinken 18 en 36GB wat raar, maar kunnen prima.
- Geen GDDR7X voor nVidia, gewoon GDDR7.
- VRAM configuraties mogelijk van 12, 18, 24 en 36GB ipv 8, 12, 16 en 24GB, met de huidige board ontwerpen.
GDDR6 modules zijn nu beschikbaar in 16 Gb modules en GDDR7 wordt beschikbaar in 24 (en later 32) Gb modules. Punt daarbij is echter de kleine b: bits. 16 Gb = 2 GB, 24 Gb = 3 GB, 32 Gb = 4 GB.
Hoeveel geheugen je in totaal hebt heeft verder geen bal met die modules te maken, enkel met de geheugenbus. Een GDDR chip heeft een 32-bit interface, dus van 32 tot 512 bits kun je (zonder clamshelling) met 16 Gb modules tot 32 GB komen, waarbij elk veelvoud van 2 daar tussenin geldig is (omdat de modules 2 GB zijn).
Met 24 of 32 Gb modules is dat precies hetzelfde, echter heb je het dan over veelvouden van 3 of 4. 36 / 4 = 9 * 32 = 288-bits bus. Vreemd en onwaarschijnlijk, maar kan gewoon. 18 / 4 = 4,5 en gaat dus niet. Daarentegen is 18 / 2 = 9 * 32 = diezelfde 288-bits bus, maar dan zit je dus wel op 16 Gb modules, niet op 32 Gb. Maar dat kan nu dus ook al. En 36 kan nu ook al, met een 576-bits bus of clamshelling op 288. En met 24 Gb modules heb je het over 6 chips, dus een 192-bits bus
HBM is een heel ander verhaal.
Edit: die 11 GB van de 1080 Ti / 2080 Ti komt ook gewoon van de bus: 352-bit bus; 352 / 32 = 11 chips en de chips waren toen 8 Gb oftewel 1 GB dus dan kom je op 11 GB (of 22 met clamshell). De volledige controller op beide was 384-bit, dus 12/24 GB.
[ Voor 8% gewijzigd door Werelds op 01-08-2023 11:55 ]
Dat is juist (vrijwel) allemaal DP, schermen zijn uiteraard wel identiek in de meeste gevallen (al komt het bijvoorbeeld wel voor dat er 2 identieke schermen zijn en dan een 3de afwijkend in bijv. een portrait mode) juist HDMI wordt vrij weinig gebruikt zakelijk, dat is eigenlijk allemaal DP van het lagere segment tot de high end. Een boel van die systemen (HPE / Dell e.d.) hebben zelfs niet eens HDMI meer. 3 identieke Schermen is trouwens ook niet ongebruikelijk, allerlei combinaties zijn mogelijk.Werelds schreef op dinsdag 1 augustus 2023 @ 11:47:
[...]
Ook daar heb je het doorgaans over identieke schermen en waarschijnlijk niet op DP
Het enige waar ik HDMI eigenlijk nog regelmatig gebruikt zie worden is laptops. Maar ook dat gaat in sneltrein vaart naar USB-C of naar USB-C Docking stations, waar dan meerdere DP poorten op zitten. Het zou mij weinig verbazen als HDMI zakelijk straks vrijwel alleen nog voor incidentele connecties gebruikt wordt.
Maar ook in privé, zie ik mijn omgeving ook steeds minder HDMI gebruikt worden in combinatie met de PC. Ik gebruik het zelf al jaren niet meer (2x DP) voor heen met Nvidia en nu met AMD. Beide trouwens geen issues. Maar ook wanneer ik een systeem bouw voor mensen is dat de laatste jaren eigenlijk altijd geplaatst met (meerdere) DP in gebruik en niet HDMI.
[ Voor 43% gewijzigd door Dennism op 01-08-2023 12:05 ]
Ik hoop serieus dat er eens een goede vervanger van die opstelling komt, ik wil helemaal geen beeld naar mijn versterker sturen op mijn pc; een audio kaart die geen beeld nodig heeft voor HDMI naar een versterker zou ideaal zijn.
Dat is eigenlijk, naast laptops, het enige veel voorkomende scenario dat ik HDMI nog veel gebruikt zie worden, wanneer er een TV in het spel is, denk inderdaad aan HTPC, al wordt dat ook steeds minder met zaken als de shields e.d., en aan gamers die graag een 40"+ (LG) Oled als scherm willen gebruiken.Sp3ci3s8472 schreef op dinsdag 1 augustus 2023 @ 13:58:
Persoonlijk gebruik ik alleen nog HDMI voor mijn HTPC op de TV (want die hebben helaas nauwelijks DP) en voor een versterker aan mijn pc zodat ik 5.1+ audio heb.
Ik hoop serieus dat er eens een goede vervanger van die opstelling komt, ik wil helemaal geen beeld naar mijn versterker sturen op mijn pc; een audio kaart die geen beeld nodig heeft voor HDMI naar een versterker zou ideaal zijn.
Ja dat is precies het nieuws dat ik vertaal naar:Werelds schreef op dinsdag 1 augustus 2023 @ 11:47:
Ik denk dat je even goed naar de b's moet kijken
GDDR6 modules zijn nu beschikbaar in 16 Gb modules en GDDR7 wordt beschikbaar in 24 (en later 32) Gb modules. Punt daarbij is echter de kleine b: bits. 16 Gb = 2 GB, 24 Gb = 3 GB, 32 Gb = 4 GB.
12, 18, 24 en 36GB ipv 8, 12, 16 en 24GB
links = rechts met 24 Gb / 3 GB ipv 16 Gb / 2 GB.
In theorie heb je gelijk, in de praktijk niet. Daarom voegde ik de "met de huidige board ontwerpen" aan toe. Natuurlijk kan je modules naar wens combineren en op elk aantal GB uitkomen dat je maar wil, maar dan moet je je board ontwerp aanpassen. Misschien moeten ze dat toch al door de wijziging van GDDR6 naar GDDR7, maar als je uitgaat van gebruik van 1 grootte geheugenmodule per board ontwerp - praktisch verdedigbare keuze bij montage - èn als je uitgaat van chips met een typische geheugenbus van 128-bit, 192-bit, 256-bit en 384-bit, dan zijn de mogelijkheden in de praktijk beperkt, namelijk:Werelds schreef op dinsdag 1 augustus 2023 @ 11:47:
Hoeveel geheugen je in totaal hebt heeft verder geen bal met die modules te maken, enkel met de geheugenbus. Een GDDR chip heeft een 32-bit interface, dus van 32 tot 512 bits kun je (zonder clamshelling) met 16 Gb modules tot 32 GB komen, waarbij elk veelvoud van 2 daar tussenin geldig is (omdat de modules 2 GB zijn).
12, 18, 24 en 36GB en 8, 12, 16 en 24GB
Daarbij vind ik nog steeds 18GB opvallend omdat het geen veelvoud is van van 4. Ik heb het niet over videokaarten die de 4, 6, 8 of 12 geheugen controllers beperkt aansluiten. Ik ga daarbij uit van een even aantal geheugen controllers op een chip, omdat er geen tegenvoorbeeld bestaat (binnen GPU chips, voor zover ik weet). Mogelijk een ontwerpbeperking. 10 of 14 geheugen controllers maakt het niet beter, 16 wel.
Ja je komt dan met 36 / 4 of 18 / 2 uit op een beperkt aangesloten bus zoals 288-bit van oorspronkelijk een 384-bit chip (9 van de 12 controllers), 18 / 3 kan prima en geeft een 192-bit bus. Een 576-bit bus heb ik nog nooit gezien of gehoord, je zou dan 18 geheugencontrollers aansluiten, van de oorspronkelijk, 24? 32?Werelds schreef op dinsdag 1 augustus 2023 @ 11:47:
Met 24 of 32 Gb modules is dat precies hetzelfde, echter heb je het dan over veelvouden van 3 of 4. 36 / 4 = 9 * 32 = 288-bits bus. Vreemd en onwaarschijnlijk, maar kan gewoon. 18 / 4 = 4,5 en gaat dus niet. Daarentegen is 18 / 2 = 9 * 32 = diezelfde 288-bits bus, maar dan zit je dus wel op 16 Gb modules, niet op 32 Gb. Maar dat kan nu dus ook al. En 36 kan nu ook al, met een 576-bits bus of clamshelling op 288. En met 24 Gb modules heb je het over 6 chips, dus een 192-bits bus
Wat wel kan is mixen, ook met de huidige generatie. Als we dan uitgaan van een "normale" bit bus, kan je al aardig wat geheugen configuraties krijgen met GDDR6 geheugen modules:
Bijvoorbeeld 128-bit met 8Gb en 16Gb GDDR6: 4, 5, 6, 7, 8GB , waarbij 5GB bestaat https://www.gpuzoo.com/GPU-NVIDIA/GeForce_GTX_1060_5_GB.html en 7GB ook: https://gadgettendency.co...ith-rtx-3060-performance/
5 configuraties.
Dezelfde 128-bit met GDDR7 16Gb, 24Gb en 32Gb: 8, 9, 10, 11, 12, 13, 14, 15, 16GB.
9 configuraties.
Aantal configuraties = (aantal controllers * aantal modules om uit te kiezen) - (aantal controllers -1)
Voor 384-bit (12 controllers) en 16,24,32 Gb (3) modules dus 36 - 9 = 25 configuraties. Alles mogelijk tussen de 24GB en 48GB
Voor de 1080Ti is een van de 32-bit controllers niet gebruikt, het chip design is dus nog steeds een 384-bit "normaal / gebruikelijk" GP102 getuige de 12GB op de Titan X / Xp en 12 geheugen controllers op de chip zelf.Werelds schreef op dinsdag 1 augustus 2023 @ 11:47:
HBM is een heel ander verhaal.
Edit: die 11 GB van de 1080 Ti / 2080 Ti komt ook gewoon van de bus: 352-bit bus; 352 / 32 = 11 chips en de chips waren toen 8 Gb oftewel 1 GB dus dan kom je op 11 GB (of 22 met clamshell). De volledige controller op beide was 384-bit, dus 12/24 GB.
De 5GB en 7GB kaarten huizen ook allebei een chip met een even aantal geheugen controllers. Of ze allemaal aangesloten worden is een tweede.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Nieuws is vooral dat de instap / onderkant omhoog gaat naar 12GB ipv 8GB, als GPU board partners voldoende 24Gb modules inkopen. Uitgaande van een budget chip met een 128-bit bus. Dus als je nu nog een 8GB videokaart hebt of koopt, weet je dat je de volgende generatie "te weinig VRAM" hebt.Ludewig schreef op dinsdag 1 augustus 2023 @ 11:24:
[...]
GDDR7X bestaat ook (nog) helemaal niet, dus dat is logisch.
Bij GDDR7 is er ook bewust voor gekozen om PAM3 encoding te gebruiken, dus anderhalf bits per clock, ipv PAM4 zoals bij GDDR6X.
Het idee is dat dit een stuk goedkoper en minder foutgevoelig is dan PAM4. Doordat je minder snel last hebt van ruis kun je vermoedelijk just hogere frequenties halen, wat er dan deels al voor compenseert dat je per clocktick minder data verstuurd. Sowieso lijkt GDDR6X nu minder dan anderhalf keer de snelheid te halen van GDDR6, dus de theoretische verdubbeling van PAM4 door 2 bits per clock ipv 1 bit wordt helemaal niet gehaald.
Meer info: https://www.anandtech.com...ddr7-36gbps-pam3-encoding
[...]
De 2080 Ti en 1080 Ti hadden 11 GB. Op zich maakt het ook totaal niet uit waar de grens precies ligt, zolang de data er maar in past.
Het goede nieuws is meteen het slechte nieuws. Ze kunnen dan flink wat geheugen koppelen aan een kleine bus. Dus misschien blijven we daardoor opgescheept met een 128 bit 5060 e.d.
En als ze meteen voor bulk 32Gb modules gaan, is de instap 16GB. Happa!
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Dan ga je er van uit dat ze niet naar een 96- of 64-bit bus gaan voor de echte onderkant. Zie de 3050 6 GB voor laptops met een 96-bit bus en de 6400 & 6500 XT met een 64-bit bus.sunsmountain schreef op woensdag 2 augustus 2023 @ 16:16:
[...]
Nieuws is vooral dat de instap / onderkant omhoog gaat naar 12GB ipv 8GB, als GPU board partners voldoende 24Gb modules inkopen. Uitgaande van een budget chip met een 128-bit bus. Dus als je nu nog een 8GB videokaart hebt of koopt, weet je dat je de volgende generatie "te weinig VRAM" hebt.
En als ze meteen voor bulk 32Gb modules gaan, is de instap 16GB. Happa!
Nvidia en AMD kennende zou ik er niet zomaar van uit gaan dat de instap verwend zal gaan worden. Misschien de mainstream x060/x600-kaarten voor een 'mainstream-prijs' van 400 euro of zo
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
10 is ook geen veelvoud van 4? Of 6? En ook die 12 is juist geen veelvoud van vier, dat hebben we omdat we op veelvouden van 1 en 2 zaten met 8 en 16 Gb modules - en voorheen op veelvouden van 512 MB, 256...enzovoortsunsmountain schreef op woensdag 2 augustus 2023 @ 16:12:
12, 18, 24 en 36GB en 8, 12, 16 en 24GB
Daarbij vind ik nog steeds 18GB opvallend omdat het geen veelvoud is van van 4. Ik heb het niet over videokaarten die de 4, 6, 8 of 12 geheugen controllers beperkt aansluiten. Ik ga daarbij uit van een even aantal geheugen controllers op een chip, omdat er geen tegenvoorbeeld bestaat (binnen GPU chips, voor zover ik weet). Mogelijk een ontwerpbeperking. 10 of 14 geheugen controllers maakt het niet beter, 16 wel.
Dat is juist mijn punt, er is niets vreemds aan die 18 GB als je met 24 Gb modules werkt. Zo komt dat gewoon uit. De 10 GB van een 3080 zit op een 320-bit bus met 8 Gb modules.
Geheugen controllers worden overigens ook nooit beperkt aangesloten; als een MC ingeschakeld is, wordt hij ook aangesloten. Op een 3080 10 GB zijn er 2 controllers uitgeschakeld (van de 12). Zo ook op de 970 3.5 + 0.5 GB, alle 8 MC's waren gewoon ingeschakeld en aangesloten. Dat ze vervolgens binnen de chip een fout maakten en intern moesten schakelen tussen 2 MC's is een ander verhaal
Je koppelt hier veel te veel dingen aan elkaar die eigenlijk relatief los van elkaar staan.
Neem een chip met 12 MC's, ongeacht of dat AMD of Nvidia is en ongeacht welke generatie chip. Die heeft 12 * 32 = 384 pinnen voor geheugen chips. Het PCB heeft vervolgens dus ook 12 sets van 32 traces voor geheugen chips. Schakelt de GPU fabrikant vervolgens 2 MC's uit, kan dat PCB gewoon gebruikt worden, dan laten ze 2 plekken open.. Wat er vervolgens over die traces loopt doet er in principe niet toe. In de praktijk is dat niet 100% waar, omdat er met nieuwere (G)DDR generaties soms strengere eisen gesteld worden, pinouts veranderen, enzovoort. Dat is nu niet het geval, wat betekent dat de bestaande PCB's al voldoende zijn voor GDDR7. Wat verandert is de signaal encodering, waar het PCB geen bal mee te maken heeft. De spanning verandert ook (van 1,35V naar 1,2V en later 1,1V), maar het PCB zelf heeft daar ook niets mee te maken, dat zijn de onderdelen óp het PCB.
De grootte heeft niets te maken met het PCB. Enkel de modules zelf en de GPU zijn daarvoor van belang. Er zijn tal van modders die grotere chips op PCB's hebben gesoldeerd. De meest recente die ik me kan herinneren is de 3070 waar de 8 Gb modules vervangen werden door 16 Gb modules. De BIOS moet dan wel aangepast worden zodat hij weet waar hij mee te maken heeft, maar that's it. Wat niet kan, is GDDR6 vervangen door GDDR7 op bestaande GPU's. De GPU kan niet overweg met de PAM3 van GDDR7, dus dat gaat niet werken. Maar daar heeft het PCB geen bal mee te maken.
Die 576 was een hypothetisch voorbeeld, puur om het rekenwerk te demonstrerenJa je komt dan met 36 / 4 of 18 / 2 uit op een beperkt aangesloten bus zoals 288-bit van oorspronkelijk een 384-bit chip (9 van de 12 controllers), 18 / 3 kan prima en geeft een 192-bit bus. Een 576-bit bus heb ik nog nooit gezien of gehoord, je zou dan 18 geheugencontrollers aansluiten, van de oorspronkelijk, 24? 32?
Dat is toch precies wat ik zeg? Overigens is de 1060 GDDR5, dus groter dan 8 Gb bestaat voor dat ding niet. Is ook een 160-bit bus (niet 128), want er is één MC uitgeschakeld, de volledige chip is 192-bit.Wat wel kan is mixen, ook met de huidige generatie. Als we dan uitgaan van een "normale" bit bus, kan je al aardig wat geheugen configuraties krijgen met GDDR6 geheugen modules:
Bijvoorbeeld 128-bit met 8Gb en 16Gb GDDR6: 4, 5, 6, 7, 8GB , waarbij 5GB bestaat
Wat níet kan, wat jij hier wel suggereert, is groottes tegelijkertijd mixen. Die 1060 @ 160-bit kan enkel overweg met 2,5 of 5 GB (en nog minder dan dat, als je kleinere GDDR5 chips zou gebruiken, vergeet niet dat we al 15 jaar GDDR5 chips hebben
Dit klopt dus volstrekt niet, althans niet met alle GPU's tot op heden, want die kunnen met slechts één grootte overweg. Je hebt exact 3 mogelijke configuraties zonder clamshelling: 24, 36 en 48. Met clamshelling kun je dan ook nog 72 en 96 doen, dus 5 totaal. Meer of minder dan dat is niet mogelijk. Dat kan pas als er een MC uitgeschakeld wordt en de bus dus kleiner wordt. Voor het PCB maakt dat dus niets uit, gewoon een plek open laten.Aantal configuraties = (aantal controllers * aantal modules om uit te kiezen) - (aantal controllers -1)
Voor 384-bit (12 controllers) en 16,24,32 Gb (3) modules dus 36 - 9 = 25 configuraties. Alles mogelijk tussen de 24GB en 48GB
Je herhaalt nu precies wat ik zeg, met als verschil dat je het aansluiten verkeerd begrijpt. Het is niet dat er gekozen wordt een MC niet aan te sluiten, het is dat die MC uitgeschakeld is, de bus daardoor kleiner is en er dus minder chips aangesloten kúnnen worden.Voor de 1080Ti is een van de 32-bit controllers niet gebruikt, het chip design is dus nog steeds een 384-bit "normaal / gebruikelijk" GP102 getuige de 12GB op de Titan X / Xp en 12 geheugen controllers op de chip zelf.
De 5GB en 7GB kaarten huizen ook allebei een chip met een even aantal geheugen controllers. Of ze allemaal aangesloten worden is een tweede.
Klopt, met instap kaart bedoel ik een recommended instapkaart, en niemand raadt de 6500 etc. aan, precies vanwege de te lage bandbreedte en/of PCIe lanes. En ja dat zijn verschillende dingen.Ludewig schreef op woensdag 2 augustus 2023 @ 19:44:
[...]
Dan ga je er van uit dat ze niet naar een 96- of 64-bit bus gaan voor de echte onderkant. Zie de 3050 6 GB voor laptops met een 96-bit bus en de 6400 & 6500 XT met een 64-bit bus.
Nvidia en AMD kennende zou ik er niet zomaar van uit gaan dat de instap verwend zal gaan worden. Misschien de mainstream x060/x600-kaarten voor een 'mainstream-prijs' van 400 euro of zo.
Maar zelfs voor 64-bit (chips in) videokaarten gaat het geheugen omhoog van minimaal 4 naar 6 of 8GB bij deze transitie van GDDR6 naar GDDR7.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Ik denk wel dat dit heel erg is vanuit het perspectief van een relatief rijke Tweakers met veel kennis en relatief veel inkomen. De echte instapkaarten zoals de 1650 lijken toch massaal te zijn verkocht.sunsmountain schreef op donderdag 3 augustus 2023 @ 13:17:
[...]
Klopt, met instap kaart bedoel ik een recommended instapkaart, en niemand raadt de 6500 etc. aan, precies vanwege de te lage bandbreedte en/of PCIe lanes. En ja dat zijn verschillende dingen.
Dat is allemaal op basis van de aanname dat de bus dezelfde grootte blijft, maar Nvidia heeft de bus voor de meeste ADA-tiers afgeknepen.Maar zelfs voor 64-bit (chips in) videokaarten gaat het geheugen omhoog van minimaal 4 naar 6 of 8GB bij deze transitie van GDDR6 naar GDDR7.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
We hebben nieuwe kaarten gezien van 16, 20 en 24. Dus voor mij blijft 18 daarin vreemd. Waarom niet 16 of 20? Welke game gaat mikken op 18 (geen enkele)?Werelds schreef op donderdag 3 augustus 2023 @ 09:57:
[...]
Dat is juist mijn punt, er is niets vreemds aan die 18 GB als je met 24 Gb modules werkt. Zo komt dat gewoon uit. De 10 GB van een 3080 zit op een 320-bit bus met 8 Gb modules.
Ah, kijk weer wat nieuws geleerd. Op zich logisch, anders gaan shaders (proberen te) praten met MC's die niks kunnen. Uitgeschakeld in BIOS of gelaserd/geknipt in hardware?Werelds schreef op donderdag 3 augustus 2023 @ 09:57:
Geheugen controllers worden overigens ook nooit beperkt aangesloten; als een MC ingeschakeld is, wordt hij ook aangesloten.
Mogelijk, ik koppel graag verschillende gegevens voor nieuwe inzichten. Blame my associative mind.Werelds schreef op donderdag 3 augustus 2023 @ 09:57:
Je koppelt hier veel te veel dingen aan elkaar die eigenlijk relatief los van elkaar staan.
Het PCB ontwerp kan dus wel hergebruikt worden, alleen de chip zelf niet. Ik gaf aan zelfde PCB, om de nieuwe geheugen mogelijkheden en configuraties duidelijk te maken. Geen verschil van mening hier.Werelds schreef op donderdag 3 augustus 2023 @ 09:57:
Neem een chip met 12 MC's, ongeacht of dat AMD of Nvidia is en ongeacht welke generatie chip. Die heeft 12 * 32 = 384 pinnen voor geheugen chips. Het PCB heeft vervolgens dus ook 12 sets van 32 traces voor geheugen chips. Schakelt de GPU fabrikant vervolgens 2 MC's uit, kan dat PCB gewoon gebruikt worden, dan laten ze 2 plekken open.. Wat er vervolgens over die traces loopt doet er in principe niet toe. In de praktijk is dat niet 100% waar, omdat er met nieuwere (G)DDR generaties soms strengere eisen gesteld worden, pinouts veranderen, enzovoort. Dat is nu niet het geval, wat betekent dat de bestaande PCB's al voldoende zijn voor GDDR7. Wat verandert is de signaal encodering, waar het PCB geen bal mee te maken heeft. De spanning verandert ook (van 1,35V naar 1,2V en later 1,1V), maar het PCB zelf heeft daar ook niets mee te maken, dat zijn de onderdelen óp het PCB.
De grootte heeft niets te maken met het PCB. Enkel de modules zelf en de GPU zijn daarvoor van belang. Er zijn tal van modders die grotere chips op PCB's hebben gesoldeerd. De meest recente die ik me kan herinneren is de 3070 waar de 8 Gb modules vervangen werden door 16 Gb modules. De BIOS moet dan wel aangepast worden zodat hij weet waar hij mee te maken heeft, maar that's it. Wat niet kan, is GDDR6 vervangen door GDDR7 op bestaande GPU's. De GPU kan niet overweg met de PAM3 van GDDR7, dus dat gaat niet werken. Maar daar heeft het PCB geen bal mee te maken.
Ook hier zijn we het eens. Ik had van die 5GB en 7GB kaarten niet de originele chip bus gespecificeerd, maar je punt blijft dat MC's uitgeschakeld moeten worden op chip niveau, niet op PCB niveau.Werelds schreef op donderdag 3 augustus 2023 @ 09:57:
[...]
Die 576 was een hypothetisch voorbeeld, puur om het rekenwerk te demonstreren
[...]
Dat is toch precies wat ik zeg? Overigens is de 1060 GDDR5, dus groter dan 8 Gb bestaat voor dat ding niet. Is ook een 160-bit bus (niet 128), want er is één MC uitgeschakeld, de volledige chip is 192-bit.
Interessant, dat vereenvoudigt mogelijke configuraties sterk. Is dit omdat de GPU chip aannames moet kunnen doen over geheugen-capaciteit, als een shader met een MC praat?Werelds schreef op donderdag 3 augustus 2023 @ 09:57:
Wat níet kan, wat jij hier wel suggereert, is groottes tegelijkertijd mixen. Die 1060 @ 160-bit kan enkel overweg met 2,5 of 5 GB (en nog minder dan dat, als je kleinere GDDR5 chips zou gebruiken, vergeet niet dat we al 15 jaar GDDR5 chips hebben). Op die specifieke chip kun je geen 4 of 6 aansluiten, want er moeten 5 MC's aangesloten worden en er zijn geen GDDR5 chips van 6,4 Gb / 800 MB. De volledige chip kan ook enkel met 3, 6 of 12 GB werken. Hetzelfde geldt voor de S70; dat is een 224-bit bus en vereist GDDR6, dus je krijgt óf 7 GB óf 14 GB op die specifieke chip, want GDDR6 is beschikbaar in capaciteiten van 8 en 16 Gb. Het PCB daarentegen zal gewoon 8 plekken hebben, want de volledige chip (S80) heeft een 256-bit bus.
Eens, dan worden de GDDR7 configuraties, met 24Gb, 32Gb, zonder clamshell:Werelds schreef op donderdag 3 augustus 2023 @ 09:57:
Dit klopt dus volstrekt niet, althans niet met alle GPU's tot op heden, want die kunnen met slechts één grootte overweg. Je hebt exact 3 mogelijke configuraties zonder clamshelling: 24, 36 en 48. Met clamshelling kun je dan ook nog 72 en 96 doen, dus 5 totaal. Meer of minder dan dat is niet mogelijk. Dat kan pas als er een MC uitgeschakeld wordt en de bus dus kleiner wordt. Voor het PCB maakt dat dus niets uit, gewoon een plek open laten.
--
128-bit, 24Gb: 12GB
128-bit, 32Gb: 16GB
--
192-bit, 24Gb: 18GB
192-bit, 32Gb: 24GB
--
256-bit, 24Gb: 24GB
256-bit, 32Gb: 32GB
--
384-bit, 24Gb: 36GB
384-bit, 32Gb: 48GB
--
512-bit, 24Gb: 48GB
512-bit, 32Gb: 64GB
--
Gelukkig komt het voor de eindgebruiker op hetzelfde neer: minder geheugen.Werelds schreef op donderdag 3 augustus 2023 @ 09:57:
Je herhaalt nu precies wat ik zeg, met als verschil dat je het aansluiten verkeerd begrijpt. Het is niet dat er gekozen wordt een MC niet aan te sluiten, het is dat die MC uitgeschakeld is, de bus daardoor kleiner is en er dus minder chips aangesloten kúnnen worden.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Ik zie weinig bewijs dat er duidelijke grenzen zijn. Sowieso zijn er allemaal features/opties in spellen die invloed hebben op het VRAM-gebruik, dus hoe meer je hebt, hoe meer features je aan kunt zetten.sunsmountain schreef op donderdag 3 augustus 2023 @ 15:17:
[...]
We hebben nieuwe kaarten gezien van 16, 20 en 24. Dus voor mij blijft 18 daarin vreemd. Waarom niet 16 of 20? Welke game gaat mikken op 18 (geen enkele)?
En zelfs als het zo is dat bijvoorbeeld 16 GB een sweet spot is, dan zou 14 GB een probleem zijn, maar 18 uiteraard niet.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ivm AI vraag maar er zou nog genoeg voorraad zijn.
[ Voor 12% gewijzigd door Help!!!! op 03-08-2023 15:47 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
MLID zeker?Help!!!! schreef op donderdag 3 augustus 2023 @ 15:47:
fwiw: Volgens geruchten pauzeert Nvidia productie van RTX 4000-videokaarten
Ivm AI vraag maar er zou nog genoeg voorraad zijn.
GPU prijzen gaan een beetje omhoog -> hij claimt gelijk dat vorige maand het dieptepunt was / beste tijd om te kopen.
Als hij dan Black Friday (weer) ongelijk krijgt, zal hij zeggen: ja maar.
etc.
Onbetrouwbare bron.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Je mag wel iets hoger dan €150 gaan zitten voor de grote groep die massaal verkocht is:Ludewig schreef op donderdag 3 augustus 2023 @ 14:42:
[...]
Ik denk wel dat dit heel erg is vanuit het perspectief van een relatief rijke Tweakers met veel kennis en relatief veel inkomen. De echte instapkaarten zoals de 1650 lijken toch massaal te zijn verkocht.
~€ 250
uitvoering: MSI GeForce GTX 1060 Gaming X 6G
uitvoering: Inno3D GeForce RTX 3060 8GB TWIN X2
En daarbij zijn alle 3 de instap-kaarten 128-bit of hoger. De 1650 is de enige met 4GB, maar:
- de RTX 3000 generatie heeft geen 4GB kaart, kleinste is 8GB
- de RX 6000 generatie heeft wel 2 4GB kaarten, en het verschil is tussen de €40 à €66 voor 8GB
uitvoering: ASUS TUF Gaming Radeon RX 6500 XT OC Edition
uitvoering: Powercolor Fighter AMD Radeon RX 6600 8GB GDDR6
Voor een groep consumenten binnen de groep consumenten zonder kennis is die €40 à €66 een groot bedrag, maar ze kijken toch wel naar dat geheugen-getalletje dat op de doos staat.
De volgende generaties met 128-bit worden dus hopelijk meer 12GB, ook voor hen.
Niet dezelfde grootte, maar een bepaalde ondergrens.Ludewig schreef op donderdag 3 augustus 2023 @ 14:42:
[...]
Dat is allemaal op basis van de aanname dat de bus dezelfde grootte blijft, maar Nvidia heeft de bus voor de meeste ADA-tiers afgeknepen.
De meest afgeknepen versie komt voor desktop ADA (nog) niet onder de 128-bit :
Wikipedia: GeForce 40 series
Alleen bij laptops is er 1 RTX 4050 variant die 96-bit aandurft (niet eens 64-bit):
categorie: Laptops
maar dan moet je wel €899 neertellen en is je prijs-argument niet meer van toepassing.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Welke nieuwe kaarten? Heb ik wellicht gemist, heb de topics niet echt bijgehouden. Maar waarom niet 16 of 20: omdat je bijvoorbeeld 6 MC's hebt en je dan dus op 12/24 (single/clamshell) uit komt met 16 Gb chips, op 18/36 met 24 Gb chips. En uiteindelijk op 24/48 met 32 Gb. Met die 6 MC's is 16 of 20 simpelweg niet mogelijk, geen van beide getallen is deelbaar door 6sunsmountain schreef op donderdag 3 augustus 2023 @ 15:17:
We hebben nieuwe kaarten gezien van 16, 20 en 24. Dus voor mij blijft 18 daarin vreemd. Waarom niet 16 of 20? Welke game gaat mikken op 18 (geen enkele)?
Meestal gewoon uitgeschakeld in de firmware, wellicht omdat de MC zelf een defect heeft bijvoorbeeld.Ah, kijk weer wat nieuws geleerd. Op zich logisch, anders gaan shaders (proberen te) praten met MC's die niks kunnen. Uitgeschakeld in BIOS of gelaserd/geknipt in hardware?
Yep, precies dat. Het beschikbare geheugen moet geadresseerd kunnen worden en het is nogal onhandig als je X identieke L2$ blokken aan afwijkende hoeveelheden geheugen moet hangen. Dan moet je ineens gaan routeren omdat MC 1 misschien maar half zo veel adressen kan bedienen als MC2. De shaders doen dat verder niet echt zelf, daar zit nog een hoop tussen, maar als puntje bij paaltje komt, komt het daar inderdaad wel op neer.Interessant, dat vereenvoudigt mogelijke configuraties sterk. Is dit omdat de GPU chip aannames moet kunnen doen over geheugen-capaciteit, als een shader met een MC praat?
Technisch gezien uiteraard wel te doen, maar het zou de hele handel nog een stuk complexer maken dus dat doen ze niet. Sterker nog, de firmware is niet alleen op de hoogte van de grootte van de chips, maar zelfs van het type chip. Je kunt Samsung en Micron ook niet zomaar mixen, want die hebben net iets andere timings en dergelijke. Ze moeten allemaal identiek zijn.
Die 32 Gb chips komen overigens ook pas over een paar jaar, bij mijn weten heeft nog niemand daar iets van geproduceerd. Dus voorlopig blijft het op de veelvouden van 3. Minder niet per se, we gaan er overal met minimaal 1 GB per MC op vooruitEens, dan worden de GDDR7 configuraties, met 24Gb, 32Gb, zonder clamshell:
...
Gelukkig komt het voor de eindgebruiker op hetzelfde neer: minder geheugen.
We zullen wel meer chips gaan zien met kleine bussen, wellicht té klein.
Nvidia heeft allerlei opties. We weten niet eens of Nvidia wel GDDR7 gaat gebruiken voor de goedkopere kaarten. Bij zowel Turing als Pascal verkochten ze low-end kaarten met de vorige generatie geheugen.sunsmountain schreef op donderdag 3 augustus 2023 @ 16:42:
[...]
De volgende generaties met 128-bit worden dus hopelijk meer 12GB, ook voor hen.
En als je GDDR6X meetelt als een nieuwe geheugenvariant, dan ook bij Ampere.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
[ Voor 92% gewijzigd door br00ky op 03-08-2023 23:04 ]
Blijkbaar zijn de koelers van een 4090 zo zwaar dat de gpu gewoon los van het pcb komt.
Hij raad ook aan om zulke kaarten (dus waarschijnlijk niet alleen de 4090) verticaal te mounten ipv op de normale manier.
Zelf gebruik ik een meegeleverde ondersteuning bij de mijn 7900 XTX en ik vermoed dat dat nog wel voldoende is. Toch zie je dat kaarten die zoveel gebruiken als tegenwoordig en dus meer koeling nodig hebben dat horizontaal mounten eigenlijk niet meer goed is.
Edit: zeker met transport zou ik de kaart er gewoon uithalen, of de kast op zijn zijde leggen.
[ Voor 6% gewijzigd door Sp3ci3s8472 op 10-08-2023 16:32 ]
YouTube: RTX 50 UPDATED Specs & Perf Are MONSTROUS - Can RDNA 4 Compete? (~16:00)
en
https://wccftech.com/nvid...3-gb205-gb206-gb207-skus/
De eerdere GB102 met 204SM en GB103 met 108SM lijken nu onder de professionele line-up te vallen, met gamer chips de GB202, 3, 5, 6 en 7. Geen 04 dit keer. Belangrijker dan dat: GB20x heeft mogelijk kleinere chips dan GB10x, omdat er minder te verdienen valt aan de gamer kaarten.
YouTube: RTX 50 Blackwell SPECS & PERFORMANCE Update | RTX TITAN Is Alive?!
(~9.00)
Best kans dat Nvidia het aantal SM gelijk houdt bij de node shrink van N4 naar N3, en de SMs zelf krachtiger probeert te maken qua IPC en cache.
Als je een directe GA102 (N4) shrink doet naar GB202 zit je onder de 400 mm2. Handig met het oog op de reticle limit (alvast voor N2): 26 mm by 16,5 mm or 429 mm² .
(143,7÷220)×609 mm2 = 397 mm2
Wikipedia: 3 nm process
Wikipedia: 5 nm process
Ze zullen wel iets meer ruimte nemen, maar ik vermoed niet veel. Er is ook wel wat te winnen met het opruimen van legacy pipelines.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Dit suggereert vooral ook dat Nvidia aparte chips gaat maken voor de professionele kaarten, net zoals AMD dat al doet met CDNA chips, die een andere configuratie hebben dan de RDNA gaming-chips.sunsmountain schreef op maandag 14 augustus 2023 @ 07:46:
De eerdere GB102 met 204SM en GB103 met 108SM lijken nu onder de professionele line-up te vallen, met gamer chips de GB202, 3, 5, 6 en 7. Geen 04 dit keer. Belangrijker dan dat: GB20x heeft mogelijk kleinere chips dan GB10x, omdat er minder te verdienen valt aan de gamer kaarten.
Ik kan mij voorstellen dat de GB102 helemaal wordt toegespitst op AI-workloads, terwijl de GB202 dan meer een gaming/rendering-configuratie heeft. Dan kan de GB202 ook gewoon een grote chip worden, want de render-farms van ILM e.d. zijn ook bereid om flink te betalen voor hoge prestaties.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Dat doet Nvidia al sinds Pascal met GP100. Vervolgens Volta als aparte architectuur, toen wel A100, maar ook apart van de rest van Ampere en nu Hopper in plaats van een "AD100". Het lijkt wel tick tock.Ludewig schreef op maandag 14 augustus 2023 @ 10:29:
[...]
Dit suggereert vooral ook dat Nvidia aparte chips gaat maken voor de professionele kaarten, net zoals AMD dat al doet met CDNA chips, die een andere configuratie hebben dan de RDNA gaming-chips.
Ik kan mij voorstellen dat de GB102 helemaal wordt toegespitst op AI-workloads, terwijl de GB202 dan meer een gaming/rendering-configuratie heeft. Dan kan de GB202 ook gewoon een grote chip worden, want de render-farms van ILM e.d. zijn ook bereid om flink te betalen voor hoge prestaties.
Maar als je kijkt hoe AD102 nu werkelijk presteert tegenover AD103, dan snap ik het wel. Die RTX4090 zou eigenlijk nog eens 30% (voor een totaal meer rond de 60%) sneller moeten zijn dan de RTX4080 als je naar de SM's kijkt. Dat is die niet en ik denk niet dat geheugenbrandbreedte het helemaal verklaard. Ik zie Nvidia eigenlijk ook niet met een compleet nieuwe architectuur komen die breekt met de Maxwell/Turing fundamenten, dus meer SM's voor gaming lijkt me vooralsnog, vrij zinloos. Meer caches lijkt me zinvoller omdat ik vermoed dat Ada tegen een aardige limiet aanloopt qua BvH creatie.
Let ook op die RTX4090 over een tijdje. Die zie ik met bijvoorbeeld Zen 5 of Arrow Lake, opeens een stukje weglopen van de rest van Ada Lovelace of RDNA3. Gebeurd ook al met de 7800X3D tegenover zoiets als een 5800X3D, 7700X, 13700K etc.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Nvidia moet meters maken met chiplets, anders produceert AMD de AI kaarten goedkoper èn groter, belangrijk voor de grotere complexere modellen. GB10x zal dus ten minste 1 chiplet ontwerp hebben.Ludewig schreef op maandag 14 augustus 2023 @ 10:29:
[...]
Dit suggereert vooral ook dat Nvidia aparte chips gaat maken voor de professionele kaarten, net zoals AMD dat al doet met CDNA chips, die een andere configuratie hebben dan de RDNA gaming-chips.
Ik kan mij voorstellen dat de GB102 helemaal wordt toegespitst op AI-workloads, terwijl de GB202 dan meer een gaming/rendering-configuratie heeft. Dan kan de GB202 ook gewoon een grote chip worden, want de render-farms van ILM e.d. zijn ook bereid om flink te betalen voor hoge prestaties.
Ik weet niet of GB202 heel groot gaat worden, omdat Nvidia weet dat het niet hoeft, en zo'n chip is natuurlijk ook gewoon duur. Hoeveel RTX 4090's zijn er verkocht? Mag je de ontwerpkosten door delen. Ik denk 400 mm2 max dit keer, en SMs op de schop.
Dus geen RTX 5090, allemaal monolitisch en alsnog de performance crown pakken. Hoewel dat niet echt moeilijk is tegen een sub afdelinkje van AMD, met een triljoen gewaardeerd bedrijf. Het is een wonder dat Radeon het überhaupt overleeft.
ps.: Radeon marketing blijft wel gewoon slecht.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
De 4090 is het 'afval.' De echte goede chips gaan in de professionele kaarten. Dus de vraag is dan of de professionele markt voldoende kan worden afgedekt met de (chiplet?) GB102. Alleen dan zie ik een kleinere GB202-chip als een reële optie.sunsmountain schreef op maandag 14 augustus 2023 @ 16:43:
[...]
Hoeveel RTX 4090's zijn er verkocht?
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Je kan geen monolitisch "afval" maken van chiplets. Wat GB102 ook moge worden, GB202 heeft er niets aan.Ludewig schreef op maandag 14 augustus 2023 @ 18:12:
[...]
De 4090 is het 'afval.' De echte goede chips gaan in de professionele kaarten. Dus de vraag is dan of de professionele markt voldoende kan worden afgedekt met de (chiplet?) GB102. Alleen dan zie ik een kleinere GB202-chip als een reële optie.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Mijn punt is dat ze mogelijk alsnog een redelijk grote monolitische chip nodig hebben omdat bepaalde professionele toepassingen niet goed schalen met chiplets. Dan gaan de deels kapotte chips uiteraard alsnog in een 5090.sunsmountain schreef op dinsdag 15 augustus 2023 @ 00:21:
[...]
Je kan geen monolitisch "afval" maken van chiplets. Wat GB102 ook moge worden, GB202 heeft er niets aan.
Ik verwacht namelijk zelf dat ze zowel professionele kaarten met chiplets als met monolieten gaan verkopen.
Net even gekeken en het is wel zo dat de GP102 (1080 Ti) slechts 470 mm2 was, terwijl TU102 (2080 Ti) een gigantische 750 mm2 was. Dus ik kan mij voorstellen dat de GB202 weer kleiner wordt en ergens tussen AD102 en AD103 in komt, al lijkt mij de 380 mm2 van AD103 wel erg klein.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ah zo, ja dan kunnen de restjes naar de gamers ja. En eens met dat laatste, er komen immers weer 5 designs, van 100, 200, 300, 400 mm2 en hun grootste zal 500+ blijven afhankelijk van wat ze nodig hebben.Ludewig schreef op dinsdag 15 augustus 2023 @ 10:49:
[...]
Mijn punt is dat ze mogelijk alsnog een redelijk grote monolitische chip nodig hebben omdat bepaalde professionele toepassingen niet goed schalen met chiplets. Dan gaan de deels kapotte chips uiteraard alsnog in een 5090.
Ik verwacht namelijk zelf dat ze zowel professionele kaarten met chiplets als met monolieten gaan verkopen.
Net even gekeken en het is wel zo dat de GP102 (1080 Ti) slechts 470 mm2 was, terwijl TU102 (2080 Ti) een gigantische 750 mm2 was. Dus ik kan mij voorstellen dat de GB202 weer kleiner wordt en ergens tussen AD102 en AD103 in komt, al lijkt mij de 380 mm2 van AD103 wel erg klein.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
NVIDIA BIOS Signature Lock Broken, vBIOS Modding and Crossflash Enabled by Groundbreaking New Tools
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Voor zo ver ik het begrijp is het nog wel wachten op een tool zoals nibitor. Ik wil namelijk van de lage powerlimit af van mijn eigen bios en temperatuur limit die de boostclock al vanaf 60 graden aanpast.
Ampere and Ada - only signed bioses have full access ~ but pretty much every Boardpartners Bios is signed
Ja, dit is dus eigenlijk hetzelfde, alleen met meer flags omgezet, waardoor cross-die ook kan. Interessant dat het zo lang duurde voordat iemand anders hetzelfde heeft gedaan.The Tool can not flash random files that the average joe made.
Files made by a Bios editor, won't be such - but it is a different form of access.
One does not change the cards behavior or flash a custom OS.
Falcon behavior remains to NVIDIA™ property, and RiscV loads Nvidia™ proprietary software.
Dit werkt dus nog altijd niet.3DEXP schreef op maandag 21 augustus 2023 @ 10:26:
[...]
Voor zo ver ik het begrijp is het nog wel wachten op een tool zoals nibitor. Ik wil namelijk van de lage powerlimit af van mijn eigen bios en temperatuur limit die de boostclock al vanaf 60 graden aanpast.
[ Voor 64% gewijzigd door Paprika op 21-08-2023 13:44 ]
https://videocardz.com/ne...uction-launches-this-fall
[ Voor 32% gewijzigd door DaniëlWW2 op 22-08-2023 13:32 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
NVIDIA Announces Record Financial Results for Q2 of 2023
NVIDIA today reported revenue for the second quarter ended July 30, 2023, of $13.51 billion, up 101% from a year ago and up 88% from the previous quarter. GAAP earnings per diluted share for the quarter were $2.48, up 854% from a year ago and up 202% from the previous quarter. Non-GAAP earnings per diluted share were $2.70, up 429% from a year ago and up 148% from the previous quarter.
Schijnbaar krijgt de gaming divisie van Nvidia minder geld dan dat ze zouden willen voor het optimaliseren van drivers voor Starfield:
Dit is schijnbaar ook de reden dat DLSS niet in alle titels zit waar FSR in zit? Dit is volgens bronnen binnen Nvidia die Moores Law is Dead heeft. Het is niet dat AMD het blokkeerd, het is dat de gaming divisie binnen Nvidia niet genoeg budget heeft (minder dan ze zouden willen).
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Zo wel AMD als Nvidia zijn niet snel en word zwaar tegen gehouden door de CPU en dat zelfs op 4k. De game is uiterst slecht geoptimaliseerd na mijn idee want je krijgt enorme framedrops waar je het niet verwacht. De game draaid alleen redelijk als je FSR, resolutionscale en 75% resolutie in stelt, of te wel standaard ultra present. Ik vermaak me overigens prima met Starfield.Sp3ci3s8472 schreef op zaterdag 2 september 2023 @ 14:02:
Deze is best interessant, Nvidia kaarten zijn niet al te snel in Starfield:
[YouTube: Starfield GPU Benchmarks & Comparison: NVIDIA vs. AMD Performance]
Schijnbaar krijgt de gaming divisie van Nvidia minder geld dan dat ze zouden willen voor het optimaliseren van drivers voor Starfield:
[YouTube: RX 7800 / 7700 XT Benchmark Leak: AMD doesn't need Starfield to Win]
Dit is schijnbaar ook de reden dat DLSS niet in alle titels zit waar FSR in zit? Dit is volgens bronnen binnen Nvidia die Moores Law is Dead heeft. Het is niet dat AMD het blokkeerd, het is dat de gaming divisie binnen Nvidia niet genoeg budget heeft (minder dan ze zouden willen).
Niet door de cpu, maar door de geheugenbandbreedte van de cpu:3DEXP schreef op zaterdag 2 september 2023 @ 17:07:
[...]
Zo wel AMD als Nvidia zijn niet snel en word zwaar tegen gehouden door de CPU en dat zelfs op 4k. De game is uiterst slecht geoptimaliseerd na mijn idee want je krijgt enorme framedrops waar je het niet verwacht. De game draaid alleen redelijk als je FSR, resolutionscale en 75% resolutie in stelt, of te wel standaard ultra present. Ik vermaak me overigens prima met Starfield.
Lijkt me dan ook eerder een game probleem. Ik kom op 4k niet over de 10gb heen met een RTX 4090 en de bandbreedte is ook enorm hoog van de RTX 4090.Sp3ci3s8472 schreef op zaterdag 2 september 2023 @ 19:47:
[...]
Niet door de cpu, maar door de geheugenbandbreedte van de cpu:
[YouTube: [SPECULATIVE RAMBLING] Starfield seems to be very RAM bandwidth limited.]
Lees nog eens mijn post door of bekijk het filmpje, ik heb het niet over gpu bandbreedte3DEXP schreef op zaterdag 2 september 2023 @ 19:52:
[...]
Lijkt me dan ook eerder een game probleem. Ik kom op 4k niet over de 10gb heen met een RTX 4090 en de bandbreedte is ook enorm hoog van de RTX 4090.
Laat ik overigens gelijk mijn stelling aanpassen, op de 4090 lijkt het een cpu geheugen bandbreedte probleem, ben benieuwd of dit met AMD gpus ook zo is doordat die minder driver overhead hebben.
[ Voor 8% gewijzigd door Sp3ci3s8472 op 02-09-2023 20:04 ]
Zo kan iedereen ergens wat achter zoeken en gezien het probleem overal op zo erg is zal het wel snel met updates worden opgelost.Sp3ci3s8472 schreef op zaterdag 2 september 2023 @ 20:02:
[...]
Lees nog eens mijn post door of bekijk het filmpje, ik heb het niet over gpu bandbreedte. Daarnaast heeft geheugen bandbreedte vrij weing te maken met of je nu 10GB of 20GB video geheugen gebruikt.
Laat ik overigens gelijk mijn stelling aanpassen, op de 4090 lijkt het een cpu geheugen bandbreedte probleem, ben benieuwd of dit met AMD gpus ook zo is doordat die minder driver overhead hebben.
Het is duidelijk waarom DLSS doorgaans niet beschikbaar is in AMD gesponsorde spellen. Meerdere mensen hebben AMD gevraagd (oa wffctech, hardware unboxed en gamersnexus) of ze contractueel DLSS verbieden/verboden, en AMD weigerd daar een duidelijk antwoord op te geven.Sp3ci3s8472 schreef op zaterdag 2 september 2023 @ 14:02:
Dit is schijnbaar ook de reden dat DLSS niet in alle titels zit waar FSR in zit? Dit is volgens bronnen binnen Nvidia die Moores Law is Dead heeft. Het is niet dat AMD het blokkeerd, het is dat de gaming divisie binnen Nvidia niet genoeg budget heeft (minder dan ze zouden willen).
En waarom zou Nvidia een game developer uberhaupt betalen om DLSS toe te voegen? DLSS maakt het spel beter, en is heel makkelijk toe te voegen aan spellen waarin FSR al beschikbaar is. Dat zou nog makkelijker zijn als AMD mee wil werken aan een open upscaling standaard, maar dat gaat waarschijnlijk niet gebeuren.
Maar ook zonder open standaard is het triviaal.
Dit wordt bevestigd door een Nixxes dev https://twitter.com/mempodev/status/1673759246498910208
En als voorbeeld, op de dag van de Starfield launch zijn er al twee mods die FSR vervangen voor DLSS in Starfield, en één daarvan heeft ook een XESS versie.
[ Voor 4% gewijzigd door cnieuweboer op 03-09-2023 00:11 ]
Welk punt bedoel je precies? Zonder specifiek te zijn is het lastig te reageren op je post.3DEXP schreef op zaterdag 2 september 2023 @ 20:12:
[...]
Zo kan iedereen ergens wat achter zoeken en gezien het probleem overal op zo erg is zal het wel snel met updates worden opgelost.
Als je bedoelt dat AMD kaarten misschien minder last van de geheugen bandbreedte bottleneck hebben, dat is inderdaad een aanname van mij en ik wacht ook op een goede review die dat of onderbouwd of debunked. Ik bracht mijn stelling ook niet als waarheid.
Als je reageerd op het geheugen bandbreedte gedeelte dan is dat geen aanname maar gewoon kijken naar de statistieken. Want de 4090 heeft hier overduidelijk geen cpu bottleneck maar wel absoluut een geheugen bandbreedte bottleneck. Gezien je reactie ga ik er van uit dat je de video nog steeds niet hebt gezien en daarom zo reageerd. Had je hem wel gezien dan was het namelijk overduidelijk en hadden we deze discussie niet gehad.
Om een van de resultaten uit het filmpje te pakken:
De score van een 12900K is 79 fps, die van een 13700k (nagenoeg dezelfde cpu) haalt in het zelfde scenario 101 fps.
Het enige grote verschil tussen die de twee is dat de 12900k geheugen heeft van DDR5-4400 en de 13700k DDR5-5600.
@cnieuweboer
AMD heeft daar nu zover ik weet antwoord op gegeven; en lijkt niet actief bezig te zijn met het blokkeren van DLSS. Tenminste dat is van de twee bronnen binnen Nvidia van MLID. Hoever dat de waarheid is mag je zelf bepalen. Het is dus schijnbaar meer het geval dat Nvidia geen geld wil spenderen aan het uitlenen van developers aan game studio's.
Het laatste statement van AMD lijkt beter dan de eerdere, maar nog steeds wordt allemaal heel indirect, en op meerdere manieren te interpreteren.Sp3ci3s8472 schreef op zondag 3 september 2023 @ 01:47:
AMD heeft daar nu zover ik weet antwoord op gegeven; en lijkt niet actief bezig te zijn met het blokkeren van DLSS. Tenminste dat is van de twee bronnen binnen Nvidia van MLID. Hoever dat de waarheid is mag je zelf bepalen. Het is dus schijnbaar meer het geval dat Nvidia geen geld wil spenderen aan het uitlenen van developers aan game studio's.
https://www.theverge.com/...-fsr-exclusive-frank-azor
Als ze echt DLSS niet blokkeren, kunnen ze Nvidia's antwoord over FSR kopieren.
https://wccftech.com/what...amd-sponsored-fsr-titles/
En MLID is leuk voor geruchten en meningen, maar voor feitelijk nieuws natuurlijk niet heel goed. En als hij wel gelijk zou hebben roept dat meer vragen op dan het beantwoord. Zoals (nogmaals) waarom zou Nvidia veel geld moeten uitgeven om DLSS in een spel te krijgen als FSR al beschikbaar is. De integratie is triviaal. En waarom is het voor AMD zo moeilijk een duidelijk antwoord te geven op de vragen over blokkeren van DLSS.
Ik kan maar één reden verzinnen waarom gebrek aan geld bij Nvidia een rol speelt bij implementeren van DLSS, en die past bij de informatie uit betrouwbare bronnen. En het is een beetje een flauwe. Als Nvidia zoveel geld uit zou geven dat het alle games sponsored, kan AMD DLSS niet blokkeren.
Het is erg opvallend inderdaad. Maar ik zie ook dat PCGH.de officieel ondersteunde geheugensnelheden heeft gebruikt *zucht*. Dat maakt het weer een appels met peren vergelijking.Sp3ci3s8472 schreef op zaterdag 2 september 2023 @ 19:47:
[...]
Niet door de cpu, maar door de geheugenbandbreedte van de cpu:
[YouTube: [SPECULATIVE RAMBLING] Starfield seems to be very RAM bandwidth limited.]
De latencies zullen behoorlijk beroerd zijn en met name voor Ryzen heeft dat veel impact omdat daarmee ook een lagere Fclock gemoeid is.
Ik heb dus nog mijn vraagtekens in hoeverre dit bandbreedte gerelateerd is en/of DDR latency gerelateerd.
Hopelijk pakt HUB deze vraag op.
Verdacht is het wel, maar bewijs dat het verboden wordt is er niet. Daar zou dan een juridisch staartje aan vast kunnen zitten i.v.m. 'koppelverkoop'.cnieuweboer schreef op zondag 3 september 2023 @ 00:05:
[...]
Het is duidelijk waarom DLSS doorgaans niet beschikbaar is in AMD gesponsorde spellen. Meerdere mensen hebben AMD gevraagd (oa wffctech, hardware unboxed en gamersnexus) of ze contractueel DLSS verbieden/verboden, en AMD weigerd daar een duidelijk antwoord op te geven.
En waarom zou Nvidia een game developer uberhaupt betalen om DLSS toe te voegen? DLSS maakt het spel beter, en is heel makkelijk toe te voegen aan spellen waarin FSR al beschikbaar is. Dat zou nog makkelijker zijn als AMD mee wil werken aan een open upscaling standaard, maar dat gaat waarschijnlijk niet gebeuren.
Maar ook zonder open standaard is het triviaal.
Dit wordt bevestigd door een Nixxes dev https://twitter.com/mempodev/status/1673759246498910208
En als voorbeeld, op de dag van de Starfield launch zijn er al twee mods die FSR vervangen voor DLSS in Starfield, en één daarvan heeft ook een XESS versie.
Hoogstwaarschijnlijk gehinderd is denk ik een betere omschrijving, maar daarnaast is DLSS een gesloten standaard alléén voor Nvidia kaarten. Dus wie zegt dat een Gamestudio om die reden niet de voorkeur geeft voor FSR dat wel op alle hardware kan draaien? Omdat DLSS propiertary is zullen de software tools om dit in een spel te implementeren ook niet vrij beschikbaar zijn lijkt mij.
Is er ook een lijst van games die enkel de support laat zien tijdens de launch daarvan? Veel FSR is achteraf toegevoegd.
Als consument heb ik trouwens liever dit dan andersom en vendor locked te zijn..
Dat hebben ze wel gedaan. Zie hier.cnieuweboer schreef op zondag 3 september 2023 @ 00:05:
Het is duidelijk waarom DLSS doorgaans niet beschikbaar is in AMD gesponsorde spellen. Meerdere mensen hebben AMD gevraagd (oa wffctech, hardware unboxed en gamersnexus) of ze contractueel DLSS verbieden/verboden, en AMD weigerd daar een duidelijk antwoord op te geven.
Omdat de game op die manier "beter" wordt voor Nvidia's klanten, maar niet voor de klanten van Intel en Nvidia. Lijkt me vrij eenvoudig. AMD heeft veel minder baat bij het betalen van devs voor FSR implementaties, omdat ze daar ook de concurrenten mee helpen.En waarom zou Nvidia een game developer uberhaupt betalen om DLSS toe te voegen?
Je bedoelt hoe het andersom ook zo is, waarbij FSR2 heel eenvoudig geïmplementeerd kan worden in games die al DLSS hebben en waarbij modders dat, net zoals met DLSS, ook gedaan hebben?DLSS maakt het spel beter, en is heel makkelijk toe te voegen aan spellen waarin FSR al beschikbaar is.
Een open standaard? Zoals FSR2 zelf bedoel je, dat volledig open source is en op alle GPU's werkt (effectiviteit op hele oude GPU's even daar gelaten), in tegenstelling tot slechts 3 generaties van Nvidia?Dat zou nog makkelijker zijn als AMD mee wil werken aan een open upscaling standaard, maar dat gaat waarschijnlijk niet gebeuren.
Of bedoel je zoiets als Nvidia's Streamline middleware voor RT, waar Nvidia het tot op de dag van vandaag heeft over "Nvidia plugins", "Intel plugins" en "Hardware Vendor #3"?
Als Nvidia een open standaard zou willen, waarom hebben ze dat dan niet meteen bij MS, AMD, Intel en de Khronos Group aangedragen?
Sorry, maar dit soort posts zijn gewoon FUD. Als er één partij is die 0,0 interesse heeft in open standaarden, is het Nvidia wel. OpenCL hebben ze bijvoorbeeld ook nooit echt aan mee gewerkt. Als ze dachten dat ze de macht er voor hadden, zouden ze net als Apple ook echt wel hun eigen render API introduceren. Godzijdank heeft Microsoft daar voor games de overmacht. Ik sta er nog steeds van te kijken dat ze wel soort van achter Vulkan staan.
Ga voor de gein eens kijken wat er écht open is van Nvidia, Intel en AMD. Één van die 3 is een stuk meer gesloten dan de andere twee. Kleine hint: hun kleur kun je niet met een ander combineren tot paars
Hun definitie van "open" is ook iets heel anders, want ze leveren dan vaak alsnog zwarte dozen.
Ik heb hier onlangs ook op de FP een reactie over geplaatst. Zie https://www.pcgamingwiki....t_high-fidelity_upscaling
Niets exact geteld (schrijf ik wel een script voor als het hier een keer regent
- ~400 games in totaal
- ~220 met een vorm van FSR
- ~280 met een vorm van DLSS
- ~50 FSR2 titels zonder DLSS; minder dan 5 daarvan zijn AAA (met andere woorden, vooral kleine devs die de gratis, open source oplossing implementeren)
- ~150 DLSS2 titels zonder FSR
- ~25 DLSS2 titels met FSR 1.0 (meer werk dus)
- ~75 games die DLSS2+ en FSR2+ hebben
Bijna de helft van de 400 is dus Nvidia-biased - en ja, sommige van die games zijn lang vóór FSR2 uit gekomen, dus dat is ze vergeven. Maar niet allemaal - en er zijn ook patches met nieuwere versies van DLSS uitgekomen voor sommige van die games.
Wat mij betreft is het juist DLSS dat games kapot maakt. Het zal me worst wezen dat het soms net iets beter werkt dan FSR2, want het werkt ook voor een beperkt deel van gamers. Zolang de meest populaire videokaarten nog steeds producten met een architectuur van 7 jaar geleden (Pascal; of TU116/117, die functioneel equivalent zijn) zijn heeft zulke exclusiviteit geen enkele bestaansreden. Dat is alsof 12 jaar geleden met D3D11 tessellation vanaf dag 1 vereist zou zijn voor alle games.
Laat MS, Intel, AMD en Sony de handen maar ineen slaan voor een universele, geoptimaliseerde techniek - waarschijnlijk met FSR2/3 als basis, net zoals Mantle de basis vormde voor de huidige API's. Laat Valve ook maar mee doen, want die hebben ook veel goed werk gedaan de laatste jaren. En als ik dan toch bezig ben, laat Apple hun gaming aspiraties maar eens waar maken en ook mee doen. Daar zouden wij, als consumenten, veel meer baat bij hebben dan bij zo'n techniek als DLSS die niet werkt juist op de producten die het momenteel hard nodig hebben. De GPU markt is nog steeds hartstikke kapot.
DLSS en FSR zijn beide geen standaarden, laat staan een open standaard. Software opensource maken, maakt het nog geen open standaard. Voor een mooie definitie zie https://www.itu.int/en/ITU-T/ipr/Pages/open.aspxCMT schreef op zondag 3 september 2023 @ 10:34:
Hoogstwaarschijnlijk gehinderd is denk ik een betere omschrijving, maar daarnaast is DLSS een gesloten standaard alléén voor Nvidia kaarten. Dus wie zegt dat een Gamestudio om die reden niet de voorkeur geeft voor FSR dat wel op alle hardware kan draaien?
Tot nu toe is er één intiatief geweest voor een open standaard, en dat is Streamline. AMD wil daar niet aan meewerken.
Dat is gewoon vrij beschikbaar.CMT schreef op zondag 3 september 2023 @ 10:34:
Omdat DLSS propiertary is zullen de software tools om dit in een spel te implementeren ook niet vrij beschikbaar zijn lijkt mij.
https://github.com/NVIDIA/DLSS
https://github.com/NVIDIAGameWorks/Streamline
Geen idee, maar persoonlijk vind ik dat niet zo belangrijk. De lijst met spellen is (wat mij betreft) alleen een reden om vragen te gaan stellen. Het wordt pas problematisch bij de antwoorden van AMD.CMT schreef op zondag 3 september 2023 @ 10:34:
Is er ook een lijst van games die enkel de support laat zien tijdens de launch daarvan? Veel FSR is achteraf toegevoegd.
Eens, maar op het randje. Door de weigering van AMD om mee te werken aan een open standaard, en de hogere kwaliteit van DLSS.CMT schreef op zondag 3 september 2023 @ 10:34:
Als consument heb ik trouwens liever dit dan andersom en vendor locked te zijn..
Ook dat is geen standaard. Dat is een shim waar gesloten blobs in geprikt kunnen worden, onder de controle van Nvidia.cnieuweboer schreef op zondag 3 september 2023 @ 10:54:
Tot nu toe is er één intiatief geweest voor een open standaard, en dat is Streamline. AMD wil daar niet aan meewerken.
Overigens doet ook Intel níet mee aan Streamline, ook al doet Nvidia het voor komen van wel. Streamline valt gewoon onder dezelfde berg "standaarden" die ze voor Linux geproduceerd hebben, waarbij het allemaal voor hun hardware bedoeld is, maar technisch beperkter is dan andere (vaak al bestaande) oplossingen waar ze zélf een bijdrage aan hadden kunnen leveren.
Vrij beschikbaar* ** **Dat is gewoon vrij beschikbaar.
https://github.com/NVIDIA/DLSS
https://github.com/NVIDIAGameWorks/Streamline
* Mits je een gesloten blob kan/wil gebruiken
** Mits je niet onder open source licentie werkt
*** Mits je NVIDIA en alles om hen heen ook verdedigt en van kwaad vrij spreekt wanneer nodig omtrent je product (geen grap, staat letterlijk in de licentie)
Een intiatief is geen uitkomst. De eerste stap is gezet, maar overduidelijk is er geen open standaard uitgekomen. Altijd nog beter dan doen daar principieel niet voor open staan. En een shim als standaard is geen enkel probleem.Werelds schreef op zondag 3 september 2023 @ 11:18:
Ook dat is geen standaard. Dat is een shim waar gesloten blobs in geprikt kunnen worden, onder de controle van Nvidia.
Ik heb daar alleen iets over gezien toen streamline voor het eerst werd geintroduceerd. En Intel leek destijds niet onwelwillend, ook tijdens interviews van Gamersnexus met.. (ben de naam kwijt, die Intel engineer die vaker interviews doet). Waar heeft Nvidia recent nog gezegd dat Intel meedoet?Werelds schreef op zondag 3 september 2023 @ 11:18:
Overigens doet ook Intel níet mee aan Streamline, ook al doet Nvidia het voor komen van wel.
Dus compleet anders dan de situatie met betreking tot FSR en DLSS.Werelds schreef op zondag 3 september 2023 @ 11:18:
Streamline valt gewoon onder dezelfde berg "standaarden" die ze voor Linux geproduceerd hebben, waarbij het allemaal voor hun hardware bedoeld is, maar technisch beperkter is dan andere (vaak al bestaande) oplossingen waar ze zélf een bijdrage aan hadden kunnen leveren.
Zoals 99.99% van de spellen al doet.Werelds schreef op zondag 3 september 2023 @ 11:18:
Vrij beschikbaar* ** **
* Mits je een gesloten blob kan/wil gebruiken
Zoals 99.99% van de spellen al doet.Werelds schreef op zondag 3 september 2023 @ 11:18:
** Mits je niet onder open source licentie werkt
In alle licentie voorwaarden staan vreemde dingen, die vooral een juridische betekenis hebben en niet goed vertalen naar informele taal. Als je dat toch probeert ga je tegen veel meer problemen aanlopen.Werelds schreef op zondag 3 september 2023 @ 11:18:
*** Mits je NVIDIA en alles om hen heen ook verdedigt en van kwaad vrij spreekt wanneer nodig omtrent je product (geen grap, staat letterlijk in de licentie)
Ok, ik bedoel techniek dan. Dat AMD of Intel trouwens niet aan Streamline wil meewerken is mijn inziens logisch. Het incorporeren van Nvidia (propertiary) features zoals Nvidia Reflex, DLSS, Denoiser, Image scaler mag dan vrij zijn, het gebruik daarvan niet. Het maakt de initiatief daarmee een wassen neus.cnieuweboer schreef op zondag 3 september 2023 @ 10:54:
[...]
DLSS en FSR zijn beide geen standaarden, laat staan een open standaard. Software opensource maken, maakt het nog geen open standaard. Voor een mooie definitie zie https://www.itu.int/en/ITU-T/ipr/Pages/open.aspx
Tot nu toe is er één intiatief geweest voor een open standaard, en dat is Streamline. AMD wil daar niet aan meewerken.
Nvidia kwam hier trouwens pas in maart 2022 mee, vlak voordat DLSS3 a.k.a Frame Generation/Interpolatie geïntroduceerd werd.
Ik weet verder niet of het überhaupt mogelijk is gebruik te mogen maken van Nvidia features via royalties. Het lijkt mij van niet.
Ik vind het just wel relevant als het gaat om de vraag of sponsoring ervoor zorgt dat integratie van een bepaalde upscaling techniek geblocked wordt. Zij het DLSS of FSR.Geen idee, maar persoonlijk vind ik dat niet zo belangrijk. De lijst met spellen is (wat mij betreft) alleen een reden om vragen te gaan stellen. Het wordt pas problematisch bij de antwoorden van AMD.
Als daarna een duidelijk patroon te zien is waarbij een tegenhangende upscaling techniek achteraf niet wordt toegevoegd, dan zie ik dat als sterker indirect bewijs.
Eigenlijk heeft AMD nog altijd geen officieel antwoord op de vraag gegeven.
Alleen via een interview i.v.m. Starfield zijn er aan aantal vragen beantwoord dat meer duidelijkheid schept.
Maar daar is ook veel geld mee gemoeid, dus dat er geen statement wordt gemaakt is te verwachten.
Persoonlijk vind ik het wel zwak dat AMD niet reageert. Nu heeft het een eigen leven geleid met vermoedens.
Afgaande op de definitie van open standaard die je eerder gepost hebt, is er geen open standaard om aan mee te werken? FRS is dan nog het meeste wat daar op lijkt = opensource en niet vendor locked.Eens, maar op het randje. Door de weigering van AMD om mee te werken aan een open standaard, en de hogere kwaliteit van DLSS.
Het is Nvidia die met een propiertary upscaling techniek aan kwam zetten en daarmee de concurrent ook dwong om met een eigen techniek op de proppen te komen.
In dat licht bekeken kan je Nvidia net zo goed verwijten om niet mee te werken aan een open standaard.
De hogere kwaliteit van DLSS vind ik verder niet zo belangrijk. Het verschil is niet groot, maar het nadeel van vendor locking wel.
FSR is beter omdat het open is.
DLSS is beter omdat de kwaliteit wat hoger ligt en extra functionaliteit biedt (DLSS 3).
- DLSS1 vond ik niets
- DLSS2 is goed
- DLSS3 was ik bij introductie niet enthousiast over maar nu bij gebruik in de praktijk blijkt het in mijn systeem een zeer waardevolle toevoeging bij niet competitieve games.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
De enige standaarden waar Nvidia aan mee heeft gewerkt zijn de standaarden waar letterlijke de hele rest van de industrie al in zit en omarmd heeft. En zelfs dan is hun ondersteuning vaak beperkt; zie OpenCL, zij waren eerder met CUDA en hun OpenCL ondersteuning is altijd vooral functioneel geweest. En wederom: Linux en alles daar in/omheen.cnieuweboer schreef op zondag 3 september 2023 @ 11:42:
Een intiatief is geen uitkomst. De eerste stap is gezet, maar overduidelijk is er geen open standaard uitgekomen. Altijd nog beter dan doen daar principieel niet voor open staan. En een shim als standaard is geen enkel probleem.
Nvidia staat principieel niet open voor open standaarden. Ze werken mee aan dingen als D3D en Vulkan omdat ze wel moeten; D3D omdat MS die macht nu eenmaal heeft, Vulkan omdat dat vanuit de Khronos Group komt en er was (én ondersteund werd!) voordat zij iets konden bedenken. En dát hebben we dan weer te danken aan AMD, dat met Mantle kwam, vrij beschikbaar maakte en die revolutie in gang zette. Nvidia had toen ook al meteen voor Mantle kunnen kiezen, maar dat deden ze niet.
Ik ben heel hard aan het denken over een open standaard die Nvidia heeft bedacht of omarmd vóórdat deze een industrie standaard was (en ze dus wel mee móesten); en nee, Streamline telt niet, omdat de licentie alles behalve open is. Door daar aan mee te doen dien je je te onderwerpen aan Nvidia.
Ik kan er serieus geen bedenken. Als jij er wel één weet, hoor ik dat graag.
Datzelfde plaatje staat nog steeds op hun eigen Streamline pagina: https://developer.nvidia.com/rtx/streamlineIk heb daar alleen iets over gezien toen streamline voor het eerst werd geintroduceerd. En Intel leek destijds niet onwelwillend, ook tijdens interviews van Gamersnexus met.. (ben de naam kwijt, die Intel engineer die vaker interviews doet). Waar heeft Nvidia recent nog gezegd dat Intel meedoet?
Het is nog steeds Nvidia, Intel en Hardware Vendor #3. Zeg nou zelf, als Nvidia echt zo welwillend was, zouden ze toch zeker ook de ballen hebben hun grootste concurrent bij naam te noemen, in plaats van enkel de nieuwe speler op de GPU markt?
Vind je?Dus compleet anders dan de situatie met betreking tot FSR en DLSS.
Wederom, als Nvidia zo welwillend is, waarom stellen ze dan geen DLSS SDK beschikbaar waarmee bepaalde berekeningen versneld kunnen worden door drivers van derden? Hoeft niet eens broncode te zijn, een simpele API waar andere fabrikanten aan kunnen voldoen zou al genoeg zijn. Het gaat immers vooral om matrix vermenigvuldiging, wat zowel Intel en AMD kunnen versnellen. Dan zou DLSS alweer een stuk breder beschikbaar zijn. Of dat dan hetzelfde zou presteren is twijfelachtig, maar dát zouden de eerste stappen zijn.
Ze hadden het idee ook gewoon bij MS en/of de Khronos Group aan kunnen dragen, zodat er vanaf dag 1 aan een open standaard gewerkt had kunnen worden zónder onderwerping aan Nvidia.
Het zal mij persoonlijk verder worst wezen hoe DLSS, FSR en XeSS zich verhouden, want ik blijf er bij dat al deze frame-benaderingen een stap terug zijn. We renderen niet meer sneller en beter, we gokken beter.
Maar zeggen dat het AMD (of Intel) is die niet aan een "open" standaard van Nvidia mee wil werken is gewoon onzin. Er is niets open aan, want het ligt volledig in handen van Nvidia.
Uiteindelijk ligt de verantwoordelijkheid toch bij de devs, want alle grote engines hebben inmiddels plug 'n play integraties van alle 3 de oplossingen - en in elk geval tussen DLSS2+/FSR2+ is de integratie nagenoeg identiek en zie ik persoonlijk geen reden níet beide te implementeren...tenzij je een onzinnig contract getekend, danwel licentie geaccepteerd, hebt.
Als voor of AMD wel en niet dlss tegenhoudt, tja we zullen het nooit zeker weten. Mensen die het wel weten zitten aan een NDA en mensen die niet onder NDA vallen hebben baat bij om AMD in goed licht te zetten. Zelf heb ik een Nvidia kaart en ik vind het jammer dat ik straks Starfield zonder dlss. Maar weet je ik heb de beelden gezien en fsr lijkt goed genoeg te werken. Mijn gok is dat ze dat bij Bethesda ook dachten. Waarom nog dlss implementeren als fsr ook werkt.
Ja de ene is snel te implementeren als je de andere techniek al hebt. Maar implementatie is maar een klein deel van de puzzel. Alles moet getest worden op verschillende hardware en de ui eromheen moet ook goed werken, iets wat andere graphics ontwikkelaars ook lijken te steunen. Als dat zo makkelijk is, waarom had Cyberpunk bij release dan een bug dat zo maar fsr aan zette? Iets wat zelfs per ongeluk in sommige charts bij benchmarks ingesneakd was. Of toen FG geïntroduceerd was kon je het aanzetten op een systeem met een AMD videokaart. En Cyberpunk is niet de enige spel, ik heb ook spellen voorbij zien komen die er met dlss slechter uit zagen dan met fsr omdat ze vergeten waren de motion vectors mee te leveren, of omdat de mipmap bias niet goed ingesteld was. Ik vind het dus niet erg dat sommige spellen alleen maar met fsr komen, zolang de implementatie maar goed is. Dat is altijd beter dan een buggy implementatie van dlss.
Bij HUB is de 7900XTX zo'n 10% sneller op 1080p. Lijkt dat AMD misschien toch minder last heeft van die geheugen bandbreedte bottleneck. Het onderbouwd in ieder geval mijn eerdere stelling.Sp3ci3s8472 schreef op zondag 3 september 2023 @ 01:47:
Als je bedoelt dat AMD kaarten misschien minder last van de geheugen bandbreedte bottleneck hebben, dat is inderdaad een aanname van mij en ik wacht ook op een goede review die dat of onderbouwd of debunked. Ik bracht mijn stelling ook niet als waarheid.
YouTube: Starfield: 32 GPU Benchmark, 1080p, 1440p, 4K / Ultra, High, Medium
Maar Nvidia kan het doen, omdat ze stelselmatig voorlopen met zulk soort software opties. Dat AMD dan met een open standaard komt, is op zijn minst gedeeltelijk omdat ze wel een voordeel moeten bieden tov wat Nvidia heeft.Werelds schreef op zondag 3 september 2023 @ 12:53:
[...]
De enige standaarden waar Nvidia aan mee heeft gewerkt zijn de standaarden waar letterlijke de hele rest van de industrie al in zit en omarmd heeft. En zelfs dan is hun ondersteuning vaak beperkt; zie OpenCL, zij waren eerder met CUDA en hun OpenCL ondersteuning is altijd vooral functioneel geweest. En wederom: Linux en alles daar in/omheen.
Nvidia staat principieel niet open voor open standaarden. Ze werken mee aan dingen als D3D en Vulkan omdat ze wel moeten; D3D omdat MS die macht nu eenmaal heeft, Vulkan omdat dat vanuit de Khronos Group komt en er was (én ondersteund werd!) voordat zij iets konden bedenken. En dát hebben we dan weer te danken aan AMD, dat met Mantle kwam, vrij beschikbaar maakte en die revolutie in gang zette. Nvidia had toen ook al meteen voor Mantle kunnen kiezen, maar dat deden ze niet.
Ik ben heel hard aan het denken over een open standaard die Nvidia heeft bedacht of omarmd vóórdat deze een industrie standaard was (en ze dus wel mee móesten); en nee, Streamline telt niet, omdat de licentie alles behalve open is. Door daar aan mee te doen dien je je te onderwerpen aan Nvidia.
Ik kan er serieus geen bedenken. Als jij er wel één weet, hoor ik dat graag.
Van wat ik van Starfield heb gezien (mijn RX7900XT kwam zonder), denk ik eigenlijk dat een andere, simpelere verklaring hier speelt. Ik vermoed eigenlijk dat er geen duistere deals met clausules zijn. Ik denk gewoon dat het een Todd Howard game is waar ze op de meest simpele manier iets hebben afgevinkt. Game moet upscaling hebben en dan doen we toch FSR2 want dat werkt op alle GPU's en de Xbox Series S/X. Modders mogen het dan oplossen, zoals altijd.Sp3ci3s8472 schreef op zaterdag 2 september 2023 @ 14:02:
Deze is best interessant, Nvidia kaarten zijn niet al te snel in Starfield:
[YouTube: Starfield GPU Benchmarks & Comparison: NVIDIA vs. AMD Performance]
Schijnbaar krijgt de gaming divisie van Nvidia minder geld dan dat ze zouden willen voor het optimaliseren van drivers voor Starfield:
[YouTube: RX 7800 / 7700 XT Benchmark Leak: AMD doesn't need Starfield to Win]
Dit is schijnbaar ook de reden dat DLSS niet in alle titels zit waar FSR in zit? Dit is volgens bronnen binnen Nvidia die Moores Law is Dead heeft. Het is niet dat AMD het blokkeerd, het is dat de gaming divisie binnen Nvidia niet genoeg budget heeft (minder dan ze zouden willen).
De game lijkt namelijk niet bepaald goed om te gaan met CPU's. Totaal onverwacht met Bethesda.

Resultaat is dat de game eigenlijk al slecht draait op veel AMD videokaarten en soms ronduit waardeloos op Nvidia. Je hebt voor zoveel videokaarten gewoon FSR2 nodig om überhaupt een speelbare frame rates te behalen. En ik zie de grafische verklaring ervoor echt niet.
Ik weet ook niet of ik zomaar geloof dat Nvidia weinig moeite gestoken heeft in optimalisatie. Ik vermoed eerder dat deze game dusdanig flinke problemen heeft in de hele render pipeline dat Nvidia hun aanpak van meer shaders/lagere occupency gewoon niet werkt omdat ze hun shaders niet aan het werk krijgen, omdat er niet genoeg werk is. Daarom lijken de RX7600 en RTX4060 dicht bij elkaar te liggen en word het steeds slechter voor Nvidia met de grotere GPU's. Pas op 4K herstelt het zich weer een beetje, maar voornamelijk de RTX4090. Ondertussen lijkt RDNA beter om te gaan met de niet geoptimaliseerde zooi die nu uit Bethesda is gekomen.
Als hier al een sinistere deal was geweest, dan had het voor FSR3 moeten zijn. Want deze game lijkt het nodig te hebben. Maar ja, dat werkt ook voor Nvidia, Intel en de Xbox.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Wellicht iets te maken met instancing? Als ik het goed begrijp wordt een groot gedeelte van de wereld procedureel gegenereerd wat zich met die engine misschien minder goed leent voor dingen zoals instancing?DaniëlWW2 schreef op zondag 3 september 2023 @ 15:18:
[...]
Van wat ik van Starfield heb gezien (mijn RX7900XT kwam zonder), denk ik eigenlijk dat een andere, simpelere verklaring hier speelt. Ik vermoed eigenlijk dat er geen duistere deals met clausules zijn. Ik denk gewoon dat het een Todd Howard game is waar ze op de meest simpele manier iets hebben afgevinkt. Game moet upscaling hebben en dan doen we toch FSR2 want dat werkt op alle GPU's en de Xbox Series S/X. Modders mogen het dan oplossen, zoals altijd.
De game lijkt namelijk niet bepaald goed om te gaan met CPU's. Totaal onverwacht met Bethesda.![]()
Resultaat is dat de game eigenlijk al slecht draait op veel AMD videokaarten en soms ronduit waardeloos op Nvidia. Je hebt voor zoveel videokaarten gewoon FSR2 nodig om überhaupt een speelbare frame rates te behalen. En ik zie de grafische verklaring ervoor echt niet.
Ik weet ook niet of ik zomaar geloof dat Nvidia weinig moeite gestoken heeft in optimalisatie. Ik vermoed eerder dat deze game dusdanig flinke problemen heeft in de hele render pipeline dat Nvidia hun aanpak van meer shaders/lagere occupency gewoon niet werkt omdat ze hun shaders niet aan het werk krijgen, omdat er niet genoeg werk is. Daarom lijken de RX7600 en RTX4060 dicht bij elkaar te liggen en word het steeds slechter voor Nvidia met de grotere GPU's. Pas op 4K herstelt het zich weer een beetje, maar voornamelijk de RTX4090. Ondertussen lijkt RDNA beter om te gaan met de niet geoptimaliseerde zooi die nu uit Bethesda is gekomen.
Als hier al een sinistere deal was geweest, dan had het voor FSR3 moeten zijn. Want deze game lijkt het nodig te hebben. Maar ja, dat werkt ook voor Nvidia, Intel en de Xbox.
Ook FSR2 lijkt vrij weinig te doen in sommige instanties, met name op Nvidia kaarten.
Ik wacht nog even voor ik het spel ga kopen (het blijft een Bethesda spel dus ik wacht o.a. op updates
Daniel Owen had een snelle test gedaan met verschillende CPU's op 1080p met 50% resolution scale, dus eigenlijk 540p op een 4090: YouTube: Starfield CPU Bottlenecks Tested- Is your CPU ready for Starfield?. Ziet er echt uit dat dit spel CPU limited is. De gedeeltes waar de fps echt laag is, is juist de stad en die is niet procedureel gegenereerd maar met de hand gemaakt lijkt me. De cpu limit kan ook in totaal iets anders liggen zoals AI of zo. Ik heb me nooit in de scripting taal van de creation kit engine gekeken dut dit is maar een gok maar veel custom scripting talen in spellen worden vaak naar zelfbedachte bytecode gecompileerd en gebruiken vaak in-house interpreters. Deze zijn minder doorontwikkeld als .net, python of lua oid. Dus geen hippe features zoals JIT compilation. Daar kan dus behoorlijk wat CPU overhead in zitten.Sp3ci3s8472 schreef op zondag 3 september 2023 @ 16:35:
[...]
Wellicht iets te maken met instancing? Als ik het goed begrijp wordt een groot gedeelte van de wereld procedureel gegenereerd wat zich met die engine misschien minder goed leent voor dingen zoals instancing?
Ook FSR2 lijkt vrij weinig te doen in sommige instanties, met name op Nvidia kaarten.
Ik wacht nog even voor ik het spel ga kopen (het blijft een Bethesda spel dus ik wacht o.a. op updates), heb namelijk nog niet gekeken of het goed op Linux draait middels Proton. Het zou hilarisch zijn als het met Proton beter draait dan op Windows zo meteen.
Tja Ampere en Ada ondersteunen geen double rate FP16, waar FSR2 juist veel gebruik van maakt.Sp3ci3s8472 schreef op zondag 3 september 2023 @ 16:35:
[...]
Wellicht iets te maken met instancing? Als ik het goed begrijp wordt een groot gedeelte van de wereld procedureel gegenereerd wat zich met die engine misschien minder goed leent voor dingen zoals instancing?
Ook FSR2 lijkt vrij weinig te doen in sommige instanties, met name op Nvidia kaarten.
Het is ook zo dat we eigenlijk pas iets meer dan een jaar, überhaupt FSR2 en XeSS hebben.PjotrX schreef op zondag 3 september 2023 @ 13:33:
Om van upscalingtechhnieken een standaard te maken moet het in zowel Vulkan als DirectX komen, en moeten alle IVH's het ondersteunen. Maar daar is het eigenlijk gewoon te vroeg voor. Intel kwam maar nog net aan met XeSS. Verder zijn de technieken gewoon nog niet goed genoeg uitontwikkeld. Nieuwe versies bieden steeds nieuwe toevoegingen en wijzigingen aan de api. Zowel Microsoft en Khronos Group zouden dit niet bij kunnen houden. Laat de techniek eerst stabiliseren en dan komt er vanzelf wel een standaard. Om er nu al een standaard van te maken belemmert alleen de vooruitgang want het zorgt ervoor dat de IHV's minder snel verbeteringen kunnen toevoegen aangezien de specificatie, en ook dus de inputs, ineens vast staan.
Het is ook wel noemenswaardig dat qua upscaling relevante lage precisie capaciteiten, Intel en AMD eigenlijk behoorlijk vergelijkbaar zijn.
ARC en RDNA doen immers 2x FP16 per ALU in packed math. Voor AMD dus 64x FP15 per SIMD32 en voor ARC 32x FP16 omdat Intel haar SIMD32 net zoals Turing bestaat uit 16x FP en 16x INT. Turing doet hetzelfde als ARC hier. Ampere en Ada hebben geen 2x FP16 packed math meer. Die draaien FSR2 noodgedwongen in de FP32 fall back layer.
Vervolgens doen ARC haar XMX engines, RDNA3 WMMA en de twee Turing tensor cores met SIMD32 allen 128x INT8 per clock (256 met FMA). Ampere en Ada hebben een tensor core per SIMD32 met dezelfde 128x INT8 (256 met FMA) als twee Turing tensor cores.
Intel zou de XMX versie van XeSS beschikbaar kunnen maken voor RDNA3 en Turing/Ampere/Ada. Dat ze het niet doen is, vermoed ik, omdat Intel graag dat voordeel over AMD wil behouden alsmede een forse lijst aan andere software zaken moet aanpakken. Helaas want XeSS lijkt soms beter te zijn dan FSR2 en de openstelling aan RDNA3 zou ook verbeteringen voor FSR2 kunnen afdwingen.
De andere kant op is dat nu AMD hun eigen frame generation heeft en er komt ook een FSR2 native resolution AA mode. Gezien het langzame uitsterven van MSAA en de vaak slechte TAA, is dat zeker welkom als standaard optie. Zeker als je ook de FSR2 sharpening slider geïmplementeerd krijgt.
Ze kunnen daar nu wel eens de focus gaan leggen op FSR2 verbeteren met matrix hardware ondersteuning. Immers ondersteunt RDNA3 ook 128x FP16 (256 FMA) in matrix mode. Intel haar XMX engine doet daar 64 (128 FMA). Turing haar twee tensor cores doen elk 32x FP16 (64 FMA) Totaal is dus 64x FP16 (128 FMA). Ampere en Ada doen ook 128x FP16 (256 FMA) met de enkele tensor core. In theorie zou AMD het kunnen spelen dat ze een open source "FSR2 AI quality" maken die meer rekenkracht tot haar beschikking heeft met RDNA3 dan ARC of Turing. Ampere en Ada trekken dat gelijk. Of die mode komt alleen voor RDNA3 zoals Intel het met XeSS heeft gedaan. In dat geval zou met name Nvidia zwaar benadeeld worden. Immers doen Turing, Ampere en Ada elk maar 32x FP16 (64 met FMA) per clock.
Probleem daar is alleen dat ze comptabiliteit met RDNA1 en RDNA2 opgeven of een fall back moeten maken met shader based FP16, waarmee je voor de extra kwaliteit, minder frame rate verbetering haalt uit de upscaling omdat er meer workload op de ALU's valt. Een dergelijke fall back zou ook redelijk moeten werken op ARC. Op Nvidia niet. Een potentieel cynisch argument voor AMD om het zo te doen en dan echt proberen DLSS2 in de hoek te drukken met een kwalitatief hoogwaardigere FSR2. Want dat algoritme lijkt echt niet slecht te zijn. Maar een verdubbeling van rekenkracht zou denk ik niet mis staan. Dat is dan alleen voornamelijk wel voor RDNA3. Intel en Nvidia
Want inhakend op de discussie hiervoor. Nvidia open sourced echt bijna niks. Nvidia geeft überhaupt zelden toegang tot hun tech aan derden. DLSS2 zie ik niet beschikbaar komen voor AMD of Intel. Het is inmiddels tot het niveau dat DLSS2 game ondersteuning, vrij standaard word vermeld in Nvidia haar kwartaalcijfers. Het is allang geen extra meer. Het is een vitaal onderdeel van hun marketingstrategie. Dat gaan ze niet opgeven. En dat zou het ook juist zo relevant voor zowel Intel als AMD moeten maken om het te doorbreken.
Er is al een DLSS2 mod.Als voor of AMD wel en niet dlss tegenhoudt, tja we zullen het nooit zeker weten. Mensen die het wel weten zitten aan een NDA en mensen die niet onder NDA vallen hebben baat bij om AMD in goed licht te zetten. Zelf heb ik een Nvidia kaart en ik vind het jammer dat ik straks Starfield zonder dlss. Maar weet je ik heb de beelden gezien en fsr lijkt goed genoeg te werken. Mijn gok is dat ze dat bij Bethesda ook dachten. Waarom nog dlss implementeren als fsr ook werkt.
Dit ja.Ja de ene is snel te implementeren als je de andere techniek al hebt. Maar implementatie is maar een klein deel van de puzzel. Alles moet getest worden op verschillende hardware en de ui eromheen moet ook goed werken, iets wat andere graphics ontwikkelaars ook lijken te steunen. Als dat zo makkelijk is, waarom had Cyberpunk bij release dan een bug dat zo maar fsr aan zette? Iets wat zelfs per ongeluk in sommige charts bij benchmarks ingesneakd was. Of toen FG geïntroduceerd was kon je het aanzetten op een systeem met een AMD videokaart. En Cyberpunk is niet de enige spel, ik heb ook spellen voorbij zien komen die er met dlss slechter uit zagen dan met fsr omdat ze vergeten waren de motion vectors mee te leveren, of omdat de mipmap bias niet goed ingesteld was. Ik vind het dus niet erg dat sommige spellen alleen maar met fsr komen, zolang de implementatie maar goed is. Dat is altijd beter dan een buggy implementatie van dlss.

DLSS2 is in principe de beste nu. Dat komt waarschijnlijk vooral omdat Nvidia er al langer mee bezig is en het alleen laat draaien op zeer specifieke hardware. Er is voor DLSS2 gewoon een beduidend hogere minimale hardware standaard. Maar nog steeds hebben veel gamers die hardware niet.
FSR2 is vooralsnog het beste antwoord, maar lijkt ook wel te vragen om een goed aangepaste implementatie. Dan is er ook nog XeSS. Daarmee loop je altijd het risico dat niet elke upscaler even goed geïmplementeerd is. Het liefst heb ik er ook maar een. Of het XeSS of FSR2 is, kan me weinig schelen. Ideaal gezien worden beiden ook voorzien van bredere en meer capabele hardware ondersteuning zodat je niet echt de situatie krijgt dat je het "juiste merk" videokaart moet hebben voor de beste ervaring. Dat staat me namelijk tegen aan hoe XeSS nu is. Zoals ik hierboven al zei. AMD kan dit ook doen. Ik hoop van niet, maar ik vermoed dat dit ook gaat komen waarbij Turing, RDNA1-2 en ARC met minder capabele hardware zitten.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
In sommige gevallen is Nvidia eerder, maar er is gewoon een filosofisch verschil in de aanpak van dit soort dingen tussen de bedrijven. Zelfs toen AMD/ATI de overhand had, deden zij niet dit soort dingen en Intel doorgaans ook niet. En dat heeft weer te maken met het feit dat die bedrijven (Intel, AMD en toentertijd ATI, maar ook bijvoorbeeld Matrox, Cirrus, Apple, enzovoort) uit een tijd stammen dat er veel meer concurrentie was en niemand zo'n overmacht kon krijgen; hooguit IBM zou je dat toe kunnen schrijven, maar zelfs dat was niet vergelijkbaar omdat er toen ook wat losser om werd gegaan met reverse engineering en dergelijke (godzijdankSissors schreef op zondag 3 september 2023 @ 14:49:
[...]
Maar Nvidia kan het doen, omdat ze stelselmatig voorlopen met zulk soort software opties. Dat AMD dan met een open standaard komt, is op zijn minst gedeeltelijk omdat ze wel een voordeel moeten bieden tov wat Nvidia heeft.
Er zijn tal van voorbeelden waar je dit kunt zien (Mantle/Vulkan/D3D12 heb ik al genoemd), mijn favoriete voorbeeld daarvan is echter tessellation. Het idee van tessellation bestaat al heel lang. AMD (of toen, ATI) kan dat al in hardware sinds 2001 - alles vanaf de 8500 en nieuwer heeft een vorm van tessellation in hardware (ook Xenos in de Xbox); TruForm noemden ze dat. Het had in 2007 als vereiste in D3D10 moeten komen, maar Nvidia was er nog niet klaar voor, dus het kwam pas in 2008 in D3D11 (eigenlijk SM 5.0). De units in de oudere GPU's waren helaas niet compatible met die spec (vooral vanwege de pipeline structuur), maar functioneel deed het hetzelfde. In de paar games/engines die de extensies wel ondersteunden, werkte het wel goed en kostte het nagenoeg geen performance. Dat kwam doordat het ook met weinig input werkte en pipelines toen heel anders in elkaar zaten; nadeel was dat het soms wel rare dingen deed (werkte bijvoorbeeld voor geen meter met de wapen models in CS 1.x

In die tijd had ATI dat er makkelijk door kunnen drukken bij devs in die periode, maar zo werkte het bedrijf simpelweg niet - en dat is met de overname niet veranderd. Als business model is Nvidia's aanpak beter als je het succesvol uitvoert, maar voor ons als consument is die aanpak juist ruk. De consument heeft 0,0 baat bij Nvidia's aanpak, want features worden op die manier op een subset van hardware ondersteund en lopen zo het risico niet gebruikt te worden en een stille dood te sterven.
Het probleem daar is dat het onder andere Frank Azor is, een bewezen fantast met een historie van zaken die op zijn best marketing blunders genoemd kunnen worden en / of minachting voor de klant. AMD had, willen ze in deze geloofwaardig overkomen, het best een andere C-Suite executive uit de kast kunnen trekken voor die statement
Persoonlijk had ik graag gezien dat AMD deze man nooit had aangenomen, en nu hoop ik dat ze z.s.m afscheid nemen na de PR debacles de afgelopen jaren van deze man, vooral op Twitter. Denk bijvoorbeeld aan dit 'gedoe' op Twitter destijds over launch volumes.. https://wccftech.com/amd-...000-graphics-card-volume/
Daarnaast, wordt er zelfs tijdens het gesprek om de hete brij heen gedraaid door Frank, zoals de journalist opmerkt tijdens de inleiding van het artikel.
Maar wat mij als AMD aandeelhouder nog het meest irriteert, waarom nu na bijna 2 maand oid zo'n halfslachtige statement bij The Verge (al is het iets minder halfslachtig dan de statement in juni). Waarom niet kort maar krachtig destijds de waarheid vertellen toen HUB, GN, WCCFTech e.d. daar mee bezig waren terwijl Nvidia dat wel deed. Ik snap dat dus niet, tenzij ze destijds de waarheid niet kort maar krachtig konden vertellen omdat er toch 'iets' speelde. Wat dat iets dan ook exact was.AMD gaming chief Frank Azor is trying to thread a needle. He seemingly wants to say that AMD did not actually make Starfield, quite possibly the year’s biggest PC game, exclusively support AMD’s FSR upscaling technology at the expense of competitors like Nvidia DLSS.
But he clearly can’t. Azor says he can’t say what the contract includes. Instead, he repeatedly lands on this: “If they want to do DLSS, they have AMD’s full support.” He says there’s nothing blocking Bethesda from adding it to the game.
Dan heb je ook nog deze tweet (ondertussen verwijderd):Dennism schreef op maandag 4 september 2023 @ 13:05:
[...]
Het probleem daar is dat het onder andere Frank Azor is, een bewezen fantast met een historie van zaken die op zijn best marketing blunders genoemd kunnen worden en / of minachting voor de klant. AMD had, willen ze in deze geloofwaardig overkomen, het best een andere C-Suite executive uit de kast kunnen trekken voor die statement
Persoonlijk had ik graag gezien dat AMD deze man nooit had aangenomen, en nu hoop ik dat ze z.s.m afscheid nemen na de PR debacles de afgelopen jaren van deze man, vooral op Twitter. Denk bijvoorbeeld aan dit 'gedoe' op Twitter destijds over launch volumes.. https://wccftech.com/amd-...000-graphics-card-volume/
Daarnaast, wordt er zelfs tijdens het gesprek om de hete brij heen gedraaid door Frank, zoals de journalist opmerkt tijdens de inleiding van het artikel.
[...]
Maar wat mij als AMD aandeelhouder nog het meest irriteert, waarom nu na bijna 2 maand oid zo'n halfslachtige statement bij The Verge (al is het iets minder halfslachtig dan de statement in juni). Waarom niet kort maar krachtig destijds de waarheid vertellen toen HUB, GN, WCCFTech e.d. daar mee bezig waren terwijl Nvidia dat wel deed. Ik snap dat dus niet, tenzij ze destijds de waarheid niet kort maar krachtig konden vertellen omdat er toch 'iets' speelde. Wat dat iets dan ook exact was.
https://www.reddit.com/r/...al_foundry_what_i_can_sayJohn Linneman (Digital Foundry) "What I can say, because it was on DF Direct, is that I've personally spoken with three devs that implemented DLSS pre-release and had to remove it due to sponsorship."
Hij verduidelijkt wel dat hij geen weet heeft van Starfield en dat dit niet één van de devs was die hij heeft gesproken:
https://twitter.com/dark1x/status/1698394695922000246
Nogal wat rook eerlijk gezegd.
De verklaring die het best past bij de communicatie is dat AMD wel degelijk beperkingen had in (sommige) van hun contracten, maar dat ze dit na de ophef aangepast hebben.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Is dit vanuit Nvidia zelf gezegd of gewoon een aanname?Ludewig schreef op woensdag 6 september 2023 @ 15:48:
Ik denk dat de AI-boom ervoor zorgt dat deze bedrijven minder ontwikkelcapaciteit alloceren aan de grafische kant (naar verluid heeft Nvidia al behoorlijk wat ontwikkelaars van het driver-team verplaatst naar de AI-teams) en dat de prijzen relatief hoog blijven.
Volgens MLID is dat door een lekker binnen Nvidia aan hem verteld als verklaring waarom Starfield nu zo matig draait op Nvidia kaarten.3DEXP schreef op woensdag 6 september 2023 @ 17:12:
[...]
Is dit vanuit Nvidia zelf gezegd of gewoon een aanname?
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Dan weet ik genoeg. Kan er niks mee.Ludewig schreef op woensdag 6 september 2023 @ 18:50:
[...]
Volgens MLID is dat door een lekker binnen Nvidia aan hem verteld als verklaring waarom Starfield nu zo matig draait op Nvidia kaarten.
Zolang zaken 'geleaked' door MLID niet door anderen onafhankelijk bevestigd worden zal er vanwege zijn trackrecord altijd vermoed ik wel een zweem van onbetrouwbaarheid aan blijven hangen.Ludewig schreef op woensdag 6 september 2023 @ 18:50:
[...]
Volgens MLID is dat door een lekker binnen Nvidia aan hem verteld als verklaring waarom Starfield nu zo matig draait op Nvidia kaarten.
Die heeft voor velen in het verleden iets teveel met hagel geschoten en wat te vaak zaken verwijderd om nog direct het voordeel van de twijfel te krijgen.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
https://www.techpowerup.c...ss-35-ray-reconstruction/
Ik heb de plaatjes vergeleken, maar beter dan native is erg wensvol of ze hebben een MyFi definitie van wat beter is. Er zijn bepaalde objecten die er 'beter' uitzien, maar dat kan ook vanwege een soort sharpening effect komen/inkleuren van 'schaduw'. Globaal gezien redelijk wat detail verlies, dat vooral te zien is aan de textures, diepte van de schaduw, bomen die op een redelijke afstand staan etc.
Kijk maar eens hoe dramatisch de laatste afbeelding is, waarbij het detail van de marmeren vloer bijna helemaal verloren gaat. Het blijft een upscale poetsmiddel mensen en zal globaal niet beter zijn dan Native.
En nooit beter dan Native + DLAA.
Rare conclussie van TPU want soms zijn de reflecties inderdaad scherper, in andere screenshots is zoveel detail verloren vergeleken met native en normale DLSS dat je niks meer ziet; bijvoorbeeld:3DEXP schreef op donderdag 21 september 2023 @ 17:15:
DLSS 3.5. Ray reconstruction review. Better than native.
https://www.techpowerup.c...ss-35-ray-reconstruction/
In het tweede plaatje verdwijnt ineens links een lamp in de container die op native en met normale DLSS wel aanwezig zijn.
In het laatste plaatje is de hele reflectie rechtsonder raar en zijn alle details van de tegels weg. Het ziet er echt niet uit imho.
Dit is wat ik heb gevonden door snel even te kijken, dus er zullen vast nog wel meer dingen zijn die raar zijn. Het idee is leuk, maar het is er nog lang niet naar mijn mening eerder een DLSS 1.* waar het pas goed werd met 2.*; misschien dat het over een jaar wat is.
Ik zou het zelf niet aanzetten gezien de geringe performance winst en de nogal afwijkende resultaten.
Hmm, dit soort dingen lijken mij meer bugs in de game/engine dan inherent aan ray reconstruction. Bij gamers nexus hebben ze het ook getest en ze zeiden ook dat er veel bugs waren. Vooral als men settings ging veranderen, dan moest je soms het spel restarten voordat de nieuwe settings enig effect hadden. Het verbaast me ook niet echt, eerdere versies van Cyberpunk hadden er ook last van (bijvoorbeeld dat je dlss kon aanzetten met een amd kaart). Cyberpunk heeft nu zowel een rasterized, ray-tracing en een path tracing rendering path en met ray reconstruction aan en uit en dit is los van alle andere instellingen die je kan tweaken. Elke path verreist een ander volgorde van rendering. Soms worden zelfs andere modellen en textures gebruikt (als je bijvoorbeeld geen ssr or ray traced reflections hebt ga je over naar een material met een environment map en zo zijn er veel andere voorbeelden). Het kan best wel zijn dat men hier en daar een verkeerde combinatie van assets heeft gebruikt en men dat over het hoofd heeft gezien of geen tijd had om te fixen voor de release. Zelf werk ik veel met Unreal Engine, dat is ook zo'n engine die alles moet kunnen en daar zie je ook dat niet elke rendering feature goed werkt bij alle combinatie van settings.Sp3ci3s8472 schreef op vrijdag 22 september 2023 @ 01:19:
[...]
Rare conclussie van TPU want soms zijn de reflecties inderdaad scherper, in andere screenshots is zoveel detail verloren vergeleken met native en normale DLSS dat je niks meer ziet; bijvoorbeeld:
In het tweede plaatje verdwijnt ineens links een lamp in de container die op native en met normale DLSS wel aanwezig zijn.
In het laatste plaatje is de hele reflectie rechtsonder raar en zijn alle details van de tegels weg. Het ziet er echt niet uit imho.
Dit is wat ik heb gevonden door snel even te kijken, dus er zullen vast nog wel meer dingen zijn die raar zijn. Het idee is leuk, maar het is er nog lang niet naar mijn mening eerder een DLSS 1.* waar het pas goed werd met 2.*; misschien dat het over een jaar wat is.
Ik zou het zelf niet aanzetten gezien de geringe performance winst en de nogal afwijkende resultaten.
Maar als settings niet werden toegepast dan moet dat gelijk zichtbaar zijn in de vergelijking.
Tot nu toe heb ik duidelijke verschillen gezien tussen Native, DLSS en DLSS+RR.
Kan het niet gewoon zijn dat de denoiser veel te aggressief is i.c.m. RR?
TPU geeft verder zelf ook aan dat er veel gedoe is met settings, dus ze zijn op de hoogte van de quirks en 'bugs'.
Voor de conclusie veranderd er echter niets. Wanneer de afbeeldingen met elkaar vergeleken worden is de statement die TPU maakt is gewoon onwaar. Ik zou haast denken dat de titel clickbait is of dat ze op de DLSS bandwagon gesprongen zijn.
Maar RR schijnt ook een flinke beperking te hebben op dit moment:
Wat bij mij de vraag oproept waarom het niet op Native werkt als RR de denoiser alleen 'intelligenter' maakt met patroon herkenning?Unfortunately Ray Reconstruction is not supported with DLAA or rendering at native resolution. NVIDIA confirmed that they will be training RR for DLAA in the future. What's even more problematic in my opinion is that right now, Ray Reconstruction only works with Path Tracing enabled. This limits the technology to very few gamers—basically those with RTX 4080 or RTX 4090. Everybody else will be playing with classic ray tracing, or even RT disabled. From a technology perspective, nothing stops Ray Reconstruction from working with classic Ray Tracing effects.
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.