Vraag


Acties:
  • 0 Henk 'm!

  • Cirolf
  • Registratie: April 2013
  • Laatst online: 04-06 15:40
Hi Tweakers,

Dankzij verkoop van een oude GPU en een mooie deal hier op de Vraag en Aanbod heb ik een gloednieuwe 4090 Gamerock OC op de kop kunnen tikken. Eerste keer een absolute top GPU voor mij.

Ik merk echter dat tijdens verschillende games de GPU usage tussen de 50 en de 70% schommelt. Zie screenshot van hogwarts legacy hieronder. Dat screenshot is op 4K Ultra met DLSS quality aan. Ik merk ook dat wanneer ik DLSS uit zet, de usage iets omhoog gaat en dus ook de performance. Komt erop neer dat de extra frames van DLSS gecompenseerd worden door een lagere usage waardoor er netto niet veel verandert.

Afbeeldingslocatie: https://tweakers.net/i/KAfcHdPH0eEPs-IsBNVr0dIm7fI=/800x/filters:strip_icc():strip_exif()/f/image/2tYOsRItCsglFZkutAI1cNlJ.jpg?f=fotoalbum_large

Ik vraag me dus af, is dit normaal?

De volledige specs van m'n PC:
  • Moederbord - Gigabyte B550i
  • RAM - 32GB 3200mhz
  • CPU - AMD 5900x
  • Voeding - Corsair SF750
  • GPU - Palit 4090 Gamerock OC
Kan de 5900x een bottleneck vormen?

Alle hulp/tips zijn welkom want nu ik toch een grote aankoop gedaan heb is het zonde van deze niet volledig te benutten ;)

UPDATE - Misschien ook nog belangrijk om te vermelden dat de 4090 volledig stock draait. Geen undervolt. De 5900x draait ook stock maar met PBO actief.

Bedankt!
Floris

[ Voor 5% gewijzigd door Cirolf op 14-07-2023 22:00 ]

Beste antwoord (via Cirolf op 14-07-2023 23:54)


  • Anton.net
  • Registratie: Januari 2011
  • Laatst online: 22:34
Cirolf schreef op vrijdag 14 juli 2023 @ 23:24:
[...]

DDR4 4000Mhz RAM kost om en bij de 80 a 100 euro zie ik. Ik denk dit morgen te gaan halen en te testen :)
Dit ga je niet zomaar aan de praat krijgen.
Als je een XMP wil draaien is 3600CL16 zowat de limiet voor jouw CPU, voor sneller geheugen ga waarschijnlijk handmatig met de settings moeten spelen.

4000MT/s is überhaupt niet interessant voor ryzen 5000. De limiet ligt doorgaans rond 3733-3800 CL14.


Mijn mening: verkoop je 5900X en neem een 5800X3D in de plaats. Voor de 5800X3D maakt ramsnelheid toch niet zo heel veel uit...

Alle reacties


Acties:
  • +1 Henk 'm!

  • FrankoNL
  • Registratie: December 2004
  • Laatst online: 22:46
Ja, voor die kaart gok ik van wel. De 5900x is een goede CPU maar blinkt niet echt uit in gaming performance.

Acties:
  • +2 Henk 'm!

  • PilatuS
  • Registratie: September 2002
  • Niet online
CPU zal inderdaad het probleem zijn. Voor een 4090 is een 7800X3D geen overbodige luxe.

Acties:
  • 0 Henk 'm!

  • Cirolf
  • Registratie: April 2013
  • Laatst online: 04-06 15:40
Mmm bedankt beide. Dat zou betekenen dat ik moet upgraden naar AM5.. nog even sparen dan.

Ik zou verwachten dat de cpu een bottleneck kan zijn maar niet op 4k ultra. Indien wel is de 4090 nog straffer dan ik dacht.

Acties:
  • +1 Henk 'm!

  • DannyXP1600
  • Registratie: Januari 2002
  • Laatst online: 07:06
Dlss zorgt er voor dat je minder GPU usage hebt. Dus dat is al een ding.

Daarbij, op hoeveel hertz staat je monitor en staat de vsync aan?

Met vsync uit gaat ie zoveel mogelijk fps weergeven, ongeacht of je monitor het weer kan geven of niet en daarmee zou je GPU usage ook omhoog moeten gaan.
Het zal er niet uit zien, maar dat is wat anders

Acties:
  • +1 Henk 'm!

  • Kosty
  • Registratie: Maart 2008
  • Laatst online: 30-06 14:06
Wat zegt GPU-Z op zo'n momenten? Specifiek onder "Sensors" => "PerfCap".
Ik denk op zich dat het niet persé een probleem moet zijn maar een 750W PSU met deze combinatie van onderdelen is misschien krap. Als je videokaart dat doorheeft (door voltage drops op de 12V lijn) kan die zich gaan inhouden.
Edit: Nvidia raadt blijkbaar minstens een 850W PSU aan voor een 4090, en een voeding is nu net een onderdeel dat makkelijker/goedkoper te vervangen is dan een hele platform upgrade naar AM5 :).

[ Voor 24% gewijzigd door Kosty op 14-07-2023 22:28 ]


Acties:
  • 0 Henk 'm!

  • Cirolf
  • Registratie: April 2013
  • Laatst online: 04-06 15:40
Kosty schreef op vrijdag 14 juli 2023 @ 22:26:
Wat zegt GPU-Z op zo'n momenten? Specifiek onder "Sensors" => "PerfCap".
Ik denk op zich dat het niet persé een probleem moet zijn maar een 750W PSU met deze combinatie van onderdelen is misschien krap. Als je videokaart dat doorheeft (door voltage drops op de 12V lijn) kan die zich gaan inhouden.
Edit: Nvidia raadt blijkbaar minstens een 850W PSU aan voor een 4090, en een voeding is nu net een onderdeel dat makkelijker/goedkoper te vervangen is dan een hele platform upgrade naar AM5 :).
Je zou kunnen gelijk hebben. Momenteel zegt HWInfo64 dit:
Afbeeldingslocatie: https://tweakers.net/i/EgcoQhhInhpRVHZYa-DAlmu91ok=/800x/filters:strip_icc():strip_exif()/f/image/6cvTJZd5ZBipHV4TsVfAe4NQ.jpg?f=fotoalbum_large

En GPU-Z dit:
Afbeeldingslocatie: https://tweakers.net/i/YPbk6UZJ3Gf9MOVQx05-Hl3KjiA=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/gdoPIC3o1N8fxNpqLT6vakxP.jpg?f=user_large

Ik wist dat nvidia 850W adviseert maar ik hoopte dat ze ruim rekenden :D de som van m'n CPU (+- 150W) + GPU (450W) komt op 600W met nog ruim voldoende voor de rest (dacht ik ;)).

UPDATE: Misschien ook nuttig om te vermelden dat de GPU soms wel aan 99% draait. Bvb in game menu in plaats van gameplay zelf. Dan trekt hij makkelijk 430 a 440 watt.

[ Voor 5% gewijzigd door Cirolf op 14-07-2023 22:42 ]


Acties:
  • +2 Henk 'm!

  • Kosty
  • Registratie: Maart 2008
  • Laatst online: 30-06 14:06
Je kan met benchmarks veel makkelijker een ongunstige situatie creëren dan via games.
Het kan bijvoorbeeld zijn dat het net de combinatie van CPU en GPU power usage is die de 12V rail te laag trekt.
Probeer eens GPU-Z en/of Hwi64 in het oog te houden als je Furmark (voor GPU) of Cinebench (voor CPU) draait (en daarna beiden tesamen).

Acties:
  • +2 Henk 'm!

  • Anton.net
  • Registratie: Januari 2011
  • Laatst online: 22:34
Je kan ook de 5800X3D overwegen.

Sneller ram zou ook geen overbodige luxe zijn.

[ Voor 4% gewijzigd door Anton.net op 14-07-2023 22:52 ]


Acties:
  • +1 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 21:06
Mss kan je dlss op dlaa zetten, dat is de zwaarste stand geloof ik.

Met deze cpu en ram zal de framerate prima zijn maar niet mega hoog worden, dus je kan beter de settings die de videokaart belasten zo hoog mogelijk zetten zodat je de best mogelijke beeldkwaliteit haalt.

neem aan dat je het xmp profiel van het ram wel geladen hebt in je bios en je ram op 3200 draait?

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Cirolf
  • Registratie: April 2013
  • Laatst online: 04-06 15:40
Kosty schreef op vrijdag 14 juli 2023 @ 22:47:
Je kan met benchmarks veel makkelijker een ongunstige situatie creëren dan via games.
Het kan bijvoorbeeld zijn dat het net de combinatie van CPU en GPU power usage is die de 12V rail te laag trekt.
Probeer eens GPU-Z en/of Hwi64 in het oog te houden als je Furmark (voor GPU) of Cinebench (voor CPU) draait (en daarna beiden tesamen).
Bedankt voor de tips. Ik heb net beide tegelijk laten draaien en dat ziet er op zich wel oké uit:
Afbeeldingslocatie: https://tweakers.net/i/A_HOi9eZqdGSg7mZMt15641AavI=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/hDFekFXJ818tREjElKRwW4g8.jpg?f=user_large

Beide aan 100% utilization en tezamen tussen de 550 en 600 watt. Dat lijkt dan de voeding uit te sluiten :) Maar goede test dus.

Acties:
  • 0 Henk 'm!

  • Cirolf
  • Registratie: April 2013
  • Laatst online: 04-06 15:40
Anton.net schreef op vrijdag 14 juli 2023 @ 22:51:
Je kan ook de 5800X3D overwegen.

Sneller ram zou ook geen overbodige luxe zijn.
haarbal schreef op vrijdag 14 juli 2023 @ 22:55:
Mss kan je dlss op dlaa zetten, dat is de zwaarste stand geloof ik.

Met deze cpu en ram zal de framerate prima zijn maar niet mega hoog worden, dus je kan beter de settings die de videokaart belasten zo hoog mogelijk zetten zodat je de best mogelijke beeldkwaliteit haalt.

neem aan dat je het xmp profiel van het ram wel geladen hebt in je bios en je ram op 3200 draait?
Jullie suggesties met betrekking tot RAM kunnen wel eens de echte oorzaak zijn. Gisteren een bios update gedaan (om te zien of daar iets te winnen viel) en had in eerste instantie XMP vergeten op te zetten. Bij het aanzetten gaf dat inderdaad een boost. Maar voor de duidelijkheid, het stond dus nu wel aan op 3200 mhz.

Ik heb zonet wel ReBAR aangezet in de bios en dit lijkt ook een kleine boost in usage te geven. Zit nu aan 70 a 80% usage van de GPU.

Zou RAM van 3600 (of meer?) dan een oplossing kunnen zijn?

Ik heb DLSS nu volledig uit gezet dus draai op 4K native zonder VSync.

Acties:
  • 0 Henk 'm!

  • Cirolf
  • Registratie: April 2013
  • Laatst online: 04-06 15:40
Anton.net schreef op vrijdag 14 juli 2023 @ 22:51:
Je kan ook de 5800X3D overwegen.

Sneller ram zou ook geen overbodige luxe zijn.
DDR4 4000Mhz RAM kost om en bij de 80 a 100 euro zie ik. Ik denk dit morgen te gaan halen en te testen :)

Een 5800X3D is toch weer 300 euro en vind het precies zonde om die investering nog te doen op een AM4 platform. Als ik nu het beste kan halen uit de 5900X met sneller ram kan ik volgend jaar misschien voor AM5 in combinatie met zen 8xxx gaan :) (kwestie van de investeringen wat te spreiden).

Nu wel hopen dat sneller RAM effectief een verschil maakt :D

Acties:
  • +1 Henk 'm!

  • freaky35
  • Registratie: September 2012
  • Nu online
ik zou toch echt een andere cpu kiezen,je hebt een top kaart daar moet ook een bijpassende game cpu bij dan cpu is al gauw een bottleneck met die 4090

RAM doet iets,maar lost je bottleneck niet op

Het is het meest zonde om een gpu die 1800+euro kost niet volledig te benutten,dan had je net zo goed een 4080 of lager kunnen nemen

[ Voor 39% gewijzigd door freaky35 op 14-07-2023 23:28 ]


Acties:
  • +1 Henk 'm!

  • M2M
  • Registratie: Juli 2006
  • Laatst online: 07:32

M2M

medicijnman

HWInfo zegt toch duidelijk dat de performance van de kaart tegengehouden wordt door voltage reliability. Daar moet je dus eerst wat aan doen. Vervolgens loop je vanzelf tegen de volgende bottleneck aan, maar als je dan <5% laat liggen vanwege een "trage" processor, dan win je dus maximaal 5% als je je platform vervangt.

-_-


Acties:
  • +2 Henk 'm!

  • White Feather
  • Registratie: Januari 2000
  • Laatst online: 22:10
Vergeet niet dat er maar 1 enkele game is getest, Hogwarts Legacy.

Die ook nog eens een voorbeeld is van een slecht geoptimaliseerde.

Acties:
  • 0 Henk 'm!

  • Cirolf
  • Registratie: April 2013
  • Laatst online: 04-06 15:40
freaky35 schreef op vrijdag 14 juli 2023 @ 23:25:
ik zou toch echt een andere cpu kiezen,je hebt een top kaart daar moet ook een bijpassende game cpu bij dan cpu is al gauw een bottleneck met die 4090

RAM doet iets,maar lost je bottleneck niet op

Het is het meest zonde om een gpu die 1800+euro kost niet volledig te benutten,dan had je net zo goed een 4080 of lager kunnen nemen
Bedankt voor de suggestie. Het plan was initieel inderdaad een 4080 maar aangezien mn oude GPU net iets meer opbracht dan verwacht en ik de 4090 voor maar 100 euro meer dan een 4080 kon kopen ben ik toch gegaan voor de 4090.

Nieuwe cpu + moederbord + ram loop je toch al snel weer tegen 700 euro aan. Iets te veel op dit moment.

Is er trouwens een manier om te achterhalen of de CPU effectief de bottleneck is? Momenteel geeft geen enkele core 100% aan.

Acties:
  • 0 Henk 'm!

  • Cirolf
  • Registratie: April 2013
  • Laatst online: 04-06 15:40
M2M schreef op vrijdag 14 juli 2023 @ 23:29:
HWInfo zegt toch duidelijk dat de performance van de kaart tegengehouden wordt door voltage reliability. Daar moet je dus eerst wat aan doen. Vervolgens loop je vanzelf tegen de volgende bottleneck aan, maar als je dan <5% laat liggen vanwege een "trage" processor, dan win je dus maximaal 5% als je je platform vervangt.
Bedankt voor de tip! Dat zag ik ook. Weet je voor wat voltage reliability precies staat? En hoe ik dit zou kunnen aanpakken?

Een snelle google search zei me dat dit normaal is en niet wijst op een voeding probleem. Furmark + cinebench gaf ook geen probleem. Maar ik kan fout zijn natuurlijk :)

Acties:
  • +1 Henk 'm!

  • PilatuS
  • Registratie: September 2002
  • Niet online
Cirolf schreef op vrijdag 14 juli 2023 @ 23:35:
[...]
Is er trouwens een manier om te achterhalen of de CPU effectief de bottleneck is? Momenteel geeft geen enkele core 100% aan.
GPU niet op 100% is ergens anders een bottleneck. Mijn 6700K liep vreemd genoeg ook op geen enkele core op 100%, maar na de CPU upgrade kreeg ik er wel 50% meer frames bij.

Acties:
  • +1 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 01-07 17:34

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®


Acties:
  • 0 Henk 'm!

  • Cirolf
  • Registratie: April 2013
  • Laatst online: 04-06 15:40
White Feather schreef op vrijdag 14 juli 2023 @ 23:33:
Vergeet niet dat er maar 1 enkele game is getest, Hogwarts Legacy.

Die ook nog eens een voorbeeld is van een slecht geoptimaliseerde.
Bedankt, je hebt hier inderdaad een goed punt :) Ik heb net cyberpunk geprobeerd.

Hier is het gedrag als volgt:
- 4K met path tracing en DLSS (zwaarst mogelijke load vermoed ik) ==> volledige 99% utilization! :D
- 4K met ray tracing en DLSS ==> 80% utilization. Zelfde gedrag als Hogwarts Legacy dus.
- 4K met ray tracing zonder DLSS ==> volledige 99% utilization

Ik weet niet precies wat de conclusies hieruit precies zijn. Vanaf ik boven de 40fps ga heb ik een CPU bottleneck op 4K?

Acties:
  • Beste antwoord
  • +2 Henk 'm!

  • Anton.net
  • Registratie: Januari 2011
  • Laatst online: 22:34
Cirolf schreef op vrijdag 14 juli 2023 @ 23:24:
[...]

DDR4 4000Mhz RAM kost om en bij de 80 a 100 euro zie ik. Ik denk dit morgen te gaan halen en te testen :)
Dit ga je niet zomaar aan de praat krijgen.
Als je een XMP wil draaien is 3600CL16 zowat de limiet voor jouw CPU, voor sneller geheugen ga waarschijnlijk handmatig met de settings moeten spelen.

4000MT/s is überhaupt niet interessant voor ryzen 5000. De limiet ligt doorgaans rond 3733-3800 CL14.


Mijn mening: verkoop je 5900X en neem een 5800X3D in de plaats. Voor de 5800X3D maakt ramsnelheid toch niet zo heel veel uit...

Acties:
  • 0 Henk 'm!

  • Cirolf
  • Registratie: April 2013
  • Laatst online: 04-06 15:40
PilatuS schreef op vrijdag 14 juli 2023 @ 23:44:
[...]


GPU niet op 100% is ergens anders een bottleneck. Mijn 6700K liep vreemd genoeg ook op geen enkele core op 100%, maar na de CPU upgrade kreeg ik er wel 50% meer frames bij.
Het lijkt er inderdaad steeds meer op dat dat bij mij ook het geval is. Nooit gedacht dat een 5900x een bottleneck op 4K ging zijn.
Handige tool! Wel vreemd, volgens die tool ben ik met een 5800X3D nog slechter af. Idem voor een 7800X3D. De tool lijkt me dus niet helemaal accuraat.

[ Voor 5% gewijzigd door Cirolf op 15-07-2023 00:02 ]


Acties:
  • 0 Henk 'm!

  • Cirolf
  • Registratie: April 2013
  • Laatst online: 04-06 15:40
Anton.net schreef op vrijdag 14 juli 2023 @ 23:51:
[...]

Dit ga je niet zomaar aan de praat krijgen.
Als je een XMP wil draaien is 3600CL16 zowat de limiet voor jouw CPU, voor sneller geheugen ga waarschijnlijk handmatig met de settings moeten spelen.

4000MT/s is überhaupt niet interessant voor ryzen 5000. De limiet ligt doorgaans rond 3733-3800 CL14.


Mijn mening: verkoop je 5900X en neem een 5800X3D in de plaats. Voor de 5800X3D maakt ramsnelheid toch niet zo heel veel uit...
Dat wist ik niet. Bedankt voor de waarschuwing. Nog een geluk dat ik dan nog niets heb gekocht ;) Ok, ik probeer je raad op te volgen.

Acties:
  • 0 Henk 'm!

  • Cirolf
  • Registratie: April 2013
  • Laatst online: 04-06 15:40
Even algemeen, heel erg bedankt voor alle hulp en tips. Daarom is tweakers zo een fijne community om deel van uit te maken!

Conclusie van het verhaal.
  • Sneller ram (3600mhz ipv 3200mhz) zou me iets kunnen opleveren maar heel beperkt.
  • CPU upgrade is de volgende stap. AM5 (ideaal) of AM4 5800X3D ("budget" optie).
Wat ik geleerd heb:
  • handige tool: https://pc-builds.com/bot...1/general-tasks/3840x2160 al lijkt de tool niet altijd even betrouwbaar. Een 7800X3D geeft me een grotere bottleneck dan m'n 5900X volgens de tool./
  • Voltage reliability als perfcap reason in GPU-Z heeft niets met de voeding te maken en is normaal gedrag
  • Een voeding van 750W is voldoende voor de combo 5900x plus 4090 als je niet overklokt
  • een 4090 is verdomd snelle kaart :p
Nogmaals bedankt voor alle tips! Als er nog zaken zijn, laat maar komen! :)

[ Voor 6% gewijzigd door Cirolf op 15-07-2023 00:03 ]


Acties:
  • +4 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 23:12
Als je sneller geheugen koopt, koop dan gelijk low latency dus bijv. Een g.skill 3600cl14 kit. Dit zal de max ongeveer zijn wat je met xmp standaard stabiel draait. Infinity fabric kan dan ook op 1800mhz (scheelt ook weer).


Maar ipv naar de gpu usage te kijken: hoe bevalt het gamen? Draai je alles prima moet je gewoon gaan genieten ipv onnodig alles in balans te willen krijgen. Ergens zal altijd een bottleneck zitten, wat je ook doet. En dat is bij een goede fps helemaal geen probleem toch.

Acties:
  • +1 Henk 'm!

  • GromuhlDjun
  • Registratie: December 2007
  • Laatst online: 14-06 12:27
meljor schreef op zaterdag 15 juli 2023 @ 10:22:
Maar ipv naar de gpu usage te kijken: hoe bevalt het gamen? Draai je alles prima moet je gewoon gaan genieten ipv onnodig alles in balans te willen krijgen. Ergens zal altijd een bottleneck zitten, wat je ook doet. En dat is bij een goede fps helemaal geen probleem toch.
Dit dus.
Als je zo'n goede pc hebt, wordt de game zelf al snel de bottleneck. Veel games hebben middelmatig tot slechte CPU optimalisatie en dat ga je heel goed zien als je zo'n snelle GPU hebt.
Dan kun je er geld tegenaan blijven gooien voor een paar procent meer prestaties, maar je gaat nooit helemaal tevreden zijn.

Voorbeeld: in Dragon's Dogma, wat tegenwoordig op een aardappel pc draait, is er één setting die er voor zorgt dat de framerate in één van de gebieden niet veel hoger dan 50-60fps gaat. Zet je die setting op medium, is er niets aan de hand en je ziet bijna geen verschil.
Dat was op zowel mijn huidige als mijn vorige PC, terwijl mijn huidige CPU in single core 2x zo snel is (en 2x zoveel cores heeft) en mijn grafische kaart ondertussen al meer dan 4x zo snel is als wat ik toen had. Zelfde fps in zelfde gebied.

[ Voor 27% gewijzigd door GromuhlDjun op 15-07-2023 11:32 ]


Acties:
  • +1 Henk 'm!

  • freaky35
  • Registratie: September 2012
  • Nu online
meljor schreef op zaterdag 15 juli 2023 @ 10:22:
Als je sneller geheugen koopt, koop dan gelijk low latency dus bijv. Een g.skill 3600cl14 kit. Dit zal de max ongeveer zijn wat je met xmp standaard stabiel draait. Infinity fabric kan dan ook op 1800mhz (scheelt ook weer).


Maar ipv naar de gpu usage te kijken: hoe bevalt het gamen? Draai je alles prima moet je gewoon gaan genieten ipv onnodig alles in balans te willen krijgen. Ergens zal altijd een bottleneck zitten, wat je ook doet. En dat is bij een goede fps helemaal geen probleem toch.
Daar ben ik het niet mee eens er hoeft geen bottleneck te zijn maar systeem moet in balans zijn.
Dat is het nu niet. Dit is de enige gpu dit moment waarbij de cpu heel snel de bottleneck is als die alweer een paar jaar oud is.

Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 23:12
Of het nou je cpu, gpu,geheugen of de refresh rate van je monitor is, er is altijd een bottleneck.

En dat verschilt per game. Zolang je een fps haalt waarmee je tevreden bent zou ik niet teveel naar de usage kijken.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik zie dat je meteen de grote zwakte van de RTX4090 hebt ontdekt. Want dit gebeurd wel vaker. Toegegeven, Hogwarts Legacy is een van de slechtste scenario's, maar dit komt vaker voor.

Nvidia gebruikt nu al bijna tien jaar een aparte manier om rekenopdrachten die op de CPU draaien en vervolgens naar de GPU gaan (shader programma's dus), op meer dan een CPU core te kunnen afhandelen. De enkele CPU core was een beperking van DX11. Het resultaat was dat Nvidia net iets meer instructies naar hun videokaarten kon krijgen en minder afhankelijk was van die ene CPU core die meestal nog veel meer dingen moest doen. Resultaat was iets betere framerates.

Maar inmiddels is dit systeem compleet achterhaald en een nadeel geworden. Met DX12 en Vulkan is het voor developers mogelijk en eigenlijk afgedwongen dat ze veel meer dan een CPU core gebruiken. En hierbij zitten Nvidia hun drivers in de weg als een onnodige abstractielaag die overhead creëert op de CPU en een zekere mate van afhankelijkheid van een CPU core forceert. Daarom zijn Nvidia GPU's veel gevoeliger voor de ultieme snelheid van een CPU core dan AMD. Het is iets dat weinig aandacht krijgt, maar meer aandacht zou moeten krijgen. Want ik persoonlijk zou nooit iemand een high end Nvidia GPU aanraden als de CPU niet ook recent is. Iets waarmee je met een high end AMD videokaart, beter mee weg kan komen. Maar AMD heeft zo zijn eigen nadelen.

Scroll hier maar eens door. Ik vind het zelf een niet al te beste test omdat er te veel lage resolutie en lagere instellingen worden gebruikt om het effect te overdrijven, maar het is wel illustratief. :)



Maar deze generatie is het opeens heel duidelijk geworden. Al jaren ontwikkelen GPU's zich sneller dan CPU's en ik weet al jaren dat dit probleem zich een keer zou gaan manifesteren. En de RTX4090 doet dit dan eindelijk ook. Je kan het vrij makkelijk zien door de RTX4080 en RTX4090 met elkaar te vergelijken. De RTX4090 heeft 68% meer SM's en is daarmee gemiddeld op 4K, ongeveer 30% sneller. Op 1440p is het eerder rond de 15% sneller. Toegegeven, er spelen waarschijnlijk nog wel wat andere dingen ten nadelen van de grotere RTX4090, zoals vaker gebeurd dat de grotere GPU's iets minder efficiënt zijn dan de kleinere tegenhangers, maar het is niet bepaald een goed gegeven.

En toen startje je Hogwarts Legacy, zo ongeveer het slechte scenario dat er nu is. Die game zit technisch echt wel goed in elkaar, maar is ook een game die Nvidia echt problemen heeft. Kijk hier maar eens hoeveel beter AMD die game aankan met lagere resoluties of zonder RT.



De oplossing hier is dan ook bewust omgaan met wat je hebt. Ik zeg niet dat de RTX4090 nu meteen weer verkocht moet worden. Wat ik zou willen voorstellen is:
-Die 5900X gaat een belemmering zijn. Vervang die voor de 5800X3D die een RTX4090 redelijk nog een beetje bij kan houden. Maar je gaat alsnog games krijgen waarbij GPU utilisatie niet al te best zal zijn. Daar kan je niet veel aan doen. Een 7800X3D laat uit mijn hoofd iets van 10% extra zien, op 4K met een RTX4090, dan een 5800X3D, maar de meerprijs is heel erg fors als je al een AM4 moederbord hebt.
-Vergeet dingen zoals snellere DDR4. De 58003XD wint meestal nauwelijks iets met snellere RAM.
-Altijd maximale instellingen gebruiken, meestal ook RT erbij. Je zal anders zomaar weer tegen een CPU beperking kunnen aanlopen. Verder is dat het punt van een RTX4090. Het is alles brute forceren omdat je anders te veel frames verliest over een RTX4080 of RX7900XTX. :)
-Vergeet DLSS2 ook grotendeels. Er gaan waarschijnlijk steeds meer games zijn waar DLSS2 aanzetten je niet veel oplevert omdat je hiermee de render resolutie verlaagt en de beperking van elke CPU, zelfs een 78003XD vergroot. Een RTX4090 moet het meeste wel kunnen draaien met RT, zonder DLSS2. DLSS2 zou ik alleen gebruiken als de RT implementatie dusdanig zwaar (of brak) is dat je dit alsnog nodig hebt.
-DLSS3 bestaat waarschijnlijk ook mede om dit probleem te omzeilen. Want DLSS3 geeft je extra frames zonder veel extra CPU belasting. Nu ben ik absoluut geen fan van dergelijke interpolatie technieken, maar je kan het gebruiken als je het zelf acceptabel vind. Wederom alleen zware of brakke RT implementaties. Cyberpunk dus.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Ik zat met het zelfde probleem en een 7800x3d was de oplossing. In games als The Callisto Protocol en TLOU word de RTX 4090 volledig gebruikt. En dat scheelt tot wel 30 fps op 4k.

Acties:
  • +1 Henk 'm!

  • Cirolf
  • Registratie: April 2013
  • Laatst online: 04-06 15:40
meljor schreef op zaterdag 15 juli 2023 @ 10:22:
Als je sneller geheugen koopt, koop dan gelijk low latency dus bijv. Een g.skill 3600cl14 kit. Dit zal de max ongeveer zijn wat je met xmp standaard stabiel draait. Infinity fabric kan dan ook op 1800mhz (scheelt ook weer).


Maar ipv naar de gpu usage te kijken: hoe bevalt het gamen? Draai je alles prima moet je gewoon gaan genieten ipv onnodig alles in balans te willen krijgen. Ergens zal altijd een bottleneck zitten, wat je ook doet. En dat is bij een goede fps helemaal geen probleem toch.
GromuhlDjun schreef op zaterdag 15 juli 2023 @ 11:28:
[...]

Dit dus.
Als je zo'n goede pc hebt, wordt de game zelf al snel de bottleneck. Veel games hebben middelmatig tot slechte CPU optimalisatie en dat ga je heel goed zien als je zo'n snelle GPU hebt.
Dan kun je er geld tegenaan blijven gooien voor een paar procent meer prestaties, maar je gaat nooit helemaal tevreden zijn.

Voorbeeld: in Dragon's Dogma, wat tegenwoordig op een aardappel pc draait, is er één setting die er voor zorgt dat de framerate in één van de gebieden niet veel hoger dan 50-60fps gaat. Zet je die setting op medium, is er niets aan de hand en je ziet bijna geen verschil.
Dat was op zowel mijn huidige als mijn vorige PC, terwijl mijn huidige CPU in single core 2x zo snel is (en 2x zoveel cores heeft) en mijn grafische kaart ondertussen al meer dan 4x zo snel is als wat ik toen had. Zelfde fps in zelfde gebied.
Bedankt voor jullie suggesties. Ik volg jullie volledig :) het was niet m'n bedoeling om meteen nieuwe hardware te kopen. Mijn voornaamste vraag was of het gedrag die ik zie normaal is voor de hardware die ik heb.

Indien ja ==> Goed, dan is er inderdaad een CPU bottleneck maar dan weet ik dat dit gewoon normaal is voor de hardware die ik heb.
Indien nee ==> Dan is er misschien een andere oorzaak: driver, windows, een bepaalde setting, een bepaalde game etcetera en dan kan ik er iets aan doen.

Uit de reacties kan ik afleiden dat het gedrag die ik zie perfect normaal is. De 4090 is nu eenmaal heel snel en de 5900x kan die niet bijbenen. Een upgrade naar een nieuwe CPU zie ik niet meteen zitten maar ik heb wel een setje 3600mhz CL16 RAM gekocht voor 70 euro en ik zie dat dit toch ook al effect heeft :) Bedankt voor de suggestie voor CL14 maar dat was meteen 100 euro extra. Iets te veel.

De games zelf spelen op zich prima hoor. Zelf hogwarts legacy die inderdaad niet meteen goed geoptimaliseerd is draait op 4K Ultra + RT tussen de 40 en 60 fps. Dat is zonder DLSS. Met DLSS is er weinig verschil, de fps blijven hetzelfde maar de usage van m'n GPU zakt met 20% net als het verbruik.

Acties:
  • 0 Henk 'm!

  • Cirolf
  • Registratie: April 2013
  • Laatst online: 04-06 15:40
DaniëlWW2 schreef op zaterdag 15 juli 2023 @ 15:20:
Ik zie dat je meteen de grote zwakte van de RTX4090 hebt ontdekt. Want dit gebeurd wel vaker. Toegegeven, Hogwarts Legacy is een van de slechtste scenario's, maar dit komt vaker voor.

Nvidia gebruikt nu al bijna tien jaar een aparte manier om rekenopdrachten die op de CPU draaien en vervolgens naar de GPU gaan (shader programma's dus), op meer dan een CPU core te kunnen afhandelen. De enkele CPU core was een beperking van DX11. Het resultaat was dat Nvidia net iets meer instructies naar hun videokaarten kon krijgen en minder afhankelijk was van die ene CPU core die meestal nog veel meer dingen moest doen. Resultaat was iets betere framerates.

Maar inmiddels is dit systeem compleet achterhaald en een nadeel geworden. Met DX12 en Vulkan is het voor developers mogelijk en eigenlijk afgedwongen dat ze veel meer dan een CPU core gebruiken. En hierbij zitten Nvidia hun drivers in de weg als een onnodige abstractielaag die overhead creëert op de CPU en een zekere mate van afhankelijkheid van een CPU core forceert. Daarom zijn Nvidia GPU's veel gevoeliger voor de ultieme snelheid van een CPU core dan AMD. Het is iets dat weinig aandacht krijgt, maar meer aandacht zou moeten krijgen. Want ik persoonlijk zou nooit iemand een high end Nvidia GPU aanraden als de CPU niet ook recent is. Iets waarmee je met een high end AMD videokaart, beter mee weg kan komen. Maar AMD heeft zo zijn eigen nadelen.

Scroll hier maar eens door. Ik vind het zelf een niet al te beste test omdat er te veel lage resolutie en lagere instellingen worden gebruikt om het effect te overdrijven, maar het is wel illustratief. :)
[YouTube: Nvidia Has a Driver Overhead Problem, GeForce vs Radeon on Low-End CPUs]
[YouTube: Nvidia Driver Investigation [Part 2] Owners of Old CPUs Beware]

Maar deze generatie is het opeens heel duidelijk geworden. Al jaren ontwikkelen GPU's zich sneller dan CPU's en ik weet al jaren dat dit probleem zich een keer zou gaan manifesteren. En de RTX4090 doet dit dan eindelijk ook. Je kan het vrij makkelijk zien door de RTX4080 en RTX4090 met elkaar te vergelijken. De RTX4090 heeft 68% meer SM's en is daarmee gemiddeld op 4K, ongeveer 30% sneller. Op 1440p is het eerder rond de 15% sneller. Toegegeven, er spelen waarschijnlijk nog wel wat andere dingen ten nadelen van de grotere RTX4090, zoals vaker gebeurd dat de grotere GPU's iets minder efficiënt zijn dan de kleinere tegenhangers, maar het is niet bepaald een goed gegeven.

En toen startje je Hogwarts Legacy, zo ongeveer het slechte scenario dat er nu is. Die game zit technisch echt wel goed in elkaar, maar is ook een game die Nvidia echt problemen heeft. Kijk hier maar eens hoeveel beter AMD die game aankan met lagere resoluties of zonder RT.
[YouTube: Hogwarts Legacy, GPU Benchmark: Obsoleting The RTX 3080 10GB]


De oplossing hier is dan ook bewust omgaan met wat je hebt. Ik zeg niet dat de RTX4090 nu meteen weer verkocht moet worden. Wat ik zou willen voorstellen is:
-Die 5900X gaat een belemmering zijn. Vervang die voor de 5800X3D die een RTX4090 redelijk nog een beetje bij kan houden. Maar je gaat alsnog games krijgen waarbij GPU utilisatie niet al te best zal zijn. Daar kan je niet veel aan doen. Een 7800X3D laat uit mijn hoofd iets van 10% extra zien, op 4K met een RTX4090, dan een 5800X3D, maar de meerprijs is heel erg fors als je al een AM4 moederbord hebt.
-Vergeet dingen zoals snellere DDR4. De 58003XD wint meestal nauwelijks iets met snellere RAM.
-Altijd maximale instellingen gebruiken, meestal ook RT erbij. Je zal anders zomaar weer tegen een CPU beperking kunnen aanlopen. Verder is dat het punt van een RTX4090. Het is alles brute forceren omdat je anders te veel frames verliest over een RTX4080 of RX7900XTX. :)
-Vergeet DLSS2 ook grotendeels. Er gaan waarschijnlijk steeds meer games zijn waar DLSS2 aanzetten je niet veel oplevert omdat je hiermee de render resolutie verlaagt en de beperking van elke CPU, zelfs een 78003XD vergroot. Een RTX4090 moet het meeste wel kunnen draaien met RT, zonder DLSS2. DLSS2 zou ik alleen gebruiken als de RT implementatie dusdanig zwaar (of brak) is dat je dit alsnog nodig hebt.
-DLSS3 bestaat waarschijnlijk ook mede om dit probleem te omzeilen. Want DLSS3 geeft je extra frames zonder veel extra CPU belasting. Nu ben ik absoluut geen fan van dergelijke interpolatie technieken, maar je kan het gebruiken als je het zelf acceptabel vind. Wederom alleen zware of brakke RT implementaties. Cyberpunk dus.
Wow bedankt voor je uitgebreide reactie. Daar leer ik weer iets van bij :)

Wat betreft je aanbevelingen. M'n 5900X staat nu in de vraag en aanbod :D als die verkocht geraakt ga ik voor een 5800X3D. Zoals je zelf al zegt, de sprong naar AM5 vind ik iets te duur om te verantwoorden. Intussentijd ben ik wel van RAM set gewisseld (3200 CL18 naar 3600 CL16). Misschien is het placebo effect maar ik denk toch ook een kleine maar merkbare uplift in usage en fps te zien.

De game instellingen zet ik inderdaad op maximum :) Wat je zegt van DLSS klopt volledig, ik verstond me er niet helemaal aan maar wat je beschrijft klopt volledig met wat ik zie.
  • 4K Ultra met RT zonder DLSS haal ik tussen de 40 en 60 FPS.
  • 4K Ultra met RT EN DLSS haal ik tussen met moeite 5 FPS meer. Maar usage en verbruik van de 4090 zakt wel significant.
Ik snapte niet goed waarom maar jouw verklaring lijkt logisch.

Dikke merci voor de uitleg!
Pagina: 1