Acties:
  • 0 Henk 'm!

  • Zuvio
  • Registratie: Mei 2004
  • Laatst online: 16-08 07:53
Idle power verbruik in watt:
- 5800X3D : ~28w
- 4090 : ~16w
- LG32GQ50 : ~51w
- RGB x10 : ?? (niet veel denk ik)

Totaal ongeveer ~100w bij elkaar. Niet ideaal om eerlijk te zijn, voornamelijk de cpu is hoger dan ik gewend ben. Maar die clocked niet zo ver terug in idle zoals de 5600x dat doet.

Idle power van de 4090 is zeer goed te noemen voor een flagship. Ik heb ondertussen de power limit op 70% gezet, dus hij trekt maximaal 450 x 0.7 = 315w under load. Ik heb dit gedaan, omdat er anders verloren frames zijn die ik niet zie maar wel voel. Aangezien ik geen high speed fps games speel heb ik dit niet nodig. Maar in de praktijk zat de kaart vrijwel nooit op 450w te draaien. 415w bij de meest gpu intensieve games wel, maar veelal onder de 400w. Voor de power die de 4090 levert ben ik zeer tevreden over het stroom verbruik, ik ging uit van 450w continu.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Zuvio schreef op zondag 20 november 2022 @ 08:41:
Idle power verbruik in watt:
- 5800X3D : ~28w
- 4090 : ~16w
- LG32GQ50 : ~51w
- RGB x10 : ?? (niet veel denk ik)

Totaal ongeveer ~100w bij elkaar. Niet ideaal om eerlijk te zijn, voornamelijk de cpu is hoger dan ik gewend ben. Maar die clocked niet zo ver terug in idle zoals de 5600x dat doet.

Idle power van de 4090 is zeer goed te noemen voor een flagship. Ik heb ondertussen de power limit op 70% gezet, dus hij trekt maximaal 450 x 0.7 = 315w under load. Ik heb dit gedaan, omdat er anders verloren frames zijn die ik niet zie maar wel voel. Aangezien ik geen high speed fps games speel heb ik dit niet nodig. Maar in de praktijk zat de kaart vrijwel nooit op 450w te draaien. 415w bij de meest gpu intensieve games wel, maar veelal onder de 400w. Voor de power die de 4090 levert ben ik zeer tevreden over het stroom verbruik, ik ging uit van 450w continu.
Ik heb een digitale wattmeter tussen mn pc en het stopcontact...

Mijn PC (met een 5600X) doet idle tussen de 75 en 95W. EXCL monitor.

Dus denk dat je er gerust nog 50W bij op kan tellen idle. (?)

(Ik heb dr 7 casefans, 2 HDD's, 2 SSD's, 1 netwerkkaart, verlicht toetsenbord, en een Focusrite USB geluidskaart aan hangen. )

Edit; die van mij (de 4090 GPU @ 5120x1440 120Hz) is 11W idle. Waar kijk je in? GPU-Z board power?

[ Voor 6% gewijzigd door Format-C op 20-11-2022 08:50 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Zuvio
  • Registratie: Mei 2004
  • Laatst online: 16-08 07:53
Format-C schreef op zondag 20 november 2022 @ 08:44:
[...]
Ik heb een digitale wattmeter tussen mn pc en het stopcontact...

Mijn PC (met een 5600X) doet idle tussen de 75 en 95W. EXCL monitor.

Dus denk dat je er gerust nog 50W bij op kan tellen idle. (?)

Edit; die van mij (de 4090 GPU @ 5120x1440 120Hz) is 11W idle. Waar kijk je in? GPU-Z board power?
Ik heb geen fysieke meter. Ik kijk in hwInfo laatste versie. 4090 draait op 210mhz in idle stand en toont 16:9 4K 160Hz.

Een extra 50w? Waar komt dat dan vandaan? Mobo, geheugen, SSDs etc? Ok dan wordt het 150w idle, nog minder ideaal! Maar ja, eigen schuld.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Zuvio schreef op zondag 20 november 2022 @ 08:50:
[...]


Een extra 50w? Waar komt dat dan vandaan? Mobo, geheugen, SSDs etc? Ok dan wordt het 150w idle, nog minder ideaal! Maar ja, eigen schuld.
Had mn post nog aangepast.

Maar eigen schuld? Zuipt ie zoveel meer stroom dan eerst?


(Ik heb btw 12 zonnepanelen, en heb de digitale meter geweigerd. Ik lever elk jaar 450kWh terug, zelfs in thuiswerksituatie met PC altijd aan, dus heb nog marge (mn PC verstookt grofweg 500W load, dus dat is 900 uur gamen. Kan ik ~225 dagen 4u gamen. 8) ))

Edit; die pixels en Herzen van jou zorgen voor die 6W. Denk ik. Bij mij verstookt ie 10/11. In GPU-Z.

Edit; zo'n wattmeter is wel geinig. Keer meebesteld voor 15 eu oid. Meten is weten. :)

[ Voor 32% gewijzigd door Format-C op 20-11-2022 09:17 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Nu online
Ik heb hier een 1080p 144Hz scherm ingesteld op 120Hz en die verbruikt 8,8W idle op "Board Power Draw" in GPU-Z. Dit vind ik serieus laag, zeker vergeleken met de cijfers van de reviewers. Misschien in een driver update wat hierin opgelost?

Voordat iemand hier de opmerking plaatst, waarom een 4090 met een 1080p scherm? Vanwege VR, voor de Quest 2 is een 4090 erg welkom.

[ Voor 3% gewijzigd door Koldur op 20-11-2022 09:32 ]

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 13:27

CMT

Zuvio schreef op zondag 20 november 2022 @ 08:50:
[...]


Ik heb geen fysieke meter. Ik kijk in hwInfo laatste versie. 4090 draait op 210mhz in idle stand en toont 16:9 4K 160Hz.

Een extra 50w? Waar komt dat dan vandaan? Mobo, geheugen, SSDs etc? Ok dan wordt het 150w idle, nog minder ideaal! Maar ja, eigen schuld.
AC/DC en DC/DC verliezen. Je hebt bij de optelling niet meegerekend dat de voeding op het moederbord en de algemene PC voeding een rendement hebben ;).

Ter vergelijking mijn systeem bestaande uit een: 5800X3D+ ref. RX6900XT + 32 GB dual rank geheugen @1.36V + pomp + 6 fan's + 3 SSD + usb geluidskaart, verbruik in rust ca. 50-52W.
De 3440X1440 100Hz monitor gekalibreerd op 120cd/m2: 26-28W.
De game battlestation met alle toeters en bellen dus ca. 76-80W.

Het hoge verbruik van de 5800X3D is trouwens grotendeels aan de SoC te wijten.
Een 5700G (met monolitisch ontwerp) die ik voor een HTPC gebruik , schaalt naar slechts 3W tot 5W total package power. Dat is andere koek dan de 21-28W. Blijkbaar is dat een nadeel van het chiplet ontwerp (Infinity Fabric dat 'aan' blijft?). Ook de nieuwe 7000X serie heeft daar weinig aan veranderd namelijk.

Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Format-C schreef op zondag 20 november 2022 @ 08:34:
RDR2 is echt niet normaal wat een graphics.

Echt om te :9~ :9~ :9~

[Afbeelding]

Wat - een - game!!! En wat een power heeft de 4090.

Maar met alles vol open tikt ie nog steeds heeul af en toe nét boven de 60 aan in RDR (meestal rond 85). Als het mistig is, en nat, en de zonnestralen komen door... :o

_/-\o_ _/-\o_


Op 5120x1440 lukt het nog net, maar op 4K krijgt deze game de 4090 ook nog op de knieeen. :D

Heb nu een 5600X, zou een 5800X3D nog zin hebben?

Of zal ik al zo GPU bound zijn dat dat gewoon niets uitmaakt (zoals in de meeste games het geval is?).
Ik speel zelf op 4k maar in RDR 2 met alle instellingen maximaal zit ik op gemiddeld 70-100fps. Ook heb ik geen drops onder de 60 fps.

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 13:22
Ja je moet idd nog behoorlijk wat optellen bijd e data die je van componenten hebt. Denk aan verbruik van de fans, de inefficiëntie van de voeding, het moederbord en moederbord features en als je ze heb verlichting zoals led strips.

Ik heb zelf 2x 200mm fabs en die slurpen echt behoorlijk met 9 watt elk! Helaas zijn ze cruciaal voor mijn positieve druk setup die wel eeg goed werkt.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Koldur schreef op zondag 20 november 2022 @ 09:30:
Voordat iemand hier de opmerking plaatst, waarom een 4090 met een 1080p scherm? Vanwege VR, voor de Quest 2 is een 4090 erg welkom.
Tenzij je echt alleen in VR speelt, kun je dan alsnog een 1440p of 4k scherm nemen.
CMT schreef op zondag 20 november 2022 @ 10:19:
[...]
AC/DC en DC/DC verliezen. Je hebt bij de optelling niet meegerekend dat de voeding op het moederbord en de algemene PC voeding een rendement hebben ;).
De efficiency van een voeding is ook relatief laag bij lage vermogens. En bij een 4090 zul je natuurlijk vaak een flinke voeding hebben, waardoor het idle verbruik juist erg ver ligt van het optimum (voedingen zijn normaal het meest efficient rond de 50% van hun maximale vermogen).

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Nu online
Ludewig schreef op zondag 20 november 2022 @ 12:54:
[...]


Tenzij je echt alleen in VR speelt, kun je dan alsnog een 1440p of 4k scherm nemen.


[...]


De efficiency van een voeding is ook relatief laag bij lage vermogens. En bij een 4090 zul je natuurlijk vaak een flinke voeding hebben, waardoor het idle verbruik juist erg ver ligt van het optimum (voedingen zijn normaal het meest efficient rond de 50% van hun maximale vermogen).
Snap ik, maar zie ik geen meerwaarde in, pancake spellen vind ik prima op 24" en 1080p

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 05-09 02:31

GTX404

Hi

Zijn er mensen hier met een Gainward Phantom 4090?

Hoe ziet hij eruit in de kast? Heeft die ook een dual bios zoals op de GS?

En uiteraard: hoe is de performance, temperatuur en geluidsniveau? Coil whine aanwezig?

Er was ook veel discussie rond Palit/Gainward in het begin, maar volgens mij valt dat allemaal wel mee aangezien het voldoet aan Nvidia spec.. Ben benieuwd naar ervaringen als er mensen zijn die hem hebben aangeschaft; vind hem qua looks wel passen bij wat ik wil minus de RGB text maar goed :P

[ Voor 40% gewijzigd door GTX404 op 20-11-2022 13:54 ]

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@GTX404

Ja, dual bios: https://www.guru3d.com/ar...-phantom-gs-review,1.html

De reviewer had last van coil whine.

Verder mag je het zelf lezen :P
Er was ook veel discussie rond Palit/Gainward in het begin, maar volgens mij valt dat allemaal wel mee aangezien het voldoet aan Nvidia spec.
De vraag is dan natuurlijk wel in hoeverre je Nvidia (en trouwens ook AMD) vertrouwd en wat je eigen standaard is. De fabrikanten vinden het acceptabel als een kaart 2+ dan wel 3+ jaar meegaat, maar dat vind ik zelf onacceptabel kort. Zeker voor 2000 euro.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • UniMatrix
  • Registratie: December 2002
  • Laatst online: 15-09 12:39
@GTX404 ik kijk zelf momenteel toch in die prijsklasse ook naar de Zotacs. De teardown van techpowerup gaf aan dat de PCB ok was en ze geven 3+2 jaar garantie. Verder zoals gebruikelijk wat heter en luider dan de topmerken maar vergelijkbaar met de FE.

De reference Trinity lijkt bij LDLC te pre-orderen voor 1949,-

EV: 2017 Ioniq Electric | PC: AMD Ryzen 7 5700X | MSI RTX 4090 Gaming Trio | VR: Pico 4


Acties:
  • +1 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 13-09 09:39
UniMatrix schreef op zondag 20 november 2022 @ 14:36:
@GTX404 ik kijk zelf momenteel toch in die prijsklasse ook naar de Zotacs. De teardown van techpowerup gaf aan dat de PCB ok was en ze geven 3+2 jaar garantie. Verder zoals gebruikelijk wat heter en luider dan de topmerken maar vergelijkbaar met de FE.

De reference Trinity lijkt bij LDLC te pre-orderen voor 1949,-
Die teardown was de AIRO, hun hoogste model. De Trinity heeft minder phases dan de Palit/Gainward.

https://linustechtips.com...sis-and-feaib-comparison/

Edit:
Hebben de Palit en Gainward kaarten trouwens dezelfde PCB? Als ik naar de Gainward 4080 kijk dan heeft die een betere VRM dan de Palit 4090 dus ik zou ook verwachten dat de Gainward 4090 een betere VRM heeft.

https://www.techpowerup.c...tx-4080-phantom-gs/4.html

[ Voor 19% gewijzigd door napata op 20-11-2022 14:52 ]


Acties:
  • +1 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 05-09 02:31

GTX404

Hi

Ludewig schreef op zondag 20 november 2022 @ 14:04:
@GTX404

Ja, dual bios: https://www.guru3d.com/ar...-phantom-gs-review,1.html

De reviewer had last van coil whine.

Verder mag je het zelf lezen :P


[...]


De vraag is dan natuurlijk wel in hoeverre je Nvidia (en trouwens ook AMD) vertrouwd en wat je eigen standaard is. De fabrikanten vinden het acceptabel als een kaart 2+ dan wel 3+ jaar meegaat, maar dat vind ik zelf onacceptabel kort. Zeker voor 2000 euro.
Toevallig kwam ik op dit topic over coil whine op de 4090. blijkbaar mixed bag zoals verwacht bij elk merk

Edit: Oeps link vergeten: https://www.reddit.com/r/...0/4090_coil_whine_survey/

[ Voor 6% gewijzigd door GTX404 op 20-11-2022 15:51 ]

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • +1 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 05-09 02:31

GTX404

Hi

UniMatrix schreef op zondag 20 november 2022 @ 14:36:
@GTX404 ik kijk zelf momenteel toch in die prijsklasse ook naar de Zotacs. De teardown van techpowerup gaf aan dat de PCB ok was en ze geven 3+2 jaar garantie. Verder zoals gebruikelijk wat heter en luider dan de topmerken maar vergelijkbaar met de FE.

De reference Trinity lijkt bij LDLC te pre-orderen voor 1949,-
Wel netjes van de garantie, alleen kijk ik ook naar looks en de gainward past meer bij het type 'industriele' look wat ik ook graag wil. Voor mij is het FE/TUF/Gainward/INNO3D qua design :P

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • +2 Henk 'm!

  • DKWB
  • Registratie: Januari 2011
  • Laatst online: 13-09 21:30
Format-C schreef op zondag 20 november 2022 @ 08:34:
Heb nu een 5600X, zou een 5800X3D nog zin hebben?

Of zal ik al zo GPU bound zijn dat dat gewoon niets uitmaakt (zoals in de meeste games het geval is?).
Deze upgrade een paar weken terug gedaan. Voor games die CPU bound zijn kan het zeker een groot verschil maken:

DKWB in "[NVIDIA GeForce RTX 40XX] Ervaringen & Discussie"

Aan de hand van deze vergelijking tegenover een 5800X is er een verschil van 11.8% in RDR op 4K:
https://tpucdn.com/review...0x3d/images/3840-2160.png

Tegenover de 5600X zal het verschil nog iets groter zijn.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 13:27

CMT

computerjunky schreef op zaterdag 19 november 2022 @ 23:31:
[...]


Ah board dus. Dat valt dus reuze mee in vergelijking met al de reviews waar ik waardes tot aan 70 watt gezien heb. Gooi het dus maar op power plan van reviewers of de review drivers die niet optimaal waren. Beetje vreemd wel dat ze dit soort data niet eerlijker naar buiten brengen. Het lijkt zo een enorme slurper in idle.

Ook wel grappig om te zien dat de idle memory clock dus maar een kwart van de amd kaarten is. Dat kan dus nog zuiniger bij amd.
🤔 Dan zit er bij jou iets niet goed en heb je waarschijnlijk te maken met de memory clock bug waardoor het geheugen niet (helemaal) terugklokt.
Sommige combinaties aan monitoren / resolutie + Hz triggeren dit probleem (is trouwens niet AMD specifiek). Er is ook een fix, door de beeldscherm timing aan te passen.

Hier klokt de rev. RX6900XT gewoon terug tot bijna letterlijk een paar MHz.

GPU: 2.5MHz
GPU geheugen: ca. 10MHz (bij niets doen).
Boardpower is dan ook maar: 7-8W.

Ik zie dit Nvidia niet doen :Y)

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 13:27

CMT

GTX404 schreef op zondag 20 november 2022 @ 15:46:
[...]


Toevallig kwam ik op dit topic over coil whine op de 4090. blijkbaar mixed bag zoals verwacht bij elk merk

Edit: Oeps link vergeten: https://www.reddit.com/r/...0/4090_coil_whine_survey/
Thanks!
Ik heb van iemand anders te horen gekregen dat de Gigabyte 3090Ti ook haast geen coilwhine had.
Het valt mij op dat Asus vaak wordt genoemd (maar die hebben waarschijnlijk ook de meeste afzet) als het gaat om dit probleem.
Ook erg frappant is dat de Strix 4090 schijnbaar zo goed als geen coilwhine heeft en de Strix 4080 zo erg is dat je het aan de andere kant van de kamer met de koptelefoon nog hoort.
In feite zijn de PCB's gelijk met alleen een duidelijk verschil in de hoeveelheid vrm's en de type vrm.

Van Gigabyte echter, lees ik vrij weinig. Zouden zij daar wel op letten met het ontwerp?
Misschien toch maar een keer proberen, ondanks dat ze vaak worden afgekraakt om het PCB ontwerp of matige koelers.

Acties:
  • +1 Henk 'm!

  • Zuvio
  • Registratie: Mei 2004
  • Laatst online: 16-08 07:53
DKWB schreef op zondag 20 november 2022 @ 19:56:
[...]


Deze upgrade een paar weken terug gedaan. Voor games die CPU bound zijn kan het zeker een groot verschil maken:

DKWB in "[NVIDIA GeForce RTX 40XX] Ervaringen & Discussie"

Aan de hand van deze vergelijking tegenover een 5800X is er een verschil van 11.8% in RDR op 4K:
https://tpucdn.com/review...0x3d/images/3840-2160.png

Tegenover de 5600X zal het verschil nog iets groter zijn.
Ik heb precies hetzelfde gedaan: van de 5600x naar de 5800x3d. Inderdaad alle games zien hogere fps. Als je het geld hebt liggen, zeg ik doen!

Acties:
  • +1 Henk 'm!

  • DKWB
  • Registratie: Januari 2011
  • Laatst online: 13-09 21:30
In sommige games zie ik nog steeds een bottleneck met de 5800x3d. Hieronder Plague Tale van 57 naar 70% op de GPU. Er is dus nog ruimte om die laatste 30% te pakken als er een CPU uitkomt die snel genoeg is.

Ik ben benieuwd wat de nieuwe 7800x3d chip gaat doen volgend jaar. Misschien ga ik nog wel een keer upgraden als het de moeite waard is. :P

Afbeeldingslocatie: https://tweakers.net/i/rs0mb4NdXBHuV0zQGFzJRnJHI9Y=/800x/filters:strip_exif()/f/image/FJzenEuBldJdkZAzTjpEoRGs.png?f=fotoalbum_large

Acties:
  • +1 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 11:10
DKWB schreef op zondag 20 november 2022 @ 22:10:
In sommige games zie ik nog steeds een bottleneck met de 5800x3d. Hieronder Plague Tale van 57 naar 70% op de GPU. Er is dus nog ruimte om die laatste 30% te pakken als er een CPU uitkomt die snel genoeg is.

Ik ben benieuwd wat de nieuwe 7800x3d chip gaat doen volgend jaar. Misschien ga ik nog wel een keer upgraden als het de moeite waard is. :P

[Afbeelding]
Er komen toch alleen een 6 core en 8 core X3D cpu's : 7600X3D en 7700X3D ?

Same here trouwens met de 5800X3D en MSFS in VR :
4090 trekt het makkelijk maar constant hoge frametimes (tussen de 15 en 29ms), 4090 staat hierdoor regelmatig maar half mee te doen.

[ Voor 11% gewijzigd door dierkx36 op 20-11-2022 23:37 ]

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • +1 Henk 'm!

  • dutchman666
  • Registratie: December 2013
  • Laatst online: 13:20
Format-C schreef op zondag 20 november 2022 @ 08:34:
RDR2 is echt niet normaal wat een graphics.

Echt om te :9~ :9~ :9~

[Afbeelding]

Wat - een - game!!! En wat een power heeft de 4090.

Maar met alles vol open tikt ie nog steeds heeul af en toe nét boven de 60 aan in RDR (meestal rond 85). Als het mistig is, en nat, en de zonnestralen komen door... :o

_/-\o_ _/-\o_


Op 5120x1440 lukt het nog net, maar op 4K krijgt deze game de 4090 ook nog op de knieeen. :D

Heb nu een 5600X, zou een 5800X3D nog zin hebben?

Of zal ik al zo GPU bound zijn dat dat gewoon niets uitmaakt (zoals in de meeste games het geval is?).
Ik heb ook de RTX 4090 maar in combinatie met de 5800 X3D en met alles op max komt die nooit onder de 70-80 FPS (average 117 FPS in benchmark) bij dit spel. Dus ik denk dat de 5800X3D zeker wel zin kan hebben in jouw geval. In ieder geval als laatste upgrade op het AM4 platform :)

Acties:
  • 0 Henk 'm!

  • mmxmmx
  • Registratie: December 2000
  • Laatst online: 01-09 16:45
Xtr3me4me schreef op woensdag 16 november 2022 @ 19:02:
Nou ik ben nog steeds meer dan happy met me 4090 @+1000Mhz op de mem en 110 op de core.
Met de Be Quiet 16 pin kabel trekt de kaart 550watt met RT en de hele mikmak open.

Geen enkel probleem met de kabel en kaart blijft lekker koel op max 67graden.

Misschien ben ik wel 1 van de weinige die wel happy is met z’n kaart ondanks de prijs. Ja trekt veel stroom maar goed 18cent per Kwh en zit tot 2025 aan me contract. Ik kan aardige tijd voort.

Ben eindelijk blij dat me games op 4K HDR 120fps haalt.
Nieuwe Raptor Lake cpu helpt natuurlijk ook daarbij op 5.6Ghz all 8-P cores. En dat op liqued cooled 76 graden max in games
Heb je ook last van een CPU botelnek ? Het schijnt dat je een super snelle CPU moet hebben om alles uit zo een 4090 te halen. Welke CPU heb je precies ?

Asus RTX 5090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram


Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 05-09 02:31

GTX404

Hi

mmxmmx schreef op maandag 21 november 2022 @ 08:51:
[...]


Heb je ook last van een CPU botelnek ? Het schijnt dat je een super snelle CPU moet hebben om alles uit zo een 4090 te halen. Welke CPU heb je precies ?
Zou een 5950X supersnel genoeg zijn? :P

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:14
GTX404 schreef op maandag 21 november 2022 @ 09:38:
[...]


Zou een 5950X supersnel genoeg zijn? :P
Mogelijk niet, een 5800X lijkt in de review van TPU soms ook performance op tafel te laten te liggen, en 5950X zal dat mogelijk in sommige workloads wat beter doen, en in sommige misschien wat minder (wanneer een game last heeft van de 2de CCD).

Het is dus goed mogelijk dat in bepaalde gevallen een 5950X performance laat liggen als je deze combineert met een 4090 ten opzichte van bijvoorbeeld een 13900K, 5800X3D of Ryzen 7000 serie Sku, of dat echt merkbaar is, is natuurlijk een 2de en zal van de workload afhangen verwacht ik.

Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 05-09 02:31

GTX404

Hi

Dennism schreef op maandag 21 november 2022 @ 09:48:
[...]


Mogelijk niet, een 5800X lijkt in de review van TPU soms ook performance op tafel te laten te liggen, en 5950X zal dat mogelijk in sommige workloads wat beter doen, en in sommige misschien wat minder (wanneer een game last heeft van de 2de CCD).

Het is dus goed mogelijk dat in bepaalde gevallen een 5950X performance laat liggen als je deze combineert met een 4090 ten opzichte van bijvoorbeeld een 13900K, 5800X3D of Ryzen 7000 serie Sku, of dat echt merkbaar is, is natuurlijk een 2de en zal van de workload afhangen verwacht ik.
Nou dan hoop ik dat ik er nog 2 cpu gens mee kan doen voordat er in games op high res met 4090 een 20%+ verschil is..

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Nu online
CMT schreef op zondag 20 november 2022 @ 21:04:
[...]

🤔 Dan zit er bij jou iets niet goed en heb je waarschijnlijk te maken met de memory clock bug waardoor het geheugen niet (helemaal) terugklokt.
Sommige combinaties aan monitoren / resolutie + Hz triggeren dit probleem (is trouwens niet AMD specifiek). Er is ook een fix, door de beeldscherm timing aan te passen.

Hier klokt de rev. RX6900XT gewoon terug tot bijna letterlijk een paar MHz.

GPU: 2.5MHz
GPU geheugen: ca. 10MHz (bij niets doen).
Boardpower is dan ook maar: 7-8W.

Ik zie dit Nvidia niet doen :Y)
Nvidia doet dat nagenoeg ook met de 4090, heb hier gewoon 8-9W "Board Power Draw", ook even getest met 160Hz, maakt niets uit. Dikgedrukte is een onhandige opmerking, want het is onjuist. Snap niet helemaal wat je doel is van de hele post, aangezien het volledig off-topic is, gaat tot een onjuiste aanname niet over de 40XX series.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!
GTX404 schreef op maandag 21 november 2022 @ 09:38:
[...]


Zou een 5950X supersnel genoeg zijn? :P
Op het moment dat ik een CPU bottleneck ervaar (5950X met < 63ns latency op 't geheugen en dat helpt al veel) zet ik gewoon DLDSR aan of zelfs DSR x4 (8K downscaled naar 4K) voor betere graphics. Van 120 fps naar 140 fps gaan op 4K acht ik niet relevant, want alle 3 mijn 4K monitoren gaan maar tot 120hz voor 10-bit kleuren en de OLED tv is eveneens 120hz. Verder heb ik mijn powerlimiet op 65% staan (= 290W piek verbruik) en daar lever ik sowieso al 5 a 6% performance in voor 34% minder verbruik, dus die bottleneck valt bij mij sowieso al mee.

[ Voor 17% gewijzigd door Paprika op 21-11-2022 10:24 ]


Acties:
  • +1 Henk 'm!

  • GAEvakYD
  • Registratie: Juni 2001
  • Laatst online: 15-09 21:57
Hmmm interessante discussie dit mbt CPU bottleneck. Ik speel vooral veel Assetto Corsa Competition in VR en dat is ook echt een killer applicatie voor de GPU. Op dit moment rijd ik nog met een AMD 5800x CPU, 6900XT GPU en DDR4-3600. Waarbij ik veel grafische details moet uitzetten wil ik de 90fps stabiel houden.

Ik zat te overwegen om te upgraden naar een 4900 of eventueel nieuwe AMD kaart. Maar ik zat afgelopen week de GPU load in de gaten te houden en het viel mij op dat de meeste tijd de GPU load maar rond de 75-80% zit. Wat volgens mij bevestigd dat ik beperkt word door mijn Cpu op dit moment. Ik moet het nog eens beter monitoren en vastleggen, maar het voelt nu alsof extra investeren in een GPU mij niet gaan helpen. Dat ik daarvoor eerst andere bottlenecks moet oplossen.

Lekker duurzaam. Skoda Enyaq EV - First edtion, Alpha Innotec Brine warmtepomp (MSW2-6S), Totaal 12135 Wp aan Zonnepanelen geïnstalleerd.


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 13:27

CMT

Koldur schreef op maandag 21 november 2022 @ 10:07:
[...]


Nvidia doet dat nagenoeg ook met de 4090, heb hier gewoon 8-9W "Board Power Draw", ook even getest met 160Hz, maakt niets uit. Dikgedrukte is een onhandige opmerking, want het is onjuist. Snap niet helemaal wat je doel is van de hele post, aangezien het volledig off-topic is, gaat tot een onjuiste aanname niet over de 40XX series.
Bewijs dat maar dan (screenshot HWinfo). Aangezien niet één meting uit de reviews daar in de buurt van komt en in dit topic 11-16W wordt gerapporteerd. Ik geloof het simpelweg niet wat je verteld.

Maar het is duidelijk dat je het dik gedrukte humor niet kan waarderen, want het hooivorkje met glimlach was slechts plagend bedoeld. Een beetje de draak ermee steken omdat van AMD het tegendeel wordt beweert en mocht het niet waar zijn, dan een 'porr' zodat iemand met (tegen)bewijs komt.
Iets is gewoon waar totdat het tegendeel bewezen wordt, nietwaar?
Nota bene is het vanuit mijn eigen oogpunt beschreven, dus het is geen statement o.i.d.

Het doel van mijn post mag wel duidelijk zijn, aankaarten dat de opmerking over AMD onterecht was en dat er dus mogelijk iets verkeerd staat (zoek maar eens op https://www.google.com/se...igh+refresh+rate+idle+bug). Het kan ook voorkomen met een combi van meerdere beeldschermen en is merk agnostisch (dus ook bij Nvidia). Zodoende is het een mogelijke fix van het hoge verbruik dat bij de RTX4*** gemeten wordt (denk dan aan de 30W of meer).
Doe er mee wat je wil, maar ga s.v.p. mijn 'hele post' niet als 'volledig offtopic' bestempelen of een bewering maken dat ik een onjuiste aanname doe. Je brengt daarmee mijn post in diskrediet en dat is wat anders dan ergens niet mee eens zijn (kom dan gewoon met tegenargumenten / bewijs).

Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@GAEvakYD

Sim games staan erom bekend dat ze vrij veel load zetten op de CPU en VR ook.

Maar aangezien je nu allerlei grafische details uit moet zetten om de 90 FPS te halen, zou je met een betere kaart weer dingen kunnen aanzetten.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Nu online
CMT schreef op maandag 21 november 2022 @ 11:49:
[...]

Bewijs dat maar dan (screenshot HWinfo). Aangezien niet één meting uit de reviews daar in de buurt van komt en in dit topic 11-16W wordt gerapporteerd. Ik geloof het simpelweg niet wat je verteld.

Maar het is duidelijk dat je het dik gedrukte humor niet kan waarderen, want het hooivorkje met glimlach was slechts plagend bedoeld. Een beetje de draak ermee steken omdat van AMD het tegendeel wordt beweert en mocht het niet waar zijn, dan een 'porr' zodat iemand met (tegen)bewijs komt.
Iets is gewoon waar totdat het tegendeel bewezen wordt, nietwaar?
Nota bene is het vanuit mijn eigen oogpunt beschreven, dus het is geen statement o.i.d.

Het doel van mijn post mag wel duidelijk zijn, aankaarten dat de opmerking over AMD onterecht was en dat er dus mogelijk iets verkeerd staat (zoek maar eens op https://www.google.com/se...igh+refresh+rate+idle+bug). Het kan ook voorkomen met een combi van meerdere beeldschermen en is merk agnostisch (dus ook bij Nvidia). Zodoende is het een mogelijke fix van het hoge verbruik dat bij de RTX4*** gemeten wordt (denk dan aan de 30W of meer).
Doe er mee wat je wil, maar ga s.v.p. mijn 'hele post' niet als 'volledig offtopic' bestempelen of een bewering maken dat ik een onjuiste aanname doe. Je brengt daarmee mijn post in diskrediet en dat is wat anders dan ergens niet mee eens zijn (kom dan gewoon met tegenargumenten / bewijs).
Afbeeldingslocatie: https://gpuz.techpowerup.com/22/11/21/pad.png

Bewijs vragen zonder zelf bewijs te leveren is wel jammer.
En je post is gewoon onjuist, dit is het 40XX ervaringen topic, niet het AMD topic en de bewering die je maakt klopt niet.
*knip* Nee dit gaan we niet doen. Jullie maken allebei van een mug een olifant, en al dan niet ingrijpen van mods dien je niet in dit topic te bespreken. Dit topic is niet ZT. Dat betekent dat een kleine tangent om een punt te maken echt geen probleem is.

Hoe dan ook, de 4090 verbruikt dus zeer weinig in idle modus onder normale omstandigheden.

[ Voor 6% gewijzigd door Blaat op 21-11-2022 13:06 ]

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
DKWB schreef op zondag 20 november 2022 @ 22:10:
In sommige games zie ik nog steeds een bottleneck met de 5800x3d. Hieronder Plague Tale van 57 naar 70% op de GPU. Er is dus nog ruimte om die laatste 30% te pakken als er een CPU uitkomt die snel genoeg is.

Ik ben benieuwd wat de nieuwe 7800x3d chip gaat doen volgend jaar. Misschien ga ik nog wel een keer upgraden als het de moeite waard is. :P

[Afbeelding]
De game heeft een update gehad met performance fixes. Ik las dat de game stevig op 1 core leunde en dit zij zijn gefixed.

Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 05-09 02:31

GTX404

Hi

*knip* Sorry voor de heftige knip, maar ik wil deze discussie hier laten stoppen. Volgende keer rapporteren en verder niet op reageren.

Ik ben zelf erg benieuwd naar een 4090 Ti die dan echt 600W trekt en 15-20% meer performance kan leveren :) (vooral wanneer we met een power limit van 70 bijna niets verliezen)

[ Voor 75% gewijzigd door Blaat op 21-11-2022 13:07 ]

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 05-09 02:31

GTX404

Hi

Paprika schreef op maandag 21 november 2022 @ 10:20:
[...]

Op het moment dat ik een CPU bottleneck ervaar (5950X met < 63ns latency op 't geheugen en dat helpt al veel) zet ik gewoon DLDSR aan of zelfs DSR x4 (8K downscaled naar 4K) voor betere graphics. Van 120 fps naar 140 fps gaan op 4K acht ik niet relevant, want alle 3 mijn 4K monitoren gaan maar tot 120hz voor 10-bit kleuren en de OLED tv is eveneens 120hz. Verder heb ik mijn powerlimiet op 65% staan (= 290W piek verbruik) en daar lever ik sowieso al 5 a 6% performance in voor 34% minder verbruik, dus die bottleneck valt bij mij sowieso al mee.
Ja das een hele goeie, hoe merk jij je bottleneck op de 5950X? Gaat hij dan op een aantal cores 100% draaien?

Ben zelf benieuwd naar mijn memory latency, hoe kan ik dat op een goede manier controleren?

Als AMD niets relevants aanlevert koop ik binnenkort een 4090 en wil over naar een 160hz+ monitor; ben benieuwd hoe dat gaat werken.

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • +2 Henk 'm!
GTX404 schreef op maandag 21 november 2022 @ 12:35:
[...]
Ja das een hele goeie, hoe merk jij je bottleneck op de 5950X? Gaat hij dan op een aantal cores 100% draaien?
Puur usage percentages zeggen helaas niet veel, want scheduling maakt 100% usage eigenlijk niet altijd even makkelijk, zeker niet als we het over DX11 of lager hebben. Wat de CPU doet maakt mij niet zo veel uit. Ik acht elders een bottleneck te vinden als de GPU minder dan 275W verbruikt en dan maak ik het met DLDSR gewoon lastiger tot ik weer op 280-295W zit :+.
Ben zelf benieuwd naar mijn memory latency, hoe kan ik dat op een goede manier controleren?
AIDA heeft een prima memory benchmark hiervoor.

Afbeeldingslocatie: https://www.techcenturion.com/wp-content/uploads/2019/08/3rd-Gen-Ryzen-Memory-Latency.jpg

3200C14/3600C16 etc zijn eigenlijk al standaard waarden voor B-die geheugen. Met wat finetunen moet je daar makkelijk onder kunnen komen en dat scheelt al snel een paar procent.

Acties:
  • 0 Henk 'm!
Voor science dan maar:
Afbeeldingslocatie: https://tweakers.net/i/464WOnq3Rb_nOiaAP2AB06kLr1g=/800x/filters:strip_exif()/f/image/FTooVLHtVY60tgd8aIPPVjpw.png?f=fotoalbum_large

Dit is wat ik zie met een FE op 4k/120Hz. GPU-Z stond op logging iedere 0.1 seconden. Als ik het verlaag naar de default 1.0 dan zakt het verbruik nog iets (richting de 8-10W meestal), omdat GPU-Z renderen ook wat extra verbruik geeft :+. Verder is het eerste deel van de log idle verbruik met alleen GPU-Z. Halverwege kwam daar Tweakers browsen bij. Dat acht ik zelf een meer relevant scenario, want als de pc helemaal idle staat kun je de hele computer net zo goed uitschakelen en dat levert meer op dan die 1-4W optimalisatie dan voor niets je bureaublad renderen. 8)7

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 13:27

CMT

Koldur schreef op maandag 21 november 2022 @ 12:11:
[...]


[Afbeelding]

Bewijs vragen zonder zelf bewijs te leveren is wel jammer.
En je post is gewoon onjuist, dit is het 40XX ervaringen topic, niet het AMD topic en de bewering die je maakt klopt niet.
Maar blijkbaar zijn de mods het met je eens, want had je post gerapporteerd en is blijven staan.

Hoe dan ook, de 4090 verbruikt dus zeer weinig in idle modus onder normale omstandigheden.
Wanneer je beweerd dat iemand niet de waarheid spreekt of het niet juist heeft, dan ligt de bewijslast bij jouw. Niet andersom.
Ik heb bewust geen meting gepost omdat ik het vermoeden heb dat het dan echt als een Nvidia vs AMD post gezien wordt, terwijl ik alleen een onjuistheid wilde corrigeren en daarbij ook info gaf dat mogelijk voor RTX4**** gebruikers van belang kan zijn (verkeerde monitor instellingen die voor een hoger dan normaal idle verbruik zorgen). Ik had het misschien meer expliciet moeten vermelden i.p.v. indirect tussen haakjes.

Ik heb specifiek om een HWinfo meting gevraagd en dat geef je dan weer niet.
Het lijkt er zelfs op alsof je mij om de tuin probeert te leiden, want de GPU-Z meting die je gepost hebt heeft de boardpower draw op min. staan. Ik weet niet of dit standaard zo ingesteld staat bij GPU-Z en/of je dit bewust gedaan hebt, want je meet zo alleen de laagste gemeten power waarde! Tja..

Doe de meting opnieuw met gemiddelde waarden en nu zowel een HWinfo als GPU-z meting.
Ik wil beide zien zodat het het gemiddelde, min, max en meetduur te zien is.

Hieronder zijn mijn metingen van de RX6900XT, aangezien je denkt dat ik onzin loop uit te kramen:

Afbeeldingslocatie: https://tweakers.net/i/hk5ZpwHMP-_fSe4wfx_9O9XFZzk=/x800/filters:strip_exif()/f/image/nfjlaUQtS6AQhacMdnpwETI0.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/wo_Wl-wGOMN_W33KO7OCxSKAa-E=/full-fit-in/4000x4000/filters:no_upscale():fill(white):gifsicle():strip_exif()/f/image/VMWVCXg8q47azovA2u672zIk.gif?f=user_large

Afbeeldingslocatie: https://tweakers.net/i/cDtG5Uu0T9iEdbRx657r0EK3mXU=/full-fit-in/4000x4000/filters:no_upscale():fill(white):gifsicle():strip_exif()/f/image/g90ltTS7Ru2Tnq4LEk47ie9p.gif?f=user_large

Het boardpower van de RX6900XT is wat hoger omdat enkel na de vrm sectie gemeten wordt. Ik weet niet precies hoeveel dat is, maar ik neem aan dat de vrm sectie in slaapmodus niet meer dan een paar watt verbruikt. Dus rond het voor de zekerheid dan maar af naar 9W.
Als een RTX4090 daar werkelijk van in de buurt kan komen dan is dat een sterk argument voor mij ook toch de RTX4090 te blijven overwegen (en dikke respect voor de ontwerpers).

Acties:
  • 0 Henk 'm!
@CMT, ik kom bij HWInfo en GPU-Z op dezelfde cijfers uit.

Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Ik weet niet hoeveel WATT RGB verlichting verbruikt maar ik ga dat eens testen met mijn RTX 4090. Ik verwacht geen hele grote verschillen.

Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 05-09 02:31

GTX404

Hi

Paprika schreef op maandag 21 november 2022 @ 12:46:
[...]

Puur usage percentages zeggen helaas niet veel, want scheduling maakt 100% usage eigenlijk niet altijd even makkelijk, zeker niet als we het over DX11 of lager hebben. Wat de CPU doet maakt mij niet zo veel uit. Ik acht elders een bottleneck te vinden als de GPU minder dan 275W verbruikt en dan maak ik het met DLDSR gewoon lastiger tot ik weer op 280-295W zit :+.

[...]


AIDA heeft een prima memory benchmark hiervoor.

[Afbeelding]

3200C14/3600C16 etc zijn eigenlijk al standaard waarden voor B-die geheugen. Met wat finetunen moet je daar makkelijk onder kunnen komen en dat scheelt al snel een paar procent.
Ah dank voor deze tip. Ben benieuwd hoe dat met mijn setup gaat worden wanneer de 4090 in mijn systeem zit. Ik draai nu 2 x 16GB 3200CL16 geloof ik; en laatste keer dat ik dat had gecheckt waren het de goede Samsung b-die chips. Heb ze nog nooit gefinetuned; memory sowieso nooit gedaan; dus tips zijn welkom :)

edit: 73ns kom ik uit, alleen klaagtie wel dat Hypervisor / memory integrity aan staan wanneer dat niet het geval is. Misschien in de bios virtualization even uitzetten.

[ Voor 6% gewijzigd door GTX404 op 21-11-2022 13:42 ]

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • 0 Henk 'm!

  • Maudima
  • Registratie: Juni 2013
  • Laatst online: 07-02 19:15
DKWB schreef op zondag 20 november 2022 @ 22:10:
In sommige games zie ik nog steeds een bottleneck met de 5800x3d. Hieronder Plague Tale van 57 naar 70% op de GPU. Er is dus nog ruimte om die laatste 30% te pakken als er een CPU uitkomt die snel genoeg is.

Ik ben benieuwd wat de nieuwe 7800x3d chip gaat doen volgend jaar. Misschien ga ik nog wel een keer upgraden als het de moeite waard is. :P

[Afbeelding]
Als ik het zo in YouTube invoer lijkt de performance prima in Flight Simulator 2020 (zelfde engine). Vraag me af of je single thread/ CPU performance problermen zou kunnen bruteforcen omdat je dan waarschijnlijk met frametimes in de knel komt.

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 13:27

CMT

@Paprika

Mat GPU-Z daarbij het gemiddelde of zonder een subtext bij de meting? Standaard geeft het volgens mij de actuele waarde. Met 0.1sec meetinterval heb je verder wel last van het observer effect.
Bij zulke lage waarden kan dat significant zijn.
Maar als het echt schommelt rond de 8-10W dan is dat heel netjes voor een highend card en veel beter dan de reviews doen vermoeden (die eerder rond de 15-30W zitten).

Ik heb de metingen gedaan met 1.0sec interval en zonder een aktieve browser. Puur dekstop dus.
Ben het verder met je eens dat het niet echt een realistisch scenario is, meestal doe je wel iets met de PC in 2D modus. Aan de andere kant was het om te kijken hoever een kaart tot rust kan komen. Dus waar de hardware tot in staat is / gevalletje 5min weg om koffie te zetten o.i.d.

Met een browser vol tabbladen geopend op de tweakers frontpage en 0.1sec meetinterval (en tijdens het typen van dit bericht + muisbeweging), gaat het gemiddeld verbruik omhoog naar 12W (pakweg 14-15W boardpower?) en de gemiddelde geheugenklok naar 150MHz. Frapprant genoeg blijft de gemiddelde GPU klok superlaag met 10MHz.

Hoe heet de software ook alweer waarmee je zulke grafieken kunt plotten?
Ik had dat vroeger wel eens gedaan, maar ben de naam daarvan vergeten.
Nu ben ik best benieuwd wat mijn verbruik is tijdens het kijken van video, youtube e.d.
Niet dat ik hiermee het topic ga vervuilen, tenzij iemand het interessant vindt als vergelijksmateriaal ;).

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 13:27

CMT

GTX404 schreef op maandag 21 november 2022 @ 13:28:
[...]


Ah dank voor deze tip. Ben benieuwd hoe dat met mijn setup gaat worden wanneer de 4090 in mijn systeem zit. Ik draai nu 2 x 16GB 3200CL16 geloof ik; en laatste keer dat ik dat had gecheckt waren het de goede Samsung b-die chips. Heb ze nog nooit gefinetuned; memory sowieso nooit gedaan; dus tips zijn welkom :)

edit: 73ns kom ik uit, alleen klaagtie wel dat Hypervisor / memory integrity aan staan wanneer dat niet het geval is. Misschien in de bios virtualization even uitzetten.
Ik kan je daarmee wel op weg helpen. Heb onderhand redelijk wat ervaring met het overklokken van geheugen en ben zelf ook in bezit van goede Samsung B-die latjes (dual rank 3200MHz CL14 overgeklokt naar 3800MHz CL16 @1.36V en draait al jaren stabiel) Maar weet waar je aan begint, want het kan in het begin best tijdrovend zijn, voordat je op een punt gekomen bent dat je weet waar de grenzen liggen ;).
En soms ook erg frustrerend, wanneer je de ene fout geheugenfout tijdens 10 uur testen tegenkomt.
Gelukkig is er nu wel veel bekend over de chips en waartoe ze in staat zijn.
In het AMD Zen 2/3 topic is daar redelijk veel over gesproken. Dus dat zou een mooie plek zijn om je vraag voor te leggen.

Acties:
  • +1 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Nu online
CMT schreef op maandag 21 november 2022 @ 13:15:
[...]

Wanneer je beweerd dat iemand niet de waarheid spreekt of het niet juist heeft, dan ligt de bewijslast bij jouw. Niet andersom.
Ik heb bewust geen meting gepost omdat ik het vermoeden heb dat het dan echt als een Nvidia vs AMD post gezien wordt, terwijl ik alleen een onjuistheid wilde corrigeren en daarbij ook info gaf dat mogelijk voor RTX4**** gebruikers van belang kan zijn (verkeerde monitor instellingen die voor een hoger dan normaal idle verbruik zorgen). Ik had het misschien meer expliciet moeten vermelden i.p.v. indirect tussen haakjes.

Ik heb specifiek om een HWinfo meting gevraagd en dat geef je dan weer niet.
Het lijkt er zelfs op alsof je mij om de tuin probeert te leiden, want de GPU-Z meting die je gepost hebt heeft de boardpower draw op min. staan. Ik weet niet of dit standaard zo ingesteld staat bij GPU-Z en/of je dit bewust gedaan hebt, want je meet zo alleen de laagste gemeten power waarde! Tja..

Doe de meting opnieuw met gemiddelde waarden en nu zowel een HWinfo als GPU-z meting.
Ik wil beide zien zodat het het gemiddelde, min, max en meetduur te zien is.

Hieronder zijn mijn metingen van de RX6900XT, aangezien je denkt dat ik onzin loop uit te kramen:

[Afbeelding]

[Afbeelding]

[Afbeelding]

Het boardpower van de RX6900XT is wat hoger omdat enkel na de vrm sectie gemeten wordt. Ik weet niet precies hoeveel dat is, maar ik neem aan dat de vrm sectie in slaapmodus niet meer dan een paar watt verbruikt. Dus rond het voor de zekerheid dan maar af naar 9W.
Als een RTX4090 daar werkelijk van in de buurt kan komen dan is dat een sterk argument voor mij ook toch de RTX4090 te blijven overwegen (en dikke respect voor de ontwerpers).
Ben je niet bekend met GPU-Z? Is een aardig gerespecteerd programma en geeft meestal even meer info over sensoren weer. Dacht dat je hier wel mee bekend was, niet dus. De screenshots daaruit worden ook gevalideerd en kun je daardoor als waarheid aannemen, vandaar dat ik GPU-Z heb gebruikt.

Maar hier een screenshot van HWiNFO:
Afbeeldingslocatie: https://tweakers.net/i/9ZCwCuT6UsBoc65C1TLRxZWIBLA=/800x/filters:strip_exif()/f/image/MHIT0NisxkNxEAQwFQmXpDAT.png?f=fotoalbum_large

Met actief browsen kom ik uit op 15 Watt gemiddeld.

offtopic:
Blijkbaar ben ik sinds de discussie over de 12VHPWR aansluiting, wat met genoeg bewijs dat de aansluiting zelf geen probleem is (wat al eerder is aangegeven in dit topic, dus hier geen herhaling van zetten daarin), de gebeten hond.

Mijn probleem is dat er hier op Tweakers veelal geroepen wordt zonder echte onderbouwing, heb ik dat zelf in bepaalde gevallen ook gedaan? Dan hierbij mijn excuses en let ik daar ook beter op, maar nogmaals, maakt het punt niet minder waar, roepen zonder echte onderbouwing en daar feiten van maken, helpt niemand hier.

Voor de rest vind ik het jammer als mensen hier negatief over mij denken, maar gaat het mij uiteindelijk om de waarheid over het onderwerp zonder fratsen.
Jouw post, kan je niet ontkennen, was er eentje met je laatste zin om iets uit te lokken. Dat is gewoon onnodig.

Ik heb overigens nergens gemeld of geïnsinueerd dat ik jou niet geloof. De manier waarop je iets eist, wilde ik alleen aanhalen.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • +1 Henk 'm!

  • Yanik
  • Registratie: April 2002
  • Laatst online: 11-09 13:56
Ik heb de Gainward 4090 Phantom GS in combinatie met een 1500w Be quiet! 1500 platinum voeding(die had ik al voor mijn vorige kaarten). Ik ben er heel blij mee afgezien van wat geheugen gerelateerde problemen met Nvidia en Redshift in Cinema4D.

De powerdraw is best hoog in idle.
Afbeeldingslocatie: https://tweakers.net/i/7GEMBAnnRiGwmEezuugro09X23Q=/800x/filters:strip_exif()/f/image/GO6nBU9QpbzU2PV7zb4pBihw.png?f=fotoalbum_large

Op 70% power target ietsjes lager:
Afbeeldingslocatie: https://tweakers.net/i/_zSahtCqb2IQcHsOyn4c82k22UI=/800x/filters:strip_exif()/f/image/A0PKxVhvQiLYI1CmgYzvqPfb.png?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Nu online

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!
Yanik schreef op maandag 21 november 2022 @ 14:22:
Ik heb de Gainward 4090 Phantom GS in combinatie met een 1500w Be quiet! 1500 platinum voeding(die had ik al voor mijn vorige kaarten). Ik ben er heel blij mee afgezien van wat geheugen gerelateerde problemen met Nvidia en Redshift in Cinema4D.

De powerdraw is best hoog in idle.
[Afbeelding]

Op 70% power target ietsjes lager:
[Afbeelding]
Heb je hetzelfde verbruik zonder die tool van Gainward op de achtergrond? 't Zou mij niet verbazen als die open hebben alweer een paar watt scheelt. Verder maakt de vendor nog best wel wat uit volgens TPU hun reviews. Suprim Liquid: 38W (pomp?), Suprim X: 38W, ZOTAC AMP Extreme 33W, Palit GameRock: 33W, Colorful Vulcan: 28W, Gigabyte OC: 22W, FE 21W.

Onder de streep scheelt 20W bij 12 uur per dag 7 dagen in de week nog altijd minder dan 90 euro op jaarbasis (tegen 1 euro/kW, bovengemiddeld dus) en dat op kaarten van 2000 euro of meer. In de basis is het dus verwaarloosbaar, zeker als je niet 12 uur per dag je pc idle hebt, maar bijvoorbeeld maximaal 1 uurtje in de avond (1 uur per dag en dat alle 365 dagen van het jaar zou ik zelf niet redden overigens, maar goed). Dan zit je opeens over 7 euro per jaar te praten.

[ Voor 19% gewijzigd door Paprika op 21-11-2022 14:35 ]


Acties:
  • 0 Henk 'm!

  • Yanik
  • Registratie: April 2002
  • Laatst online: 11-09 13:56
Paprika schreef op maandag 21 november 2022 @ 14:29:
[...]

Heb je hetzelfde verbruik zonder die tool van Gainward op de achtergrond? 't Zou mij niet verbazen als die open hebben alweer een paar watt scheelt. Verder maakt de vendor nog best wel wat uit volgens TPU hun reviews. Suprim Liquid: 38W (pomp?), Suprim X: 38W, ZOTAC AMP Extreme 33W, Palit GameRock: 33W, Colorful Vulcan: 28W, Gigabyte OC: 22W, FE 21W.
Ook zonder de tool van Gainward is het verbruik bijna gelijk. Het minimum lijkt rond de 17 te zitten en maximum op 21 met de power target op 70%. Als ik mijn browser(Firefox) open heb (met alleen tweakers open) dan slurpt het ook 1 of 2 watt.

Hiervoor had ik 2x 2080ti en 1x 1080 en het vebruik is nu velen malen lager. Aangezien ik s'nachts renders aan heb staan kan het zo zijn dat de pc soms niets staat te doen.

[ Voor 10% gewijzigd door Yanik op 21-11-2022 14:46 ]


Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Nu online
Yanik schreef op maandag 21 november 2022 @ 14:40:
[...]


Ook zonder de tool van Gainward is het verbruik bijna gelijk. Het minimum lijkt rond de 17 te zitten en maximum op 21 met de power target op 70%. Als ik mijn browser(Firefox) open heb (met alleen tweakers open) dan slurpt het ook 1 of 2 watt.
Wat is jouw monitorsituatie? Een of meerdere? Welke resolutie/refreshrate?

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • Yanik
  • Registratie: April 2002
  • Laatst online: 11-09 13:56
Koldur schreef op maandag 21 november 2022 @ 14:45:
[...]


Wat is jouw monitorsituatie? Een of meerdere? Welke resolutie/refreshrate?
1 Beeldscherm. Op 2560x1440@60hz.

Ik gebruik de GPU niet om mee te gamen(behalve A Plague Tale Requiem). Ik had het stroomverbruik tijdens het renderen met verschillende CUDA pakketten getest en de board power draw kwam nooit boven de 250w. Het gemiddelde lag rond de 210 met Redshift.
Redshift gebruikte het meest terwijl een ander renderplugin (Karma van SideFX) 1/3e tot 1/4e minder leek te verbruiken. Dit allemaal zonder de power target van 70%.

Ik ben blij dat het niet de volledige 450w verbruikt tijdens het renderen. De temps gaan ook niet hoger dan 50 tijdens langdurig renderen, maar dat kan aan de koele omgeving waar mijn pc zit.

Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
CMT schreef op maandag 21 november 2022 @ 14:10:
@Paprika
Maar als het echt schommelt rond de 8-10W dan is dat heel netjes voor een highend card en veel beter dan de reviews doen vermoeden (die eerder rond de 15-30W zitten).
De high-end kaarten hebben wel veel geheugenchips, dus dan kan ook een relatief lage idle draw van het geheugen nogal veel uitmaken. Er zitten immers 12 GDDR6X-chips op. De chips moeten altijd blijven refreshen, dus stroom gebruiken ze sowieso.

Helaas heb ik nergens enige info gevonden hoeveel de idle power draw is van GDDR6X of GDDR6.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Nu online
Yanik schreef op maandag 21 november 2022 @ 14:56:
[...]


1 Beeldscherm. Op 2560x1440@60hz.

Ik gebruik de GPU niet om mee te gamen(behalve A Plague Tale Requiem). Ik had het stroomverbruik tijdens het renderen met verschillende CUDA pakketten getest en de board power draw kwam nooit boven de 250w. Het gemiddelde lag rond de 210 met Redshift.
Redshift gebruikte het meest terwijl een ander renderplugin (Karma van SideFX) 1/3e tot 1/4e minder leek te verbruiken. Dit allemaal zonder de power target van 70%.

Ik ben blij dat het niet de volledige 450w verbruikt tijdens het renderen. De temps gaan ook niet hoger dan 50 tijdens langdurig renderen, maar dat kan aan de koele omgeving waar mijn pc zit.
Welke energiemodus gebruik je en welke drivers? Beide kunnen invloed hebben.

Zoals al eerder gemeld hier, kan het ook per merk verschillen, maar op TPU wordt ook de Gigabyte Gaming OC hoog gemeten in idle wat ik niet zie met mijn Windforce, hoewel ik niet die specifieke kaart heb, zit er meestal wel een trend in de hele lijn van een fabrikant. Heb je een TV of andere monitor waar je de PC op aan kan sluiten voor de rest?

De testen die hier zijn uitgevoerd van CMT en mijzelf zijn de scenario's waarbij er echt niets anders draait behalve GPU-Z of HWiNFO. Dus om dit te halen moet je ook geen mediaplayer idle o.i.d. hebben staan.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • +4 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 12:34

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Topicstarter
Oeh, zal ik mijn amperetang weer eens tevoorschijn halen om het idleverbruik te meten onder verschillende omstandigheden? Naar het schijnt gebruikt lovelace enkel de 6 GND draden van de 12VHPWR plug als return, dus zou ik daarmee prima kunnen achterhalen of wat de software uitleest 100% klopt. :)

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 13:27

CMT

Koldur schreef op maandag 21 november 2022 @ 14:18:
[...]


Ben je niet bekend met GPU-Z? Is een aardig gerespecteerd programma en geeft meestal even meer info over sensoren weer. Dacht dat je hier wel mee bekend was, niet dus. De screenshots daaruit worden ook gevalideerd en kun je daardoor als waarheid aannemen, vandaar dat ik GPU-Z heb gebruikt.

Maar hier een screenshot van HWiNFO:
[Afbeelding]

Met actief browsen kom ik uit op 15 Watt gemiddeld.

offtopic:
Blijkbaar ben ik sinds de discussie over de 12VHPWR aansluiting, wat met genoeg bewijs dat de aansluiting zelf geen probleem is (wat al eerder is aangegeven in dit topic, dus hier geen herhaling van zetten daarin), de gebeten hond.

Mijn probleem is dat er hier op Tweakers veelal geroepen wordt zonder echte onderbouwing, heb ik dat zelf in bepaalde gevallen ook gedaan? Dan hierbij mijn excuses en let ik daar ook beter op, maar nogmaals, maakt het punt niet minder waar, roepen zonder echte onderbouwing en daar feiten van maken, helpt niemand hier.

Voor de rest vind ik het jammer als mensen hier negatief over mij denken, maar gaat het mij uiteindelijk om de waarheid over het onderwerp zonder fratsen.
Jouw post, kan je niet ontkennen, was er eentje met je laatste zin om iets uit te lokken. Dat is gewoon onnodig.

Ik heb overigens nergens gemeld of geïnsinueerd dat ik jou niet geloof. De manier waarop je iets eist, wilde ik alleen aanhalen.
Jawel, maar ik heb specifiek om HWinfo gevraagd omdat ik dat meer vertrouw als meetprogramma en daar ook direct een overzicht te zien is van min. / max. / gemiddeld waarde.
Maar waarom moet je verder toch weer zo vooringenomen reageren? Zie je dan niet in dat je op deze manier provoceert, wanneer ik n.b. daarvoor nog heb aangegeven dat je verkeerd met GPU-Z gemeten hebt.

Maargoed, bedankt voor de HWinfo meting.
Samen met de meting van Paprika schept dat een heel ander beeld dan de reviewers getoond hebben en 8W gemiddeld in rust is heel netjes te noemen. Praktisch op gelijke voet, alhoewel mijn plagende opmerking overeind blijft ;).

Bedankt, dat was het inderdaad 'Genericlogviewer' :).

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 13:27

CMT

Ludewig schreef op maandag 21 november 2022 @ 15:23:
[...]


De high-end kaarten hebben wel veel geheugenchips, dus dan kan ook een relatief lage idle draw van het geheugen nogal veel uitmaken. Er zitten immers 12 GDDR6X-chips op. De chips moeten altijd blijven refreshen, dus stroom gebruiken ze sowieso.

Helaas heb ik nergens enige info gevonden hoeveel de idle power draw is van GDDR6X of GDDR6.
Dat is goed punt. Ik zou het best interessant vinden als dat uitgezocht werd.
Maar met een paar honderd MHz zal dat niet meer dan een paar watt in totaal zijn vermoed ik.
Gewone 2x16GB DDR4 werkgeheugen op 2000MHz (echte klok) gebruikt non aktief ook maar 2-4W. En daar zitten dan 16 tot 32 chips op.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 13:27

CMT

Blaat schreef op maandag 21 november 2022 @ 15:51:
Oeh, zal ik mijn amperetang weer eens tevoorschijn halen om het idleverbruik te meten onder verschillende omstandigheden? Naar het schijnt gebruikt lovelace enkel de 6 GND draden van de 12VHPWR plug als return, dus zou ik daarmee prima kunnen achterhalen of wat de software uitleest 100% klopt. :)
Yes, graag :). Ik neem aan dat het dan alleen om validatie van het vermogen via de gewone 12V rails gaat en niet wat nog uit het PCIe slot komt? Dus om de meetnauwkeurigheid van de softwaremeting?

De 4090FE tapt namelijk wel iets van het PCIe slot, variërend van 0.3A tot 1A : https://www.igorslab.de/n...er-aus-der-kaelte-kam/10/
Het de verdeling eruit ziet bij de Asus Strix 4090 is mij onbekend.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@CMT

GDDR gebruikt volgens mij per chip wel flink meer stroom onder load dan een losse chip op een RAM-module. Bij een 3090/4090 schijnt dat al snel naar 40 watt te gaan voor alle chips samen, terwijl een twee RAM-modules van elk 16GB samen inderdaad veel minder gebruiken.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Nu online
CMT schreef op maandag 21 november 2022 @ 16:09:
[...]

Jawel, maar ik heb specifiek om HWinfo gevraagd omdat ik dat meer vertrouw als meetprogramma en daar ook direct een overzicht te zien is van min. / max. / gemiddeld waarde.
Maar waarom moet je verder toch weer zo vooringenomen reageren? Zie je dan niet in dat je op deze manier provoceert, wanneer ik n.b. daarvoor nog heb aangegeven dat je verkeerd met GPU-Z gemeten hebt.

Maargoed, bedankt voor de HWinfo meting.
Samen met de meting van Paprika schept dat een heel ander beeld dan de reviewers getoond hebben en 8W gemiddeld in rust is heel netjes te noemen. Praktisch op gelijke voet, alhoewel mijn plagende opmerking overeind blijft ;).



[...]

Bedankt, dat was het inderdaad 'Genericlogviewer' :).
Ik reageer niet vooringenomen, ik licht mijn keuze voor GPU-Z voor en waarom ik dacht dat het wel prima was.
Denk dat je de reactie m.b.t. GPU-Z op de verkeerde wijze leest. Het is informeren en verantwoorden, daarmee geef ik gelijk antwoord op jouw vraag waarom ik niet HWiNFO heb gebruikt in eerste instantie.
Min waarde uitlezen is niet verkeerd meten, want idle is wat het laagste verbruik genereerd.

[ Voor 3% gewijzigd door Koldur op 21-11-2022 16:50 ]

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 13:27

CMT

Koldur schreef op maandag 21 november 2022 @ 16:48:
[...]


Ik reageer niet vooringenomen, ik licht mijn keuze voor GPU-Z voor en waarom ik dacht dat het wel prima was.
Denk dat je de reactie m.b.t. GPU-Z op de verkeerde wijze leest. Het is informeren en verantwoorden, daarmee geef ik gelijk antwoord op jouw vraag waarom ik niet HWiNFO heb gebruikt in eerste instantie.
Min waarde uitlezen is niet verkeerd meten, want idle is wat het laagste verbruik genereerd.
Ik heb daarvoor op gewezen dat je met GPU-Z de minimale waarde voor boardpower gemeten hebt = allerlaagste waarde en slechts 1 meetpunt gedurende de hele meetperiode.
En in plaats daarvan op in te gaan, reageer je alsof ik onbekend ben met GPU-Z.
Hoe zou jij dat dan opvatten in een discussie? Misschien heb je het goed bedoeld, maar het is heel anders bij mij overgekomen.

Los daarvan, ik denk dat je dan GPU-Z verkeerd interpreteert.
Als er in het groen 'min' staat bij een waarde, dan meet je alleen de minimale waarde tijdens een periode. Dat is geen speciale meetmethode voor idle verbruik. Met dezelfde redenatie zou jouw RTX4090 volgens HWinfo 5.179W verbruiken in rust. Misschien was dat zo voor 1 seconde of minder, maar dat kan je niet als uitgangspunt nemen voor het rustverbruik.
Wanneer je het rustverbruik meet, dan doe je dat namelijk over een bepaalde periode, waarbij lichte spreiding (kleine uitschieters naar boven & naar onder) wordt (uit)gemiddeld.

Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Nu online
CMT schreef op maandag 21 november 2022 @ 18:26:
[...]

Ik heb daarvoor op gewezen dat je met GPU-Z de minimale waarde voor boardpower gemeten hebt = allerlaagste waarde en slechts 1 meetpunt gedurende de hele meetperiode.
En in plaats daarvan op in te gaan, reageer je alsof ik onbekend ben met GPU-Z.
Hoe zou jij dat dan opvatten in een discussie? Misschien heb je het goed bedoeld, maar het is heel anders bij mij overgekomen.

Los daarvan, ik denk dat je dan GPU-Z verkeerd interpreteert.
Als er in het groen 'min' staat bij een waarde, dan meet je alleen de minimale waarde tijdens een periode. Dat is geen speciale meetmethode voor idle verbruik. Met dezelfde redenatie zou jouw RTX4090 volgens HWinfo 5.179W verbruiken in rust. Misschien was dat zo voor 1 seconde of minder, maar dat kan je niet als uitgangspunt nemen voor het rustverbruik.
Wanneer je het rustverbruik meet, dan doe je dat namelijk over een bepaalde periode, waarbij lichte spreiding (kleine uitschieters naar boven & naar onder) wordt (uit)gemiddeld.
Ik had het bij GPU-Z even in de gaten gehouden, daar stond de min waarde op hetzelfde als dat de PC idle was. Zag er daarom geen problemen in die zo te posten, had geen zin om alles te resetten in de verwachting dat het wel vertrouwd werd.
De grap is, in HWiNFO gaan de waardes soms heel laag, terwijl GPU-Z hier dus juist rekening mee houdt wat ik kon zien. Voor dezelfde sensors geeft HWiNFO relatief veel lagere waardes aan dan GPU-Z.

Dus even langs elkaar heen gepraat, maar het mag dus duidelijk zijn, Nvidia is dus nagenoeg zo zuinig met de 4090 als het geval jij omschrijft bij de huidige AMD topkaart in idle mode bij de juiste kaart in ieder geval.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • Yanik
  • Registratie: April 2002
  • Laatst online: 11-09 13:56
Koldur schreef op maandag 21 november 2022 @ 15:45:
[...]


Welke energiemodus gebruik je en welke drivers? Beide kunnen invloed hebben.

Zoals al eerder gemeld hier, kan het ook per merk verschillen, maar op TPU wordt ook de Gigabyte Gaming OC hoog gemeten in idle wat ik niet zie met mijn Windforce, hoewel ik niet die specifieke kaart heb, zit er meestal wel een trend in de hele lijn van een fabrikant. Heb je een TV of andere monitor waar je de PC op aan kan sluiten voor de rest?

De testen die hier zijn uitgevoerd van CMT en mijzelf zijn de scenario's waarbij er echt niets anders draait behalve GPU-Z of HWiNFO. Dus om dit te halen moet je ook geen mediaplayer idle o.i.d. hebben staan.
In de Nvidia Control Panel staat de power management mode op Normal (je hebt met de huidige drivers niet meer de power savings optie). In Windows power options staat het op Ryzen Balanced en de pcie link state staat op moderate en ik heb ook maximum power savings geprobeerd. Dat heeft allemaal geen verschil.

Ik gebruik daarnaast de studio drivers (526.98), omdat deze versie een bugfix bevat voor mijn renderprogramma. Ik heb geen andere software draaien tijdens de tests.

Volgens de TPU review moet mijn kaart 33w gebruiken in idle. Ik ben al blij dat het bijna 2x zo laag is.

Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Nu online
Yanik schreef op dinsdag 22 november 2022 @ 10:24:
[...]


In de Nvidia Control Panel staat de power management mode op Normal (je hebt met de huidige drivers niet meer de power savings optie). In Windows power options staat het op Ryzen Balanced en de pcie link state staat op moderate en ik heb ook maximum power savings geprobeerd. Dat heeft allemaal geen verschil.

Ik gebruik daarnaast de studio drivers (526.98), omdat deze versie een bugfix bevat voor mijn renderprogramma. Ik heb geen andere software draaien tijdens de tests.

Volgens de TPU review moet mijn kaart 33w gebruiken in idle. Ik ben al blij dat het bijna 2x zo laag is.
Misschien dat de studio drivers idle meer verbruiken, of dat het toch aan jouw kaart specifiek ligt m.b.t. merk/versie.
Voor de rest lijkt het dat er of iets is veranderd aan drivers/Windows sinds de TPU review of dat er daar een foutje in is geslopen. De waardes komen in ieder geval bij niemand nog overeen met wat er nu gemeten wordt.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • Tonton
  • Registratie: Juli 2000
  • Laatst online: 10-09 15:21
Wat ik apart vind is dat fabrikanten altijd groter (langer) gaan dan de founders edition.
Vooral de fabrikant die de RTX4080 kleiner zou releasen, zou toch heel leuke markt zijn om aan te spreken en 4080 is ook geen high watt monster.

Ik heb een MSI MEG Trident case die ik graag hou, zat een 3080 in die ik al eens upgegrade heb naar een 3090. Beiden 305mm en past er precies in, maar hebben ze 4 series precies weer 20mm langer gemaakt :(

Dacht founders gaat net passen maar die heeft 1 fan aan de verkeerde kant (zit backplate achter videokaart)
Denk dat ik het upgrade idee maar wat op moet geven.
Of je moet iets extreems doen als een Suprim Liquid, die past wel :)
Nieuwe Coolermaster FSC 1100W voeding erin. Mooi projectje.

PC: LianLi O11D evo, Corsair HX1500i, Asus ROG Z790-A, i7-14700KF, 48GB DDR5 Corsair PC7400, MSI RTX5090 Suprim Liquid, Samsung 990pro 1+2TB, LG 42OLEDC4 *** HCS: LG 83OLEDG2, Marantz Cinema 40, B&W (702S2 HTM71S2 705S2 DB4S), Project X2B-at33ptg2, DS3B


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Tonton schreef op dinsdag 22 november 2022 @ 11:12:
Wat ik apart vind is dat fabrikanten altijd groter (langer) gaan dan de founders edition.
De FE zet normaliter een minimum neer qua prestaties, overclockbaarheid, etc en de AIBs gaan daar dan overheen. Dus de AIBs leveren dan een grotere heatsink, dus wordt de kaart dan groter.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Aggressor
  • Registratie: Maart 2013
  • Laatst online: 13:28
Heeft iemand toevallig de 4080 of 4090 van palit phantom?
Of inno3d 4080 4090 x3 of ichill serie?

Heeft deze last van coilwhine?
De 4080 van de asus tuf wel heel erg

Acties:
  • +1 Henk 'm!

  • Mirage
  • Registratie: Februari 2001
  • Laatst online: 08:49
GTX404 schreef op maandag 21 november 2022 @ 12:27:
[mbr]*knip* Sorry voor de heftige knip, maar ik wil deze discussie hier laten stoppen. Volgende keer rapporteren en verder niet op reageren.[/]

Ik ben zelf erg benieuwd naar een 4090 Ti die dan echt 600W trekt en 15-20% meer performance kan leveren :) (vooral wanneer we met een power limit van 70 bijna niets verliezen)

Ja das een hele goeie, hoe merk jij je bottleneck op de 5950X? Gaat hij dan op een aantal cores 100% draaien?

Ben zelf benieuwd naar mijn memory latency, hoe kan ik dat op een goede manier controleren?

Als AMD niets relevants aanlevert koop ik binnenkort een 4090 en wil over naar een 160hz+ monitor; ben benieuwd hoe dat gaat werken.
Ik kan je dit hopelijk vanavond vertellen!

Ik heb nu een 5950x redelijk overclocked naar een 4.5ghz allcore en boosts rond de 5.05ghz single core. Maar ik merk in VR met mijn 4090 in Elite Dangerous echt een gigantische CPU bottleneck. De CPU frametimes zitten met welke grafische setting dan ook continue boven de 14 ms met spikes ruim boven de 21ms. Die spikes moeten verminderen en hopelijk beland ik sub 12ms. Maar mogelijk is het ook ijdele hoop daar Elite Dangerous slecht geoptimaliseerd is.

Als test ook eens halflife alyx opgestart met graphics op ultra en 150% renderscale in steam. Doet de 4090 netjes gewoon alles binnen de lijnen kleuren met een 80% load ongeveer. en de CPU zit zelfs rond de 7ms frametimes daar met mijn 5950x

Heb van diverse MSFS benchmarks al gezien dat een 5800x3d hier vele malen beter in zou moeten gaan presteren. Dus die komt vandaag binnen en wordt waarschijnlijk maar helaas dan de Main CPU in plaats van de 5950x

Kom alsjeblieft maar door met die snellere CPU's of die efficientere Nvidia scheduler die teveel load op de CPU legt. AMD schijnt daar minder last van te hebben omdat ze meer in hardware oplossen heb ik begrepen. Alleen het is zo jammer dat AMD GPU's voor VR gewoon niet aan te raden lijken.

[ Voor 21% gewijzigd door Mirage op 23-11-2022 09:45 ]

https://www.afrikareisopmaat.nl


Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 05-09 02:31

GTX404

Hi

Aggressor schreef op woensdag 23 november 2022 @ 09:28:
Heeft iemand toevallig de 4080 of 4090 van palit phantom?
Of inno3d 4080 4090 x3 of ichill serie?

Heeft deze last van coilwhine?
De 4080 van de asus tuf wel heel erg
Das beetje een loterij hoor, op reddit is er een coil whine thread over de 4000 serie en ze hebben er bijna allemaal last van.

https://www.reddit.com/r/...0/4090_coil_whine_survey/

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 05-09 02:31

GTX404

Hi

Mirage schreef op woensdag 23 november 2022 @ 09:42:
[...]


Ik kan je dit hopelijk vanavond vertellen!

Ik heb nu een 5950x redelijk overclocked naar een 4.5ghz allcore en boosts rond de 5.05ghz single core. Maar ik merk in VR met mijn 4090 in Elite Dangerous echt een gigantische CPU bottleneck. De CPU frametimes zitten met welke grafische setting dan ook continue boven de 14 ms met spikes ruim boven de 21ms

Heb van diverse MSFS benchmarks al gezien dat een 5800x3d hier vele malen beter in zou moeten gaan presteren. Dus die komt vandaag binnen en wordt waarschijnlijk maar helaas dan de Main CPU in plaats van de 5950x

Kom alsjeblieft maar door met die snellere CPU's of die efficientere Nvidia scheduler die teveel load op de CPU legt. AMD schijnt daar minder last van te hebben omdat ze meer in hardware oplossen heb ik begrepen. Alleen het is zo jammer dat AMD GPU's voor VR gewoon niet aan te raden lijken.
Hoeveel FPS haal je daarbij? En heb je DLDSR geprobeerd?

Das trouwens wel jammer met een 5950X. Ik bedoel, wat wil je nog meer?! Haha, en dan nog downgraden naar een 5800X3D :-(

[ Voor 5% gewijzigd door GTX404 op 23-11-2022 09:46 ]

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • +1 Henk 'm!

  • Mirage
  • Registratie: Februari 2001
  • Laatst online: 08:49
GTX404 schreef op woensdag 23 november 2022 @ 09:45:
[...]


Hoeveel FPS haal je daarbij? En heb je DLDSR geprobeerd?

Das trouwens wel jammer met een 5950X. Ik bedoel, wat wil je nog meer?! Haha, en dan nog downgraden naar een 5800X3D :-(
Ja ik snap het ook niet helemaal maar echt van alles geprobeerd aan grafische settings! Ik hoop ergens dat die 5800X3D niks doet :P maar ook weer niet omdat ik graag meer performance zie!

DLDSR (ik moet je zeggen ik hoor het voor het eerst :D) maar ik ga het vanavond ook nog even proberen! Zo zie je maar ik zat teveel te googlen op Elite dangerous specifieke performance daar al het andere als een malle lijkt te gaan.

Mogelijk komt er ook iets anders uit als probleem hoor. want zelfs als de grafische kaart maar 30% belast was bleven mijn CPU frametimes te hoog.... maar ik kan er niks anders van maken op dit moment.

Ik heb het gister opgenomen inclusief FPSvr weergave in VR. dus ik kan het goed vergelijken en zal dit later ook wel uploaden. het gaat sowieso wel interessant zijn als test vind ik zelf. En eventueel verkoop ik die 5800X3D weer maar heb ik er wel wat van geleerd :)

Qua fps weet ik het niet precies nu omdat ik vooral met de frametimes bezig ben geweest. de rest wordt in VR namelijk ingevuld door reprojection. maar als ik mijn FPS target op 72 of 90fps zet maakt het niet veel uit de cpu frametimes blijven te hoog. De gpu gaat alleen meer uit zijn neus eten als ik het FPS target omlaag zet. Dit is zowel met reprojection geforceerd aan/uit of automatisch.

De pest is dat ik veel Elite speel maar dit is ook het enige spel waarbij ik dus een CPU bottleneck lijk te hebben. Ik speel wireless op een quest 2 met VR desktop met HEVC encoding.

[ Voor 16% gewijzigd door Mirage op 23-11-2022 09:56 ]

https://www.afrikareisopmaat.nl


Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Nu online
Mirage schreef op woensdag 23 november 2022 @ 09:50:
[...]


Ja ik snap het ook niet helemaal maar echt van alles geprobeerd aan grafische settings! Ik hoop ergens dat die 5800X3D niks doet :P maar ook weer niet omdat ik graag meer performance zie!

DLDSR (ik moet je zeggen ik hoor het voor het eerst :D) maar ik ga het vanavond ook nog even proberen! Zo zie je maar ik zat teveel te googlen op Elite dangerous specifieke performance daar al het andere als een malle lijkt te gaan.

Mogelijk komt er ook iets anders uit als probleem hoor. want zelfs als de grafische kaart maar 30% belast was bleven mijn CPU frametimes te hoog.... maar ik kan er niks anders van maken op dit moment.

Ik heb het gister opgenomen inclusief FPSvr weergave in VR. dus ik kan het goed vergelijken en zal dit later ook wel uploaden. het gaat sowieso wel interessant zijn als test vind ik zelf. En eventueel verkoop ik die 5800X3D weer maar heb ik er wel wat van geleerd :)

Qua fps weet ik het niet precies nu omdat ik vooral met de frametimes bezig ben geweest. de rest wordt in VR namelijk ingevuld door reprojection. maar als ik mijn FPS target op 72 of 90fps zet maakt het niet veel uit de cpu frametimes blijven te hoog. De gpu gaat alleen meer uit zijn neus eten als ik het FPS target omlaag zet. Dit is zowel met reprojection geforceerd aan/uit of automatisch.

De pest is dat ik veel Elite speel maar dit is ook het enige spel waarbij ik dus een CPU bottleneck lijk te hebben. Ik speel wireless op een quest 2 met VR desktop met HEVC encoding.
FPSvr staat bekend om stottering en andere problemen te geven bij draadloos Quest 2 streamen, in ieder geval via VD. Dus dat is niet het handigst om te gebruiken helaas.
Beetje paradoxaal, maar het is echt bij velen gebleken dat dit de veroorzaker was, bij uitschakelen was het weg.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 05-09 02:31

GTX404

Hi

Mirage schreef op woensdag 23 november 2022 @ 09:50:
[...]


Ja ik snap het ook niet helemaal maar echt van alles geprobeerd aan grafische settings! Ik hoop ergens dat die 5800X3D niks doet :P maar ook weer niet omdat ik graag meer performance zie!

DLDSR (ik moet je zeggen ik hoor het voor het eerst :D) maar ik ga het vanavond ook nog even proberen! Zo zie je maar ik zat teveel te googlen op Elite dangerous specifieke performance daar al het andere als een malle lijkt te gaan.

Mogelijk komt er ook iets anders uit als probleem hoor. want zelfs als de grafische kaart maar 30% belast was bleven mijn CPU frametimes te hoog.... maar ik kan er niks anders van maken op dit moment.

Ik heb het gister opgenomen inclusief FPSvr weergave in VR. dus ik kan het goed vergelijken en zal dit later ook wel uploaden. het gaat sowieso wel interessant zijn als test vind ik zelf. En eventueel verkoop ik die 5800X3D weer maar heb ik er wel wat van geleerd :)

Qua fps weet ik het niet precies nu omdat ik vooral met de frametimes bezig ben geweest. de rest wordt in VR namelijk ingevuld door reprojection. maar als ik mijn FPS target op 72 of 90fps zet maakt het niet veel uit de cpu frametimes blijven te hoog. De gpu gaat alleen meer uit zijn neus eten als ik het FPS target omlaag zet. Dit is zowel met reprojection geforceerd aan/uit of automatisch.

De pest is dat ik veel Elite speel maar dit is ook het enige spel waarbij ik dus een CPU bottleneck lijk te hebben. Ik speel wireless op een quest 2 met VR desktop met HEVC encoding.
Das wel een hele vreemde situatie inderdaad. Zelf ben ik nog niet in VR gestapt, ik wacht nog een beetje totdat het allemaal op een bepaald niveau zit. Zo te zien is het dus nog niet helemaal smooth.

Hoe werkt dat met wireless dan? Zou het daaraan kunnen liggen? Het is gewoon vreemd dat je frametimes hoog blijven.

DLDSR kan je aanzetten in Nvidia control panel > 3D settings > DSR en dan de DL resoluties aanzetten. Das redelijk nieuw, deep learning dynamic super resolution. Werkt minder hard voor hetzelfde beeldkwaliteit bij upscaling>downscaling e.d.

Dat zal je GPU behoorlijk moeten pushen. Voor puur load kan je ook legacy (niet DL) DSR resoluties aanzetten, die runnen native geloof ik en zijn veel zwaarder.

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
GTX404 schreef op woensdag 23 november 2022 @ 10:07:
[...]
Das wel een hele vreemde situatie inderdaad. Zelf ben ik nog niet in VR gestapt, ik wacht nog een beetje totdat het allemaal op een bepaald niveau zit. Zo te zien is het dus nog niet helemaal smooth.
De 4090 heeft bij platte games al vaak een CPU-bottleneck en bij VR moet de CPU een deel van de berekeningen twee keer doen, vanuit net een ander perspectief (net zoals je in het echt een ander beeld ziet als je je linker- of rechteroog dicht doet). Dus je hebt in VR sneller een CPU-bottleneck, maar dan wel bij de kanttekening dat dit ook zo is omdat de beeldkwaliteit niet optimaal is.

De budget-headsets voor VR hebben op dit moment een vrij lage resolutie. Omdat het scherm zo dicht op je oog zit en een groot deel van je blikveld vullen, is het alsof je vlak bij een grote TV zit met een 2k resolutie. Dan is de beeldkwaliteit een stuk minder dan wanneer je een relatief kleine 34 inch 2k monitor op armlengte van je af hebt staan.

Om echt scherp beeld te krijgen in VR zit je nu vast aan erg dure headsets richting de 4000 euro, die dan ruim 4k aan pixels pushed per oog (al is de resolutie alleen hoog als je recht voor je kijkt), dus dan is een 4090 zeker geen overkill. We weten vrij zeker dat Valve bezig is met een goedkoper 4k scherm per oog en als ze die voor dezelfde prijs verkopen als hun huidige headset wordt dat ongeveer 1000 dollar. Met zulke schermen zal je videokaart normaliter de bottleneck worden.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Mirage
  • Registratie: Februari 2001
  • Laatst online: 08:49
Koldur schreef op woensdag 23 november 2022 @ 10:06:
[...]


FPSvr staat bekend om stottering en andere problemen te geven bij draadloos Quest 2 streamen, in ieder geval via VD. Dus dat is niet het handigst om te gebruiken helaas.
Beetje paradoxaal, maar het is echt bij velen gebleken dat dit de veroorzaker was, bij uitschakelen was het weg.
bedankt voor de tip! Licht offtopic (excuus)

ik twijfelde ook al of overlays hier niet juist voor zorgden. Daarom had ik dus ook Half life Alyx gestart en met FPSvr gekeken wat die deed. maar daar kwam ik dus geen issues tegen die de performance beinvloedde.

Die liep dus superstabiel met en volgens FPSvr en ook zonder de FPSvr overlay voelde hij hetzelfde aan maarja dat is zo subjectief :D

Heb jij een idee hoe het anders eventueel goed te meten is zonder dat het de resultaten teveel kan beinvloeden? ik sta open voor alles maar geen statistiek is er lastig iets over te zeggen... zeker omdat ik ook een soort van nulmeting dus met Halflife Alyx deed om te kijken of daar ook een performance impact is.
GTX404 schreef op woensdag 23 november 2022 @ 10:07:
[...]


Das wel een hele vreemde situatie inderdaad. Zelf ben ik nog niet in VR gestapt, ik wacht nog een beetje totdat het allemaal op een bepaald niveau zit. Zo te zien is het dus nog niet helemaal smooth.

Hoe werkt dat met wireless dan? Zou het daaraan kunnen liggen? Het is gewoon vreemd dat je frametimes hoog blijven.

DLDSR kan je aanzetten in Nvidia control panel > 3D settings > DSR en dan de DL resoluties aanzetten. Das redelijk nieuw, deep learning dynamic super resolution. Werkt minder hard voor hetzelfde beeldkwaliteit bij upscaling>downscaling e.d.

Dat zal je GPU behoorlijk moeten pushen. Voor puur load kan je ook legacy (niet DL) DSR resoluties aanzetten, die runnen native geloof ik en zijn veel zwaarder.
Dank voor de info over het aanzetten van DLDSR. Ik ga het vanavond gewoon testen voordat ik de 5800X3D inbouw. ben benieuwd! Wireless maakt het allemaal niet lichter. maar zover ik weet wordt het grootste deel van de encoding/decoding in de videokaart gedaan door HEVC, Het zal niet helpen om de CPU te ontlasten maar dit is ook niet te omzeilen.

YouTube: Microsoft Flight Simulator 2020 Ryzen 7 5800X3D vs Ryzen 9 5950X

Hier het filmpje waarin de 5950x met de 5800x3D vergeleken wordt. hier zie je toch een significante verbetering en daar Elite ook een Sim is relateer ik daar de mogelijk performance winst een beetje aan.

En hier een uitgebreider verhaal over de mogelijke performance waarbij een 5800x met de 5800x3D vergeleken wordt in MSFS. Zonder bijpassende CPU performance kan een 4090 dus zomaar overkill zijn in dit soort gevallen.

YouTube: Does the RYZEN 5800x3D improve VR performance in MSFS?
Aggressor schreef op woensdag 23 november 2022 @ 09:28:
Heeft iemand toevallig de 4080 of 4090 van palit phantom?
Of inno3d 4080 4090 x3 of ichill serie?

Heeft deze last van coilwhine?
De 4080 van de asus tuf wel heel erg
Ik heb een Ichill frostbite 4090. Misschien niet helemaal wat je bedoeld als vergelijkbare kaart maar coilwhine hoor ik wel ja. Niet significant meer dan mijn 3090 had. En omdat er een waterblok opzit wordt het geluid mogelijk ook minder geblokkeerd door een dikke koeler.

[ Voor 54% gewijzigd door Mirage op 23-11-2022 11:27 ]

https://www.afrikareisopmaat.nl


Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 05-09 02:31

GTX404

Hi

Ludewig schreef op woensdag 23 november 2022 @ 11:09:
[...]

We weten vrij zeker dat Valve bezig is met een goedkoper 4k scherm per oog en als ze die voor dezelfde prijs verkopen als hun huidige headset wordt dat ongeveer 1000 dollar. Met zulke schermen zal je videokaart normaliter de bottleneck worden.
Als dat zo is ben ik erg benieuwd! Ik zou graag ook eens de VR wereld in willen duiken met zo een 4090.

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
GTX404 schreef op woensdag 23 november 2022 @ 11:25:
[...]
Als dat zo is ben ik erg benieuwd! Ik zou graag ook eens de VR wereld in willen duiken met zo een 4090.
Ik vond Half-life Alyx echt fantastisch. Wanneer je in het donker met je zaklamp alleen een deel van de ruimte kan oplichten en de head crabs rondkruipen en op je gezicht springen, is dat echt goede horror. Platte horrorgames doen mij niet veel, maar in VR...

Dit spel is zelfs op een 1660 Super al goed te doen, al is dat spel extreem slim opgezet en geoptimaliseerd. Maar flight simmen in VR heb ik opgegeven totdat ik een nieuwe videokaart koop. Zelfs het relatief weinig eisende IL-2 Sturmovik was niet echt te doen. Maar het beetje wat ik gedaan heeft, heeft mij er wel van overtuigd dat dit ook een heel grote meerwaarde geeft. Toen ik een vliegtuig dreigde te raken, strekte ik mijn benen uit om de klap op te vangen. En je kunt veel beter inschatten wanneer je moet schieten.

Met een 4090 zit je qua simmen momenteel vooral met het probleem dat de beschikbare headsets of extreem duur zijn, of een vrij lage resolutie hebben. Er ontbreekt momenteel een echt middensegment. Zulke dingen krijg je in een jonge markt, waar nog veel geëxperimenteerd wordt en dingen nog niet erg gestabiliseerd zijn.

De geruchtenmolen is bij VR trouwens een stuk beter dan bij videokaarten, omdat men niet zo goed is in het beheersen van de lekken als Nvidia en AMD.

[ Voor 12% gewijzigd door Ludewig op 23-11-2022 11:49 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Nu online
Mirage schreef op woensdag 23 november 2022 @ 11:10:
[...]


bedankt voor de tip! Licht offtopic (excuus)

ik twijfelde ook al of overlays hier niet juist voor zorgden. Daarom had ik dus ook Half life Alyx gestart en met FPSvr gekeken wat die deed. maar daar kwam ik dus geen issues tegen die de performance beinvloedde.

Die liep dus superstabiel met en volgens FPSvr en ook zonder de FPSvr overlay voelde hij hetzelfde aan maarja dat is zo subjectief :D

Heb jij een idee hoe het anders eventueel goed te meten is zonder dat het de resultaten teveel kan beinvloeden? ik sta open voor alles maar geen statistiek is er lastig iets over te zeggen... zeker omdat ik ook een soort van nulmeting dus met Halflife Alyx deed om te kijken of daar ook een performance impact is.
Hangt er een beetje vanaf wat je wil zien. Er is gewoon vanuit SteamVR zelf een frametime overlay aan te zetten in ieder geval.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • +1 Henk 'm!

  • dResign
  • Registratie: November 2009
  • Laatst online: 13:26
voor diegene die een nieuwe kwaliteitsvolle voeding overwegen om deze beesten te kunnen temmen ... :)

Afbeeldingslocatie: https://tweakers.net/i/Uy5fWLXHR2m7GbJKlZzi-LMFw4I=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/QbGMxqq9gL7PW9dwGMC8JrIU.jpg?f=user_large


uitvoering: Corsair HX1500i (2022)
Waar:https://www.corsair.com/e...-Supplies/p/CP-9020215-EU
Categorie:Voeding
Normale prijs:€ 322,56
Black Friday prijs:€ 274,90


uitvoering: Corsair HX1200 V2
Waar:https://www.corsair.com/e...17-config/p/CP-9020140-UK
Categorie:Voeding
Normale prijs:€ 267,04
Black Friday prijs:€ 229,99

[ Voor 97% gewijzigd door dResign op 23-11-2022 13:59 ]


Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 05-09 02:31

GTX404

Hi

Waarom zijn er bij deze generatie eigenlijk zo veel 'OC' modellen e.d.? Hadden ze niet kosten kunnen besparen en goedkoper kunnen verkopen door de 'OC' modellen weg te laten? Ze presteren allemaal hetzelfde..

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • 0 Henk 'm!

  • Gamer
  • Registratie: Januari 2001
  • Laatst online: 15-09 19:07

Gamer

mobile

Alle modellen kunnen OC zijn, op mijn 3080Ti had ik een OC bios geflashed en werkte perfect.
Ze noemen dit een OC om een meerprijs te kunnen rekenen en iedereen betaald die...

4600Wp Z - 4800Wp W - 4800Wp O | SH4.0RS | SH5.0RS | SBR192 accu| Easee Charge Lite | Corsa-e 50kWh | Mercedes EQA 250+ 70kWh | Homey Pro


Acties:
  • 0 Henk 'm!
GTX404 schreef op woensdag 23 november 2022 @ 16:08:
Waarom zijn er bij deze generatie eigenlijk zo veel 'OC' modellen e.d.? Hadden ze niet kosten kunnen besparen en goedkoper kunnen verkopen door de 'OC' modellen weg te laten? Ze presteren allemaal hetzelfde..
Er worden geen kosten voor gemaakt. Een OC model is niets meer dan het normale model met een andere bios waar ze afhankelijk van het merk 100 (Zotac, Gigabyte) tot 500 (ASUS) euro mark-up mee verdienen.

ASUS verdient miljarden omdat mensen in die marketing trappen.

@dResign, wel wat overdreven niet? Mijn pc verbruikt met een 5950X en een 4090 nog geen 500W op piek :+. Al zou een 1500i wel in de range van 20-50% op z'n piek efficiency zitten, maar alsnog heel wat pc gebruik om zo'n voeding terug te verdienen.

[ Voor 23% gewijzigd door Paprika op 23-11-2022 16:16 ]


Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 05-09 02:31

GTX404

Hi

Paprika schreef op woensdag 23 november 2022 @ 16:10:
[...]

Er worden geen kosten voor gemaakt. Een OC model is niets meer dan het normale model met een andere bios waar ze afhankelijk van het merk 100 (Zotac, Gigabyte) tot 500 (ASUS) euro mark-up mee verdienen.

ASUS verdient miljarden omdat mensen in die marketing trappen.
Ik heb het eigenlijk over de modellen met telkens een andere cooler design. Bij MSI heb je de Ventus, Trio, Suprim + liquid. Doe dan gewoon alleen Suprim bijvoorbeeld met air en liquid. 3 modellen vind ik ook erg overdreven bij 1 merk.

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • 0 Henk 'm!
GTX404 schreef op woensdag 23 november 2022 @ 16:20:
[...]


Ik heb het eigenlijk over de modellen met telkens een andere cooler design. Bij MSI heb je de Ventus, Trio, Suprim + liquid. Doe dan gewoon alleen Suprim bijvoorbeeld met air en liquid. 3 modellen vind ik ook erg overdreven bij 1 merk.
Hoe hoger je in die boom gaat shoppen, hoe groter de marge is die MSI eraan over gaat houden. Juist door meer modellen uit te brengen, gaan mensen upgraden naar die veel te dure varianten.

Acties:
  • 0 Henk 'm!
Overigens al die drama over het daisy-chainen van PSU kabels naar zo'n 4 plug verloopje voor je 4090 en ondertussen komt de Corsair kabel met 2 plugs aan de PSU, wat dus hetzelfde is als 2 kabels daisy chainen (2x 2x 8 pin) met een verloopje :+.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Ben een beetje aan het expirimenteren met de power limit. (stuk of 10 benchruns gedaan met allemaal vershillende powwer limits, en andere CPU OC instellingen (stock, PBO +200 of auto-OC)

Stock CPU settings met het RAM op 3200C14 is het snelst. Dan boosten alle cores naar 4650Mhz en blijft daar netjes op zitten bij een graadje of 50 load en maar 65W. :)

In een aantal games is een power limit van 45% van mn 4090 voldoende. :P En dan verbruikt de kaart maar 175W oid

Heb zelf het idee, en dat lees ik hier en daar ook, dan zo rond de 75% de sweetspot is.

Dan haal je nagenoeg dezelfde FPS als met 100% power limit, en bespaar je dik 100W (en verbruikt de kaart rond de de 340W a 350W en is een kleer zo snel als een 6900XT. )

Snap eigenlijk niet dat nV dat niet zo in de BIOS van de 4090 gebakken heeft. (350W TDP) Maar dat ze eroor kiezen 100W extra te verstoken voor een paar schamele procentjes extra perf.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 05-09 02:31

GTX404

Hi

Paprika schreef op woensdag 23 november 2022 @ 16:23:
[...]

Hoe hoger je in die boom gaat shoppen, hoe groter de marge is die MSI eraan over gaat houden. Juist door meer modellen uit te brengen, gaan mensen upgraden naar die veel te dure varianten.
Ja dat klopt ook wel, alleen vraag ik me af wat de kosten voor hen zijn om 3 aparte coolers te produceren

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • +2 Henk 'm!
Afbeeldingslocatie: https://tweakers.net/i/EsLvIW879r3aZaV92VYsM-wvkfg=/800x/filters:strip_exif()/f/image/czAoK6Qmy9XNjOAV3g1mn1Ei.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/PZhDJJweMdDQxWhJABd-bUroKgc=/800x/filters:strip_exif()/f/image/vaSpH0e7eZVIn0jOtkZKYCPy.png?f=fotoalbum_large

@Format-C, eigenlijk is 50% de sweetspot :+.

[ Voor 4% gewijzigd door Paprika op 23-11-2022 16:33 ]


Acties:
  • 0 Henk 'm!

  • dResign
  • Registratie: November 2009
  • Laatst online: 13:26
delete

[ Voor 99% gewijzigd door dResign op 23-11-2022 17:18 ]


Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Nu online
Het grote verschil met de OC modellen, de FE niet meegenomen, buiten de koeler om, zit vooral op VRM gebied waardoor je weer meer vermogen kan gebruiken. Wat in de praktijk zoals hierboven al goed benoemd en onderbouwd is, niet erg nuttig is.

Dus in de praktijk is een OC model kopen vrij nutteloos met de 4090.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 11:10
GTX404 schreef op woensdag 23 november 2022 @ 09:45:
[...]


Hoeveel FPS haal je daarbij? En heb je DLDSR geprobeerd?

Das trouwens wel jammer met een 5950X. Ik bedoel, wat wil je nog meer?! Haha, en dan nog downgraden naar een 5800X3D :-(
Hij is niet de enigste is gedowngrade ;)

Ben van een 5900x terug gestapt naar een 5800X3D.
Kwa FPS maakt het weinig uit, alleen frame times is stukken beter, veel minder dips.
(VR flightsimmer vandaar)

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 05-09 02:31

GTX404

Hi

dierkx36 schreef op woensdag 23 november 2022 @ 17:55:
[...]


Hij is niet de enigste is gedowngrade ;)

Ben van een 5900x terug gestapt naar een 5800X3D.
Kwa FPS maakt het weinig uit, alleen frame times is stukken beter, veel minder dips.
(VR flightsimmer vandaar)
ook draadloos?

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • 0 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 11:10
Nope, ouderwetse manier met kabel :)

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 05-09 02:31

GTX404

Hi

dierkx36 schreef op woensdag 23 november 2022 @ 18:36:
[...]


Nope, ouderwetse manier met kabel :)
Vraag me af hoe dat met de ryzen 7000 series zit dan

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • 0 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 11:10
GTX404 schreef op woensdag 23 november 2022 @ 19:29:
[...]


Vraag me af hoe dat met de ryzen 7000 series zit dan
Hoe bedoel je ?

Met straks de nieuwe 7***X3D serie ?

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • 0 Henk 'm!

  • GTX404
  • Registratie: Juni 2016
  • Laatst online: 05-09 02:31

GTX404

Hi

dierkx36 schreef op woensdag 23 november 2022 @ 19:34:
[...]


Hoe bedoel je ?

Met straks de nieuwe 7***X3D serie ?
Nee gewoon de 7950 / 7900 etc. Hoeveel verschil daartussen zit

AMD Ryzen 9 5950X | EK Elite 360 D-RGB | 2x16GB Corsair Vengeance RGB Pro DDR4 @ 3200CL16 | ASUS X570 Dark Hero | Nvidia Titan Xp | Super Flower Leadex II Gold 1200W White | Corsair 5000D Black


Acties:
  • 0 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 11:10
Never mind, heb het antwoord op een ander forum gevonden |:(

[ Voor 97% gewijzigd door dierkx36 op 23-11-2022 20:52 ]

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • +1 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 11:10
GTX404 schreef op woensdag 23 november 2022 @ 19:58:
[...]


Nee gewoon de 7950 / 7900 etc. Hoeveel verschil daartussen zit
Vanwege de huidige prijs van de 7900x zat ik er over na te denken deze aan te schaffen
(Had in Duitsland al voor een uitmuntend leuke prijs een DDR 64GB 6000Mhz Cl30 setje gekocht)

Het werd me alleen op zowel het MSFS als DCS forum ten zeerste afgeraden : kan beter tot volgende jaar de nieuwe X3D's uitkomen.

Voor sims is de 5800X3D op het moment nog steeds de beste CPU.

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • 0 Henk 'm!
De oplossing is toch makkelijk?

Watt meter in 't stopcontact en vergelijken met de PSU meeting: zit dat niet ver van elkaar af (na compenseren voor rendement) -> HWiNFO faalt. Zit dat ver van elkaar af en lijkt HWINFO het bij 't rechte eind te hebben -> Corsair software faalt.

Sowieso hoor je niet te veel te vertrouwen op software oplossingen voor dit soort situaties, dus meten is weten.
Pagina: 1 ... 11 ... 39 Laatste

Let op:
Mensen lezen dit topic om ervaringen te delen over RTX 40xx kaarten, of om over de achterliggende techniek te praten. We willen die discussie graag zo houden, blijf dus ontopic! Reacties die ergens anders over gaan (prijzen, levertijden, aankoopadvies etc etc) worden verwijderd of gemod.

Let bij het reageren op het volgende:
  • Blijf vriendelijk naar elkaar!
  • Reageer niet op "foute" berichten, maar rapporteer ze!
  • V&A op het forum is overal verboden, dus ook in dit topic. Een verwijzing naar verkoop (met of zonder link) naar je advertentie wordt verwijderd.
  • Net zoals in heel VB; geen persoonlijk aankoopadvies!
  • Voor informatie over voedingen en aansluitingen moet je hier zijn: Voeding advies en informatie topic - Deel 34
  • Voor levertijden en prijzen: [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen


Afbeeldingslocatie: https://tweakers.net/i/KnmyHiDpIX5duOtwQyfWg99GF7s=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/aYnEOc9vWTETmuPnQnGMS37b.png?f=user_large
Gezellig leuteren, kletsen, slowchatten?
Vergezel ons op de Officiele Tweakers Discord