krauser schreef op maandag 15 december 2025 @ 16:09:
CMT, bedankt voor de reactie.
HWINFO64 en GPU-Z, maar voornamelijk met HWINF64 want daarin heb ik een grafiek openstaan met Total Board Power (TBP) zodat ik kan zien hoe of het verbruik verloopt. Dat was een kort grafiekje, maar die heb ik inmiddels schermbreed op mijn 2e scherm staan. laagst gemeten (heel kort) =15W. het schommelt nu als ik dit bijvoorbeeld typ voornamelijk tussen 25W-30W met uitschieters naar 42W, en 45W-50W als ik op het 2e scherm (1080p-60Hz) TV /Youtube kijk en tegelijkertijd op het hoofdscherm (1440p-144Hz) een simpel spelletje als Solitaire speel. Nu de PC wat langer aanstaat blijft TBP wat langer op 42W hangen.
TGP heb ik gevonden en nu ook openstaan TPP kan ik niet vinden, heb HWINO64 nog van Dutch naar English gezet, maar kon TPP ook daar niet vinden. Verbruik in TGP is een paar Watt lager dan TBP.
Die <10MHz, ik weet niet wat ik dan moet aflezen, maar ik heb een kopie gemaakt van HWINFO64, nu nog uitzoeken hoe ik die hierin krijg.
Oh ok, dan heb je in ieder geval naar goede metingen gekeken. HWinfo voor de win

.
De PPT (staat trouwens voor package power tracking) is iets wat nog bij RDNA2 gebruikt werd.
Vanaf RDNA3 is AMD overgestapt met het weergeven van het vermogen als TBP en is de PPT achterwege gelaten. Heel jammer want de TBP is niet meer dan een ruwe schatting en een omrekening van de PPT of TGP a.d.h.v. van de efficiëntiecurve van de VRM sectie (zeg maar rendement voedingssectie).
Ik denk dat ze het gedaan hebben omdat Nvidia het vermogen als TBP weergeeft en om verwarring te voorkomen onder atechnische gebruikers. Maar al te vaak hier op tweakers gezien dat de PPT ten onrechte als 'verbruik' van de hele GPU werd genomen. Het hielp ook niet dat AMD geen subscript notatie had bij het vermogen in (W). Eigenlijk is deze verandering van AMD heel dom, want het vermogensbudget/powerlimiet wat eerst zo nauwkeurig in te stellen was met de PPT, is nu afhankelijk gemaakt van een efficiëntiecurve. En is daarmee eigenlijk een grove schatting geworden van wat het zou moeten zijn.
PPT of TGP maakt verder niet uit btw, het is nagenoeg gelijk aan elkaar en prima als uitgangspunt te nemen om zelf een betere TBP schatting te maken.
Wat betreft de klok <10MHz bedoel ik de GPU-klok & GPU-Geheugenklok op de HWinfo screenshot die je gepost hebt. Dat kan richting nul gaan wanneer alles in slaapstand staat en is een goede indicatie of alles naar behoren werkt.
Ik dacht aanvankelijk dat je problemen had met hoog rustverbruik, maar zo te lezen ging het meer om het verbruik tijdens 2D werk? De waarden die je noemt i.c.m. de activiteiten lijken mij wel ok. Misschien iets aan de hoge kant, maar aan de andere kant maak je ook gebruik van een hoge verversingssnelheid.
Alle kaarten zullen in deze situaties meer verbruiken en hoe zwaarder uitgevoerd (elektrisch) hoe meer impact het heeft wanneer het geheugen daarbij aktief wordt. Met Nvidia kaarten is dat niet anders, maar die zijn volgens mij wel iets zuiniger tijdens het afspelen van video's.
De RTX3070 is qua pcb ontwerp lichter dan een RX9070XT.
Helaas heb ik geen 9070XT meer om het verbruik na te gaan, maar ik heb wel metingen gemaakt van mijn 7900XTX in eerder genoemde dual monitor setup met 4 scenario's.
Een 9070XT heeft een kleinere voedingssectie en minder geheugenchips aan boord, dus het verbruik zal daarmee wat lager uitpakken. In een oudere post van mij staat een overzicht met o.a. het PC rustverbruik gemeten aan de 230V kant:
CMT in "[AMD Radeon RX9000 series] Ervaringen & Discussie"
De 9070XT ging met dezelfde monitor setup echt naar 8-9Wtbp in desktop afk mode! Een stuk lager dan de meting van TPU. Het onderstaande met de 7900XTX kan evt. ook als een referentie gebruikt worden.
Links staat de schaal aangegeven en ik heb ook de grafiek van de TBP erbij gedaan om het verschil met de TGP te laten zien. Op het einde is te zien dat de TBP waarde kleiner is dan de TGP wat dus simpelweg onmogelijk is in werkelijkheid. Het rendement van de VRM sectie varieert namelijk van ca. 85% bij de piekbelasting (GPU min of meer vol belast met 400W) tot ca. 60% bij laag verbruik (<15W). Dus het desktop rustverbruik in mijn situatie zit eerder ergens tussen 12Wtbp en 16Wtbp.
Freesync staat al aan. Ik had al wat getest met lagere verversingssnelheden. DIt haalt het verbruik omlaag, maar ik vind een 144Hz scherm veel te prettig om dit lager te zetten plus dat als ik dan een game speel ik niet moet vergeten alle schermstanden weer op optimaal te zetten. Dat betekent bij mij in de praktijk dat ik een game start, op een gegeven moment zie dat er iets niet klopt en dan weer uit moet zoeken wat ik ook alweer terug moet zetten naar de goede instellingen en via welke programmaatjes dat moest.
Ik neem aan dat de "Power Options (energiebeheer) -> PCI Express -> Link State Power Management" in de BIOS staan. Daar moet ik toch nog weer even naar kijken. 8 bit is bij mij denk nu de max dus dat scheelt weer. ASPM en vage klachten hoef ik niet. Ik heb van mijzelf al genoeg vage klachten en wil er niet nog meer verzamelen. De IGPU bewaar ik als noodoplossing en niks anders meer werkt.
Ik zit in dezelfde boot wat dit betreft. Snap het heel goed hoor, het wordt anders inderdaad zo'n gehannes met allerlei instellingen. Mogelijk gaf 120Hz al een dag en nacht verschil en dan is het kleine verlies in vloeiendheid wel de besparing waard. Het verschil met 144Hz merk ik zelf niet zo (wel tussen 100Hz en 144Hz).
De optie voor de PCIe link state power management is een Windows energiebeheer optie.
Het zorgt ervoor dat de PCIe verbinding van o.a. de GPU in spaarstand mag gaan. ASPM is zo ver ik begrijp een uitbreiding of verlengde daarvan en dat is wel een bios optie.
Ik zie trouwens dat GPU verbinding bij jouw op PCIe 5.0x16 bandbreedte staat ingesteld.
Voor een 9070XT is PCIe 4.0x16 echt meer dan genoeg en misschien is daarmee wat besparing te behalen door het daarop te begrenzen?
Voor nu Gaat het wel prima zo met het verbruik.
De aanleiding dat ik zo op het verbruik ben gaan letten is dat na de installatie van de 9070 XT ik Furmark gedraaid heb als test en toen de graka fans naar 2300RPM gingen. Dat gaf een takkeherrie en dat klopte niet. Ondanks DDU waren toch nog programma's in de war en snapte de nieuwe graka nog niet en gingen in de paniek modus. Na wat gerommel in programa's ( onder andere Fan Control) draaiden de fans bij Furmark max 1800rpm. Ondertussen draaien ze bij een furmark test max 1560RPM, dus het gaat de goede kant op.
Bij desktop gebruik gingen door de warmte ontwikkeling van de GPU ook de fans in de PC kast harder draaien en dat werd hoorbaar, irritant en niet nodig. Ondertussen draait het wel prima zo. Bij desktop gebruik geen herrie meer en bij een Furmark test draait alles verder ook zoals het moet.
HINFO64 screenshot bijgevoegd tijdens een 25W verbruik:
[Afbeelding]
Het kan zijn dat de koeling over de toeren ging vanwege hoge geheugentemperatuur?
Dat is een beetje een achilleshiel met de RDNA4 kaarten. Met Furmark is dat maximaal te belasten, meer dan met de meeste games voor zal komen. Bij de Asus 9070XT TUF die kort getest hebt, was de fancurve ook zéér agressief ingesteld. Mede vanwege de hoge powerlimiet en relatief hoge geheugentemperatuur.
230W is zo'n beetje de 'sweetspot' voor een 9070XT en je verliest maar iets van 8% prestaties versus 330W. De piekefficiëntie zit nog lager, maar dat is niet instelbaar vanwege de idiote beperking op de instelbare klok & vermogen bij RNDA4. Mocht je willen dan is de 9070XT wel heel efficiënt en stil af te stellen, zonder veel in te leveren op de prestaties.