Ik zal dan ook maar een duit in de zak doen ^^.
Dit is het resultaat van mijn huidige 'eco-modus' afstelling van zowel de GPU als CPU:
/f/image/Z4NVcnWvQF8q1IT5dnKnlEcL.png?f=fotoalbum_large)
Hier is wel sprake van een observer-effect, ik heb de pollrate op 1 seconde staan met grafiek en dat zorgt er voor dat het verbruik iets hoger is van de GPU (standaard meet ik max. 195W). De Timespy score zonder HWinfo is ook iets hoger.
Instellingen hardware:
RX6900XT
Target Fmax: 2000MHz
Target Fmin: 500MHz
Target mV: 1150mV
5800X
PPT: 125W
Fmax: -250MHz
32GB dualrank geheugen
FCLK: 1900MHz
Hoofdtimings: 16-16-16-32-48-304 GDM 1.36V (subtimings staan ook strak afgesteld).
Ik game op 3440x1440 met ultra / max settings op een 100Hz scherm.
Met deze instellingen verlies ik weinig FPS t.o.v. stock omdat de RX6900 veelal boven de 100fps komt en ik met Freesync + 98Hz cap speel.
Het beperken van de GPU klok zorgt ervoor dat de kaart niet voluit gaat in het 'rode' gebied wat aanzienlijk scheelt in het verbruik.
De kleine dips in FPS die daardoor ontstaan (geen stotters, maar momenten dat de game heel zwaar is) zijn makkelijk op te vangen door Freesync, zonder de spelervaring echt slechter te maken. Uiteraard is het wel merkbaar of de FPS naar 65 i.p.v 75 duikt, maar gezien de besparing in verbruik / warmte en geluid is dit een afweging die mij meer dan waard is.
Voor degene die zich afvragen waarom mijn temperaturen zo laag zijn, ik heb alles in een customloop zitten met 2x 360mm rad. Tijdens full load gaming komen de fan's met 20°C kamertemperatuur niet boven de 900rpm uit. Het is daardoor ook helemaal stil (ook de reden waarom coilwhine een belangrijk aspect voor mij is).
Het GPU verbruik varieert verder een beetje. Met de 98Hz Freesync cap is het gemiddeld iets van 160W-170W PPT (195W-207W TBP). Synthetisch test met OCCT geeft 212W PTT, oftewel 260W TBP.
Dat laatste is dus het piekvermogen, maar ik ben dat nog niet tegengekomen in games.
HugoBoss1985 schreef op vrijdag 21 oktober 2022 @ 17:10:
[...]
Maar wat de echte waardes zijn blijft dus een beetje gissen bij AMD (todat je hardware hebt om het allemaal te meten) want de drivers/hwinfo geven dus niet kloppende waardes aan.
Het heeft dus iets met de vrm's te maken, bij Nvidia schijnt dit veel beter in orde te zijn.
Hier was ik een beetje bang voor

.
De vermogens waarden kloppen wel in HWinfo en zijn ook behoorlijk accuraat (telemetrie wordt door de AMD hardware aangeleverd). Het is alleen zo dat men gewoon moet weten wat er gemeten wordt.
TGP is geen
TGB.
Persoonlijk heb ik liever de data die de RDNA2 kaarten leveren. Naast spanning en vermogen, is ook de hoeveelheid stroom zichtbaar. Voor de meesten waarschijnlijk niet interessant, maar je kan daar direct uit aflezen hoeveel lekstroom er ontstaat, zonder te hoeven gissen in welk onderdeel dat is.
Het enige verschil met Nvidia is dus dat er ná de VRM sectie (voeding op de GPU) wordt gemeten i.p.v. vóór de VRM sectie zoals Nvidia dat doet. M.a.w. de verliezen die in de voedingsectie ontstaan, worden bij AMD niet meegenomen. Met de vuistregel die ik gegeven heb, klopt de schatting van het hele verbruik aardig.
Zoals Nvidia het doet hoeft niet beter te zijn. Het is gewoon een andere (indirecte) aanpak m.b.v. referentieweerstanden die bij de 12V lijnen zijn geplaatst. Meestal is dat ook niet zo nauwkeurig.
Sowieso is het beter om aan de AC kant van de PC te meten, als het verbruik is wat telt.
Alle verliezen van de hele PC neem je dan mee (het rendement van o.a. een PC voeding is afhankelijk van de belasting).
Ik had het trouwens verkeerd wat betreft de sim TBP. Het is niet HWinfo die deze optie heeft, maar het meetprogramma CapframeX (echt een aanrader om telemetrie tijdens het gamen te meten en vast te leggen!).