Twee weken terug ook een RX 7900 XTX aangeschaft, de ASUS TUF OC versie, en heb er wat mee lopen experimenteren.
Ik was er meer in geintereseerd de kaart wat zuiniger te maken door undervolten, maar voor de lol heb ik gekeken wat ik er maximaal uit kon halen qua 3DMark Timespy Graphics score:
https://www.3dmark.com/3dm/102144023
35613 is de hoogste score die ik heb kunnen halen, niet slecht (wereldwijd voor de 7900 XTX Graphics score zou dit zelfs
rank 56 zijn 🤔? ).
Dit is met stock bios, 1025mv core, 2770mhz fast timings en +15PL (op deze kaart is dat 431 watt). Duidelijk power gelimiteerd want als ik het geheugen van 2770 naar stock speed zet gaat de gpu speed omhoog, maar de score is dan lager. Geheugen zo hoog mogelijk en dan de GPU laten boosten zover die kan met de power die er over is lijkt de hoogste score op te leveren. De GPU kwam niet veel hoger dan 2800MHz, ik geloof dat hij heel even de 2900 aantipte.
De ASIC quality is 41,9 dus ergens in de middenmoot (heb 33 tot 50 gezien), maar ik kan er niet achter komen hoeveel invloed dat precies heeft. Sommmige zeggen ASIC Quality = LeakageID bij AMD, dus hoe lager hoe beter, terwijl andere beweren hoger = minder leakage (dus efficienter maar minder ver overklokbaar). Iemand met een 33 ASIC quality beweerde te boosten tot boven de 3000MHz bij Timespy dus het eerste lijkt meer te kloppen. Iemand hier met een hele lage ASIC die hoge GPU speeds haalt?
Games zijn absoluut niet allemaal stabiel op deze settings trouwens, Timespy wel.
Verder wel lekkere coil whine, deze hoor je zonder koptelefoon duidelijk door een gesloten kast onder het bureau 😑. Weet nog niet of ik hiermee kan leven lol, hoewel het met koptelefoon niet echt hoorbaar is en gamen doe ik vrijwel altijd met geluid / koptelefoon.
Youtube power usage (in Edge, waarschijnlijk ook mogelijk in Chrome) heb ik wat omlaag gekregen na info die op Reddit stond, door onder edge://flags 'Accelerated 2D canvas' en 'Hardware-accelerated video decode' op disabled te zetten.
Tot en met 1440p/60 heb ik nu nog 'maar' ~20-22 watt boven idle (gemeten met Watt-meter in het stopcontact, niet met software). Idle zakt de kaart naar maar 4-5 watt, getest op 3 verschillende schermen (steeds 1 tegelijk) waaronder een 165Hz scherm.
4K en vooral 4K/60 zijn ook zuiniger qua GPU (want die gaat in slaapstand) maar met bovenstaande opties op disabled moet de CPU alles doen en zit je (met een12600KF tenminste) nog zo'n 40 watt boven idle dus daar doet het niet zoveel.
De GPU is vast efficienter dan de CPU maar omdat bij AMD het geheugen meteen onnodig hoog gezet wordt (900MHz+) heb je toch een hoger stroomverbruik dan wanneer je de CPU het werkt laat doen op alles onder 4K. Qua video kwaliteit zie ik geen verschil.
'Choose ANGLE graphics backend' onder edge://flags heb ik wat mee geprobeerd, die staat nu op D3D11, weet zo niet meer of dat veel uitmaakte maar het is het proberen waard.
Wat me meer stoort is het gebruik bij oude games, die je soms toch ook nog wel wil kunnen spelen. Hopelijk fixen ze dit nog meer in toekomstige drivers want ook hier gaat het geheugen weer onnodig ver omhoog ... als ik anti-aliasing gebruik is het 100 watt voor oude dx9 games met het geheugen op max speed, dat is echt niet nodig. Zonder anti-aliasing raar genoeg maar 40-50 watt (getest op Guild Wars 1 in 4k) maar het geheugen gaat dan maar naar 900MHz. Dit zou ook met wat voor anti-aliasing dan ook ruim voldoende zijn in dit geval.
Het argument dat je leest dat omdat de MCDs bij wat voor 3D dan ook allemaal aan moeten en de power floor van 100 watt bepalen lijkt niet helemaal te kloppen, eerder de frequentie van het geheugen, maar misschien zit ik er naast.
[
Voor 2% gewijzigd door
Bomberman op 05-11-2023 11:52
. Reden: Paar foutjes gecorrigeerd ]