DaniëlWW2 schreef op dinsdag 15 augustus 2023 @ 20:22:
Inmiddels denk ik dat ik redelijk tevreden ben met mijn UV profielen.
Ik speel ook graag oudere games en ik heb nog een back log, waarvoor de RX7900XT op zijn zachts gezegd wat excessief is.
Verder weet ik maar al te goed dat framerate caps zo mooi klinken, maar of ze ook werken is een tweede.
Dus ik heb twee profielen gemaakt. De eerste is -10% PL, max 2450MHz en uiteindelijk 1055mv. -10% PL komt nog steeds neer op 280-285W als weergeven waarde. Maar bijvoorbeeld 2550MHz proberen, zorgt niet voor een hoger verbruik of hogere fps, waardoor ik vrij zeker weet dat het wel een vermogenslimiet is.
Vervolgens 1050mv leek stabiel totdat Witcher 3 nee zei. Het blijft bijzonder dat je meerdere stresstests kan draaien en het in de game in een paar minuten alsnog kan crashen. 1055mv lijkt dat opgelost te hebben. Resultaat is in Time spy een redelijke 21500 met 25600 graphics en 11250 voor de 5800X3D. Gemiddelde zou iets van 22100 Time spy score zijn voor een dergelijk systeem, dus zeker niet verkeerd. Want wel mooi 45-50W eraf van de 330W TPD bios en een betere fancurve. Verder qua hotspot moet ik moeite doen om die 15C boven edge te krijgen. En ver in de 70C kom ik niet. Deze RX7900XT is koeler dan mijn RX5700XT.

Dat zijn hele nette resultaten!
Veel meer dan ik had verwacht van RDNA3 omdat relatief een zeer groot deel aan vermogen nodig is voor het geheugen systeem.
Toen ik de MBA 7900XTX nog had, heb ik dat destijds vergeleken met de RX6900XT en het kwam neer op meer dan 2x het verbruik van RDNA3. Naast de Hynix geheugenchips, slokte de SoC ook aanzienlijk meer stroom. Maar als ik dit zo lees, dan zie ik nog best potentie voor RDNA3 (in ieder geval voor de 7900XT).
Voor mijn RX6900XT gebruik ik zelf een 'ecomodus' met een Fmax van 2000MHz en 1150mV target.
Met de Timespy 1440p graphics test 1 + 2, resulteert dit in ca. 175-180Wppt (ca. 211-217Wtbp) en echte klok + Vcore van ca. 1950MHz@0.847Vcore
Het geheugensysteem verbruikt daarbij ca. 18W VDDIO_MEM + 24.5W VDDCR_SoC + 12.5W VDDCI_MEM, dus ca. 55W.
Voor de OCCT standaard stresstest resulteert dat in 213Wppt en echte klok + Vcore van 1900MHz@0.826Vcore.
Het geheugensysteem gebruikt daarbij 13.24W VDDIO_MEM, 7.34W VDDCR_SoC en 12.14W VDDCI_MEM. In totaal dus 32.7W.
Voor mij is dat sweetspot omdat daarmee het verbruik voor middelmatige belasting (Timespy 1440p) met 44% gereduceerd wordt en voor zware parallel belasting (OCCT) met 20%.
Wat TBP betreft gaat dat van ca. 307Wtbp (255Wppt) stock naar ca. 214Wtbp voor Timespy en ca. 257Wtbp voor OCCT.
Met Timespy heb ik dan een prestatieverlies van slechts 11%, GPU score: ((20324 / 18363) -1)*100.
En voor OCCT / zware belasting zal dat nog minder zijn aangezien de klok maar met 100MHz verminderd is t.o.v. stock.
De -25mV target UV levert ongeveer 8.5Wptt = 10Wtbp en 12Wppt= 15Wtbp besparing op voor respectievelijk Timespy en OCCT.
Dus alleen met de klok begrenzing zit het dan aardig in de buurt van de 280Wtbp die je met de 7900XT behaald hebt en daarbij nog altijd een dikke +39% prestatieverschil behouden ((25600 / 18363) -1)*100.
Dat maakt mij toch wel erg nieuwsgierig weer

. Helemaal omdat de kwaliteit van de onderdelen, afgezien van de FE en topmodellen, bij de Nvidia RTX4080 / RTX4090 ondermaats is voor de vraagprijs.
Nu lees ik net in dit draadje dat er blijkbaar is overgestapt op Samsung geheugenchips wat bij mij dan meteen de vraag oproept of dit in een vermindering in verbruik heeft gebracht voor het RDNA3 geheugensysteem. Als dat zo is, dan zou dat wel eens een redding kunnen zijn, want meer vermogensbudget voor de cores weegt zwaarder dan een hogere geheugenklok (zolang er sprake is van een powerlimiet).
Tweede profiel is een leuke.
Ik was eens gaan kijken met 2250MHz om te zien hoe ver ik kon komen qua voltage. Ik ben gestopt bij 750mv omdat het nog steeds stabiel is. Qua verbruik varieert het van 210-250W en per applicatie. Ook interessant dat hier de uitgelezen circa 730mv wel klopt, maar bij dat andere profiel waar het vaak rond de 800mv zou zitten, tja daar lijkt weinig van de kloppen. Qua scores is het nu 20380 Time Spy met 23900 Graphics en 11100 voor de 5800X3D. Zeker een verschil, maar de GPU zit nu veel meer in een efficienter punt zonder al te veel verlies.
Ga misschien nog eens kijken wat 2300MHz en 2350MHz doen, maar in principe is dit ruim afdoende voor veel games. Zeker omdat je hier al snel naar 100W minder kijkt dan die 330W TDP bios. En qua prestatieverlies is het 7% op dat andere profiel. Op de default verlies ik misschien 10%. Dat is niet zoveel als ik het afzet tegen hoeveel lager het verbruik is.
Wat kan ik zeggen, ik vond het voorgaande al indrukwekkend. Maar hier neem ik de pet voor af

.
Minder verbruik en nog altijd dik betere prestaties dan een zuinig afgestelde RX6900XT.
Als ik dit had geweten dan, dan had ik serieus deze kaart overwogen voor de ITX build cq. verjaardagkado waar ik mee bezig ben, eventueel met wat hack en slash om het passend te krijgen (de pulse is eigenlijk 2cm te lang). Daar had ik de Reference RX6950XT voor aangeschaft.
Waar ik erg naar benieuwd ben is hoe het eruit ziet met het verbruik van het geheugensysteem. Heb je daar toevallig zin in om even naar te kijken met Furmark, OCCT of Timespy?
Ik heb hieronder wat metingen geplaatst van wat ik eerder in de post beschreven heb:
OCCT default
Custom Timespy 2560x1440 met alleen graphics test 1 + 2, stock
Custom Timespy 2560x1440 met alleen graphics test 1 + 2, Fmax 2000MHz
Custom Timespy 2560x1440 met alleen graphics test 1 + 2, Fmax 2000MHz + 1150mV target
/f/image/4lP6FSJJGRYHaIJdZ7YtJWQi.png?f=fotoalbum_large)
Maar bij mij komt wel weer een gedachte op van hoever is AMD niet gegaan om nog een beetje clock speed uit N31 te halen? Want bij mij blijft de gedachte terugkomen wat als AMD zowel de RX7900XT als RX7900XTX op 2400MHz had afgesteld met lagere voltages, hoeveel efficienter waren ze dan niet geweest voor een paar procent prestatieverlies? Ja de RX7900XTX zou dan nipt van de RTX4080 verloren hebben en de RX7900XT zou eerder gelijkwaardig zijn aan de RTX4070Ti, maar wat maakt het verder uit? Want nu is de perceptie weer gezet dat Radeon inefficiënt is voor een paar procent prestatiewinst.
Ik kan gewoon die gedachte niet kwijtraken hoe erg AMD dit heeft verknalt. Als ze de videokaarten nu de RX7800XT ($750) en RX7970XT ($1000) hadden genoemd, dan was het marketingtechnisch zoveel beter geweest. De RX7900XT is vanwege haar 20GB VRAM gewoon beter dan de RTX4070Ti. Het hele punt van de RTX4070Ti is RT wat veel VRAM kost. De RX7900XTX is vervolgens weer zo'n aparte naam waardoor bijna niemand het kan volgen. Maar de RX7970XT zou meteen nostalgische gevoelens opwekken naar een zeer goede videokaart van ruim tien jaar geleden. Zo definieer je ook geen beoogt prestatiedoel of waardeoordeel tegenover de RTX4080 of RTX4090.
Dat sowieso. Maar imho geld dat net zo goed voor de RTX4090 bijvoorbeeld. Wanneer met Timespy de klok tot 2500MHz beperkt wordt (PL65%) behoudt men ca. 94% van de avg. FPS en nog meer voor de P1 FPS.
Quasar zone heeft dat eens onderzocht met een vergelijking tussen een PL en UV beperking.
Ik weet alleen niet of dat met de RTX4080 ook zo drastisch is.
Op reddit is er iemand geweest die een powerscaling vergelijking heeft gemaakt tussen de RX7900XTX en RTX4090
https://www.reddit.com/r/..._power_scaling_from_275w/.

Daarop afgaande zou 300W zinniger zijn geweest, maar als er op het efficiëntievlak niet te winnen is, dan begrijp ik de keuze op zich wel om daar 350W van te maken en daarmee de zogenaamde RTX4080 concurrent nipt af te troeven qua prestaties.