Dat moest natuurlijk 60mv zijn.Sissors schreef op woensdag 27 augustus 2025 @ 07:49:
[...]
In het ervaringen topic is daar best wat terug te vinden ook. Het ligt wel aan welke kaart je koopt, degene die al een behoorlijk hoge TDP limiet hebben vanuit de fabrikant zal meer te winnen zijn dan bij degene die dat niet hebben. Maar je gaat niet met een 6mV undervolt je power halveren.
Ik gebruik:computerjunky schreef op woensdag 27 augustus 2025 @ 02:40:
Wat doen deze kaarten eigenlijk qua performance en power draw met een 6mv undervolt en -200mhz offset?
Met mijn 6900xt kost dat zo goed als geen prestaties maar halveert dat de power draw.
Ik zit online te zoeken maar iedereen lijkt alles alleen maar te overclocken alsof het nog niet genoeg stroom verbruikt.
/f/image/apLbkZKfPCuZztqEq24bJyja.png?f=fotoalbum_large)
max power is dan 250watt maar hij gebruikt ook regelmatig minder. Qua performance scheelt het denk ik 8% tov de 300 watt van een reference 9070 XT. Deze kan 330 stock.
Weet je trouwens zeker dat je dan power draw halveert bij een 6900XT met slechts 200MHz minder? ik moest wel veel lager om dat te bereiken en vooral echt ziek lage voltages gebruiken:
6950XT_3_ELV_1560C_655mv_1392mem_785IF_90w_175ww_GameStable_Perf100
6950XT_3_ULV_1904MHz_770mv_2088mem_870IF_146w_238ww_GameStable_Perf123
6950XT_3_OM_2200MHz_880mv_2248mem_216w_890IF_GameStable_Perf137
6950XT_3_EX_2410MHz_940mv_2248mem_1000IF_277w_361ww_GameStable_Perf147
Stock is 284watt voor de 6950XT.
[ Voor 4% gewijzigd door Astennu op 29-08-2025 22:16 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Mijn 9070XT reboot mijn PC als er iets onder load komt.
Heb hem nu standaard, AMD cleanup gedraaid, nieuwste drivers en krijg een Kernel-Power 41.
RM850X van een jaar oud, 2 aparte12v kabels.
Komt morgen een 3080 die ik even snel heb gekocht. maar wel bizar allemaal.
Wordt er helemaal gestoord van, 2d en simpele 3D games (hearthstone - Hellslave) maar crashed op b.v. ARK en Subnautica.
Wordt er gek van.
Morgen weet ik evt meer.
Heb hem nu standaard, AMD cleanup gedraaid, nieuwste drivers en krijg een Kernel-Power 41.
RM850X van een jaar oud, 2 aparte12v kabels.
Komt morgen een 3080 die ik even snel heb gekocht. maar wel bizar allemaal.
Wordt er helemaal gestoord van, 2d en simpele 3D games (hearthstone - Hellslave) maar crashed op b.v. ARK en Subnautica.
Wordt er gek van.
Morgen weet ik evt meer.
The love that lasts the longest, is the love that is never returned. If you can play, it doesn't matter what guitar you play. If you can't play, it doesn't matter what guitar you play.
Wat gebeurd er als je je power slider naar bv -30% zet? is het dan weg? of nog beter je max clocks offet op -500 zet waardoor de power spikes veel lager worden?Bad Brains schreef op vrijdag 29 augustus 2025 @ 22:40:
Mijn 9070XT reboot mijn PC als er iets onder load komt.
Heb hem nu standaard, AMD cleanup gedraaid, nieuwste drivers en krijg een Kernel-Power 41.
RM850X van een jaar oud, 2 aparte12v kabels.
Komt morgen een 3080 die ik even snel heb gekocht. maar wel bizar allemaal.
Wordt er helemaal gestoord van, 2d en simpele 3D games (hearthstone - Hellslave) maar crashed op b.v. ARK en Subnautica.
Wordt er gek van.
Morgen weet ik evt meer.
Kan natuurlijk dat je PSU toch een beetje gaar is heb dat probleem ook met mijn oudere Seasonic Platiunum 860 SS2 bij bepaalde full load situaties krijg ik nu ook reboots. Als ik de GPU afknijp en powerspikes verlaag is het wel stabiel.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Er zijn al mods/hacks die dat mogelijk maken. Met de laatste update is er ook wel iets van een prestatie winst dat het de moeite waard is. Maar prestatie winst tov native is niet zo goed als op 9000 series kaarten.R.G schreef op woensdag 27 augustus 2025 @ 03:16:
Gaat fsr4 werken op rx6-7 series?
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Maar standaard gaat hij over zijn nek, dus toch de voeding? hmm.
The love that lasts the longest, is the love that is never returned. If you can play, it doesn't matter what guitar you play. If you can't play, it doesn't matter what guitar you play.
Hoe oud is de PSU? en is dit een 330 watt kaart of een 300?Bad Brains schreef op vrijdag 29 augustus 2025 @ 23:00:
wow, hij werkt op deze settings. (Subnautica)
[Afbeelding]
Je kan ook alleen de -500 clocks even proberen. Dat verlaagd de power pieken vooral naar 3400MHz boosten is niet echt chill als je PSU niet zo goed is. 300watt stabiel continu leveren is vaak het probleem niet die hele korte 10ms pieken naar 600-700 watt vinden ze vaak niet leuk.
[ Voor 10% gewijzigd door Astennu op 29-08-2025 23:14 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik ben aan het zoeken waar de voeding vandaan komt, dit is een witte build dus ik denk 4 jaar oud en nieuw.
Maar ik koop veel PC spullen hier 2dehands, want ja. Kan morgen nog even kijken hoe het werkt zonder de 12v kabel extensions en hoe de riser kabel is seated.
Morgen komt ook de 3080 binnen dus dat gebeurd eerst voordat er iets anders getest gaat worden.
Tis een Quicksilver magnetic.
Maar ik koop veel PC spullen hier 2dehands, want ja. Kan morgen nog even kijken hoe het werkt zonder de 12v kabel extensions en hoe de riser kabel is seated.
Morgen komt ook de 3080 binnen dus dat gebeurd eerst voordat er iets anders getest gaat worden.
Tis een Quicksilver magnetic.
The love that lasts the longest, is the love that is never returned. If you can play, it doesn't matter what guitar you play. If you can't play, it doesn't matter what guitar you play.
Ik zou het inderdaad even proberen zonder riser en zonder extension, en dan ook ff opnieuw je kabels trekken zonder harde bochten of strakgetrokken kabels voor looks.Bad Brains schreef op vrijdag 29 augustus 2025 @ 23:15:
Ik ben aan het zoeken waar de voeding vandaan komt, dit is een witte build dus ik denk 4 jaar oud en nieuw.
Maar ik koop veel PC spullen hier 2dehands, want ja. Kan morgen nog even kijken hoe het werkt zonder de 12v kabel extensions en hoe de riser kabel is seated.
Morgen komt ook de 3080 binnen dus dat gebeurd eerst voordat er iets anders getest gaat worden.
Tis een Quicksilver magnetic.
[ Voor 20% gewijzigd door Thomg op 29-08-2025 23:25 ]
Geen idee of ik de riser eraf kan halen, want er zit een waterblok op de chipset.
Wel kan ik kijken hoe hij erin zit, denk dus niet dat dat het probleem zal zijn maar je weet het niet.
Mem getest en dat is allemaal prima zelfs met de strakke timings.
Zoals gezegd, morgen de 3080 hopelijk ontvangen, DDU draaien en AMD cleanup voor de surity.
En dan kijken wat die gaat doen, heeft iets meer powerdraw dus als het de voeding is dan zien we dat snel genoeg.
Wel kan ik kijken hoe hij erin zit, denk dus niet dat dat het probleem zal zijn maar je weet het niet.
Mem getest en dat is allemaal prima zelfs met de strakke timings.
Zoals gezegd, morgen de 3080 hopelijk ontvangen, DDU draaien en AMD cleanup voor de surity.
En dan kijken wat die gaat doen, heeft iets meer powerdraw dus als het de voeding is dan zien we dat snel genoeg.
The love that lasts the longest, is the love that is never returned. If you can play, it doesn't matter what guitar you play. If you can't play, it doesn't matter what guitar you play.
Zelf ook een RMA proces gestart met mijn SF750 om er na een minimale build (dus moederbord uit kast, etc.) achter te komen dat het toen prima werkte. Ik dacht altijd dat men achterdochtig was, maar nu denk ik er toch wel anders over.Bad Brains schreef op vrijdag 29 augustus 2025 @ 23:24:
Geen idee of ik de riser eraf kan halen, want er zit een waterblok op de chipset.
Wel kan ik kijken hoe hij erin zit, denk dus niet dat dat het probleem zal zijn maar je weet het niet.
Mem getest en dat is allemaal prima zelfs met de strakke timings.
Zoals gezegd, morgen de 3080 hopelijk ontvangen, DDU draaien en AMD cleanup voor de surity.
En dan kijken wat die gaat doen, heeft iets meer powerdraw dus als het de voeding is dan zien we dat snel genoeg.
Maar wat wil je met die 3080 doen? het is ook een kaart die wat meer trekt maar weet niet of die dezelfde power demands heeft als de 9070XT. Dus kan best zijn dat die stock goed draait maar met een OC niet meer.Bad Brains schreef op vrijdag 29 augustus 2025 @ 23:24:
Geen idee of ik de riser eraf kan halen, want er zit een waterblok op de chipset.
Wel kan ik kijken hoe hij erin zit, denk dus niet dat dat het probleem zal zijn maar je weet het niet.
Mem getest en dat is allemaal prima zelfs met de strakke timings.
Zoals gezegd, morgen de 3080 hopelijk ontvangen, DDU draaien en AMD cleanup voor de surity.
En dan kijken wat die gaat doen, heeft iets meer powerdraw dus als het de voeding is dan zien we dat snel genoeg.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Had geen kaart om mee te testen, deze gaat of weer in de verkoop of in de HTPC met zijn super sucker wattage.
Who knows.
Who knows.
The love that lasts the longest, is the love that is never returned. If you can play, it doesn't matter what guitar you play. If you can't play, it doesn't matter what guitar you play.
Alle moderne high end kaarten hebben dit probleem. Daarom is de ATX 3.x standaard ook aangepast dat PSU's 200% van hun rated power moeten kunnen leveren bij pieken om shutdowns en reboots te voorkomen.Bad Brains schreef op vrijdag 29 augustus 2025 @ 23:40:
Had geen kaart om mee te testen, deze gaat of weer in de verkoop of in de HTPC met zijn super sucker wattage.
Who knows.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Mijn huidige full game load TGP is 144 watt met 1110mv (-60) en 2225mhz (stock 2504mhz) op 2350 MHz is dat 164 watt. Hij staat nu lager omdat de game kamer al heet zat is en die paar fps geen verschil maken.Astennu schreef op vrijdag 29 augustus 2025 @ 22:13:
[...]
Ik gebruik:
[Afbeelding]
max power is dan 250watt maar hij gebruikt ook regelmatig minder. Qua performance scheelt het denk ik 8% tov de 300 watt van een reference 9070 XT. Deze kan 330 stock.
Weet je trouwens zeker dat je dan power draw halveert bij een 6900XT met slechts 200MHz minder? ik moest wel veel lager om dat te bereiken en vooral echt ziek lage voltages gebruiken:
6950XT_3_ELV_1560C_655mv_1392mem_785IF_90w_175ww_GameStable_Perf100
6950XT_3_ULV_1904MHz_770mv_2088mem_870IF_146w_238ww_GameStable_Perf123
6950XT_3_OM_2200MHz_880mv_2248mem_216w_890IF_GameStable_Perf137
6950XT_3_EX_2410MHz_940mv_2248mem_1000IF_277w_361ww_GameStable_Perf147
Stock is 284watt voor de 6950XT.
250 watt met een hogere underclock is best veel dus voor die architectuur ten opzichte van de 6900xt. Maar misschien heb ik gewoon een erg goede sample van de kaart. Ik heb ook al een hele goede sample van de 9800X3D die probleemloos op pbo-40 all core draait en alle andere voltages ook flink lager zodat hij idle maar 14w verbruikt.
Mag ook wel want mijn vorige cpu sample was echt bagger.
Ik vind dat wel extreem laag zeker als je naar mijn voltages kijkt. Nu weet ik dat dit wel een beetje een high leakage part is maar 300+mv verschil en 300MHz lagere clocks voor same power is wel een heel groot verschil wat je tegenwoordig niet vaak meer ziet. Zeker omdat dit geen slechte chip was.computerjunky schreef op zaterdag 30 augustus 2025 @ 06:55:
[...]
Mijn huidige full game load TGP is 144 watt met 1110mv (-60) en 2225mhz (stock 2504mhz) op 2350 MHz is dat 164 watt. Hij staat nu lager omdat de game kamer al heet zat is en die paar fps geen verschil maken.
250 watt met een hogere underclock is best veel dus voor die architectuur ten opzichte van de 6900xt. Maar misschien heb ik gewoon een erg goede sample van de kaart. Ik heb ook al een hele goede sample van de 9800X3D die probleemloos op pbo-40 all core draait en alle andere voltages ook flink lager zodat hij idle maar 14w verbruikt.
Mag ook wel want mijn vorige cpu sample was echt bagger.
Het ligt er natuurlijk wel heel erg aan met welke applicatie je test. Workloads willen nog al eens een groot verschil in powerdraw / max clocks laten zien.
Zie ik ook bij de 9070XT waar Steel nomad rond de 2800-2900 draait. In Space marine 2 haalt de kaart 3100-3200MHz met vergelijkbaar of zelfs een wat lager verbruik.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik heb even een korte game sessie gestart met max load en de stats in beeld zoals ik de laatste tijd speel zodat je precies kan zien hoe en wat. Valt me wel op dat werkelijke clock iets lager is als ingestelde clocks en dat geld ook voor voltage.Astennu schreef op zaterdag 30 augustus 2025 @ 11:30:
[...]
Ik vind dat wel extreem laag zeker als je naar mijn voltages kijkt. Nu weet ik dat dit wel een beetje een high leakage part is maar 300+mv verschil en 300MHz lagere clocks voor same power is wel een heel groot verschil wat je tegenwoordig niet vaak meer ziet. Zeker omdat dit geen slechte chip was.
Het ligt er natuurlijk wel heel erg aan met welke applicatie je test. Workloads willen nog al eens een groot verschil in powerdraw / max clocks laten zien.
Zie ik ook bij de 9070XT waar Steel nomad rond de 2800-2900 draait. In Space marine 2 haalt de kaart 3100-3200MHz met vergelijkbaar of zelfs een wat lager verbruik.
Test voor de grap Timespy of Steelnomad eens. Dat is wat ik gebruikt heb.computerjunky schreef op zaterdag 30 augustus 2025 @ 13:48:
[...]
Ik heb even een korte game sessie gestart met max load en de stats in beeld zoals ik de laatste tijd speel zodat je precies kan zien hoe en wat. Valt me wel op dat werkelijke clock iets lager is als ingestelde clocks en dat geld ook voor voltage.
[Afbeelding]
Ingestelde clocks zijn target clocks. Die haal je alleen bij hele lage temps en als alle andere randvoorwaarden optimaal zijn of bv een spel de gpu niet zwaar belast. Maar over het algemeen heb je er LN2 voor nodig om die clocks te halen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Heb net mijn systeem opgeschoond voor een systeemkopie vannacht dus ga even niets installeren maar even battlefield opgestart en die doet met ray tracing 177 watt en zonder gewoon dezelfde 144w gemiddeld. Dus Ray Tracen maakt de load wel iets hoger. Logisch gezien je daar extra units op de GPU voor gebruikt.Astennu schreef op zaterdag 30 augustus 2025 @ 13:55:
[...]
Test voor de grap Timespy of Steelnomad eens. Dat is wat ik gebruikt heb.
Ingestelde clocks zijn target clocks. Die haal je alleen bij hele lage temps en als alle andere randvoorwaarden optimaal zijn of bv een spel de gpu niet zwaar belast. Maar over het algemeen heb je er LN2 voor nodig om die clocks te halen.
Dit draait ook echt zo al jaren en full system game load is dan ook tussen de 190 en 215 watt aan het stopcontact (case only). waar het verschil door de cpu load komt.
Ik was wel verrast om te zien dat de 9800X3D maar 47 watt gebruikt onder battlefield. Ik moet alleen even software installeren om de load en load per core te bekijken.
Heeft iemand hier ook de combi 9070XT-PSVR2-F1 25?
Ik kon alles op het gebied van VR spelen met de 4.1 release van adrenalin. Latere updates geven problemen en nu ook de release van deze week.
Zoja, zou jij het ook kunnen testen?
Ps. Automobilista 2 draait bv. top!
Ik kon alles op het gebied van VR spelen met de 4.1 release van adrenalin. Latere updates geven problemen en nu ook de release van deze week.
Zoja, zou jij het ook kunnen testen?
Ps. Automobilista 2 draait bv. top!
Ik heb momenteel de volgende specs(geen OC):
- AMD Ryzen 5 3600
- 16 GIG RAM
- B450 MSI Tomahawk 2 moederbord
- AMD RX 5700 GPU
- Corsair RM550x PSU
- Twee 140MM intake fans
Ik zou mijn videokaart willen wijzigen naar een RX 9070 XT. Het prijsverschil tussen de 9070 en de 9070xt is te kleine om voor de 9070 te willen gaan. Alleen weet ik niet zeker of mijn PSU de hogere wattage van de 9070XT trekt. Zou het kunnen of zou ik wel moeten undervolten om het mogelijk te maken?
- AMD Ryzen 5 3600
- 16 GIG RAM
- B450 MSI Tomahawk 2 moederbord
- AMD RX 5700 GPU
- Corsair RM550x PSU
- Twee 140MM intake fans
Ik zou mijn videokaart willen wijzigen naar een RX 9070 XT. Het prijsverschil tussen de 9070 en de 9070xt is te kleine om voor de 9070 te willen gaan. Alleen weet ik niet zeker of mijn PSU de hogere wattage van de 9070XT trekt. Zou het kunnen of zou ik wel moeten undervolten om het mogelijk te maken?
Recommended PSU 850W, min 750. Een (verouderde?) 550W PSU is dan niet in de buurt ... Undervolten misschien? Je komt er pas under load achter als de boel instort.badluckboy schreef op vrijdag 26 september 2025 @ 12:26:
Ik heb momenteel de volgende specs(geen OC):
- AMD Ryzen 5 3600
- 16 GIG RAM
- B450 MSI Tomahawk 2 moederbord
- AMD RX 5700 GPU
- Corsair RM550x PSU
- Twee 140MM intake fans
Ik zou mijn videokaart willen wijzigen naar een RX 9070 XT. Het prijsverschil tussen de 9070 en de 9070xt is te kleine om voor de 9070 te willen gaan. Alleen weet ik niet zeker of mijn PSU de hogere wattage van de 9070XT trekt. Zou het kunnen of zou ik wel moeten undervolten om het mogelijk te maken?
Dum de dum
Die zijn als je een Intel i9 gebruikt relevant. Zijn CPU gebruikt 65W. Een 9070XT zit op 300-350W afhankelijk van het model. Mobo, SSDs, etc gebruiken ook nog wat, en je wil ook nog je powerbank eraan kunnen doen zonder dat je voeding ermee kapt. Dan wordt het in principe met 550W krap, de rm550x was een prima voeding, maar wel op leeftijd.Fe2O3 schreef op vrijdag 26 september 2025 @ 13:06:
[...]
Recommended PSU 850W, min 750. Een (verouderde?) 550W PSU is dan niet in de buurt ... Undervolten misschien? Je komt er pas under load achter als de boel instort.
Het zou mij niet verbazen als het prima gaat, maar zelf zou ik niet het risico nemen. En ik weet niet of je nog toekomstige upgrades in de planning hebt, maar CPUs zijn ook meer gaan gebruiken. Dus ik zou eerder toch een nieuwe voeding ook erbij kopen, en dan kan je weer er tijdje mee vooruit. (En ja, dan als je een nieuwe CPU koopt wordt je verteld dat je eigenlijk toch echt een voeding volgens ATX3.3 specificatie tegen die tijd wil hebben vanwege stroom pieken
550 Watt is te weinig.badluckboy schreef op vrijdag 26 september 2025 @ 12:26:
Ik heb momenteel de volgende specs(geen OC):
- AMD Ryzen 5 3600
- 16 GIG RAM
- B450 MSI Tomahawk 2 moederbord
- AMD RX 5700 GPU
- Corsair RM550x PSU
- Twee 140MM intake fans
Ik zou mijn videokaart willen wijzigen naar een RX 9070 XT. Het prijsverschil tussen de 9070 en de 9070xt is te kleine om voor de 9070 te willen gaan. Alleen weet ik niet zeker of mijn PSU de hogere wattage van de 9070XT trekt. Zou het kunnen of zou ik wel moeten undervolten om het mogelijk te maken?
Mijn 9070XT trekt standaard zo'n 330 Watt en heeft pieken zo'n 450 Watt.
Mijn 650 Watt kwaliteitsvoeding kan het tot nu toe goed aan, maar je kunt beter een stukje hoger gaan zitten.
https://inara.cz/elite/cmdr/425104/
Zoals al eerder gemeld mijn PC reboot elke keer als ik de GPU (9070XT) belast met de wat zwaardere games.
Nu lees ik met OCCT mijn geheugen naar 3450 schiet.
Dat is niet goed lijkt me want hij gaat dan over zijn nek.
Het heeft een tijd goed gegaan tot afgelopen week en nu is het weer schering en inslag.
Nieuwe windows install gedaan, direct hetzelfde probleem, het is echt de kaart.
Morgen komt er een Lian Li Edge 1200w maar dat zal niets veranderen denk ik.
Wat moet ik nou, ben er wel klaar mee na 4 maanden.
Nu lees ik met OCCT mijn geheugen naar 3450 schiet.
Dat is niet goed lijkt me want hij gaat dan over zijn nek.
Het heeft een tijd goed gegaan tot afgelopen week en nu is het weer schering en inslag.
Nieuwe windows install gedaan, direct hetzelfde probleem, het is echt de kaart.
Morgen komt er een Lian Li Edge 1200w maar dat zal niets veranderen denk ik.
Wat moet ik nou, ben er wel klaar mee na 4 maanden.
The love that lasts the longest, is the love that is never returned. If you can play, it doesn't matter what guitar you play. If you can't play, it doesn't matter what guitar you play.
Ik zou denken in jouw situatie: Als het niet je voeding is die wordt overbelast, dan is je kaart gewoon stuk. Dus probeer het even nog met de nieuwe voeding en anders is de kaart stuk, lijkt mijBad Brains schreef op maandag 20 oktober 2025 @ 12:30:
Zoals al eerder gemeld mijn PC reboot elke keer als ik de GPU (9070XT) belast met de wat zwaardere games.
Nu lees ik met OCCT mijn geheugen naar 3450 schiet.
Dat is niet goed lijkt me want hij gaat dan over zijn nek.
Het heeft een tijd goed gegaan tot afgelopen week en nu is het weer schering en inslag.
Nieuwe windows install gedaan, direct hetzelfde probleem, het is echt de kaart.
Morgen komt er een Lian Li Edge 1200w maar dat zal niets veranderen denk ik.
Wat moet ik nou, ben er wel klaar mee na 4 maanden.
[Afbeelding]
Het is niet de voeding (perse), heb de LianLi Edge solo op de kaart aangesloten met een terminator (de rest van de onderdelen nog op de Corsair 850) en ik kon 4 games tegelijk opstarten zonder problemen.
Daarna de "oude" voeding weer erop aangesloten en wederom reboot na GPU belasting.
Heb toen de verlengkabels (Amazon chayna kabels) eraf gehaald en de pcie kabels van de PSU direct er op aangesloten.
En presto.
Alles werkt. (vooralsnog) Wordt vervolgd.
Daarna de "oude" voeding weer erop aangesloten en wederom reboot na GPU belasting.
Heb toen de verlengkabels (Amazon chayna kabels) eraf gehaald en de pcie kabels van de PSU direct er op aangesloten.
En presto.
Alles werkt. (vooralsnog) Wordt vervolgd.
[ Voor 7% gewijzigd door Bad Brains op 21-10-2025 20:40 ]
The love that lasts the longest, is the love that is never returned. If you can play, it doesn't matter what guitar you play. If you can't play, it doesn't matter what guitar you play.
Ik heb recent de 9070 XT gekocht en ik ben best onder de indruk. Het was meer een impuls aankoop ter vervanging van mijn RTX 3080, het heeft goed uitgepakt. Ik ben vooral onder de indruk van de undervolt mogelijkheid, de chip is erg stabiel. Bij mij staat het op GPU +400, VRAM 2750, -80mV en PL -30% en het draait als een tierelier! Met de gekapte PL trekt het ook maar 225W en het scheelt maar 2-3 fps in spellen met PL +10% (340W).
Ik hoop dat AMD met de volgende gen een high-end kaart voor een goede prijs neerzet, dan hebben ze goud in handen.
Ik hoop dat AMD met de volgende gen een high-end kaart voor een goede prijs neerzet, dan hebben ze goud in handen.
[ Voor 11% gewijzigd door mister_S op 01-11-2025 20:32 ]
Dat undervolten moet ik ook eens proberen.mister_S schreef op zaterdag 1 november 2025 @ 20:31:
Ik heb recent de 9070 XT gekocht en ik ben best onder de indruk. Het was meer een impuls aankoop ter vervanging van mijn RTX 3080, het heeft goed uitgepakt. Ik ben vooral onder de indruk van de undervolt mogelijkheid, de chip is erg stabiel. Bij mij staat het op GPU +400, VRAM 2750, -80mV en PL -30% en het draait als een tierelier! Met de gekapte PL trekt het ook maar 225W en het scheelt maar 2-3 fps in spellen met PL +10% (340W).
Ik hoop dat AMD met de volgende gen een high-end kaart voor een goede prijs neerzet, dan hebben ze goud in handen.
Mijn Gigabyte 9070XT Gaming OC trekt standaard 330 Watt, met pieken van over de 400.
Hij werkt prima overigens, ondanks mijn 650 Watt voeding.
https://inara.cz/elite/cmdr/425104/
Zou ik zeker aanraden. Met de teugels los boost de mijne tot ongeveer 3050Mhz, nu tikt het de 2850-2950Mhz aan. Je verbruikt eigenlijk 100W meer, met alle hitte enzo erbij, voor maar 3-4 fps meer max. Als elke fps telt, is dat natuurlijk beter.Xaphod schreef op zondag 2 november 2025 @ 06:47:
[...]
Dat undervolten moet ik ook eens proberen.
Mijn Gigabyte 9070XT Gaming OC trekt standaard 330 Watt, met pieken van over de 400.
Hij werkt prima overigens, ondanks mijn 650 Watt voeding.
Als je undervolt kun je trouwens ook de VRAM wat sneller zetten en de de snellere timings gebruiken. Ik heb trouwens de Sapphire Pulse, dus één van de goedkoopste modellen (eigenlijk een stock kaart met een hele goede koeler erop).
[ Voor 9% gewijzigd door mister_S op 02-11-2025 09:32 ]
Bij mij problemen met de laatste driver (25.10.2) icm met BF6. Ook op reddit hier veel problemen mee.
Wat zijn jullie ervaringen?
Wat zijn jullie ervaringen?
Zou handig zijn als je vertelt wat voor problemen.
The love that lasts the longest, is the love that is never returned. If you can play, it doesn't matter what guitar you play. If you can't play, it doesn't matter what guitar you play.
Hier tot een week geleden een maand met totaal willekeurige crashes gezeten. Soms 5x op een dag, soms helemaal niet. Zowel in game als met alleen de browser met Twitch open. Geen blue screen of logs in de Windows event viewer. Begon ook heel toevallig na een bios update. Van alles zitten proberen, ook bios downgrade. Bleek uiteindelijk toch de voeding te zijn, nog nooit eerder gehad.Bad Brains schreef op dinsdag 21 oktober 2025 @ 20:38:
Het is niet de voeding (perse), heb de LianLi Edge solo op de kaart aangesloten met een terminator (de rest van de onderdelen nog op de Corsair 850) en ik kon 4 games tegelijk opstarten zonder problemen.
Daarna de "oude" voeding weer erop aangesloten en wederom reboot na GPU belasting.
Heb toen de verlengkabels (Amazon chayna kabels) eraf gehaald en de pcie kabels van de PSU direct er op aangesloten.
En presto.
Alles werkt. (vooralsnog) Wordt vervolgd.
Nu zijn onze problemen niet helemaal hetzelfde, maar gezien je met de 1200w geen issues had, zit het misschien toch daarin?
Ik heb iig nu een nieuwe voeding en m'n issues zijn gelukkig weg (was een jaar oude be quiet! Straight Power 12 750, dus ook niet bepaald de goedkoopste, maar gelukkig nog wel garantie).
Ben ook wel benieuwd naar je issues. Hier dezelfde driver versie en niks opgemerkt na een middag aan BF6.__xeno__ schreef op zondag 2 november 2025 @ 16:23:
Bij mij problemen met de laatste driver (25.10.2) icm met BF6. Ook op reddit hier veel problemen mee.
Wat zijn jullie ervaringen?
Heb mijn Cjaina extenders eruitgetrokken en alles werkt.
The love that lasts the longest, is the love that is never returned. If you can play, it doesn't matter what guitar you play. If you can't play, it doesn't matter what guitar you play.
[...]
Ben ook wel benieuwd naar je issues. Hier dezelfde driver versie en niks opgemerkt na een middag aan BF6.
[/quote]
Vreemde framedrops (onspeelbaar). Niet iedere keer als ik hem opstartte. En af en toe crashes van de driver (met melding).
Met de oide driver ook een hogere framerate en geen problemen.
Ben ook wel benieuwd naar je issues. Hier dezelfde driver versie en niks opgemerkt na een middag aan BF6.
[/quote]
Vreemde framedrops (onspeelbaar). Niet iedere keer als ik hem opstartte. En af en toe crashes van de driver (met melding).
Met de oide driver ook een hogere framerate en geen problemen.
Beste Tweakers,
Sinds gisteren in het bezit van een 9070XT als upgrade van mijn 6800XT.
Nog nooit eerder een GPU gehad met een BIOS switch op de PCB, is het nodig dat je eerst nog iets van een BIOS update doet voor deze optie ofzo?
Had die van mij standaard op OC mode gezet ipv Silent mode, maar dan lijkt ie veel onstabieler te draaien als in de Silent mode...
Heb veel last van FPS stutters en regelmatig crashes in een (niet eens zo zware) game als Snowrunner.
Heb daarna eens gekeken of ik wat kon aanpassen met een undervolt (zoals ik bij mijn 6800XT en mijn vorige 5700XT ook heb gedaan), maar dat werkte ook niet lekker
Heb niet gek gedaan ofzo, want ik ben er bekend mee. Kleine stapjes zoals -25mV, PL +10% etc.
Nu in Silent mode werkt het gewoon prima, wat ik een beetje vreemd vind...
Iemand nog adviezen of tips oid? Zoals ik al eerder zei: Voor het eerst dat ik een GPU met een OC/Silent mode switch heb, dus ben hier niet bekend mee.
Normaal was het gewoon out of the box naar een fijne undervolt zoeken en spelen maar...
Uiteindelijk wil ik toch de kaart wat gaan undervolten, want de out of the box voltage vind ik te hoog bij AMD.
Mijn setup:
Mobo: ASRock B550 Pro4
CPU: AMD Ryzen 5 3600 Boxed
RAM: Crucial Ballistix BL2K8G32C16U4W
GPU: Radeon 9070 XT Powercolor Hellhound Spectral White
Voeding: Cooler Master V850 Gold
(Mobo, CPU en RAM volgen binnenkort als upgrade).
Heb vóór installatie van nieuwe GPU DDU gedraaid en de meest recent drivers geinstalleerd.
Sinds gisteren in het bezit van een 9070XT als upgrade van mijn 6800XT.
Nog nooit eerder een GPU gehad met een BIOS switch op de PCB, is het nodig dat je eerst nog iets van een BIOS update doet voor deze optie ofzo?
Had die van mij standaard op OC mode gezet ipv Silent mode, maar dan lijkt ie veel onstabieler te draaien als in de Silent mode...
Heb veel last van FPS stutters en regelmatig crashes in een (niet eens zo zware) game als Snowrunner.
Heb daarna eens gekeken of ik wat kon aanpassen met een undervolt (zoals ik bij mijn 6800XT en mijn vorige 5700XT ook heb gedaan), maar dat werkte ook niet lekker
Heb niet gek gedaan ofzo, want ik ben er bekend mee. Kleine stapjes zoals -25mV, PL +10% etc.
Nu in Silent mode werkt het gewoon prima, wat ik een beetje vreemd vind...
Iemand nog adviezen of tips oid? Zoals ik al eerder zei: Voor het eerst dat ik een GPU met een OC/Silent mode switch heb, dus ben hier niet bekend mee.
Normaal was het gewoon out of the box naar een fijne undervolt zoeken en spelen maar...
Uiteindelijk wil ik toch de kaart wat gaan undervolten, want de out of the box voltage vind ik te hoog bij AMD.
Mijn setup:
Mobo: ASRock B550 Pro4
CPU: AMD Ryzen 5 3600 Boxed
RAM: Crucial Ballistix BL2K8G32C16U4W
GPU: Radeon 9070 XT Powercolor Hellhound Spectral White
Voeding: Cooler Master V850 Gold
(Mobo, CPU en RAM volgen binnenkort als upgrade).
Heb vóór installatie van nieuwe GPU DDU gedraaid en de meest recent drivers geinstalleerd.
[ Voor 3% gewijzigd door Milo44 op 24-11-2025 10:31 ]
I, a stranger and afraid in a world I never made...
@Milo44
Bios flashen, Bios defaults, andere kabels, kaart reseaten, DDU draaien. Opzoeken of AMD relevante logging schrijft.
Maar ik zou snel RMA'en. Het product werkt out of the box niet zoals bedoeld. Je kan er nog tig uur aan tweaken maar de resultaten kunnen beïnvloed worden door een defect.
Bios flashen, Bios defaults, andere kabels, kaart reseaten, DDU draaien. Opzoeken of AMD relevante logging schrijft.
Maar ik zou snel RMA'en. Het product werkt out of the box niet zoals bedoeld. Je kan er nog tig uur aan tweaken maar de resultaten kunnen beïnvloed worden door een defect.
OCCT draaien tijdens een crash, was de enige manier waarop ik rt info kon krijgen na een crash.
The love that lasts the longest, is the love that is never returned. If you can play, it doesn't matter what guitar you play. If you can't play, it doesn't matter what guitar you play.
Hellhound is binnen.
Zeer positief verrast qua geluid en temperaturen en lijkt ook goed te undervolten.
Bijna geen hoorbare coilwine en geen vervelend ventilator motor/lager geluid wat ik ervaarde met de Powercolor 9070 XT Reaper.
Ik kan Steel Nomad doorlopen met -145mv (-150 crashed net op het einde) en +10% power (max 253 watt TBP) voor 6800 puntjes.
Maximaal 1025rpm.
Samsung VRAM; maximaal 66 graden.
Gpu maximaal 52 graden, hotspot maximaal 71 graden.
Korte moment opnames met alleen meerdere malen Steel Nomad draaien dus even kijken of het stabiel blijft en wat de temperaturen doen met wat gamen.
Edit: potje Darktide gedaan, wel een crash net op het einde dus 5mv erbij, inmiddels nog meer eraf en op -125mv... moet nog verder testen.
GPU max 58 Hotspot max 80 graden, VRAM 74 graden 1044rpm max.
Zeer positief verrast qua geluid en temperaturen en lijkt ook goed te undervolten.
Bijna geen hoorbare coilwine en geen vervelend ventilator motor/lager geluid wat ik ervaarde met de Powercolor 9070 XT Reaper.
Ik kan Steel Nomad doorlopen met -145mv (-150 crashed net op het einde) en +10% power (max 253 watt TBP) voor 6800 puntjes.
Maximaal 1025rpm.
Samsung VRAM; maximaal 66 graden.
Gpu maximaal 52 graden, hotspot maximaal 71 graden.
Korte moment opnames met alleen meerdere malen Steel Nomad draaien dus even kijken of het stabiel blijft en wat de temperaturen doen met wat gamen.
Edit: potje Darktide gedaan, wel een crash net op het einde dus 5mv erbij, inmiddels nog meer eraf en op -125mv... moet nog verder testen.
GPU max 58 Hotspot max 80 graden, VRAM 74 graden 1044rpm max.
[ Voor 15% gewijzigd door HugoBoss1985 op 26-11-2025 12:39 ]
Ik game hier vooral met koptelefoon op en laatst wat meer zonder voor singleplayer games, toen kwam ik er pas achter hoeveel lawaai die Reaper maakt haha. Was bij de release jammer genoeg de enige waar ik mijn handen op kon krijgen.HugoBoss1985 schreef op dinsdag 25 november 2025 @ 19:17:
Hellhound is binnen.
Zeer positief verrast qua geluid en temperaturen en lijkt ook goed te undervolten.
Bijna geen hoorbare coilwine en geen vervelend ventilator motor/lager geluid wat ik ervaarde met de Powercolor 9070 XT Reaper.
...
Ik hou mijn 9070 Hellhound op -70mv, +10% power en 2600 (fast timings) mhz. Heeft een Steel Nomad score van +/-6500.
Met -100mv, +10% power en 2800mhz (fast timings) heb ik ook de stresstest doorlopen en daar had de eerste run een score van 6640. Voor die marginaal hogere score houd ik het liefst wat ruimte over en pak ik wat veiligheid in de marge.
Met -100mv, +10% power en 2800mhz (fast timings) heb ik ook de stresstest doorlopen en daar had de eerste run een score van 6640. Voor die marginaal hogere score houd ik het liefst wat ruimte over en pak ik wat veiligheid in de marge.
Hoe meer je kaart kan undervolten, hoe hoger je score zal zijn omdat de gpu dan verder kan boosten.TheBrut3 schreef op woensdag 26 november 2025 @ 12:53:
Ik hou mijn 9070 Hellhound op -70mv, +10% power en 2600 (fast timings) mhz. Heeft een Steel Nomad score van +/-6500.
Met -100mv, +10% power en 2800mhz (fast timings) heb ik ook de stresstest doorlopen en daar had de eerste run een score van 6640. Voor die marginaal hogere score houd ik het liefst wat ruimte over en pak ik wat veiligheid in de marge.
Het is prima veilig op die manier want deze kaart is met +10% nog een van de meest stroom gelimiteerde 9070 kaarten volgens mij (met +/-257 watt).
Van de 4 kaarten op de TechPowerUp review heeft deze de laagste stroomlimiet.
VRAM levert bij mij vrijwel niets op: maximaal 45 puntjes erbij met 2750 en fast timings.
Maarja 25mv is al een verschil van 100 puntjes!
Ik heb besloten om het VRAM te laten voor wat het is en het op stock te houden.
Net op -125mv + 10% gedraaid en precies 6700 punten.
Voor €499 en 257 watt toch op 4080 super / 7900XTX niveau in Steel Nomad
[ Voor 3% gewijzigd door HugoBoss1985 op 26-11-2025 13:19 ]
Waar ik eerst problemen had met default settings in OC mode lijken deze plots te zijn verdwenen en draait de kaart nu gewoon goed, gek genoeg...
Inmiddels een stabiele UV/OC gevonden voor mijn kaart op:
-75 mV
-30% PL
Memory Timing op Fast met een VRAM Tuning op 2750.
Ik kon wel lager gaan als -75, maar dan wilde hij nog wel eens gek gaan doen/crashen bij enkele games.
Met bovenstaande settings werken tot nu alle games die ik heb gespeeld vlekkeloos.
Temps komen niet veel hoger als 50/55 graden en hotspot niet hoger als 80 (vooral de hotspot wordt ik autistisch blij van
)
Misschien nog een keertje verder kijken en spelen met enkel de PL, maar voor nu is het goed.
Blij dat er geen problemen meer zijn tot nu toe. Bedankt nog voor de suggesties @oef! & @Bad Brains, echter lijkt het probleem zich spontaan te hebben opgelost.
Kaart is echt heerlijk stil en (in mijn geval) prachtig mooi wit, wat helemaal bij de rest van mijn witte build past
Inmiddels een stabiele UV/OC gevonden voor mijn kaart op:
-75 mV
-30% PL
Memory Timing op Fast met een VRAM Tuning op 2750.
Ik kon wel lager gaan als -75, maar dan wilde hij nog wel eens gek gaan doen/crashen bij enkele games.
Met bovenstaande settings werken tot nu alle games die ik heb gespeeld vlekkeloos.
Temps komen niet veel hoger als 50/55 graden en hotspot niet hoger als 80 (vooral de hotspot wordt ik autistisch blij van
Misschien nog een keertje verder kijken en spelen met enkel de PL, maar voor nu is het goed.
Blij dat er geen problemen meer zijn tot nu toe. Bedankt nog voor de suggesties @oef! & @Bad Brains, echter lijkt het probleem zich spontaan te hebben opgelost.
Kaart is echt heerlijk stil en (in mijn geval) prachtig mooi wit, wat helemaal bij de rest van mijn witte build past
[ Voor 11% gewijzigd door Milo44 op 26-11-2025 16:55 ]
I, a stranger and afraid in a world I never made...
Ik had ook lang crashes naar een reboot zonder dat er ook maar iets stond in mijn logboek.
Soms was het even een week of wat weg en kwam het weer terug.
Staat al eerder vermeld maar ik heb dus de chinese "verleng kabels" er tussenuit gehaald.
Sindsdien nooit meer reboots gehad.
Nu een setje Asianhorse kabels ertussen van 16 AWG en is het in 4 weken 1x voor gekomen.
Er zit echter ook 180 graden connectors op de GPU aansluiting, die zou ik eruit moeten halen om een eerlijke test te krijgen want die zaten er oorspronkelijk niet in.
Soms was het even een week of wat weg en kwam het weer terug.
Staat al eerder vermeld maar ik heb dus de chinese "verleng kabels" er tussenuit gehaald.
Sindsdien nooit meer reboots gehad.
Nu een setje Asianhorse kabels ertussen van 16 AWG en is het in 4 weken 1x voor gekomen.
Er zit echter ook 180 graden connectors op de GPU aansluiting, die zou ik eruit moeten halen om een eerlijke test te krijgen want die zaten er oorspronkelijk niet in.
The love that lasts the longest, is the love that is never returned. If you can play, it doesn't matter what guitar you play. If you can't play, it doesn't matter what guitar you play.
Die 180 graden connectors heb ik ook.Bad Brains schreef op woensdag 26 november 2025 @ 21:24:
Ik had ook lang crashes naar een reboot zonder dat er ook maar iets stond in mijn logboek.
Soms was het even een week of wat weg en kwam het weer terug.
Staat al eerder vermeld maar ik heb dus de chinese "verleng kabels" er tussenuit gehaald.
Sindsdien nooit meer reboots gehad.
Nu een setje Asianhorse kabels ertussen van 16 AWG en is het in 4 weken 1x voor gekomen.
Er zit echter ook 180 graden connectors op de GPU aansluiting, die zou ik eruit moeten halen om een eerlijke test te krijgen want die zaten er oorspronkelijk niet in.
Geen probleem hier.
https://inara.cz/elite/cmdr/425104/
Gisteren de Powercolor Hellhound Spectral White ontvangen en heel enthousiast natuurlijk meteen gaan inbouwen. Netjes plasticje van de backplate afgehaald. Blijkt dat er rondom de fans ook nog beschermfolie zit. Mocht de kaart weer heel enthousiast eruit halen om het ook daar netjes vanaf te halen. Dubbelcheck, alles eraf? Ja, mooi! Weer inbouwen en gaan.
:strip_exif()/f/image/s9oE6XqJboi7MwxTDrHByWRP.jpg?f=fotoalbum_medium)
:strip_exif()/f/image/KHdumkgFfK9r3qMbJYT4pM1w.jpg?f=fotoalbum_medium)
Kaart is als vervanging van m'n Asrock 6800 (niet XT). Even snel een benchmark gedraaid in Cyberpunk 2077.
:strip_exif()/f/image/tiJlO0VgYLEKdQFdov6o98Kw.jpg?f=fotoalbum_medium)
:strip_exif()/f/image/ZjT9Gstp59Z7lfgKxPVMVBCx.jpg?f=fotoalbum_medium)
Dat is al mooie winst
:strip_exif()/f/image/s9oE6XqJboi7MwxTDrHByWRP.jpg?f=fotoalbum_medium)
:strip_exif()/f/image/KHdumkgFfK9r3qMbJYT4pM1w.jpg?f=fotoalbum_medium)
Kaart is als vervanging van m'n Asrock 6800 (niet XT). Even snel een benchmark gedraaid in Cyberpunk 2077.
:strip_exif()/f/image/tiJlO0VgYLEKdQFdov6o98Kw.jpg?f=fotoalbum_medium)
:strip_exif()/f/image/ZjT9Gstp59Z7lfgKxPVMVBCx.jpg?f=fotoalbum_medium)
Dat is al mooie winst
https://videocardz.com/ne...x-9070-xt-and-rtx-50-gpus
Daar een leuk stukje over fan- en shroud mods met wat 3 printen en betaalbare Arctic fans.
@Majestici Komt het jou ook zo bekend voor
Daar een leuk stukje over fan- en shroud mods met wat 3 printen en betaalbare Arctic fans.
@Majestici Komt het jou ook zo bekend voor
Veel 9070 XT kaarten zijn best wel lang, maar worden zonder 'bracket' geleverd. Hoe doen jullie dat? Gewoon zo laten? Ik heb een 9070 XT Hellhound op het oog, maar ook die is echt lang en wordt helaas zonder steun geleverd.
iRacing Profiel XBL: Ross1fum1 PSN: Rossifum1
Volgens mij is gewicht veel belangrijker. Ik heb de 9070 Hellhound en die is bijna net zo lang als de 3070 Suprim X was, maar die laatste is op gevoel zeker 50% zwaarder. De Suprim X kreeg inderdaad een steun meegeleverd, maar de Hellhound hangt gewoon in het PCI-E slot en de 2 schroeven zitten goed vast.
Edit; Even de gewichten erbij gezocht en een 3070 Suprim X weegt 1736 gram, de 9070 Hellhound 1076 gram en de 9070 XT Hellhound is 1172 gram.
Edit; Even de gewichten erbij gezocht en een 3070 Suprim X weegt 1736 gram, de 9070 Hellhound 1076 gram en de 9070 XT Hellhound is 1172 gram.
[ Voor 19% gewijzigd door TheBrut3 op 28-11-2025 19:31 ]
Ik heb een tijd geleden al eens via Ome Ali zo'n "uitdraaibaar staafje" mee besteld.Rossi46 schreef op vrijdag 28 november 2025 @ 13:53:
Veel 9070 XT kaarten zijn best wel lang, maar worden zonder 'bracket' geleverd. Hoe doen jullie dat?
Super simpel, maar voldoet voor mij dikke prima
[ Voor 10% gewijzigd door Milo44 op 28-11-2025 20:17 ]
I, a stranger and afraid in a world I never made...
Nu nog ff snel patch 2.3 downloaden zodat je van FSR 2.1 naar FSR 4 kunt gaanJanW schreef op donderdag 27 november 2025 @ 09:45:
Gisteren de Powercolor Hellhound Spectral White ontvangen en heel enthousiast natuurlijk meteen gaan inbouwen. Netjes plasticje van de backplate afgehaald. Blijkt dat er rondom de fans ook nog beschermfolie zit. Mocht de kaart weer heel enthousiast eruit halen om het ook daar netjes vanaf te halen. Dubbelcheck, alles eraf? Ja, mooi! Weer inbouwen en gaan.
[Afbeelding][Afbeelding]
Kaart is als vervanging van m'n Asrock 6800 (niet XT). Even snel een benchmark gedraaid in Cyberpunk 2077.
[Afbeelding][Afbeelding]
Dat is al mooie winst
Ergens, kan in een ander topic zijn, is dit al eens gepost: YouTube: How to fix GPU sag ONCE AND FOR ALL! FREE!Rossi46 schreef op vrijdag 28 november 2025 @ 13:53:
Veel 9070 XT kaarten zijn best wel lang, maar worden zonder 'bracket' geleverd. Hoe doen jullie dat? Gewoon zo laten? Ik heb een 9070 XT Hellhound op het oog, maar ook die is echt lang en wordt helaas zonder steun geleverd.
Constructie van de kaart lijkt erg bepalend te zijn mbt de noodzaak voor extra ondersteuning.
[ Voor 16% gewijzigd door Nnoitra op 01-12-2025 21:52 ]
Sarcasm is my superpower! What's yours?
Even los van daadwerkelijk (verschillende) games spelen om de UV/OC stabiliteit van je GPU te checken, welke benchmark gebruiken jullie hiervoor?
Ik dacht laatst ergens te hebben gelezen/gezien in een youtube filmpje dat "x"-benchmark software de beste zou zijn voor AMD GPU's, maar kan het niet meer terug vinden...
Ik ga nu eens FurMark V2 proberen, maar ben even benieuwd wat jullie gebruiken vóórdat jullie het daadwerkelijk gaan proberen in de (verschillende) games die jullie gebruiken.
Ik dacht laatst ergens te hebben gelezen/gezien in een youtube filmpje dat "x"-benchmark software de beste zou zijn voor AMD GPU's, maar kan het niet meer terug vinden...
Ik ga nu eens FurMark V2 proberen, maar ben even benieuwd wat jullie gebruiken vóórdat jullie het daadwerkelijk gaan proberen in de (verschillende) games die jullie gebruiken.
I, a stranger and afraid in a world I never made...
3DMark - Steel Nomad komt vaak voorbij.Milo44 schreef op maandag 1 december 2025 @ 22:26:
Even los van daadwerkelijk (verschillende) games spelen om de UV/OC stabiliteit van je GPU te checken, welke benchmark gebruiken jullie hiervoor?
Ik dacht laatst ergens te hebben gelezen/gezien in een youtube filmpje dat "x"-benchmark software de beste zou zijn voor AMD GPU's, maar kan het niet meer terug vinden...
Ik ga nu eens FurMark V2 proberen, maar ben even benieuwd wat jullie gebruiken vóórdat jullie het daadwerkelijk gaan proberen in de (verschillende) games die jullie gebruiken.
Sarcasm is my superpower! What's yours?
Ik gebruik de Steel Nomad stresstest in 3DMark.
Ik ben tot nu zeer content met mijn 9070xt. Speel spellen op ultra op een 1440p scherm en alles draait soepel. Top aankoop
Pfoeh, ik heb net de Sapphire 9070XT Pulse binnen maar de coil whine is echt belachelijk... Ik kijk het nog een dag of 2 aan en anders stuur ik hem maar terug. Jammer dan van de mooie prijs van 636,- maar hier krijg ik echt hoofdpijn van.
Overigens ook typisch dat Tweakers de kaart dan test en lage VRAM temps ziet en die van mij rustig de 94 graden aantikt
Overigens ook typisch dat Tweakers de kaart dan test en lage VRAM temps ziet en die van mij rustig de 94 graden aantikt
[ Voor 21% gewijzigd door Kuusj op 03-12-2025 16:51 ]
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Dat is jammer.Kuusj schreef op woensdag 3 december 2025 @ 16:23:
Pfoeh, ik heb net de Sapphire 9070XT Pulse binnen maar de coil whine is echt belachelijk... Ik kijk het nog een dag of 2 aan en anders stuur ik hem maar terug. Jammer dan van de mooie prijs van 636,- maar hier krijg ik echt hoofdpijn van.
Overigens ook typisch dat Tweakers de kaart dan test en lage VRAM temps ziet en die van mij rustig de 94 graden aantikt
Alle videokaarten hebben coil whine. Mijn Hellhound 9070 is wat dat betreft een stuk stiller (over het algemeen ook!) dan mijn Asus TUF 6800 XT OC.
Met undervolten wordt de coil-whine iets luider... mijn ervaring is dat hogere gpu clocks meer coilwhine betekend.
Je zou nog eens kunnen undervolten en -10% doen.
Welke PSU heb je? Dat kan ook nog uitmaken volgens mij.
Volgens de TechPowerUp review zit jouw kaart met Hynix memory op max 88 graden qua vram.
Dat is misschien een best case scenario icm een open test bench.
Heb je Hynix of Samsung memory?
Koeling (van je behuizing) verder in orde?
Het Samsung vram op mijn 9070 wordt niet warmer dan 78 graden na uren gamen met 2x een 140mm direct eronder op maximaal 850-900 rpm van die casefans.
[ Voor 4% gewijzigd door HugoBoss1985 op 03-12-2025 17:01 ]
Tja undervolt meteen geprobeerd, power limit mee gespeeld. In War Thunder net was het bijna komisch hoe hard, als het niet om te huilen was. Mijn voeding is een Corsair RM650X, van goede kwaliteit dus.HugoBoss1985 schreef op woensdag 3 december 2025 @ 16:59:
[...]
Dat is jammer.
Alle videokaarten hebben coil whine. Mijn Hellhound 9070 is wat dat betreft een stuk stiller (over het algemeen ook!) dan mijn Asus TUF 6800 XT OC.
Met undervolten wordt de coil-whine iets luider... mijn ervaring is dat hogere gpu clocks meer coilwhine betekend.
Je zou nog eens kunnen undervolten en -10% doen.
Welke PSU heb je? Dat kan ook nog uitmaken volgens mij.
Volgens de TechPowerUp review zit jouw kaart met Hynix memory op max 88 graden qua vram.
Dat is misschien een best case scenario icm een open test bench.
Heb je Hynix of Samsung memory?
Koeling (van je behuizing) verder in orde?
Het Samsung vram op mijn 9070 wordt niet warmer dan 78 graden na uren gamen met 2x een 140mm direct eronder op maximaal 850-900 rpm van die casefans.
Air flow is gewoon prima. Moet eerlijk zeggen dat het me eigenlijk weinig meer uitmaakt welk geheugen ik heb, denk dat ik hem terug stuur. Stil vind ik de kaart namelijk ook niet, ja 55 graden max maar ja wat heb ik daar aan? Custom fan profile is nog wel wat mee te winnen maar eigenlijk belachelijk.
Echt een enorme teleurstelling dit. Performance dikke prima zo te zien maar dit is echt niet te doen. Ik heb nota bene een AsRock 6900XT OC Formula die ik met pensioen wilde sturen dus veel extremer dan dat kan het niet, en die kaart heeft amper coil whine. De 9070XT die ik laatst voor mijn schoonbroertje kocht ook veel minder. Domme pech dus, zoals vaker haha.
Het ligt ook puur aan het het stroomverbruik, 164 fps (vsync) met 50% load is bijna stil, 164 fps onder full load is weer niet te doen. Laat staan full load zonder vsync.
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Misschien kun je jouw kaart eens in het systeem van je schoonbroertje proberen?Kuusj schreef op woensdag 3 december 2025 @ 17:37:
[...]
Tja undervolt meteen geprobeerd, power limit mee gespeeld. In War Thunder net was het bijna komisch hoe hard, als het niet om te huilen was. Mijn voeding is een Corsair RM650X, van goede kwaliteit dus.
Air flow is gewoon prima. Moet eerlijk zeggen dat het me eigenlijk weinig meer uitmaakt welk geheugen ik heb, denk dat ik hem terug stuur. Stil vind ik de kaart namelijk ook niet, ja 55 graden max maar ja wat heb ik daar aan? Custom fan profile is nog wel wat mee te winnen maar eigenlijk belachelijk.
Echt een enorme teleurstelling dit. Performance dikke prima zo te zien maar dit is echt niet te doen. Ik heb nota bene een AsRock 6900XT OC Formula die ik met pensioen wilde sturen dus veel extremer dan dat kan het niet, en die kaart heeft amper coil whine. De 9070XT die ik laatst voor mijn schoonbroertje kocht ook veel minder. Domme pech dus, zoals vaker haha.
Het ligt ook puur aan het het stroomverbruik, 164 fps (vsync) met 50% load is bijna stil, 164 fps onder full load is weer niet te doen. Laat staan full load zonder vsync.
Als het dan nog waardeloos is kun je wel concluderen dat de coilwhine een feit is.
Dan zou ik proberen of de webshop je kan helpen met een ruil... Coilwhine is een discussiepunt voor een RMA maar er zijn natuurlijk wel grenzen. Je kan ook aangeven dat je 6900 XT een stuk stiller was wat dat betreft.
En w.b.t die 650 watt voeding... ik neem aan dat het met je 6900XT ook goed ging.
Maar ik zie met de 9070 non-XT met 250 watt bios limiet al 500 watt stroompieken met -120mv +10% power (maximaal +/- 250 watt TBP). Afijn een goede voeding kan stroompieken opvangen.
Ik heb mijn 6800XT ook kort gebruikt met een 650 watt voeding, wel met undervolt.
[ Voor 12% gewijzigd door HugoBoss1985 op 04-12-2025 09:56 ]
Die woont helaas 300km verderop, maar ik heb inmiddels gewoon dezelfde variant besteld als die hij heeft. Ik stuur deze gewoon terug onder koop op afstand, ik heb eerlijk gezegd geen zin om in potentiële discussies terecht te komen of de kaart goed werkt of niet.HugoBoss1985 schreef op donderdag 4 december 2025 @ 09:54:
[...]
Misschien kun je jouw kaart eens in het systeem van je schoonbroertje proberen?
Als het dan nog waardeloos is kun je wel concluderen dat de coilwhine een feit is.
Dan zou ik proberen of de webshop je kan helpen met een ruil... Coilwhine is een discussiepunt voor een RMA maar er zijn natuurlijk wel grenzen. Je kan ook aangeven dat je 6900 XT een stuk stiller was wat dat betreft.
En w.b.t die 650 watt voeding... ik neem aan dat het met je 6900XT ook goed ging.
Maar ik zie met de 9070 non-XT met 250 watt bios limiet al 500 watt stroompieken met -120mv +10% power (maximaal +/- 250 watt TBP). Afijn een goede voeding kan stroompieken opvangen.
Ik heb mijn 6800XT ook kort gebruikt met een 650 watt voeding, wel met undervolt.
Qua voeding, ik heb een 9800X3D dus die verbruikt niet veel. Daarnaast heeft de 6900XT veel extremere pieken en die is ook nog nooit eruit geklapt. Zelfs voluit op de performance bios met hogere power limit. Ik draai mijn videokaarten altijd undervolted en met een lagere power limit dus dat komt goed.
9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74
Coilwhine is vervelend qua ervaring maar ook vervelend qua discussie met de verkoper.Kuusj schreef op donderdag 4 december 2025 @ 11:09:
[...]
Die woont helaas 300km verderop, maar ik heb inmiddels gewoon dezelfde variant besteld als die hij heeft. Ik stuur deze gewoon terug onder koop op afstand, ik heb eerlijk gezegd geen zin om in potentiële discussies terecht te komen of de kaart goed werkt of niet.
Qua voeding, ik heb een 9800X3D dus die verbruikt niet veel. Daarnaast heeft de 6900XT veel extremere pieken en die is ook nog nooit eruit geklapt. Zelfs voluit op de performance bios met hogere power limit. Ik draai mijn videokaarten altijd undervolted en met een lagere power limit dus dat komt goed.
Je kan nog kiezen of je de videokaart dan WKOA doet, maar dan krijg je geld terug en geen vervangende kaart. Een kaart die nu waarschijnlijk duurder is geworden?
Als je kiest voor een RMA loop je kans op een discussie over de coilwhine maar heb je ook kans op een kaart die minder coilwhine heeft.
Een andere optie is nog om te proberen met Sapphire zelf in contact te treden.
Ik lees over PowerColor bijvoorbeeld dat het veel sneller afgehandeld is als je direct met die fabrikant handeld.
Maar volgens mij heb je dan weer kans dat de garantie bij de webshop vervalt.
Tja, dat is lastig.
Met pieken boven de 600 watt vind ik een 650 watt voeding dan ook aan de krappe kant voor een 6900XT.
Maar ik ben geen PSU expert, weet niet welke voeding je exact hebt (RM650X) en hoe oud die is.
En je geeft ook aan te undervolten en power limit omlaag te doen.
En blijkbaar was het m.b.t. coilwhine een prima combinatie met je 6900XT.
Lijkt me goed om het even te testen met de nieuwe PSU.
[ Voor 10% gewijzigd door HugoBoss1985 op 04-12-2025 11:22 ]
De laatste paar AMD drivers zijn schijnbaar nogal buggy.
Ik ervaar zelf met 2 verschillende pc's met 2 verschillende AMD videokaarten dat op willekeurige momenten ik mijn hele Adrenaline software kwijt ben.
De monitoring software overlay bevriest dan bijvoorbeeld, dan weet ik al dat Adrenaline weer verdwenen is.
Volgens Reddit is 25.9.2. de oplossing.
Ik ervaar zelf met 2 verschillende pc's met 2 verschillende AMD videokaarten dat op willekeurige momenten ik mijn hele Adrenaline software kwijt ben.
De monitoring software overlay bevriest dan bijvoorbeeld, dan weet ik al dat Adrenaline weer verdwenen is.
Volgens Reddit is 25.9.2. de oplossing.
Klopt ik heb ook aardig wat issues met de laatste paar drivers in combinatie met m'n 9070 XT. Veel frametime issues, lagere framerates en vastlopen van adrenaline software.
9.2 is de enige versie die aardig stabiel draait.
9.2 is de enige versie die aardig stabiel draait.
Sinds een week of anderhalf, heb ik ook een Hellhound 9070XT. Het werkt op zich prima al heb ik nog wel 2 vragen, aangezien ik hiervoor eigenlijk altijd een prebuild met Nvidia GPU or iGPU heb gehad en daar eigenlijk niks aan hebt veranderd omdat het altijd wel voldeed, maar nu net wat meer eruit wil halen.
1) Op dit moment gebruik ik de generic AMD driver die Windows Update binnen had gehaald in plaats van de specifieke driver die Powercolour op hun productpagina heeft staan. Maakt dat nog uit of is het beetje om het even? Want heb altijd gehoord/gelezen dat je de specifieke driver moest downloaden.
2) Het liefst zou ik de GPU wat koeler en energiezuiniger laten draaien zodat hij o.a. wat stiller is en omdat ik online las dat dit gemakkelijk te doen is met een undervolt met deze 9070XT range. Maar zoals ik al zei heb ik hiervoor nooit echt aanpassingen aan mijn GPU's gedaan, dus niet bekend met het proces van undervolten. Ik was dus benieuwd of er nog bronnen (sites/youtubers/etc.) zijn die jullie zouden aanraden qua uitleg hoe ik de undervolt aan zou moeten pakken? Snelle google gaf namelijk veel verschillende links en posts, alleen is het mij dan niet duidelijk welke uitleg goed is en wat niet. En heb ook even naar topicstart gekeken en wat die zei over undervolt maar vond die net iets te abstract voor iemand die geen ervaring met undervolten heeft.
1) Op dit moment gebruik ik de generic AMD driver die Windows Update binnen had gehaald in plaats van de specifieke driver die Powercolour op hun productpagina heeft staan. Maakt dat nog uit of is het beetje om het even? Want heb altijd gehoord/gelezen dat je de specifieke driver moest downloaden.
2) Het liefst zou ik de GPU wat koeler en energiezuiniger laten draaien zodat hij o.a. wat stiller is en omdat ik online las dat dit gemakkelijk te doen is met een undervolt met deze 9070XT range. Maar zoals ik al zei heb ik hiervoor nooit echt aanpassingen aan mijn GPU's gedaan, dus niet bekend met het proces van undervolten. Ik was dus benieuwd of er nog bronnen (sites/youtubers/etc.) zijn die jullie zouden aanraden qua uitleg hoe ik de undervolt aan zou moeten pakken? Snelle google gaf namelijk veel verschillende links en posts, alleen is het mij dan niet duidelijk welke uitleg goed is en wat niet. En heb ook even naar topicstart gekeken en wat die zei over undervolt maar vond die net iets te abstract voor iemand die geen ervaring met undervolten heeft.
@Pompi
1: Doe jezelf een lol en download de drivers bij AMD zelf: https://www.amd.com/en/support/download/drivers.html
Merk 'eigen' drivers zijn doorgaans hopeloos outdated* en/of voegen onnodige meuk toe.
Drivers via Windows doe ik zelf niet aan, iets te vaak problemen mee gehad in het verleden (vooral audiodrivers) + het maakt debuggen bij problemen een puinhoop.
Als ik drivers wil updaten, doe ik dat zelf.
Edit: * Zo ook bij PowerColor:
:strip_exif()/f/image/YmHlXOK3GX76s1kfk87H3LuT.png?f=user_large)
We zitten inmiddels op 25.11.1. Menig game zal niet eens starten met drivers van meer dan een paar maanden oud.
1: Doe jezelf een lol en download de drivers bij AMD zelf: https://www.amd.com/en/support/download/drivers.html
Merk 'eigen' drivers zijn doorgaans hopeloos outdated* en/of voegen onnodige meuk toe.
Drivers via Windows doe ik zelf niet aan, iets te vaak problemen mee gehad in het verleden (vooral audiodrivers) + het maakt debuggen bij problemen een puinhoop.
Als ik drivers wil updaten, doe ik dat zelf.
Edit: * Zo ook bij PowerColor:
:strip_exif()/f/image/YmHlXOK3GX76s1kfk87H3LuT.png?f=user_large)
We zitten inmiddels op 25.11.1. Menig game zal niet eens starten met drivers van meer dan een paar maanden oud.
[ Voor 42% gewijzigd door D4NG3R op 08-12-2025 16:19 ]
Komt d'r in, dan kö-j d’r oet kieken
Die Windows update was Amd driver 32.0.22021.1009. Wat volgens https://www.amd.com/en/re...s/RN-RAD-WIN-25-10-2.html blijkbaar dezelfde was als AMD Software: Adrenalin Edition 25.10.2, maar vorige week ook nog de laatste Adrenaline software geinstalleerd (wist niet dat dat ook meteen driver doet) dus zit als het goed is dus nu al op 25.11.1. Bedankt voor het antwoorden/verduidelijken van mijn eerste vraag. Hopelijk kan iemand dat ook nog doen voor de 2de en dan ben ik weer helemaal up to dateD4NG3R schreef op maandag 8 december 2025 @ 16:11:
@Pompi
1: Doe jezelf een lol en download de drivers bij AMD zelf: https://www.amd.com/en/support/download/drivers.html
Merk 'eigen' drivers zijn doorgaans hopeloos outdated* en/of voegen onnodige meuk toe.
Drivers via Windows doe ik zelf niet aan, iets te vaak problemen mee gehad in het verleden (vooral audiodrivers) + het maakt debuggen bij problemen een puinhoop.
Als ik drivers wil updaten, doe ik dat zelf.
Edit: * Zo ook bij PowerColor:
[Afbeelding]
We zitten inmiddels op 25.11.1. Menig game zal niet eens starten met drivers van meer dan een paar maanden oud.
@Pompi Er zijn een aantal dingen dat je kunt doen voor je GPU stiller te maken:
1. Er is op je GPU een fysieke schakelaar waarmee je kunt wisselen tussen de OC BIOS en een silent BIOS. Let wel: dit maakt je GPU enkel stiller, niet zuiniger.
/f/image/XvZFUnMCVoACtzJJaXk7Q4y4.png?f=fotoalbum_large)
2. Het tweede wat je kunt doen is nadat je de AMD drivers hebt geïnstalleerd de performance preset op "quiet" zetten in de radeon software (opnieuw: dit past vooral de fan curve aan, dit doet geen undervolt):
/f/image/TJO82eZjMrCjiUW3b9rJuvd2.png?f=fotoalbum_large)
3. Het derde wat je kunt doen is effectief undervolten. Hiervoor heb ik hier een zeer duidelijke guide gevonden: https://mostwanted002.git...d-fan-curve-optimization/
Opgelet: met undervolting riskeer je instabiliteit, crashes en mogelijk zelfs fysieke schade. Deze schade wordt niet gedekt door garantie. De kans op schade is weliswaar klein, en enkel als je echt iets verkeerd doet (zoals ineens een te zware undervolt of langdurig een instabiele overclock draaien).
1. Er is op je GPU een fysieke schakelaar waarmee je kunt wisselen tussen de OC BIOS en een silent BIOS. Let wel: dit maakt je GPU enkel stiller, niet zuiniger.
/f/image/XvZFUnMCVoACtzJJaXk7Q4y4.png?f=fotoalbum_large)
2. Het tweede wat je kunt doen is nadat je de AMD drivers hebt geïnstalleerd de performance preset op "quiet" zetten in de radeon software (opnieuw: dit past vooral de fan curve aan, dit doet geen undervolt):
/f/image/TJO82eZjMrCjiUW3b9rJuvd2.png?f=fotoalbum_large)
3. Het derde wat je kunt doen is effectief undervolten. Hiervoor heb ik hier een zeer duidelijke guide gevonden: https://mostwanted002.git...d-fan-curve-optimization/
Opgelet: met undervolting riskeer je instabiliteit, crashes en mogelijk zelfs fysieke schade. Deze schade wordt niet gedekt door garantie. De kans op schade is weliswaar klein, en enkel als je echt iets verkeerd doet (zoals ineens een te zware undervolt of langdurig een instabiele overclock draaien).
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Bedankt, ik ga mij dan wanneer ik de komende tijd heb even verdiepen in die derde optie. Want eerste 2 voelen aan als niet precies wat ik zoek.nzall schreef op maandag 8 december 2025 @ 16:37:
@Pompi Er zijn een aantal dingen dat je kunt doen voor je GPU stiller te maken:
1. Er is op je GPU een fysieke schakelaar waarmee je kunt wisselen tussen de OC BIOS en een silent BIOS. Let wel: dit maakt je GPU enkel stiller, niet zuiniger.
[Afbeelding]
2. Het tweede wat je kunt doen is nadat je de AMD drivers hebt geïnstalleerd de performance preset op "quiet" zetten in de radeon software (opnieuw: dit past vooral de fan curve aan, dit doet geen undervolt):
[Afbeelding]
3. Het derde wat je kunt doen is effectief undervolten. Hiervoor heb ik hier een zeer duidelijke guide gevonden: https://mostwanted002.git...d-fan-curve-optimization/
Opgelet: met undervolting riskeer je instabiliteit, crashes en mogelijk zelfs fysieke schade. Deze schade wordt niet gedekt door garantie. De kans op schade is weliswaar klein, en enkel als je echt iets verkeerd doet (zoals ineens een te zware undervolt of langdurig een instabiele overclock draaien).
Van de week mijn PowerColor Reaper 9060XT ontvangen en geïnstalleerd, komende van een 6600XT. Is voor in een compacte PC in de woonkamer, dus moest een niet te lange tweeslotskaart (max 40 mm dik) hebben. Dit is volgens mij zo ongeveer het enige model van de huidige generatie dat daaraan voldoet
.
Ik gebruik hem momenteel vooral voor Cities: Skylines II, en dat draait nu prachtig op 4k High (uiteraard een spel waarbij frameratie niet zo heel belangrijk is, maar toch). Ik ben blij dat zulke prestaties nog te krijgen zijn in zo'n compact kaartje. Daarnaast is hij ook nog behoorlijk stil, ik hoor geen verschil met zijn voorganger. Kortom, echt een mooie upgrade.
Ik gebruik hem momenteel vooral voor Cities: Skylines II, en dat draait nu prachtig op 4k High (uiteraard een spel waarbij frameratie niet zo heel belangrijk is, maar toch). Ik ben blij dat zulke prestaties nog te krijgen zijn in zo'n compact kaartje. Daarnaast is hij ook nog behoorlijk stil, ik hoor geen verschil met zijn voorganger. Kortom, echt een mooie upgrade.
Los van wat je verder doet, zou ik toch die optie 1 zeker doen als je hem ook stiller wil hebben. Undervolten kan altijd ernaast.Pompi schreef op maandag 8 december 2025 @ 17:52:
[...]
Bedankt, ik ga mij dan wanneer ik de komende tijd heb even verdiepen in die derde optie. Want eerste 2 voelen aan als niet precies wat ik zoek.
Hallo Tweakers, ik heb een vraagje.
ik heb een Sapphire Pulse 9070 XT gekocht ter vervanging van mijn RTX3070 en in dezelfde PC geplaatst.
Als mijn PC op idle draait verbruikt de 9070 XT meestal 40W tot 47Watt
. Uitschieters van 27W tot 64 Watt.
Is dit normaal?
Ik vind dit erg veel.
Ook als ik dit met reviews vergelijk.
Mijn vorige kaart: RTX3070, verbruikte ongeveer 22Watt
in idle met dezelfde schermen.
Ik heb 2 monitors aan mijn PC: 1x 1440p-144Hz en 1x 1080p-60Hz
Als ik de tweakers 9070 XT review nalees verbruikt de Sapphire Pulse 9070 XT in idle 17 Watt. Dit is waarschijnlijk met 1 scherm.
review: 13x Radeon RX 9070 XT Mega-round-up - De slimste koop is niet de duurste
Volgens Techpowerup verbruikt de Sapphire Pulse 9070 XT in idle met 1 scherm 9 Watt en met 2 schermen 22 Watt.
https://www.techpowerup.c...-rx-9070-xt-pulse/41.html
Voor het plaatsen van de 9070 XT heb ik DDU gedraaid en later, voor de zekerheid nog maar een keer.
Ik heb al van alles geprobeerd om het verbruik lager te krijgen, maar niks helpt.
Undervolt in Adrenalin, Adrenalin op efficiëntie ipv undervolt, 144Hz op dynamische vernieuwingsfrequentie, 144Hz verlaagt naar 120HZ naar 60Hz.
Op 60HZ gaat het idle verbruik wel even omlaag naar 13W-28W maar zodra je maar iets doet, bijv: YouTube filmpje, schiet dit weer naar 47W, net zoals op 144Hz, dus dit haalt ook niks uit.
HDR kunnen deze schermen niet dus die staat al uit.
ik heb een Sapphire Pulse 9070 XT gekocht ter vervanging van mijn RTX3070 en in dezelfde PC geplaatst.
Als mijn PC op idle draait verbruikt de 9070 XT meestal 40W tot 47Watt
Is dit normaal?
Ik vind dit erg veel.
Ook als ik dit met reviews vergelijk.
Mijn vorige kaart: RTX3070, verbruikte ongeveer 22Watt
Ik heb 2 monitors aan mijn PC: 1x 1440p-144Hz en 1x 1080p-60Hz
Als ik de tweakers 9070 XT review nalees verbruikt de Sapphire Pulse 9070 XT in idle 17 Watt. Dit is waarschijnlijk met 1 scherm.
review: 13x Radeon RX 9070 XT Mega-round-up - De slimste koop is niet de duurste
Volgens Techpowerup verbruikt de Sapphire Pulse 9070 XT in idle met 1 scherm 9 Watt en met 2 schermen 22 Watt.
https://www.techpowerup.c...-rx-9070-xt-pulse/41.html
Voor het plaatsen van de 9070 XT heb ik DDU gedraaid en later, voor de zekerheid nog maar een keer.
Ik heb al van alles geprobeerd om het verbruik lager te krijgen, maar niks helpt.
Undervolt in Adrenalin, Adrenalin op efficiëntie ipv undervolt, 144Hz op dynamische vernieuwingsfrequentie, 144Hz verlaagt naar 120HZ naar 60Hz.
Op 60HZ gaat het idle verbruik wel even omlaag naar 13W-28W maar zodra je maar iets doet, bijv: YouTube filmpje, schiet dit weer naar 47W, net zoals op 144Hz, dus dit haalt ook niks uit.
HDR kunnen deze schermen niet dus die staat al uit.
Draaien de fans? En zo ja wat is het verbruik als je ze uit zet?
@krauser Ik heb dit ook gehad met mijn 6700XT jaren geleden, en ik heb dit toen kunnen oplossen door mijn beide beeldschermen op dezelfde frequentie te zetten. AMD heeft namelijk dat soort verbruikspieken als je schermen hebt met een verschillende frequentie.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Dat ga ik dan weer testen!
Ik heb een 1440p scherm die altijd op 144Hz staat en een oud 1080p scherm die niet verder kan dan 60Hz.
Ik had het 1440p scherm al even op 60H gezet, het verbruik ging omlaag naar 13W-28W maar zodra ik wat deed schoot het weer naar 47W.
Test!
Ik heb het 144Hz scherm nu wat langer op 60Hz gezet en een Youtube filmpje aangezet. Verbruik schoot gelijk weer naar 47W, maar ik heb deze een paar minuten laten draaien en na 1 of 2 minuten (aantal keer getest) zakt het verbruik naar ongeveer 30W.
Zodra ik iets doe springt het verbruik weer naar 47W maar 1 a 2 minuten later zakt het dan weer naar 30W.
Beide schermen op dezelfde, of in ieder geval een lage Hz helpt in idle verbruik en ook als het maar iets simpels hoeft te doen.
Van vrijwel continu 47W naar 13W voor beeldweergave en 30W voor iets simpels als Youtube of Solitaire.
Dit helpt!
Maar ik ga niet mijn scherm op 60Hz ipv 144Hz laten staan voor een beetje normaal verbruik.
Jammer, maar dan gaat de 9070 XT retour winkel en de RTX3070 weer terug de pc in.
@nzall Wel bedankt voor de hint naar een oorzaak van het hoge verbruik.
Ik heb een 1440p scherm die altijd op 144Hz staat en een oud 1080p scherm die niet verder kan dan 60Hz.
Ik had het 1440p scherm al even op 60H gezet, het verbruik ging omlaag naar 13W-28W maar zodra ik wat deed schoot het weer naar 47W.
Test!
Ik heb het 144Hz scherm nu wat langer op 60Hz gezet en een Youtube filmpje aangezet. Verbruik schoot gelijk weer naar 47W, maar ik heb deze een paar minuten laten draaien en na 1 of 2 minuten (aantal keer getest) zakt het verbruik naar ongeveer 30W.
Zodra ik iets doe springt het verbruik weer naar 47W maar 1 a 2 minuten later zakt het dan weer naar 30W.
Beide schermen op dezelfde, of in ieder geval een lage Hz helpt in idle verbruik en ook als het maar iets simpels hoeft te doen.
Van vrijwel continu 47W naar 13W voor beeldweergave en 30W voor iets simpels als Youtube of Solitaire.
Dit helpt!
Maar ik ga niet mijn scherm op 60Hz ipv 144Hz laten staan voor een beetje normaal verbruik.
Jammer, maar dan gaat de 9070 XT retour winkel en de RTX3070 weer terug de pc in.
@nzall Wel bedankt voor de hint naar een oorzaak van het hoge verbruik.
Vreemd. Volgens deze review verbruikt de 9070XT minder stroom tijdens multi monitor gebruik dan de 3060TI en daarmee ook 3070TI. Wel meer stroom tijdens het gebruik van Youtube. Maar je kunt in veel browsers hardware acceleratie uitzetten.krauser schreef op donderdag 11 december 2025 @ 22:55:
Dat ga ik dan weer testen!
Ik heb een 1440p scherm die altijd op 144Hz staat en een oud 1080p scherm die niet verder kan dan 60Hz.
Ik had het 1440p scherm al even op 60H gezet, het verbruik ging omlaag naar 13W-28W maar zodra ik wat deed schoot het weer naar 47W.
Test!
Ik heb het 144Hz scherm nu wat langer op 60Hz gezet en een Youtube filmpje aangezet. Verbruik schoot gelijk weer naar 47W, maar ik heb deze een paar minuten laten draaien en na 1 of 2 minuten (aantal keer getest) zakt het verbruik naar ongeveer 30W.
Zodra ik iets doe springt het verbruik weer naar 47W maar 1 a 2 minuten later zakt het dan weer naar 30W.
Beide schermen op dezelfde, of in ieder geval een lage Hz helpt in idle verbruik en ook als het maar iets simpels hoeft te doen.
Van vrijwel continu 47W naar 13W voor beeldweergave en 30W voor iets simpels als Youtube of Solitaire.
Dit helpt!
Maar ik ga niet mijn scherm op 60Hz ipv 144Hz laten staan voor een beetje normaal verbruik.
Jammer, maar dan gaat de 9070 XT retour winkel en de RTX3070 weer terug de pc in.
@nzall Wel bedankt voor de hint naar een oorzaak van het hoge verbruik.
https://www.computerbase....en_spiele_youtube_desktop
Had ergens gelezen dat een reset van Windows helpt en het inschakelen van Freesync.
Tja, dan gebruikt ie maar wat meer toch? Ik vind 47W in "soort van idle maar niet helemaal niks" ook niet heel erg veel eigenlijk. Ik weet niet anders dan dat het met meerdere monitors energie vreet omdat ie het geheugen nooit terug schroeft qua snelheid.
Verder als je kaart bezig is met een game, gaat ie al richting de honderden watts, dus waar heb je het dan verder nog over als het idle wat meer is? Niet gamen is goedkoper...
Verder als je kaart bezig is met een game, gaat ie al richting de honderden watts, dus waar heb je het dan verder nog over als het idle wat meer is? Niet gamen is goedkoper...
Ik heb een 1440p scherm op dynamische snelheid (60-144hz) en een 1080p scherm op 75hz. Mijn 9070 heeft een TBP van 13w op de idle stand. Dat is met fans die op 25% draaien.
Oh, de hele wereld bestaat uit gamen en de PC gaat alleen aan als je gaat gamen?Martinspire schreef op vrijdag 12 december 2025 @ 11:50:
Verder als je kaart bezig is met een game, gaat ie al richting de honderden watts, dus waar heb je het dan verder nog over als het idle wat meer is? Niet gamen is goedkoper...
Als je je pc voor je werk gebruikt, 200 dagen per jaar en 8 uur per dag, dan ben je dus al die tijd teveel energie aan het gebruiken.
Is het teveel energie of is dit simpelweg wat dit soort hardware zal gaan gebruiken? Ik ben hier ook gewoon aan het werk, maar accepteer dat ik nu wat meer verbruik heb. Ik vind het niet zo raar met hoeveel sneller monitoren zijn geworden. Het probleem ligt waarschijnlijk niet aan de kaart, maar simpelweg aan de architectuur van deze nieuwe GPU's. Ik verwacht dat de nieuwe Nvidia chips ook meer stroom nodig hebben. En je kunt jezelf dan wel een handicap geven om wat te gaan besparen, maar dan had je net zo goed je oude GPU kunnen blijven gebruiken.White Feather schreef op vrijdag 12 december 2025 @ 12:19:
[...]
Oh, de hele wereld bestaat uit gamen en de PC gaat alleen aan als je gaat gamen?
Als je je pc voor je werk gebruikt, 200 dagen per jaar en 8 uur per dag, dan ben je dus al die tijd teveel energie aan het gebruiken.
Het is simpelweg niet meer rendabel om energie te besparen met andere software, dus dit gaat over de hele linie wel meer kosten. Op jaarbasis kost 50 watt extra voor 8 uur per dag, zo'n 44 euro. Jammer, maar voor mij geen reden om dan meteen maar allerlei fratsen uit te halen om dat te verminderen. Dan koop ik wel een game minder...
200 dagen per jaar, voor 8 uur per dag. Dat is 1600 uur per jaar. Neem een worst case scenario aan van 40W meer verbruik tijdens AL die uren. Dat is 64 Kilowattuur. Als we uitgaan van een gemiddelde prijs van 0,23 EUR per kilowattuur komt dat neer op een meerprijs van... 14,72 EUR. En nogmaals: dat is het worst-case scenario waarbij je elke werkdag 8 uur per dag 40W meer verbruikt. de werkelijke meerprijs zal eerder rond de 7 of 8 EUR liggen.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
En wil je een Nvidie kaart kopen die qua prestaties ongeveer gelijk is, maar minder verbruik in idle.. Dan kost je dat een eurootje of 150+ meer (5070Ti). Daarmee kun je ook zo'n 10 jaar voor €15,-- aan "extra" idle stroom betalennzall schreef op vrijdag 12 december 2025 @ 13:15:
200 dagen per jaar, voor 8 uur per dag. Dat is 1600 uur per jaar. Neem een worst case scenario aan van 40W meer verbruik tijdens AL die uren. Dat is 64 Kilowattuur. Als we uitgaan van een gemiddelde prijs van 0,23 EUR per kilowattuur komt dat neer op een meerprijs van... 14,72 EUR. En nogmaals: dat is het worst-case scenario waarbij je elke werkdag 8 uur per dag 40W meer verbruikt. de werkelijke meerprijs zal eerder rond de 7 of 8 EUR liggen.
Sarcasm is my superpower! What's yours?
Wie kiest een grafische kaart op basis van YouTube verbruik? Al heb ik ook zo'n use case.
Voor mij is een YouTube live stream beluisteren (om gekte, dolle paniek, Trump doet weer iets geks of andere speciale momenten op de Amerikaanse beurs in realtime te horen, nieuws krijgen voordat de mainstream-bronnen het kunnen oppikken) terwijl ik naar een andere YouTube video aan het kijken of luisteren normaal is.
Ik deed mijn upgrade van 6800 XT naar 9070 XT voor:
Voor mij is een YouTube live stream beluisteren (om gekte, dolle paniek, Trump doet weer iets geks of andere speciale momenten op de Amerikaanse beurs in realtime te horen, nieuws krijgen voordat de mainstream-bronnen het kunnen oppikken) terwijl ik naar een andere YouTube video aan het kijken of luisteren normaal is.
Ik deed mijn upgrade van 6800 XT naar 9070 XT voor:
- 2,5 jaar oude grafische kaart is uit garantie en een nieuwe halen voordat de AI-bedrijven en hun hardware hoarding alles voor 2 of 3 jaren op slot gooien.
- De helft meer performance duwt de fps in Delta Force, The Finals,... over 200 fps.
- FSR 4 is eindelijk competitief met DLSS
- AV1 encoding maakt de gameplay-opnames merkbaar compacter. Veel van mijn opnames zitten rond 20 Mbps bitrate. Niet meer bitrate gebruiken dan dat er informatie in de video is. Al heb ik het maximum op 50 Mbps gezet. Met HVEC werden de bestanden zo groot als het maximum dat ik instel.
Die 40 watt meer verbruik maal 40 uur is dus 1600 watt extra. Dus je kaart zal dus bij veel mensen meer energie verspillen door dat hoge energiegebruik dan de kaart in die week gebruikt om te gamen?!nzall schreef op vrijdag 12 december 2025 @ 13:15:
200 dagen per jaar, voor 8 uur per dag. Dat is 1600 uur per jaar. Neem een worst case scenario aan van 40W meer verbruik tijdens AL die uren. Dat is 64 Kilowattuur. Als we uitgaan van een gemiddelde prijs van 0,23 EUR per kilowattuur komt dat neer op een meerprijs van... 14,72 EUR. En nogmaals: dat is het worst-case scenario waarbij je elke werkdag 8 uur per dag 40W meer verbruikt. de werkelijke meerprijs zal eerder rond de 7 of 8 EUR liggen.
Serieus, anno 2025 snap je niet dat er meer is dan het geld dat het kost en dat er mensen zijn die daar naar kijken?Martinspire schreef op vrijdag 12 december 2025 @ 12:59:
Het is simpelweg niet meer rendabel om energie te besparen met andere software, dus dit gaat over de hele linie wel meer kosten. Op jaarbasis kost 50 watt extra voor 8 uur per dag, zo'n 44 euro. Jammer, maar voor mij geen reden om dan meteen maar allerlei fratsen uit te halen om dat te verminderen. Dan koop ik wel een game minder...
Als ook dat een issue is, had ie uberhaupt geen nieuwe GFX kaart moeten/hoeven kopen terwijl het (blijkbaar) niet nodig is .White Feather schreef op vrijdag 12 december 2025 @ 15:39:
Serieus, anno 2025 snap je niet dat er meer is dan het geld dat het kost en dat er mensen zijn die daar naar kijken?
Sarcasm is my superpower! What's yours?
Ja, kan het alleen maar zo simpel zijn in jouw optiek, snap je niet dat het ook anders kan?Nnoitra schreef op vrijdag 12 december 2025 @ 16:31:
[...]
Als ook dat een issue is, had ie uberhaupt geen nieuwe GFX kaart moeten/hoeven kopen terwijl het (blijkbaar) niet nodig is .
Voor dat verbruik krijg je tijdens gamen meer waar voor de stroom, maar qua desktop gebruik wordt er gewoon 3x zoveel gebruikt als nodig.
Maar daar mag je niets over zeggen/klagen? Wat een simpele wereld zeg?
Zo simpel is het wel.White Feather schreef op vrijdag 12 december 2025 @ 17:53:
[...]
Ja, kan jmhet alleen maar zo simpel zijn in jouw optiek, snap je niet dat het ook anders kan?
Voor dat verbruik krijg je tijdens gamen meer waar voor de stroom, maar qua desktop gebruik wordt er gewoon 3x zoveel gebruikt als nodig.
Maar daar mag je niets over zeggen/klagen? Wat een simpele wereld zeg?
Hij verwacht gelijke resultaten met een andere setup, dat is appels en peren vergelijken.
In de info van die test die er gelinkt word:
code:
1
| Multi-monitor: Two monitors are connected to the tested card, and both use different display timings. One monitor runs 2560x1440 over HDMI, and the other monitor runs 3840x2160 over DisplayPort. [b]The refresh rate is set to 60 Hz for both screens. When using high refresh rate monitors, power consumption can be higher than in this test[/b]. |
En ja, het kan anders; beide monitoren op 60Hz zetten. Of het scherm wat Idle is uitzetten.
In alle andere gevallen slurpt de kaart gewoon wat ie nodig heeft.
Tuurlijk mag je iets zeggen en/of ergens over klagen. Maar anderen mogen daar ook iets van vinden en in discussie gaan. Als je dat vervelend vind, moet je het gewoon voor je houden of tegen een muur gaan praten/klagen.
Sarcasm is my superpower! What's yours?
Ok, reacties.
Polli:
Bedankt: Computerbase, daar heb ik al heel lang niet meer naar gekeken. Duits kan ik wel lezen en de grafiekjes al helemaal.
Dit geeft maar eens te meer aan dat het verbruik bij mij te hoog is. Daar hou ik niet van, en al helemaal als dat niet nodig is. En dan ga ik dus zoeken waar dit aan ligt.
Ook om die reden heb ik een Ryzen 7900 zonder X ipv met X. Iets van 5% minder prestaties maar ook 40% minder stroomverbruik. Ook een reden om geen Intel 14xxx serie kiezen.
Freesync kan ik niet in mijn monitor OSD vinden, wel adaptive sync. Misschien kan ik dit hierdoor ook niet in Adrenalin vinden.
Reset van Windows: bedoel je een verse installatie van Windows? ik zat hier al aan te denken om dit op een aparte SSD uit te proberen. Mocht het niet baten dan kan ik makkelijk terug naar mijn huidige SSD. En dan later de oude RX3070 settings door een eerder gemaakte image terug te zetten.
Maar ik ben geen held in software, ik ben meer van de mechanische dingen.
Martinspire:
47 Watt is meer dan alle sites/reviews aangeven, dus er klopt hier iets niet en ik heb na een week klooien nog niks gevonden wat het verbruik weer normaal maakt. Mijn huidige/vorige kaart verbruikte maar 22W in hetzelfde systeem. Als ik wist dat de kaart idle zoveel zou verbruiken had ik deze niet gekocht en bij het groene kamp naar een 5070 ti 2e hands gekeken. Of ik wacht wel weer op een volgende generatie. Ik heb de kaart nu gekocht vanwege de huidige prijs en de hard oplopende geheugen prijzen (+300%) die straks ook de grafische kaarten duurder gaan maken (of dat nu al gaan doen). Het verbruik tijdens gamen is ongeveer gelijk maar 9070 XT levert meer FPS. Dat is dus winst.
Stel dat mijn motorfiets stationair ongeveer 900rpm hoort te draaien, maar die van van mij draait 2000rpm dan irriteer ik mij wezenloos en blijf ik net zolang sleutelen tot dit opgelost is. Ongeacht het stationair verbruik en hoeveel meer de motor verbruikt als ik volgas geef. De lol die ik er dan van heb is de kosten en tijd waard. Fietsen is ook goedkoper en op een beetje andere manier ook leuk.
TheBrut3:
Fans draaien op 32% en zijn vrijwel onhoorbaar. Als de graka veel stroom verbruikt idle komt die warmte in de PC en gaan ze harder draaien en worden ze hoorbaar. Daar word ik niet blij van. Tijdens gamen hoor ik ze niet door game geluiden en focus.
White Feather:
Onnodig energieverbruik heb ik een hekel aan. Ik zet ook niet de verwarming aan en de ramen open.
MartinSpire:
Leuke dingen mogen geld kosten, maar onnodig hoog idle verbuik en ventilator herrie om alleen maar naar een scherm te kijken en dat terwijl ik weet dat dat niet nodig is. Daar begint bij mij de ergernis en de zoektocht naar de oorzaak hiervan om dit op te lossen. En als ik daar niet uitkom, dan terug naar af.
nzall:
Ik had al bedacht dat de extra kosten op jaarbasis niet indrukwekkend zouden zijn, maar het zou ook niet nodig moeten zijn. Ik wil gewoon dat de kaart bij mij net zo werkt als bij de reviews of bij andere gebruikers. Beter vind ik ook goed.
Nnoitra:
Een vergelijkbare kaart van nVidia zou dan een 5070 ti zijn en die zijn (misschien) op sommige punten beter, maar veel te duur voor het verschil.
rapture:
Youtube verbruik is maar voor de vergelijking. Ik kan wel met een toepassing komen die bijna niemand gebruikt, maar dan weet ook bijna niemand of dit bij hun ook zo is.
Mijn GTX1060 en daarna RTX3070 waren beide 2e hands aangeschaft en uit de garantie, dat boeit mij niet.
GTX1060 heeft het altijd perfect gedaan en zit nog in mijn vorige PC (backup).
RTX3070 heb ik ook nog, maar die werd na 3 maanden te warm. En omdat de boel toch open moest, voor de zekerheid thermalpads gekocht, kaart open gemaakt, geplaatst en een repaste van de GPU. Na 3 maanden werd de GPU toch weer te warm en er Honeywell PTM7950 op gedaan. Werkt nu al 7 maanden perfect. Pumpout opgelost.
Mijn upgrade is ook vanwege de stijgende prijzen van geheugen (AI) en dat dit weleens lang kan gaan duren en dan nog afwachten of de prijzen ooit weer terug naar normaal gaan.
Ook overige punten: ja
White Feather:
Dat verbruik kan wel eens kloppen, want ik game weinig.
Noitra en White Feather:
Ik heb geen nieuwe graka nodig, maar het is wel leuk. En als ik dat dan toch doe is de Sapphire Pulse 9070 XT voor mij een goede keuze. Vergelijkbaar verbruik als de (oude) RTX3070 (alleen nog niet bij mij) maar nu met meer FPS. Prijzen van de Grafische kaarten gaan zeer waarschijnlijk stijgen ivm sterk stijgende geheugen prijzen. Dan kan ik het maar beter net al gedaan hebben. Die geheugen tekorten kunnen zomaar heel lang gaan duren. Cryptomining toestanden die nu AI heten.
Polli:
Bedankt: Computerbase, daar heb ik al heel lang niet meer naar gekeken. Duits kan ik wel lezen en de grafiekjes al helemaal.
Dit geeft maar eens te meer aan dat het verbruik bij mij te hoog is. Daar hou ik niet van, en al helemaal als dat niet nodig is. En dan ga ik dus zoeken waar dit aan ligt.
Ook om die reden heb ik een Ryzen 7900 zonder X ipv met X. Iets van 5% minder prestaties maar ook 40% minder stroomverbruik. Ook een reden om geen Intel 14xxx serie kiezen.
Freesync kan ik niet in mijn monitor OSD vinden, wel adaptive sync. Misschien kan ik dit hierdoor ook niet in Adrenalin vinden.
Reset van Windows: bedoel je een verse installatie van Windows? ik zat hier al aan te denken om dit op een aparte SSD uit te proberen. Mocht het niet baten dan kan ik makkelijk terug naar mijn huidige SSD. En dan later de oude RX3070 settings door een eerder gemaakte image terug te zetten.
Maar ik ben geen held in software, ik ben meer van de mechanische dingen.
Martinspire:
47 Watt is meer dan alle sites/reviews aangeven, dus er klopt hier iets niet en ik heb na een week klooien nog niks gevonden wat het verbruik weer normaal maakt. Mijn huidige/vorige kaart verbruikte maar 22W in hetzelfde systeem. Als ik wist dat de kaart idle zoveel zou verbruiken had ik deze niet gekocht en bij het groene kamp naar een 5070 ti 2e hands gekeken. Of ik wacht wel weer op een volgende generatie. Ik heb de kaart nu gekocht vanwege de huidige prijs en de hard oplopende geheugen prijzen (+300%) die straks ook de grafische kaarten duurder gaan maken (of dat nu al gaan doen). Het verbruik tijdens gamen is ongeveer gelijk maar 9070 XT levert meer FPS. Dat is dus winst.
Stel dat mijn motorfiets stationair ongeveer 900rpm hoort te draaien, maar die van van mij draait 2000rpm dan irriteer ik mij wezenloos en blijf ik net zolang sleutelen tot dit opgelost is. Ongeacht het stationair verbruik en hoeveel meer de motor verbruikt als ik volgas geef. De lol die ik er dan van heb is de kosten en tijd waard. Fietsen is ook goedkoper en op een beetje andere manier ook leuk.
TheBrut3:
Fans draaien op 32% en zijn vrijwel onhoorbaar. Als de graka veel stroom verbruikt idle komt die warmte in de PC en gaan ze harder draaien en worden ze hoorbaar. Daar word ik niet blij van. Tijdens gamen hoor ik ze niet door game geluiden en focus.
White Feather:
Onnodig energieverbruik heb ik een hekel aan. Ik zet ook niet de verwarming aan en de ramen open.
MartinSpire:
Leuke dingen mogen geld kosten, maar onnodig hoog idle verbuik en ventilator herrie om alleen maar naar een scherm te kijken en dat terwijl ik weet dat dat niet nodig is. Daar begint bij mij de ergernis en de zoektocht naar de oorzaak hiervan om dit op te lossen. En als ik daar niet uitkom, dan terug naar af.
nzall:
Ik had al bedacht dat de extra kosten op jaarbasis niet indrukwekkend zouden zijn, maar het zou ook niet nodig moeten zijn. Ik wil gewoon dat de kaart bij mij net zo werkt als bij de reviews of bij andere gebruikers. Beter vind ik ook goed.
Nnoitra:
Een vergelijkbare kaart van nVidia zou dan een 5070 ti zijn en die zijn (misschien) op sommige punten beter, maar veel te duur voor het verschil.
rapture:
Youtube verbruik is maar voor de vergelijking. Ik kan wel met een toepassing komen die bijna niemand gebruikt, maar dan weet ook bijna niemand of dit bij hun ook zo is.
Mijn GTX1060 en daarna RTX3070 waren beide 2e hands aangeschaft en uit de garantie, dat boeit mij niet.
GTX1060 heeft het altijd perfect gedaan en zit nog in mijn vorige PC (backup).
RTX3070 heb ik ook nog, maar die werd na 3 maanden te warm. En omdat de boel toch open moest, voor de zekerheid thermalpads gekocht, kaart open gemaakt, geplaatst en een repaste van de GPU. Na 3 maanden werd de GPU toch weer te warm en er Honeywell PTM7950 op gedaan. Werkt nu al 7 maanden perfect. Pumpout opgelost.
Mijn upgrade is ook vanwege de stijgende prijzen van geheugen (AI) en dat dit weleens lang kan gaan duren en dan nog afwachten of de prijzen ooit weer terug naar normaal gaan.
Ook overige punten: ja
White Feather:
Dat verbruik kan wel eens kloppen, want ik game weinig.
Noitra en White Feather:
Ik heb geen nieuwe graka nodig, maar het is wel leuk. En als ik dat dan toch doe is de Sapphire Pulse 9070 XT voor mij een goede keuze. Vergelijkbaar verbruik als de (oude) RTX3070 (alleen nog niet bij mij) maar nu met meer FPS. Prijzen van de Grafische kaarten gaan zeer waarschijnlijk stijgen ivm sterk stijgende geheugen prijzen. Dan kan ik het maar beter net al gedaan hebben. Die geheugen tekorten kunnen zomaar heel lang gaan duren. Cryptomining toestanden die nu AI heten.
Nnoitra:
De monitor setup is bij mij gelijk gebleven.1440P-144Hz en 1080P-60Hz.
De verandering is de grafische kaart. De test bij Techpowerup geven een verbruik aan voor de RTX3070 en 9070 XT ook in beiden dezelfde test setup: (zal vast anders zijn dan bij mij, maar ik kan het verschil tussen mijn en hun setup wel vergelijken)
https://www.techpowerup.c...-rx-9070-xt-pulse/41.html
Multimonitor Techpowerup:
RTX3070: 19W
Sapphire Pulse RX 9070 XT Pulse: 22W
Dus de appels en peren zitten hier dicht bij elkaar qua verbruik. Maar bij mij niet, terwijl ik hier wel op rekende en ook andere reviews een laag verbruik aangeven.
Mijn RTX3070 gebruikte ongeveer 22W ipv 19W = 3W meer.
Dus als de 9070 XT dan 25W ipv 22W (3W meer) verbruikt, prima.
Maar de 9070 XT verbruikt richting de 47Watt.
Dat is bijna het dubbele, dus ergens klopt er iets niet, maar wat?
De monitor setup is bij mij gelijk gebleven.1440P-144Hz en 1080P-60Hz.
De verandering is de grafische kaart. De test bij Techpowerup geven een verbruik aan voor de RTX3070 en 9070 XT ook in beiden dezelfde test setup: (zal vast anders zijn dan bij mij, maar ik kan het verschil tussen mijn en hun setup wel vergelijken)
https://www.techpowerup.c...-rx-9070-xt-pulse/41.html
Multimonitor Techpowerup:
RTX3070: 19W
Sapphire Pulse RX 9070 XT Pulse: 22W
Dus de appels en peren zitten hier dicht bij elkaar qua verbruik. Maar bij mij niet, terwijl ik hier wel op rekende en ook andere reviews een laag verbruik aangeven.
Mijn RTX3070 gebruikte ongeveer 22W ipv 19W = 3W meer.
Dus als de 9070 XT dan 25W ipv 22W (3W meer) verbruikt, prima.
Maar de 9070 XT verbruikt richting de 47Watt.
Dat is bijna het dubbele, dus ergens klopt er iets niet, maar wat?
krauser schreef op vrijdag 12 december 2025 @ 19:06:
Nnoitra:
De monitor setup is bij mij gelijk gebleven.1440P-144Hz en 1080P-60Hz.
De verandering is de grafische kaart. De test bij Techpowerup geven een verbruik aan voor de RTX3070 en 9070 XT ook in beiden dezelfde test setup: (zal vast anders zijn dan bij mij, maar ik kan het verschil tussen mijn en hun setup wel vergelijken)
https://www.techpowerup.c...-rx-9070-xt-pulse/41.html
Multimonitor Techpowerup:
RTX3070: 19W
Sapphire Pulse RX 9070 XT Pulse: 22W
Dus de appels en peren zitten hier dicht bij elkaar qua verbruik. Maar bij mij niet, terwijl ik hier wel op rekende en ook andere reviews een laag verbruik aangeven.
60 & 144 versus 60 & 60.Multi-monitor: Two monitors are connected to the tested card, and both use different display timings. One monitor runs 2560x1440 over HDMI, and the other monitor runs 3840x2160 over DisplayPort. The refresh rate is set to 60 Hz for both screens. When using high refresh rate monitors, power consumption can be higher than in this test.
Vandaar de appels en peren.
En:
We conduct a physical measurement using professional lab equipment, the values are not software sensor readings, which are much less accurate.
[ Voor 6% gewijzigd door Nnoitra op 12-12-2025 20:39 ]
Sarcasm is my superpower! What's yours?
Ok, maar:
mijn 3070 verbruikt voor 1440p-144Hz +1080p-60Hz= 22W
Mijn 7090 verbruikt voor 1440p-144Hz +1080p-60Hz= 47W
Zelfde schermen, zelfde aantal pixels, zelfde refreshrate.
Dat verschil vind ik vrij (te) groot.
Vooral te hoog voor dezelfde vrijwel stilstaande weergave met een zuiniger en nieuwer productie procedé: van 8nm naar 4nm.
mijn 3070 verbruikt voor 1440p-144Hz +1080p-60Hz= 22W
Mijn 7090 verbruikt voor 1440p-144Hz +1080p-60Hz= 47W
Zelfde schermen, zelfde aantal pixels, zelfde refreshrate.
Dat verschil vind ik vrij (te) groot.
Vooral te hoog voor dezelfde vrijwel stilstaande weergave met een zuiniger en nieuwer productie procedé: van 8nm naar 4nm.
Hoe lang wacht je om te kijken wat het verbruik is? Je hebt zelf al aangegeven dat als je een paar seconden wacht tot je verbruik gestabiliseerd is het een pak lager is.
En daarnaast ook: AMD kaarten zijn enorm eenvoudig te undervolten en een lagere power limiet te geven. Als je echt iets geeft over idle verbruik zou ik daar wat mee spelen.
En daarnaast ook: AMD kaarten zijn enorm eenvoudig te undervolten en een lagere power limiet te geven. Als je echt iets geeft over idle verbruik zou ik daar wat mee spelen.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Serieus? Reageer gewoon niet of zo als het zo moet.Nnoitra schreef op vrijdag 12 december 2025 @ 18:31:
Tuurlijk mag je iets zeggen en/of ergens over klagen. Maar anderen mogen daar ook iets van vinden en in discussie gaan. Als je dat vervelend vind, moet je het gewoon voor je houden of tegen een muur gaan praten/klagen.
Jij bent degene die alleen maar zwart-wit antwoorden hier neergooit en alleen je eigen gelijk wil halen.
Je schijnt niet te snappen dat anderen het niet vinden kunnen dat als je een gpu net even buiten de idle range aanspreekt hij gelijk 3x zoveel gaat verbruiken.
En daar wat over zeggen mogen ze ook niet dat is maar zeuren? Wtf?!
Ik heb zelf een Radeon RX 9070 en een 5120x2160-monitor op 180hz. Ik heb net even snel gekeken, maar wat ik langs zag komen was echt om te janken. Tijdens een filmpje afspelen was het 197 watt.krauser schreef op vrijdag 12 december 2025 @ 19:06:
Nnoitra:
De monitor setup is bij mij gelijk gebleven.1440P-144Hz en 1080P-60Hz.
De verandering is de grafische kaart. De test bij Techpowerup geven een verbruik aan voor de RTX3070 en 9070 XT ook in beiden dezelfde test setup: (zal vast anders zijn dan bij mij, maar ik kan het verschil tussen mijn en hun setup wel vergelijken)
https://www.techpowerup.c...-rx-9070-xt-pulse/41.html
Multimonitor Techpowerup:
RTX3070: 19W
Sapphire Pulse RX 9070 XT Pulse: 22W
Dus de appels en peren zitten hier dicht bij elkaar qua verbruik. Maar bij mij niet, terwijl ik hier wel op rekende en ook andere reviews een laag verbruik aangeven.
Mijn RTX3070 gebruikte ongeveer 22W ipv 19W = 3W meer.
Dus als de 9070 XT dan 25W ipv 22W (3W meer) verbruikt, prima.
Maar de 9070 XT verbruikt richting de 47Watt.
Dat is bijna het dubbele, dus ergens klopt er iets niet, maar wat?
Nu is het wel een flink vernachelde ongeactiveerde Windows waar ik wat Ati foutmeldingen op krijg en die af en toe stottert. Dus moet eens een nieuwe install doen.
Naar het verbruik ga ik dus zeker nog even naar kijken.
Weet er iemand of je gemakkelijk van settings kunt switchen? Bv desktop use @120 en game op @180?
[ Voor 51% gewijzigd door White Feather op 12-12-2025 21:41 ]
Ik zit zelf ook te denken aan een nieuwe Windows install om te kijken of daar wat winst valt te behalen.
Ik heb er alleen een bloedhekel aan, want moet dan weer uitvogelen hoe ik alles weer krijg zoals ik dat wil. Anders had ik dat allang gedaan.
Dat is wel een heel hoog verbruik.
Ik heb net Adrenalin weer door gespit, maar kan daar geen instelling switch vinden voor game/desktop gebruik.
Bij instellingen>sneltoetsen kun je een heleboel trucs uithalen, maar geen om tussen game/desktop te switchen.
Ik heb er alleen een bloedhekel aan, want moet dan weer uitvogelen hoe ik alles weer krijg zoals ik dat wil. Anders had ik dat allang gedaan.
Dat is wel een heel hoog verbruik.
Ik heb net Adrenalin weer door gespit, maar kan daar geen instelling switch vinden voor game/desktop gebruik.
Bij instellingen>sneltoetsen kun je een heleboel trucs uithalen, maar geen om tussen game/desktop te switchen.
Maar ook:krauser schreef op vrijdag 12 december 2025 @ 20:57:
Ok, maar:
mijn 3070 verbruikt voor 1440p-144Hz +1080p-60Hz= 22W
Mijn 7090 verbruikt voor 1440p-144Hz +1080p-60Hz= 47W
Zelfde schermen, zelfde aantal pixels, zelfde refreshrate.
Dat verschil vind ik vrij (te) groot.
Vooral te hoog voor dezelfde vrijwel stilstaande weergave met een zuiniger en nieuwer productie procedé: van 8nm naar 4nm.
- 8GB vs 16GB GDDR6
- 14Gbps vs 20Gbps geheugen snelheid
- 1,815Ghz vs 2,52GHz Core clock
- 650W vs 850W aanbevolen PSU
- 17,400 vs 53,900 million transistors.
De "ik verwacht dit, want die had dat" gaat gewoon niet op. Te onderlinge verschillen zijn gewoon véél te groot. Nog buitenom dat het beide compleet anderen merken en architecturen zijn.
Mijn 9070 icm 1920x1080 op 144Hz en 2560x1440 op 180Hz:
Idle: 25 - 30W
Youtube starten op 1 scherm: seconde of 20 een piekje van rond de 43W, daarna weer 27-29W
Youtube starten op 2 schermen: seconde of 20 een piekje van rond de 50W, daarna weer 29-33W
Op beide schermen browser open(en): rond de 24-29W
Volgens Adrenaline. Maar dat is op basis van sensoren en dus niet 100% accuraat.
Joh, projecteer niet zo.White Feather schreef op vrijdag 12 december 2025 @ 21:27:
[...]
Serieus? Reageer gewoon niet of zo als het zo moet.
Jij bent degene die alleen maar zwart-wit antwoorden hier neergooit en alleen je eigen gelijk wil halen.
Je schijnt niet te snappen dat anderen het niet vinden kunnen dat als je een gpu net even buiten de idle range aanspreekt hij gelijk 3x zoveel gaat verbruiken.
En daar wat over zeggen mogen ze ook niet dat is maar zeuren? Wtf?!
Jij bent de eerste die de woorden "klagen" en "zeuren" gebruikt, niet ik. Tevens ben jij de eerste die venijning bent met "je/jullie willen het niet snappen.".
En jouw
kun je niet als argument gebruiken, want dat klopt gewoon niet, hij verbruikt géén 40W meer in idle.Die 40 watt meer verbruik maal 40 uur is dus 1600 watt extra. Dus je kaart zal dus bij veel mensen meer energie verspillen door dat hoge energiegebruik dan de kaart in die week gebruikt om te gamen?!
Wat ik aangeef is dat zijn interpretatie van de test, wat hij als basis neemt voor zijn observatie niet klopt.
En 2 manieren van verbruik meten is ook niet handig.
Ongelijke situaties en ongelijke meetmethodes is domweg géén goede basis voor een (eerlijke) vergelijking.
Dit is geen gelijk halen, dit zijn gewoon feiten.
[ Voor 16% gewijzigd door Nnoitra op 12-12-2025 22:49 ]
Sarcasm is my superpower! What's yours?
Normaal gezien boeit de garantie mij niet, als ik tegen normale prijzen een vervanger of upgrade kan kopen.krauser schreef op vrijdag 12 december 2025 @ 18:36:
rapture:
Youtube verbruik is maar voor de vergelijking. Ik kan wel met een toepassing komen die bijna niemand gebruikt, maar dan weet ook bijna niemand of dit bij hun ook zo is.
Mijn GTX1060 en daarna RTX3070 waren beide 2e hands aangeschaft en uit de garantie, dat boeit mij niet.
GTX1060 heeft het altijd perfect gedaan en zit nog in mijn vorige PC (backup).
RTX3070 heb ik ook nog, maar die werd na 3 maanden te warm. En omdat de boel toch open moest, voor de zekerheid thermalpads gekocht, kaart open gemaakt, geplaatst en een repaste van de GPU. Na 3 maanden werd de GPU toch weer te warm en er Honeywell PTM7950 op gedaan. Werkt nu al 7 maanden perfect. Pumpout opgelost.
Mijn upgrade is ook vanwege de stijgende prijzen van geheugen (AI) en dat dit weleens lang kan gaan duren en dan nog afwachten of de prijzen ooit weer terug naar normaal gaan.
Ook overige punten: ja
In geval van ze gaan weer de gaming PC markt 2 of 3 jaren op slot gooien, dan wordt het risico op het sneuvelen van een grafische kaart bekeken. Terug naar een GTX 1660 gaan of nu al naar een 9070 XT upgraden en 6800 XT op de plank leggen.
Als ik een grafische kaart uit elkaar haalt om een pumpout op te lossen, dan wil ik dat een andere grafische kaart als spare kan dienen. Nu heb ik alle tijd om mijn 6800 XT uit elkaar te halen om de koelpasta door Honeywell PTM7950 te vervangen.
dat verbruik vind ik ook maar niks, voor nu heb ik na enig prutsen de combinatie 1440p120hz+1080p60hz gevonden waarbij het verbruik zakt naar 30W als ik even rustig aan doe en 12 als je ik echt niets doe. Als ik dan een (full screen) spel aanzet schiet ie naar 480Hz. Het verbruik vind ik nog steeds te hoog maar is beter dan het waskrauser schreef op vrijdag 12 december 2025 @ 20:57:
Ok, maar:
mijn 3070 verbruikt voor 1440p-144Hz +1080p-60Hz= 22W
Mijn 7090 verbruikt voor 1440p-144Hz +1080p-60Hz= 47W
Zelfde schermen, zelfde aantal pixels, zelfde refreshrate.
Dat verschil vind ik vrij (te) groot.
Vooral te hoog voor dezelfde vrijwel stilstaande weergave met een zuiniger en nieuwer productie procedé: van 8nm naar 4nm.
ASUS ROG Strix B650-A | AMD 7600X | Kingston 32GB DDR5 6000 CL36 | Kingston KC3000 1TB | Powercolor hellhound RX9070 16GB
Leuk verhaal, maar de genoemde Techpowerup-test geeft gewoon aan dat de 9070 XT in idle minder zou verbruiken dan de 3070 FENnoitra schreef op vrijdag 12 december 2025 @ 22:35:
[...]
Maar ook:
- 8GB vs 16GB GDDR6
- 14Gbps vs 20Gbps geheugen snelheid
- 1,815Ghz vs 2,52GHz Core clock
- 650W vs 850W aanbevolen PSU
- 17,400 vs 53,900 million transistors.
De "ik verwacht dit, want die had dat" gaat gewoon niet op. Te onderlinge verschillen zijn gewoon véél te groot. Nog buitenom dat het beide compleet anderen merken en architecturen zijn.
Dus zo gek is het niet dat hij dat zo’n verhouding of verschil verwacht met 2 schermen. En zoals hij aangeeft is dat dus met dezelfde schermen op beide GPU’s.
En waarom zouden we idle verbruik tussen 2 heel verschillende kaarten niet mogen/kunnen vergelijken?
Hebben bijzonder weinig te maken met het IDLE verbruik. De kaarten draaien namelijk totaal niet die snelheden in idle en staan dan ook niet volledig aan.14Gbps vs 20Gbps geheugen snelheid
- 1,815Ghz vs 2,52GHz Core clock
- 650W vs 850W aanbevolen PSU
- 17,400 vs 53,900 million transistors.
Dus leuk dat je dan met “je feiten” komt, maar dat jouw feiten geen invloed hebben op het verbruik komt dan weer niet door.
Jij bent degene die geen moment kijkt naar de gedachtengang van een ander en alleen je eigen manier van de feiten zien de juiste vindt.Joh, projecteer niet zo.
Jij bent de eerste die de woorden "klagen" en "zeuren" gebruikt, niet ik. Tevens ben jij de eerste die venijning bent met "je/jullie willen het niet snappen.".
Zoals boven aangegeven kun je een rijtje feiten geven, maar als je niet weet wat de invloed ervan is, is het niet echt nuttig. En ondertussen wordt de reactie dat het proces een stuk kleiner is en dus de verwachting wekt dat de kaart zuiniger zou moeten zijn totaal genegeerd. Terwijl dat een goed punt is.
Heb je er bij stilgestaan dat hij zo min mogelijk idle verbruik wil en dat hij dat dus zo veel mogelijk wil voorkomen?En jouw
[...]
kun je niet als argument gebruiken, want dat klopt gewoon niet, hij verbruikt géén 40W meer in idle.
Het gaat er niet om dat hij het kan betalen of dat
Ik ben niet met die 40 watt gekomen.
Het ging om het principe. Dat misschien te voorkomen extra verbruik sommigen allemaal niet boeit omdat het niet zo veel kost? Omdat je meer stroom verbruikt bij gamen?
Bij mij komt mijn kaart niet onder de 98 watt idle uit op 5120x2160@10 bit@180hz. Laat staan dat ik er nog een 2560x1440@10bit@180hz aan hang.
Het geheugen blijft dan ook hangen op 1500 MHz (max van de kaart is 2502 en echt idle is 25 of zo). De gpu draait ook op zo’n 1500 MHz.
Daar moet ik dus nog flink mee aan de slag.
[quote]Wat ik aangeef is dat zijn interpretatie van de test, wat hij als basis neemt voor zijn observatie niet klopt.
En 2 manieren van verbruik meten is ook niet handig.
Ongelijke situaties en ongelijke meetmethodes is domweg géén goede basis voor een (eerlijke) vergelijking.[quote]
Hij vergelijkt de waarden in de test met zijn eigen waarden. Hij snapt dat er een afwijking zit in meetmethode. Hij heeft het ook helemaal niet over dat verschil.
Maar het verschil in hardware en meetmethode tussen de online test en die van hemzelf is voor allebei zijn testen nagenoeg hetzelfde. Hij ziet dan dat de afwijking van de AMD vele malen die van de Nvidia is. En vraagt zich af waardoor dat komt.
Is dat zo gek? En moet dat antwoord dan zijn dat hij appels met peren aan het vergelijken is? En als idle verbruik hem interesseerde hij sowieso geen nieuwe kaart had moeten kopen?
Alsof er niet genoeg andere redenen kunnen zijn voor een nieuwe gpu.
Zoals aangegeven zijn feiten onderdeel van een verhaal, waarin ze wel of niet relevant zijn en zijn er meerdere invalshoeken.Dit is geen gelijk halen, dit zijn gewoon feiten.
[ Voor 3% gewijzigd door White Feather op 14-12-2025 22:02 ]
47W is inderdaad erg veel en een teken dat het geheugensectie van de GPU 'aan' blijft staan.krauser schreef op vrijdag 12 december 2025 @ 19:06:
Nnoitra:
De monitor setup is bij mij gelijk gebleven.1440P-144Hz en 1080P-60Hz.
De verandering is de grafische kaart. De test bij Techpowerup geven een verbruik aan voor de RTX3070 en 9070 XT ook in beiden dezelfde test setup: (zal vast anders zijn dan bij mij, maar ik kan het verschil tussen mijn en hun setup wel vergelijken)
https://www.techpowerup.c...-rx-9070-xt-pulse/41.html
Multimonitor Techpowerup:
RTX3070: 19W
Sapphire Pulse RX 9070 XT Pulse: 22W
Dus de appels en peren zitten hier dicht bij elkaar qua verbruik. Maar bij mij niet, terwijl ik hier wel op rekende en ook andere reviews een laag verbruik aangeven.
Mijn RTX3070 gebruikte ongeveer 22W ipv 19W = 3W meer.
Dus als de 9070 XT dan 25W ipv 22W (3W meer) verbruikt, prima.
Maar de 9070 XT verbruikt richting de 47Watt.
Dat is bijna het dubbele, dus ergens klopt er iets niet, maar wat?
Waarmee heb je het verbruik afgelezen trouwens?
Een software uitlezing is maar een schatting en kan variëren van vrij nauwkeurig tot klopt van geen kanten / is onbruikbaar. Doorgaans is de afwijking bij Nvidia kaarten vaak veel groter dan bij een AMD kaart.
Met name de uitlezing van het rustverbruik kan soms de plank helemaal misslaan.
Bovendien kan Andrenaline het vermogen in Wptt of Wtbp aangeven (hangt van de GPU generatie af) en is het soms niet duidelijke welke waarde gemeten worden. Daarbij is de Wtbp waarde onnauwkeurig te noemen.
Voor een goede uitlezing van het vermogen kan met een AMD kaart het beste HWinfo gebruikt worden: https://www.hwinfo.com/download/.
Daarbij gekeken naar de gemiddelde waarde van de GPU PPT of TGP (in W).
Dat is het vermogen dat na de VRM sectie gemeten wordt, dus zonder de verliezen van de voeding meegerekend. AMD heeft de uitlezing hiervan (in de regel) vrij nauwkeurig gekalibreerd.
Het werkelijk verbruik is dan met een schatting eventueel om te rekenen naar Wtbp (tbp = total board power) om het met een Nvidia kaart via GPU-Z vergelijkbaar te maken.
Maar zoals aangegeven wijkt het verbruik dat een Nvidia kaart aangeeft vaak nog sterker af t.o.v. de werkelijkheid. Het is dus niet echt zinvol om hier vanuit te gaan.
De enige manier om met zekerheid te zeggen of de ene kaart zuiniger is dan de ander, is een hardware meting. Dus aan het stopcontact voor ons hobbyisten.
Anyhoo om in te gaan op het 'normale' verbruik van een 9070XT,
Een 9070XT dat volledig in rust is zal ongeveer 8-9Wtbp (let op: tbp = total board power) verbruiken.
En met een scherm extra zal dit verbruik in het gunstige geval nauwelijks toenemen, slechts 1.0-1.5Wtbp erbij. Het kan dus echt héél zuinig zijn en een dikke 10Wtbp minder dan met een vergelijkbare Nvidia kaart mogelijk is (5070Ti bijv. die je overwogen hebt). Met vergelijkbaar bedoel ik dan het 'pcb ontwerp' = gekeken naar de kwaliteit en grootte van de VRM & geheugen sectie. De chip of het procedé doet er vrijwel niet toe omdat de GPU chip vrijwel uit zal staan in 2D of rust.
Nu is het vervelende dat het soms niet mogelijk is om de GPU in rust te krijgen doordat het geheugen daarvan niet in spaarstand wil gaan en ditto het rustverbruik flink hoger uitpakt. Je kan dat controleren door naar de GPU & geheugen klok te kijken in HWinfo. Dat moet <10MHz zijn.
Wat nu precies de technische reden daarvoor is ben ik niet achter gekomen, maar ik weet wel dat het totaal aan resolutie, de hoogte van de verversingssnelheid en de beeldschermtimings van de monitor zelf van invloed zijn. En dat het ook per GPU generatie verschilt.
AMD heeft denk ik wel verbeteringen gemaakt op dit vlak, want mijn RX6900XT gaat van 8Wtbp naar 32Wtbp wanneer een dual monitor setup met 3440x1440@100Hz + 2560x1440@60-100Hz aangesloten wordt. Met 3440x1440@100Hz + 2560x1440@50Hz blijft het wel in rust.
De 7900XTX die ik daarna kocht heeft geen moeite met beide schermen op 100Hz en blijft lekker zuinig op 12Wtb pruttelen. Ik maar overigens wel gebruik van Freesync op het hoofdscherm.
Dingen die je evt. kan nalopen om te kijken of het effect heeft:
- Bij Power Options (energiebeheer) -> PCI Express -> Link State Power Management - > op moderate of hoger zetten.
- Verversingssnelheid in stapjes lager zetten 120Hz ipv 144Hz bijv (als het niet selecteerbaar is in Windows, dan is via Adrenaline makkelijk een beeldscherm profiel daarvoor aan te maken).
- Bandbreedte beperken door 10-bit naar 8-bit te zetten.
- Beelschermtimings aanpassen (idem via een extra beeldscherm profiel in Andrenaline).
- ASPM opties aanzetten (kan wel voor onstabiliteit zorgen/vage klachten geven).
Wel Hybrid graphics in de bios uit zetten om te voorkomen dat de 3D uitgang per ongeluk doorgelust wordt naar het 2e scherm.
Ik heb op deze manier mijn dual monitor setup aangesloten. Met de 7900XTX is het niet nodig, maar wel gedaan uit nieuwsgierigheid om te kijken of RDNA 2 & 3 naast elkaar kunnen werken (de drivers daarvoor zijn verschillend). En dat gaat uitstekend. Werkt vlekkenloos met Windows 10.
Let op:
Dit topic is voor discussie over en ervaring met de 9000 serie van AMD. Prijzendiscussies horen thuis in [AMD Radeon RX9000 series] Levertijden & Prijzen. Post dat hier dus niet. Ook discussies over winkels horen hier niet.
Dit topic is voor discussie over en ervaring met de 9000 serie van AMD. Prijzendiscussies horen thuis in [AMD Radeon RX9000 series] Levertijden & Prijzen. Post dat hier dus niet. Ook discussies over winkels horen hier niet.
/f/image/Ra1uKovZ87XMoQb7JynZnkQw.png?f=fotoalbum_large)