R7 9800X3D + ASUS ROG STRIX X870E-E + RTX 4090 FE + 48GB TG Xtreem 8200 CL38
Ik gebruik een minimal driver install + MCT al enige tijd, maar het maakt echt niet uit voor eventuele resets.Cidious schreef op vrijdag 16 juni 2023 @ 03:26:
Ik wil deze hier even droppen.
AMD Minimal driver install + MCT
https://www.igorslab.de/e...ool-replaces-the-wattman/
Wattman blijft altijd maar resetten dus ik gebruikte afterburner maar deze tool is nog kleiner en eenvoudiger.
[Afbeelding]
Wattman is dus gewoon prima, maar het nadeel is dat je dan gelijk het hele pakket moet installeren.
Had je het toevallig uit het [AMD Radeon RX7000 series] Ervaringen & Discussie draad gehaald?
Het resetten is bij overigens begonnen met de Windows 22H2 update. Maar dat heeft ook mijn OS corrupt gemaakt..(Firefox kan plots geen enkele video afspelen, maar Chrome weer wel en ingame opnamen is totaal kapot gemaakt).
En nog een kleine bump van een eerdere post, waar ik helaas geen reactie op heb gekregen
Misschien is het je ontgaan wat betreft mijn vraag over de inline PCIe condensator kabel extension:
CMT schreef op donderdag 25 mei 2023 @ 07:55:
[...]
Is dat toevallig een kabel extension van Silverstone?
Ik ben van plan het ook te proberen, maar heb er een hard hoofd in.
Bij de Seasonic Prime Ultra TX-850 of TX-650, heeft het helemaal niets uit gemaakt in welke poorten of combinatie van poorten de PCIe connectoren zaten.
Meestal is het niet goed voor de een geschakelde voeding om zomaar capaciteit eraan te hangen.
Het kan zomaar zijn dat de regulatie daarmee verslechterd (iets waar ze met de ATX3.0 standaard zo mee bezig zijn).
Met meer capaciteit verschuif je de fase tussen spanning en stroom een klein beetje.
Misschien dat het daarom buiten het probleem gebied is gekomen bij je?
Ben niet actief in het 7000 thread geweest. Ik kan wel bevestigen dat met MCT de settings alsnog resetten. Ik ben dan ook weer terug naar Afterburner. Ik vind het echt debiel dat AMD dit niet kan oplossen en dat afterburner dat wel kan.. Voor mij ook geen AMD kaart meer. Ben er wel klaar mee haha. Ik wilde een RTX4080FE kopen afgelopen week maar vind de prijs nog te zot. Blijf gewoon even wachten tot de prijs omlaag gaat of dat nVidia een 4080ti in het prijs slot gooit. 4090 is overkill voor mij. En eerlijk gezegd wil ik niet meer dan €850 voor een GPU betalen. Dat is een beetje m'n acceptabele max. Dus ik wacht het gewoon lekker uit met m'n 6900XTCMT schreef op woensdag 21 juni 2023 @ 04:07:
[...]
Ik gebruik een minimal driver install + MCT al enige tijd, maar het maakt echt niet uit voor eventuele resets.
Wattman is dus gewoon prima, maar het nadeel is dat je dan gelijk het hele pakket moet installeren.
Had je het toevallig uit het [AMD Radeon RX7000 series] Ervaringen & Discussie draad gehaald?
Het resetten is bij overigens begonnen met de Windows 22H2 update. Maar dat heeft ook mijn OS corrupt gemaakt..(Firefox kan plots geen enkele video afspelen, maar Chrome weer wel en ingame opnamen is totaal kapot gemaakt).
En nog een kleine bump van een eerdere post, waar ik helaas geen reactie op heb gekregen.
Misschien is het je ontgaan wat betreft mijn vraag over de inline PCIe condensator kabel extension:
[...]
/f/image/y3Q6v3B5H6ugxTQWDoSp1sDI.png?f=fotoalbum_large)
De kabel extensions zijn helaas Chinees generic maar werken wel. Ik kan helaas ook niet zien wat voor condensatoren zijn gebruikt om dat deze ingesloten zijn met krimpkous. Ik begrijp dat het een beetje overkomt als snake oil, dat was mijn verwachting dan ook maar voor die paar euro wilde ik het toch proberen. En het systeem is nu gewoon rustig tijdens het gamen. Geen gekrijs meer en heb ook geen instabiliteit gehad op het feit na dat ik de undervolt van 1110mV naar 1115mV heb moeten gooien om 24 stabiel te zijn. Dit kan ook driver afhankelijk zijn maar kan ook natuurlijk dat door de extra weerstand het voltage een beetje bijgevoed moet worden.
[ Voor 13% gewijzigd door Cidious op 21-06-2023 11:05 ]
R7 9800X3D + ASUS ROG STRIX X870E-E + RTX 4090 FE + 48GB TG Xtreem 8200 CL38
Vaag dat Afterburner dan wel goed werkt. Ik heb daar ook problemen mee dat het spontaan de instellingen reset (met een 1080Ti destijds en nu een 4090FE).
De 4090FE kan mij eigenlijk niet bekoren omdat het net zo veel coilwhine heeft, een hoog idle verbruik dat sterk toeneemt met een multimonitor setup en bovendien ook nog eens toeneemt wanneer de kaart in idle warm word ><. Dan gaat het van 18W idle single monitor 1920x1080@60Hz, naar 28-30W idle voor een 3440x1440@100Hz + 1920x1080 @60Hz dual monitor setup.
AMD heeft dat toch echt een stuk beter voor elkaar, waarbij een 2e monitor nauwelijks meer energie kost (ca. 1W of minder in plaats van >5W bij Nvidia) en ook niet schaalt met de temperatuur.
Daarnaast werkt Freesync niet goed bij Nvidia, omdat het sync minium vrij hoog gekozen is. Ik dacht dat het bij iets van 60-70FPS lag. Waarschijnlijk om zo G-sync superieur te laten lijken
Je krijgt dus continue flikkeringen doordat er een omschakeling is in dat gebied en verstoringen in de frametimes ontstaan = trigger voor helderheids flikkering bij VA schermen.
Aangezien ik veel WoW - Dragonflight speel, ben ik dus nog bij de RX6900XT gebleven.
Het grappige is dat het zelfs sneller is in situaties waarbij een klassieke 1 thread bottleneck is.
De driver overhead bij Nvidia is zo groot dat een 5800X3D het niet trekt en in dat geval dus de RX6900XT fors sneller is (+10-20%).
Kortom als de refresh van RDNA3 de klok & power probleem oplost, dan ben ik zo weer overstag
Maar om even terug te komen op de extension kabels, ik zou dat graag ook willen proberen onder het motto van 'baat het niet, dan schaadt het niet'. Ik ben echt wanhopig geworden omdat alles wat ik geprobeerd heb vrijwel nul effect heeft gehad: 7 voedingen, 4 moederborden, 4 cpu's, 5x AMD RX6950XT, 2x Powercolor RX6700 Fighter, 1x Asrock RX6800 phantom gaming, 2x 4090FE.
Alles opgemeten met een gecalibreerde meetsetup (audio spectrum metingen) omdat het audiologisch geheugen van de mens zeer slecht is en te subjectief.
In alle gevallen was de coilwhine even hinderlijk en luid genoeg om boven 1000rpm fan's uit te komen.
En nog belangrijker ook consistent qua metingen. Zelfs met kaarten uit verschillende batches.
Wat ik wel kan zeggen is dat de voedingen en moederborden, haast geen verschil hebben gegeven. Hooguit dat de een aantal pieken iets verschoven zijn (klein verschil in amplitude of frequentie, soms een enkele extra piek), maar globaal zijn de spectrum metingen over elkaar heen te leggen. De CPU's gaven ook geen verschil, behalve dat het op een ander FPS punt een bottleneck vormt en zodoende andere coilwhine geeft. Maar met een limiet is het ook een pot nat.
Dus dit is zo'n beetje mijn laatste strohalm en anders kan ik het gewoon niet geloven als iemand beweert geen coilwhine te horen. Met zoveel onderdelen had ik op zo'n minst een goed verschil moeten kunnen meten bij kaarten van hetzelfde type.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Nu een maand verder en ik denk dat ik ondertussen het maximaal haalbare heb gehaald uit de Reference AMD RX6950 koeler.Pos schreef op vrijdag 26 mei 2023 @ 07:05:
PTM7950 is binnen
Vanmiddag ga ik beginnen met voorzichtig mijn contact punt van de vapour chamber te vlakken welke volgens mij behoorlijk convex is. 0,05 tot 0,15 mm verschil in hoogte. Moet ik nog beter checken.
Met de PTM7950 ertussen, en ik durf niet te zeggen of ik hetzelfde resultaat zou hebben bereikt met MX6 van arctic, plus het "gevlakte" contactpunt van de vapour chamber, welke dus concaaf was ipv convex, heb ik nu met deze hitte een prima kaart welke rond de 2500 a 2600 MHz met een offset op 1130mv stabiel draait. Deze trekt dan rond de 320 watt met de fans op ~2100-2300 rpm. Tjunction zit dan op de 85 a 86 graden!
Voor gewoon daily gaming, en wat ik speel, draait ie op 1900 MHz en zegt adrenaline dat ie 850mv doet. Dan is het 160-180 watt en Tjunction is dan 68-70 graden en 1400 rpm max op de fans ofzo.
Uiteraard hebben we ook nog nog FULL UNLOCKED 3DMark settings, de volle 340watt. Frequentie ingesteld op 2796 MHz, wat ie in bepaalde situaties ook wel haalt. Daarbij loopt de Tjunction wel op naar 110 graden omdat mijn koeler gewoonweg het vermogen niet heeft dat kwijt te kunnen. Maar dat duurt wel een minuut of langer voordat hij daar is. Fan RPM op 90% max.
Voor nu ben ik wel klaar met klooien. Wellicht in het naseizoen, als het allemaal weer wat koeler is en de kaart functioneert nog
Tot zo ver een leuk project met toch wel goede resultaten en nog steeds niets stuk (afkloppen).
Voorheen bij een oude driver 22.11.2 nooit last van gehad.
Ik heb in mei vorig jaar geleden een PC laten bouwen bij Alternate met een PowerColor Red Devil 6700 XT. Ik heb op 1 juli van dit jaar deze kaart voor RMA binnengedaan bij Alternate omdat deze te warm werd: hotspot temperaturen van boven de 100°C en temperatuurdelta's die tegen de 30°C aanschuren in games zoals Spider-Man Miles Morales. Bij Alternate hebben ze bij het accepteren van de RMA gezegd dat dit tot wel 8 weken kan duren, maar doorgaans eerder 3-4 weken.
Ik heb daarvoor gisterenavond nog een mailtje gestuurd en ze hebben vandaag daarop geantwoord dat ze nog geen update hebben, en dan in een vervolgmailtje dat PowerColor doorgaans een standaardantwoord van "4-6 weken" heeft voor dit soort RMA claims en dat Alternate uit het verleden heeft geleerd dat het niet veel zin heeft om daar extra vragen rond te sturen. Nu vraag ik mij af wat de ervaringen zijn van andere gebruikers in verband met PowerColor RMA's. Is die 4-6 weken accuraat?
Overigens excuses als dit een ongeoorloofde "necro" is, maar dacht gezien de aard van deze topic dat dit niet echt kwaad kon.
[ Voor 5% gewijzigd door nzall op 28-07-2023 14:41 ]
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Ik blijf het toch lastig vinden, dat undervolten, maar dat zal ongetwijfeld ook komen omdat ik het eigenlijk nog niet echt begrijp. Ik zie Mv onder de 1000 langs komen terwijl ik met mijn 6800xt reference onder de 1120 drivercrash krijg. Ook als ik power limit naar max ophoog (+15%) en max frequency van 2385 naar bijvoorbeeld 2150 zet. En aanvullend zeker weet dat temp geen issue is (waterkoeling en in de 60 junction). Any tips or tricks?Cidious schreef op donderdag 8 juni 2023 @ 03:27:toon volledige bericht
[...]
Het is een driehoeksverhouding tussen Stroom, Spanning en Temperatuur. Op die 3 datapunten is het algoritme afgesteld. En zo lang deze datapunten hoofdruimte hebben ten overstaan van de tabel die het algoritme er op na houdt om te bepalen hoe hoog de frequentie mag gaan zal de kaart blijven boosten tot deze of in 1 van de limieten loopt of door te weinig spanning voor die frequentie fouten genereert of zelfs crasht.
De spanning die je zet zal effectief resulteren in een spanning die matched met de frequentie in een tabel nadat de offset die jij hebt gezet is toegepast. En dit is dus het verwarrende van AMD Control panel. Omdat deze de totale spanning in mV aangeeft waar het naar zal kijken in de tabel (minus de offset van de begin waarde) en niet de offset die op de tabel wordt toegepast. Het was handigere geweest als AMD dit gewoon had omschreven als offset in plaats van dit nutteloze nummer.
Handig om dan ook te beseffen is dat als je de spanning omlaag gooit en de frequentie omhoog, je daadwerkelijke spanning onder load waarschijnlijk niet zakt omdat de tabel gewoon verschoven is. (Mits er genoeg thermal en stroom headroom is).
Ik begrijp dat het allemaal een beetje verwarrend overkomt. Maar dit is hoe moderne GPUs en CPUs boosten. Ze maken doormiddel van een algoritme een referentie naar een tabel en bepalen dan hoeveel van alles is toegestaan. En dit kunnen wij manipuleren door aan de sliders te trekken. Maar helaas werkt het niet intuitief omdat AMD vooral (maar ook nVidia) de sliders niet duidelijk weergeven.
Even wat praktische info. Je zal 4 dingen moeten beheren voor een optimaal resultaat:Als laatste wil ik nog even meegeven dat als je iets aanpast met de sliders je altijd even moet verifiëren met bijvoorbeeld TimeSpy dat dit daadwerkelijk het resultaat heeft dat je verlangd. Soms kan de frequentie hoger weergeven maar de daadwerkelijke performance lager uitvallen. AKA Clock Stretching.
- Power Limit - Deze is verantwoordelijk voor het totale stroomvebruik van de kaart (Ja het geheugen valt binnen dit budget en soms kan het meer perf opleveren door het geheugen minder te laten verbruiken door undervolten of underclocken van het geheugen om net een paar meer W naar de core te kunnen sturen. Dit is voor extreme OC gevallen en per applicatie verschillend)
- Spanning - Des te lager de spanning per frequentie des te minder stoom de kaart zal verbruiken en dus hoger kunnen boosten binnen datzelfde power budget tot de core voltage uitgehongerd is en fouten genereert. Spanning schaalt in de tabel met gezette frequentie. Des te lager de spanning per frequentie, des te lager het stroomverbruik, des te lager de temperatuur.
- Temperatuur - Een koudere core zal minder voltage nodig hebben voor dezelfde frequentie dus technisch gezien hogere frequentie kunnen halen bij een lager stroom verbruik. De temperatuur is ook 1 van de limieten waar het algoritme op reageert om de core te beschermen tegen schade en kan dus de frequentie automatisch terugschroeven hierdoor.
- Frequentie - Dit is de minst belangrijke omdat het boost algoritme voornamelijk gelimiteerd is door de 3 hierboven en niet door de frequentie slider. En het verhogen van deze slider zal resulteren in effectief meer voltage omdat de tabel verschuift en dus sneller het power budget limiet bereikt zal worden. Dit is de reden dat simpelweg het verhogen van de frequentie limiet op standaard setting niet resulteert in meer performance of hogere frequentie tenzij bovenstaande 3 punten hoofdruimte hebben. Het kan handig zijn deze slider te verhogen als je wel meer hoofdruimte hebt gecreëerd in bovenstaande punten en dus hoger kan pieken en al voltage gelimiteerd bent (1100mV voor 6800XT) met meer thermal headroom bijvoorbeeld (ik draai een waterblok).
Sorry voor langdradige bericht, maar ik hoop dat het zo een beetje duidelijker is. Ik moet een kop koffie hebben nu. HAHA. En ik hoop dat andere slimme breinen me hier aanvullen mocht ik iets essentieels gemist hebben.
Undervolting is niet altijd gratis. Als je echt veel stroomverlaging wil zien, dan moet je wat clock speed opgeven. Verder kan je ook pech hebben met een chip die relatief veel voltage nodig heeft. Power limiet verhogen en undervolten, tja die gaat meestal niet werken.paw schreef op zondag 30 juli 2023 @ 15:29:
[...]
Ik blijf het toch lastig vinden, dat undervolten, maar dat zal ongetwijfeld ook komen omdat ik het eigenlijk nog niet echt begrijp. Ik zie Mv onder de 1000 langs komen terwijl ik met mijn 6800xt reference onder de 1120 drivercrash krijg. Ook als ik power limit naar max ophoog (+15%) en max frequency van 2385 naar bijvoorbeeld 2150 zet. En aanvullend zeker weet dat temp geen issue is (waterkoeling en in de 60 junction). Any tips or tricks?
Je zal dus eerst moeten bepalen wat je nu wil.
1) Fors lager verbruik voor minimaal prestatieverlies?
2) Lager verbruik voor dezelfde prestaties?
3) Sneller voor hetzelfde verbruik?
4) Maximale prestaties ongeacht verbruik?
En dan kan je pas je strategie bepalen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Als je alleen minder verbruik wilt, dan is verhogen van powerlimit inderdaad niet zo boeiend denk ik.
[ Voor 3% gewijzigd door Gundogan op 30-07-2023 22:40 ]
Ryzen 5 5600, 32GB, Gigabyte B550M DS3H, RX 6600 8GB
Ik heb een AMD Reference RX6950XT, en mijn Furmark bench laat 75 graden GPU en 110 junction / hotspot zien. Stroomverbruik is dan 280W. Ik haal daarbij maar 2100MHz. Als jullie dat zo lezen, is dat een teken van een niet goed gevulde vapor chamber? Ik weet dat mijn kast nog wel betere airflow kan hebben, maar dit is met de kast open, de kast op zijn kant, ondersteboven etc, en pads vervangen etc. Alles wat ik maar kan bedenken, maar die 110 graden is wmb een te grote delta. Iemand die daar wat op wilt zeggen?Pos schreef op maandag 26 juni 2023 @ 17:12:toon volledige bericht
[...]
Nu een maand verder en ik denk dat ik ondertussen het maximaal haalbare heb gehaald uit de Reference AMD RX6950 koeler.
Met de PTM7950 ertussen, en ik durf niet te zeggen of ik hetzelfde resultaat zou hebben bereikt met MX6 van arctic, plus het "gevlakte" contactpunt van de vapour chamber, welke dus concaaf was ipv convex, heb ik nu met deze hitte een prima kaart welke rond de 2500 a 2600 MHz met een offset op 1130mv stabiel draait. Deze trekt dan rond de 320 watt met de fans op ~2100-2300 rpm. Tjunction zit dan op de 85 a 86 graden!
Voor gewoon daily gaming, en wat ik speel, draait ie op 1900 MHz en zegt adrenaline dat ie 850mv doet. Dan is het 160-180 watt en Tjunction is dan 68-70 graden en 1400 rpm max op de fans ofzo.
Uiteraard hebben we ook nog nog FULL UNLOCKED 3DMark settings, de volle 340watt. Frequentie ingesteld op 2796 MHz, wat ie in bepaalde situaties ook wel haalt. Daarbij loopt de Tjunction wel op naar 110 graden omdat mijn koeler gewoonweg het vermogen niet heeft dat kwijt te kunnen. Maar dat duurt wel een minuut of langer voordat hij daar is. Fan RPM op 90% max.
Voor nu ben ik wel klaar met klooien. Wellicht in het naseizoen, als het allemaal weer wat koeler is en de kaart functioneert nog, misschien nog wat verder proberen te optimaliseren.
Tot zo ver een leuk project met toch wel goede resultaten en nog steeds niets stuk (afkloppen).
110C is compleet onacceptabel. Dat is de maximale temperatuur voordat de videokaart gaat downclocken. Dat gebeurd zo te lezen al.krflyer schreef op maandag 31 juli 2023 @ 16:07:
[...]
Ik heb een AMD Reference RX6950XT, en mijn Furmark bench laat 75 graden GPU en 110 junction / hotspot zien. Stroomverbruik is dan 280W. Ik haal daarbij maar 2100MHz. Als jullie dat zo lezen, is dat een teken van een niet goed gevulde vapor chamber? Ik weet dat mijn kast nog wel betere airflow kan hebben, maar dit is met de kast open, de kast op zijn kant, ondersteboven etc, en pads vervangen etc. Alles wat ik maar kan bedenken, maar die 110 graden is wmb een te grote delta. Iemand die daar wat op wilt zeggen?
Daar maakt overduidelijk iets geen contact. Als je die videokaart al open hebt gemaakt en het nog steeds zo is, dan lijkt me het de vapor chamber of de schroeven zijn niet goed aangedraaid. Iets waar je mee moet oppassen, want te veel druk en dan maak je de GPU kapot. Ik had dat alleen niet gedaan want deze videokaart moet ter reparatie naar de winkel. En daar kan helaas altijd gedoe uit voortkomen dat het je eigen schuld is. Daar lijkt me geen sprake van en als die videokaart recent gekocht is, dan is het ook aan de winkel om aan te tonen dat je het zelf kapot hebt gemaakt, maar recht hebben en je recht krijgen zijn vaak twee andere dingen.
[ Voor 4% gewijzigd door DaniëlWW2 op 31-07-2023 18:54 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Het lijkt erop dat je een kopie hebt van mijn kaart zo te lezen. Je hebt exact dezelfde symptomen als die van mij.krflyer schreef op maandag 31 juli 2023 @ 16:07:
[...]
Ik heb een AMD Reference RX6950XT, en mijn Furmark bench laat 75 graden GPU en 110 junction / hotspot zien. Stroomverbruik is dan 280W. Ik haal daarbij maar 2100MHz. Als jullie dat zo lezen, is dat een teken van een niet goed gevulde vapor chamber? Ik weet dat mijn kast nog wel betere airflow kan hebben, maar dit is met de kast open, de kast op zijn kant, ondersteboven etc, en pads vervangen etc. Alles wat ik maar kan bedenken, maar die 110 graden is wmb een te grote delta. Iemand die daar wat op wilt zeggen?
Je kunt in principe mijn posts volgen om te zien wat ik heb gedaan en welke resultaten het opgeleverd heeft.
Waarschijnlijk heb je te weinig mounting pressure op de core. Daar heb ik het meeste gewonnen.
Als je kaart nog ongeopend is kun je de rma procedure in gaan. Wat daaruit komt kan beide kanten op. Zowel positief als negatief helaas.
Dit was de reden waarom ik niet zelf ben beginnen prutsen aan mijn Red Devil 6700XT toen ik merkte dat die heter werd dan 100°C op de hotspot: ik had sowieso al recht op 2 jaar garantie van de winkel waar ik die gekocht heb, dus dan maak ik daar liever gebruik van dan dat ik zelf begin te prutsen en risico loop dat bij het alsnog gebruik maken van de garantie bericht krijg dat ik hem waarschijnlijk zelf kapot heb gemaakt. Gewoon binnengebracht bij Alternate BE en hen het verder laten afhandelen.DaniëlWW2 schreef op maandag 31 juli 2023 @ 16:13:
[...]
110C is compleet onacceptabel. Dat is de maximale temperatuur voordat de videokaart gaat downclocken. Dat gebeurd zo te lezen al.
Daar maakt overduidelijk iets geen contact. Als je die videokaart al open hebt gemaakt en het nog steeds zo is, dan lijkt me het de vapor chamber. Ik had dat alleen niet gedaan want deze videokaart moet ter reparatie naar de winkel. En daar kan helaas altijd gedoe uit voortkomen dat het je eigen schuld is. Daar lijkt me geen sprake van en als die videokaart recent gekocht is, dan is het ook aan de winkel om aan te tonen dat je het zelf kapot hebt gemaakt, maar recht hebben en je recht krijgen zijn vaak twee andere dingen.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Het past ook maar net in een
uitvoering: Corsair iCUE 220T RGB Airflow Zwart
Zo eerst door 3DMark halen en dan eens goed testen in games.
Kijk ook zeker de temperaturen na. Voor zover ik weet zijn de meeste kaarten die last hebben van problematische temperaturen gemaakt door Powercolor, oftewel onder hun eigen naam oftewel als AMD reference card.Gummiebeer schreef op maandag 31 juli 2023 @ 20:21:
Vandaag de uitvoering: Powercolor Red Dragon AMD Radeon RX 6800 XT 16GB GDDR6 binnen. Eerste indruk, wat een grote kaart tov een Powercolor 5700XT Red Dragon!
Het past ook maar net in een
uitvoering: Corsair iCUE 220T RGB Airflow Zwart
Zo eerst door 3DMark halen en dan eens goed testen in games.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
De hotspot blijft op 93 graden zo uit de doos. Dus ik denk dat het wel acceptabel is. Er valt vast winst te halen in undervolten dus daar ga ik nog mee bezig.nzall schreef op maandag 31 juli 2023 @ 21:08:
[...]
Kijk ook zeker de temperaturen na. Voor zover ik weet zijn de meeste kaarten die last hebben van problematische temperaturen gemaakt door Powercolor, oftewel onder hun eigen naam oftewel als AMD reference card.
Foto ter vermaak.
:strip_exif()/f/image/tsfA721kOXRUpAzgxgqZD1oS.jpg?f=fotoalbum_large)
[ Voor 29% gewijzigd door Gummiebeer op 31-07-2023 21:51 ]
Lager verbruik met minimaal prestatieverlies is de doelstelling. Dus downclocken tot hij met lager Mv wel stabiel blijft?DaniëlWW2 schreef op zondag 30 juli 2023 @ 20:39:
[...]
Undervolting is niet altijd gratis. Als je echt veel stroomverlaging wil zien, dan moet je wat clock speed opgeven. Verder kan je ook pech hebben met een chip die relatief veel voltage nodig heeft. Power limiet verhogen en undervolten, tja die gaat meestal niet werken.
Je zal dus eerst moeten bepalen wat je nu wil.
1) Fors lager verbruik voor minimaal prestatieverlies?
2) Lager verbruik voor dezelfde prestaties?
3) Sneller voor hetzelfde verbruik?
4) Maximale prestaties ongeacht verbruik?
En dan kan je pas je strategie bepalen.
Dacht dat powerlimit ophogen ook geen kwaad kon, gezien het niet perse betekent dat de max gehaald gaat worden. Maar aan die knop draaien heeft in mijn geval niet zo veel meerwaarde begrijp ik.
Dat hangt sterk van het GPU type af. De zware kaarten met veel cores worden doorgaans beperkt door het beschikbaar vermogen = vermogenslimiet / 'power limited'.paw schreef op maandag 31 juli 2023 @ 22:12:
[...]
Lager verbruik met minimaal prestatieverlies is de doelstelling. Dus downclocken tot hij met lager Mv wel stabiel blijft?
Dacht dat powerlimit ophogen ook geen kwaad kon, gezien het niet perse betekent dat de max gehaald gaat worden. Maar aan die knop draaien heeft in mijn geval niet zo veel meerwaarde begrijp ik.
De RX6900XT is dat 100% bij 255W ppt en schaalt dus met het beschikbaar vermogen.
Bij de RX6800XT zal het minder zijn, maar ook die wordt stock door de 255W ppt budget beperkt.
Wat belangrijk is om te weten is dat de GPU instelwaarden in Andrenaline, limietwaarden / richtwaarden zijn. Ook wel 'target values' genoemd
Wanneer je gaat meten met HWinfo (en/of CapframeX) dan zie je wat de echte klok en core voltage is / doet.
Op de targetvoltage moet je niet al te veel op letten, omdat vanuit de fabriek een kwaliteitsstempel wordt toebedeelt aan de GPU chips en aan de hand daarvan intern de voltage-frequentie curve een compensatie krijgt.
Bij sommigen exemplaren zit dat dichter bij de echte grens dan anderen en er is ook een kleine variatie in consistentie. Dus chips van gelijke kwaliteit kunnen een iets andere compensatie meegekregen hebben.
De gemeten gpu core-voltage verschilt niet zo veel bij een bepaalde belasting. Waar wel verschil in is te zien, is de klok die behaald wordt bij dat voltage. De goede chips doen ca. 100MHz meer en de golden samples 200MHz. Maar dan zijn er ook chips bij die gewoon meer stroom nodig hebben (hebben meer lekstroom). Minimum voltage is dus geen goede graad om te zien welke chip efficiënter is.
Voor een lager verbruik met minimaal prestatieverlies kan je bij de RX6800XT het beste de max. klok licht beperken. Kijk wat de games in werkelijkheid geven gemiddeld vs. piek klok en ga dan ertussen zitten met de target klok.
Wanneer een GPU heel ver klokt gaat dat ten kosten van de efficiëntie en dat loopt bijna exponentieel op.
Door de topjes in het verbruik als het ware af te snijden kan je aardig wat verbruik besparen, zonder al te veel in te boeten in de FPS. De FPS dippen zullen wel wat groter zijn en je moet dan voor je zelf beoordelen wat nog acceptabel is (voor mij persoonlijk mag het tot 40-50 fps dippen met Freesync aan).
De tweede draaiknop is het target voltage, waarmee je voltage-frequentie curve kunt beïnvloeden (het is geen lineaire + / - mV verschuiving).
Probeer dat zo laag mogelijk in te stellen zonder tegen onstabiliteit aan te lopen.
Zowel bij lichte belasting met max. klok (Timespy 1080p bijv.) als zware belasting waar de klok minimaal is en de stroom maximaal (OCCT GPU bench bijv.)
Eenmaal de grens gevonden, dan weer een stap terug. 20mV is voldoende. Minder zou ik persoonlijk niet snel doen, omdat de boostcurve ook temperatuur afhankelijk is en dus een soort 'drift' kent.
Als laatste kan je nog de powerlimiet bijstellen naar wat je gemiddeld ziet in games.
Daar zit meestal niet veel winst meer in omdat je eigenlijk al de boostcurve naar een efficiënter gebied gedrukt / gemanipuleerd hebt.
Ter vergelijking, ik heb mijn RX6900XT een target max. klok van 2000MHz gegeven en target voltage van 1150mV. Het verbruik is daarmee 2/3 van stock tegen max. 10-15% prestatieverlies.
Daarmee zit ik dicht in de buurt van wat mijn 3440x1440 100Hz monitor kan weergeven voor de games die ik op ultra settings speel o.a. WoW, Borderlands 3. Voor Diablo 4 is het zelfs overkill ^^.
Zonder deze tuning zou de GPU vaak tegen de max boosten met fors meer verbruik, ondanks dat de FPS dan nauwelijks verschilt in dezelfde locatie van de game. De gemiddelde FPS is slechts ca. 5% minder met de P1 FPS richting 10% minder voor WoW en BL3 met een 98Hz Freesync cap.
EDIT:
Hier is de post te vinden van de betreffende efficiëntie tuning met uitgebreide metingen: https://gathering.tweaker...message/73149816#73149816
Daarin is ook link te vinden naar een ander zeer uitgebreide efficiëntie onderzoek voor de CPU
[ Voor 9% gewijzigd door CMT op 01-08-2023 06:45 ]
Tot nu toe heb ik een spanning van 1060mV, max freq van 2425Mhz en de powerlimit maximaal op 15% gezet. Meerdere tests gedaan met 3DMark waar ik uiteindelijk op die waardes stabiel uitkwam. Er zal vast meer uit te halen zijn maar vooralsnog ben ik tevreden.
Hotspot temperatuur is van ~93 naar ~85 gedaald en heeft een stabiele 2400MHz en 30Watt minder verbruik. Ook is de coil whine zo goed als weg dus ergens zal ik het wel redelijk gedaan hebben. Nog wel noob hierin dus nog even meer inlezen en testen.
Ik dacht dat je met zaken zoals Undervolten je garantie wegdoet? Of is dat niet het geval?Gummiebeer schreef op zondag 6 augustus 2023 @ 13:47:
Na inlezen, YT tutorials kijken en gewoon maar proberen heb ik mij ook aan undervolt en overclock gewaagd met een Powercolor Red Dragon 6800XT.
Tot nu toe heb ik een spanning van 1060mV, max freq van 2425Mhz en de powerlimit maximaal op 15% gezet. Meerdere tests gedaan met 3DMark waar ik uiteindelijk op die waardes stabiel uitkwam. Er zal vast meer uit te halen zijn maar vooralsnog ben ik tevreden.
Hotspot temperatuur is van ~93 naar ~85 gedaald en heeft een stabiele 2400MHz en 30Watt minder verbruik. Ook is de coil whine zo goed als weg dus ergens zal ik het wel redelijk gedaan hebben. Nog wel noob hierin dus nog even meer inlezen en testen.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Het is gedaan met Adrenalin dus dat lijkt mij niet. Er zit ook een limiet aan natuurlijk en de kaart schakelt zichzelf uit bij overbelasting.nzall schreef op zondag 6 augustus 2023 @ 14:51:
[...]
Ik dacht dat je met zaken zoals Undervolten je garantie wegdoet? Of is dat niet het geval?
Het zou wel raar zijn als de garantie vervalt terwijl AMD deze software aanbied.
Misschien niet met undervolten, omdat je daarmee juist minder stroom en warmte veroorzaakt, maar je kan wel crashes verwachten. Maar Adrenalin waarschuwt wel degelijk bij custom settings zoals overlvoting en hogere limieten, dus die mogelijkheid bestaat echt wel dat AMD's garantie vervalt.Gummiebeer schreef op zondag 6 augustus 2023 @ 15:08:
[...]
Het is gedaan met Adrenalin dus dat lijkt mij niet. Er zit ook een limiet aan natuurlijk en de kaart schakelt zichzelf uit bij overbelasting.
Het zou wel raar zijn als de garantie vervalt terwijl AMD deze software aanbied.
I'm set mijn 6900xt op 1105mV bij 2200mhz temp zit rond de 60 en lever maar ong 7-12fps in. Game ook op 3440x1440@100hz. Verbruik is wel drastisch gedaald met 40 a 45watt.CMT schreef op dinsdag 1 augustus 2023 @ 05:32:toon volledige bericht
[...]
Dat hangt sterk van het GPU type af. De zware kaarten met veel cores worden doorgaans beperkt door het beschikbaar vermogen = vermogenslimiet / 'power limited'.
De RX6900XT is dat 100% bij 255W ppt en schaalt dus met het beschikbaar vermogen.
Bij de RX6800XT zal het minder zijn, maar ook die wordt stock door de 255W ppt budget beperkt.
Wat belangrijk is om te weten is dat de GPU instelwaarden in Andrenaline, limietwaarden / richtwaarden zijn. Ook wel 'target values' genoemd
Wanneer je gaat meten met HWinfo (en/of CapframeX) dan zie je wat de echte klok en core voltage is / doet.
Op de targetvoltage moet je niet al te veel op letten, omdat vanuit de fabriek een kwaliteitsstempel wordt toebedeelt aan de GPU chips en aan de hand daarvan intern de voltage-frequentie curve een compensatie krijgt.
Bij sommigen exemplaren zit dat dichter bij de echte grens dan anderen en er is ook een kleine variatie in consistentie. Dus chips van gelijke kwaliteit kunnen een iets andere compensatie meegekregen hebben.
De gemeten gpu core-voltage verschilt niet zo veel bij een bepaalde belasting. Waar wel verschil in is te zien, is de klok die behaald wordt bij dat voltage. De goede chips doen ca. 100MHz meer en de golden samples 200MHz. Maar dan zijn er ook chips bij die gewoon meer stroom nodig hebben (hebben meer lekstroom). Minimum voltage is dus geen goede graad om te zien welke chip efficiënter is.
Voor een lager verbruik met minimaal prestatieverlies kan je bij de RX6800XT het beste de max. klok licht beperken. Kijk wat de games in werkelijkheid geven gemiddeld vs. piek klok en ga dan ertussen zitten met de target klok.
Wanneer een GPU heel ver klokt gaat dat ten kosten van de efficiëntie en dat loopt bijna exponentieel op.
Door de topjes in het verbruik als het ware af te snijden kan je aardig wat verbruik besparen, zonder al te veel in te boeten in de FPS. De FPS dippen zullen wel wat groter zijn en je moet dan voor je zelf beoordelen wat nog acceptabel is (voor mij persoonlijk mag het tot 40-50 fps dippen met Freesync aan).
De tweede draaiknop is het target voltage, waarmee je voltage-frequentie curve kunt beïnvloeden (het is geen lineaire + / - mV verschuiving).
Probeer dat zo laag mogelijk in te stellen zonder tegen onstabiliteit aan te lopen.
Zowel bij lichte belasting met max. klok (Timespy 1080p bijv.) als zware belasting waar de klok minimaal is en de stroom maximaal (OCCT GPU bench bijv.)
Eenmaal de grens gevonden, dan weer een stap terug. 20mV is voldoende. Minder zou ik persoonlijk niet snel doen, omdat de boostcurve ook temperatuur afhankelijk is en dus een soort 'drift' kent.
Als laatste kan je nog de powerlimiet bijstellen naar wat je gemiddeld ziet in games.
Daar zit meestal niet veel winst meer in omdat je eigenlijk al de boostcurve naar een efficiënter gebied gedrukt / gemanipuleerd hebt.
Ter vergelijking, ik heb mijn RX6900XT een target max. klok van 2000MHz gegeven en target voltage van 1150mV. Het verbruik is daarmee 2/3 van stock tegen max. 10-15% prestatieverlies.
Daarmee zit ik dicht in de buurt van wat mijn 3440x1440 100Hz monitor kan weergeven voor de games die ik op ultra settings speel o.a. WoW, Borderlands 3. Voor Diablo 4 is het zelfs overkill...
Volgens mij krijg je gewoon een waarschuwing te zien dat dit je garantie kan doen laten vervallen.Gummiebeer schreef op zondag 6 augustus 2023 @ 15:08:
[...]
Het is gedaan met Adrenalin dus dat lijkt mij niet. Er zit ook een limiet aan natuurlijk en de kaart schakelt zichzelf uit bij overbelasting.
Het zou wel raar zijn als de garantie vervalt terwijl AMD deze software aanbied.
Maar je videokaart slopen met lagere voltages en lagere powerlimieten is wat lastig. Hogere powerlimieten op zichzelf ook. Hogere voltages maken het slopen wat makkelijker. Maar die moet je eigenlijk niet doen met AMD. De winst zit meestal juist in lagere voltages.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ze kunnen je nog zo'n leuke melding geven maar wel of geen garantie is afhankelijk van de wetten in dat land. Bedrijven zijn er altijd maar gretig in om je een hele hoop waarschuwingen te geven om zo onder de garantie plicht uit te komen maar in de EU and zelfs in de Verenigde staten zijn die dingen vaak niet rechtsgeldig.DaniëlWW2 schreef op zondag 6 augustus 2023 @ 23:25:
[...]
Volgens mij krijg je gewoon een waarschuwing te zien dat dit je garantie kan doen laten vervallen.
Maar je videokaart slopen met lagere voltages en lagere powerlimieten is wat lastig. Hogere powerlimieten op zichzelf ook. Hogere voltages maken het slopen wat makkelijker. Maar die moet je eigenlijk niet doen met AMD. De winst zit meestal juist in lagere voltages.
Het zou inderdaad zot zijn als je garantie zou vervallen door een stuk software dat AMD zelf geleverd heeft voor hun consumenten dat standaard meegeleverd wordt in het driver pakket. Toch zullen ze het proberen afhankelijk per situatie. Houdt het stand in een rechtzaak? Lijkt me niet. Hoe bewijzen ze dat punt 1 en vaak is het gewoon goedkoper om een nieuwe kaart te leveren of te repareren. Dit soort waarschuwingen zijn meer als eerste defense dat veel gebruikers afhaken en niet eens om garantie vragen omdat ze zich 'schuldig' voelen en de schuld bij henzelf neerleggen.
AMD Adrenaline overklokken is afgebakend met een voltage cap. Zo lang je niet boven dit voltage uit gaat zou het allemaal in orde moeten zijn. mits just niet je koeling sloop en constant de kaart oververhit natuurlijk.
Die stickers met warranty void op de schroeven zijn ook niet rechtsgeldig. Je moet gewoon je kaart kunnen onderhouden en de pasta kunnen vervangen.
R7 9800X3D + ASUS ROG STRIX X870E-E + RTX 4090 FE + 48GB TG Xtreem 8200 CL38
Overigens hebben de fabrikanten en AIBs interne tools en BIOSsen zonder limieten waarmee ze veel verder kunnen gaan. Kingpin heeft een tijd terug zo'n tool en onbeperkte BIOS beschikbaar gesteld voor de Kingpin 3090: http://kingpinoc.com/doku.php?id=3090
Als je met zulk spul aan de slag gaat moet je wel echt weten wat je doet.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ik ben twee weken verder. Ik heb een RMA aangevraagd bij Alternate, maar kwam erachter dat ik misschien mijn kaart 8 weken kwijt zou zijn, zonder enige garantie dat ik niet gewoon mijn defecte kaart retour gestuurd zou krijgen.krflyer schreef op maandag 31 juli 2023 @ 16:07:
[...]
Ik heb een AMD Reference RX6950XT, en mijn Furmark bench laat 75 graden GPU en 110 junction / hotspot zien. Stroomverbruik is dan 280W. Ik haal daarbij maar 2100MHz. Als jullie dat zo lezen, is dat een teken van een niet goed gevulde vapor chamber? Ik weet dat mijn kast nog wel betere airflow kan hebben, maar dit is met de kast open, de kast op zijn kant, ondersteboven etc, en pads vervangen etc. Alles wat ik maar kan bedenken, maar die 110 graden is wmb een te grote delta. Iemand die daar wat op wilt zeggen?
Dus, omdat het een AMD Reference RX6950XT was, heb ik een support case aangemaakt bij AMD. Dat duurde even, want na het aanmaken kreeg ik een case nummer, maar kon zelf de status niet meer zien. Dus er achteraan gemailed. Dat hielp. Vanaf dat moment ongeveer dagelijks via replies op de mails contact gehad met iemand van AMD. Vervolgens moest ik allerlei dingen overleggen en doen: DXDIAG draaien, MSINFO draaien, en output doorsturen. Ook moest ik mijn drivers verwijderen en opnieuw toesturen, er werd gevraagd naar mijn moederboard BIOS, dat er niet toe doet, want het gaat niet om de CPU (ik heb een 5800X3D dus daar was het al voor nodig dat ik een recente BIOS moest flashen). Ook werd er gevraagd welke voeding ik had. Ik heb uiteraard al eerder de Furmark grafieken doorgestuurd waaruit bleek dat de hotspot tempteratuur veel te hoog was.
Afgelopen donderdag was het hoge woord eruit. Je kaart is inderdaad defect, en AMD gaat het fixen. En hoe. Ik had het niet vreemd gevonden dat ik een refurbished RX6950XT had teruggekregen, maar intussen kreeg ik vandaag een AMD Reference RX7900XTX binnen.
Kortom, ik ben blij dat AMD zorgt voor tevreden klanten, en ik ben nog steeds blij met mijn keuze voor een AMD Reference kaart. Wat mij betreft is de zaak dus goed afgehandeld.
Ik had 6 weken geleden WEL een RMA gestart bij Alternate, voor een PowerColor Red Devil 6700XT die oververhitte. Ik probeerde het wat op te volgen bij Alternate, maar die scheepten mij altijd af met "als we iets horen van PowerColor laten we wel iets weten". Dus ik heb dan uiteindelijk na 5 weken zelf contact opgenomen met PowerColor via één van hun US sales medewerkers die actief was op Reddit, en na 3 dagen hebben die mij dan laten weten dat ik een credit kreeg. Maar ze hebben me dan gevraagd om terug contact op te nemen met Alternate, maar die vertikten het aanvankelijk nog altijd om dan contact op te nemen met PowerColor, omdat in het verleden PC altijd een standaardantwoord terug stuurde van "4-6 weken" en Alternate daaruit de les geleerd heeft "wachten op een antwoord". Ik heb dan vorig weekend mijn volledig mailverkeer met PowerColor doorgestuurd naar Alternate met de vraag: "hieronder is mijn correspondentie met PowerColor, kunnen jullie alsjeblieft zelf eens contact opnemen, want ik denk dat PowerColor wacht totdat jullie om een update vragen, en gezien jullie wachten totdat PowerColor een update geeft kan er nog lang gewacht worden". Ze hebben maandag niet geantwoord, dus ik vermoed dat ze contact gemaakt hebben op die dag, en dan is dinsdag een feestdag hier in BE, dus ik verwacht ten vroegste morgen een antwoord.krflyer schreef op dinsdag 15 augustus 2023 @ 19:59:toon volledige bericht
[...]
Ik ben twee weken verder. Ik heb een RMA aangevraagd bij Alternate, maar kwam erachter dat ik misschien mijn kaart 8 weken kwijt zou zijn, zonder enige garantie dat ik niet gewoon mijn defecte kaart retour gestuurd zou krijgen.
Dus, omdat het een AMD Reference RX6950XT was, heb ik een support case aangemaakt bij AMD. Dat duurde even, want na het aanmaken kreeg ik een case nummer, maar kon zelf de status niet meer zien. Dus er achteraan gemailed. Dat hielp. Vanaf dat moment ongeveer dagelijks via replies op de mails contact gehad met iemand van AMD. Vervolgens moest ik allerlei dingen overleggen en doen: DXDIAG draaien, MSINFO draaien, en output doorsturen. Ook moest ik mijn drivers verwijderen en opnieuw toesturen, er werd gevraagd naar mijn moederboard BIOS, dat er niet toe doet, want het gaat niet om de CPU (ik heb een 5800X3D dus daar was het al voor nodig dat ik een recente BIOS moest flashen). Ook werd er gevraagd welke voeding ik had. Ik heb uiteraard al eerder de Furmark grafieken doorgestuurd waaruit bleek dat de hotspot tempteratuur veel te hoog was.
Afgelopen donderdag was het hoge woord eruit. Je kaart is inderdaad defect, en AMD gaat het fixen. En hoe. Ik had het niet vreemd gevonden dat ik een refurbished RX6950XT had teruggekregen, maar intussen kreeg ik vandaag een AMD Reference RX7900XTX binnen.
Kortom, ik ben blij dat AMD zorgt voor tevreden klanten, en ik ben nog steeds blij met mijn keuze voor een AMD Reference kaart. Wat mij betreft is de zaak dus goed afgehandeld.
Maar eerlijk gezegd: Ik heb het eigenlijk een beetje gehad met AMD kaarten. Ik ben één van die mensen die zelfs met de huidige generaties van AMD kaarten haast elke week wel problemen had sinds de aankoop, en ik hoop dat Alternate bereid is om oftewel een 4070 als vervanging te leveren, oftewel om het bedrag terug te betalen zodat ik misschien die Palit 4070 Ti kan kopen die nu zo scherp geprijsd staat op Amazon. Ik wil niet opnieuw een 6700XT, want ik heb een jaar lang Team Red geprobeerd omdat iedereen zei dat de driverproblemen waren verholpen, maar dat waren ze dus niet...
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
In mijn geval ging het om AMD zelf, en ze hadden geen RX6950XT meer, dat was mijn geluk.Ludewig schreef op woensdag 16 augustus 2023 @ 09:21:
Een 4070 is bijna twee keer zo duur als een 6700 XT, dus het lijkt me vrij kansloos om te verwachten dat ze je die geven ter vervanging. Sowieso hoor ik nooit dat mensen een totaal andere kaart als vervanging krijgen.
Toen ik die 6700XT gekocht heb in April van vorig jaar kostte die nog 700 EUR, dus ik dacht eerder van "gelijkwaardig product".Ludewig schreef op woensdag 16 augustus 2023 @ 09:21:
Een 4070 is bijna twee keer zo duur als een 6700 XT, dus het lijkt me vrij kansloos om te verwachten dat ze je die geven ter vervanging. Sowieso hoor ik nooit dat mensen een totaal andere kaart als vervanging krijgen.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Werkte het maar zo....nzall schreef op woensdag 16 augustus 2023 @ 09:56:
[...]
Toen ik die 6700XT gekocht heb in April van vorig jaar kostte die nog 700 EUR, dus ik dacht eerder van "gelijkwaardig product".
Misschien dat ik dan beter aanstuur op gewoon mijn geld of een deel ervan terug. Denk je dat ik daar meer kans op maak bij een winkel als Alternate? Beetje sneu om het te zeggen in dit kanaal, maar ik weet niet of ik bereid ben om bij AMD te blijven gezien hoeveel problemen ik daarmee gehad heb...
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Ja, ik heb al de fabrikant aangesproken, zoals ik gezegd heb op de vorige pagina. Zij hebben mij al gezegd dat ze een credit geissued hebben voor mijn GPU, maar ik moet nu Alternate zover krijgen dat zij dan weer PowerColor contacteren om dat te bevestigen, en Alternate heeft in het verleden zo vaak een standaardantwoord gekregen van PowerColor dat zij zelf daar het nut niet meer van in zien. Ik heb vorige zaterdag nog Alternate mijn volledige mailcorrespondentie doorgestuurd met PowerColor met de expliciete vraag om hen te contacteren, en nu kijk ik wel waar het uitkomt.krflyer schreef op woensdag 16 augustus 2023 @ 16:39:
Lijkt me meer reden om Alternate te mijden dan AMD. Bij AMD krijg je meer performance voor je euro. En je moet gewoon de fabrikant direct aanspreken is mijn ervaring. Heb je daar alle kanalen geprobeerd? Mijn kaart was van AMD zelf.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Nu ik er over nadenk, meen ik me te herinneren dat er op Reddit een subreddit loopt, waarin een Powercolor medewerker actief is. Die heeft wel eens geholpen met RMA's. Kijk eens of je dat kunt Googlen.krflyer schreef op woensdag 16 augustus 2023 @ 16:39:
Lijkt me meer reden om Alternate te mijden dan AMD. Bij AMD krijg je meer performance voor je euro. En je moet gewoon de fabrikant direct aanspreken is mijn ervaring. Heb je daar alle kanalen geprobeerd? Mijn kaart was van AMD zelf.
Dat heb ik al gedaan. het is juist langs hem dat ik PowerColor heb kunnen contacteren. Hij heeft dan het internationale team erin geloopt en die hebben mij de credit toegekend. Maar zoals ik reeds zei: ze hebben dan ook gevraagd om Alternate te contacteren zodat Alternate dan bevestiging kan krijgen van PowerColor dat het geld terugbetaald wordt. Ik hoop dat ze dat nu eindelijk gaan doen...krflyer schreef op woensdag 16 augustus 2023 @ 16:54:
[...]
Nu ik er over nadenk, meen ik me te herinneren dat er op Reddit een subreddit loopt, waarin een Powercolor medewerker actief is. Die heeft wel eens geholpen met RMA's. Kijk eens of je dat kunt Googlen.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Wie weet kan hij iets doen om Alternate zover te krijgen.
Ik heb het zelf gedaan via Steven van PowerColor Sales USA die ook actief is op Reddit, en ik heb van hem ook een mailadres gekregen bij PowerColor om te contacteren waarlangs ik contact heb gehad en mijn RMA credit toegezegd gekregen heb. Dus ik zal het dan eerder via dat mailadres doen, als Alternate blijft weigeren om actie te ondernemen. Zoals ik gezegd heb: ik heb vorige zaterdag expliciet gevraagd aan Alternate via mail: "hier is mijn bewijsmateriaal dat PowerColor mij een credit heeft geissued voor mijn grafische kaart, kunnen jullie alstublieft contact opnemen met hen, ook al heeft het verleden jullie geleerd dat dit niet veel uitmaakt, want zij zitten te wachten op jullie contactvraag om te bevestigen."krflyer schreef op woensdag 16 augustus 2023 @ 17:00:
Deze subreddit gaat over Powercolor RMA's, en de persoon die wordt genoemd is Ronak: https://www.reddit.com/r/Amd/comments/wrr12g/power_color_rma_experience/
Wie weet kan hij iets doen om Alternate zover te krijgen.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ze zijn niet verplicht om de volledige pot terug te geven. Ik gebruikte die kaart al een jaar, dus ze mogen er wettelijk een deel van behouden gelet op de verwachtte levensduur van de kaart.Ludewig schreef op woensdag 16 augustus 2023 @ 23:59:
Gezien de enorme prijsdaling zou ik als ik deze bedrijven was er alles aan doen om te voorkomen dat ze geld of een waardebon moeten geven. Een nieuwe PowerColor Red Devil 6750 XT kost 400 euro, wat een stuk minder is dan de 700 euro die ze zouden moeten teruggeven bij een ongedaan maken van de verkoop.
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro
Bezit een amd RX6600 en de min frequency op 2250MHz, max 2809MHz, spanning 1108mV en energie limiet op 10%.
Toch loopt het nog niet optimaal. Iemand tips, want mij gaat het eigenlijk niet om meer prestaties, het is gewoon super irritant met films kijken.
Als je het niet kan oplossen dan kan je het proberen te omzeilen met usb headset/boxen of zoiets?DoeEensGek schreef op zaterdag 26 augustus 2023 @ 14:58:
Blijkbaar ben ik niet de enigste met hdmi geluids probleem. Hikjes in het geluid, zwaar irritant.
Bezit een amd RX6600 en de min frequency op 2250MHz, max 2809MHz, spanning 1108mV en energie limiet op 10%.
Toch loopt het nog niet optimaal. Iemand tips, want mij gaat het eigenlijk niet om meer prestaties, het is gewoon super irritant met films kijken.
Het probleem van intelligentie is dat je problemen voorziet die er nooit zullen zijn.
Nou die oplossingen zijn ook beperkt ivm 5.1 opstelling via een receiver. Ik zit nu in dubio om het geluid dan maar via de hdmi van moederbord te laten lopen. Alleen heeft dat ook zo zijn minpunten.WillemAtHome schreef op woensdag 30 augustus 2023 @ 19:18:
[...]
Als je het niet kan oplossen dan kan je het proberen te omzeilen met usb headset/boxen of zoiets?
Inmiddels terug gegaan naar 21.11.3 . Eens zien hoe dit loopt.
[ Voor 7% gewijzigd door DoeEensGek op 05-09-2023 19:40 ]
Gisteren heb ik de drivers geüpdatet van 23.9.2 naar 23.9.3 vanuit Adrenalin en gisteren werkte alles daarna prima. Ik heb een AMD RX 6800 van AMD zelf en ik draai Windows 11.
Ik heb al de drivers verwijderd met AMD's Cleanup Utility, opnieuw versie 23.9.2 geïnstalleerd, die weer geüpgraded naar 23.9.3, daarna verwijderd met DDU in Windows Safe Mode, opgestart zonder netwerk, 23.9.3 weer geïnstalleerd, maar niks werkt.
Laatste mogelijkheid zou zijn het opnieuw installeren van Windows, maar daar heb ik nog geen zin in. Heeft iemand een idee? Of hetzelfde probleem?
Dit al gelezen ? ; download: AMD Radeon Software Adrenalin Edition 23.9.3Bramm schreef op donderdag 28 september 2023 @ 11:14:
Ik heb sinds vandaag dat de Adrenalin Software niet meer werkt. Het start wel op met Windows, maar zodra ik dubbelklik op het icoontje in de taakbalk dan crasht de software. Opnieuw starten van Adrenalin vanuit het startmenu werkt niet. Ik krijg het met geen mogelijkheid meer aan de praat.
Gisteren heb ik de drivers geüpdatet van 23.9.2 naar 23.9.3 vanuit Adrenalin en gisteren werkte alles daarna prima. Ik heb een AMD RX 6800 van AMD zelf en ik draai Windows 11.
Ik heb al de drivers verwijderd met AMD's Cleanup Utility, opnieuw versie 23.9.2 geïnstalleerd, die weer geüpgraded naar 23.9.3, daarna verwijderd met DDU in Windows Safe Mode, opgestart zonder netwerk, 23.9.3 weer geïnstalleerd, maar niks werkt.
Laatste mogelijkheid zou zijn het opnieuw installeren van Windows, maar daar heb ik nog geen zin in. Heeft iemand een idee? Of hetzelfde probleem?
En ik heb nu ook een issue...zie mijn reactie eronder
Ik heb de BIOS van m'n moederbord geüpdatet en nu werkt het weerBramm schreef op donderdag 28 september 2023 @ 11:14:
Ik heb sinds vandaag dat de Adrenalin Software niet meer werkt. Het start wel op met Windows, maar zodra ik dubbelklik op het icoontje in de taakbalk dan crasht de software. Opnieuw starten van Adrenalin vanuit het startmenu werkt niet. Ik krijg het met geen mogelijkheid meer aan de praat.
Gisteren heb ik de drivers geüpdatet van 23.9.2 naar 23.9.3 vanuit Adrenalin en gisteren werkte alles daarna prima. Ik heb een AMD RX 6800 van AMD zelf en ik draai Windows 11.
Ik heb al de drivers verwijderd met AMD's Cleanup Utility, opnieuw versie 23.9.2 geïnstalleerd, die weer geüpgraded naar 23.9.3, daarna verwijderd met DDU in Windows Safe Mode, opgestart zonder netwerk, 23.9.3 weer geïnstalleerd, maar niks werkt.
Laatste mogelijkheid zou zijn het opnieuw installeren van Windows, maar daar heb ik nog geen zin in. Heeft iemand een idee? Of hetzelfde probleem?

Ik heb een reparatieverzoek ingediend bij de webwinkel, waarna ik hem kon opsturen. Zij hebben het doorgestuurd naar de fabrikant. Al met al was ik de kaart een maand kwijt en heb ik uiteindelijk een nieuwe kaart gekregen.
Helaas nu al hetzelfde probleem: hotspot temperatuur schiet gelijk naar 110 graden en opnieuw viel mijn pc uit tijdens het gamen. Ik heb weer contact opgenomen met de webshop. Zij geven me twee opties:
> Opnieuw een RMA verzoek bij de fabrikant (15 werkdagen verwerkingstijd)
> Credit verzoek indienen bij de fabrikant (kan 'makkelijk een maand duren' volgens de webshop)
Ik baal er behoorlijk van, wil mijn videokaart niet weer een maand kwijt zijn. Maar het is denk ik niet anders. En gezien de verhalen die ik (nu) lees op internet over deze kaart kan ik beter een credit verzoek indienen dan nog een kaart proberen. Enorm spijt van deze kaart zeg.
Dit zou niet moeten mogen. De kaart is gewoon vervangen door een andere kaart die ook defect is teruggekomen, en waarvan ze niet geloven dat de vapor chamber defect is of vanaf het begin niet goed gevuld. Ik zou er een rechtswinkel over raadplegen. Intussen zit je maanden zonder videokaart.Joop34 schreef op maandag 2 oktober 2023 @ 16:03:
Ik heb een paar maanden geleden een nieuwe videokaart gekocht, de ASRock RX 6900 XT Phantom gaming. Ik merkte in augustus dat de temperaturen steeds hoger opliepen. Bij Baldurs Gate 3 hotspot rond de 110 en de kaart zelf ook soms tussen de 100-110. Met logischerwijs het gevolg dat mijn pc ervan uitviel.
Ik heb een reparatieverzoek ingediend bij de webwinkel, waarna ik hem kon opsturen. Zij hebben het doorgestuurd naar de fabrikant. Al met al was ik de kaart een maand kwijt en heb ik uiteindelijk een nieuwe kaart gekregen.
Helaas nu al hetzelfde probleem: hotspot temperatuur schiet gelijk naar 110 graden en opnieuw viel mijn pc uit tijdens het gamen. Ik heb weer contact opgenomen met de webshop. Zij geven me twee opties:
> Opnieuw een RMA verzoek bij de fabrikant (15 werkdagen verwerkingstijd)
> Credit verzoek indienen bij de fabrikant (kan 'makkelijk een maand duren' volgens de webshop)
Ik baal er behoorlijk van, wil mijn videokaart niet weer een maand kwijt zijn. Maar het is denk ik niet anders. En gezien de verhalen die ik (nu) lees op internet over deze kaart kan ik beter een credit verzoek indienen dan nog een kaart proberen. Enorm spijt van deze kaart zeg.
Wat maar weer aangeeft hoeveel mazzel ik had: een AMD Reference 6950XT die dezelfde euvel had, is door AMD omgewisseld voor een 7900XTX. Zo kan het dus ook.
DoeEensGek schreef op zaterdag 26 augustus 2023 @ 14:58:
Blijkbaar ben ik niet de enigste met hdmi geluids probleem. Hikjes in het geluid, zwaar irritant.
Bezit een amd RX6600 en de min frequency op 2250MHz, max 2809MHz, spanning 1108mV en energie limiet op 10%.
Toch loopt het nog niet optimaal. Iemand tips, want mij gaat het eigenlijk niet om meer prestaties, het is gewoon super irritant met films kijken.
[ Voor 56% gewijzigd door DoeEensGek op 09-10-2023 11:41 ]
Kan ook door te strakke ram (ddr5) timings komen.DoeEensGek schreef op maandag 9 oktober 2023 @ 11:41:
Hier de amd kaart terug gestuurd, megekko de kaart nagelopen en volgens hun geen probleem. Ondertussen al een nvidia kaart gekocht en nul problemen. Jammer... Want je leest meer over dit probleem en het bestaan ervan.
[...]
Hoe moet ik dit voor mij zien. Want op default settings is het probleem er al.HugoBoss1985 schreef op maandag 9 oktober 2023 @ 11:51:
[...]
Kan ook door te strakke ram (ddr5) timings komen.
Niet.DoeEensGek schreef op maandag 9 oktober 2023 @ 12:37:
[...]
Hoe moet ik dit voor mij zien. Want op default settings is het probleem er al.
Want dan is er bij jou wat anders mis.
Lastig verhaal als de verkoper het niet kan reproduceren, vervelend voor je.
Je zegt niets over temperatuur, want dit klinkt als throttling. Furmark kan dat wel laten zien in combinatie met GPU-Z.

[ Voor 14% gewijzigd door foppe-jan op 28-02-2024 08:55 ]
The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
dank, ja heb geprobeerd maar nog geen reactie gehad, en ondertussen een week verder.Ludewig schreef op woensdag 28 februari 2024 @ 09:23:
Misschien kun je nog contact opnemen met de verkoper en de factuur alsnog krijgen.
The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
Watt voeding power limit op -10 fans op
Max 30 kaart is ,
Lekker stil en wordt niet heet zit meestal tussen de 120 en 200 fps op 1440 P ultra settings game op een LG g series tv
16GB vram en vergelijkbare gaming performance bij nvidia is dan toch gewoon een stuk duurder? Dan kom ik op een 4070ti (super) voor minimaal 850. En dan hoor ik de nvidia boys altijd zeggen ja raytracing is meer dan 2x zoveel fps. Maar ik betwijfel of dat het verschil nou echt maakt?
Het word wel tijd voor rocm support op windows voor AMD kaarten. Want met het trainen van een Lora op stable diffusion liep ik voor het eerst tegen een keiharde muur aan met AMD. Dat kan dus blijkbaar alleen op nvidia kaarten.
Kan iemand mij hier misschien uitleggen, waarom er wel een rocm voor linux is? waar je ook daadwerkelijk kunt trainen? Ik kan mij toch niet voorstellen, waar dan de bottleneck zit? amd kan het dus wel software en hardware matig? en nvidia op windows. waar gaat het dan mis?
[ Voor 15% gewijzigd door rcthans op 10-03-2024 16:15 ]
En om welke settings gaat dit?rcthans schreef op zondag 10 maart 2024 @ 16:10:
Jammer dat het niet zo noob friendly is bij AMD. Ook mijn 6900XT heeft soms wat storing waardoor de Settings in Adrenalin weer resetten.
Denk het handmatig afstemmen van de GPU ofwel je eigen aanpassingen?
Mits dat zo is, heb je vermoedelijk iets niet goed afgesteld, waardoor je een "Adrenalin Crash" krijgt.
Pas wat waardes aan en try again, of draai meerdere testen via 3dmark om je gpu stabiel te krijgen mits je zelf doet aan aanpassen van waardes.
Er is immiddels al een paar maanden ROCm support voor windows:rcthans schreef op zondag 10 maart 2024 @ 16:10:
Jammer dat het niet zo noob friendly is bij AMD. Ook mijn 6900XT heeft soms wat storing waardoor de Settings in Adrenalin weer resetten. Ik heb destijds 1200 betaald, en als ik nu zie dat een Radeon RX 7900 GRE voor 580 te koop is en zelfs nog 10 procent sneller is.
16GB vram en vergelijkbare gaming performance bij nvidia is dan toch gewoon een stuk duurder? Dan kom ik op een 4070ti (super) voor minimaal 850. En dan hoor ik de nvidia boys altijd zeggen ja raytracing is meer dan 2x zoveel fps. Maar ik betwijfel of dat het verschil nou echt maakt?
Het word wel tijd voor rocm support op windows voor AMD kaarten. Want met het trainen van een Lora op stable diffusion liep ik voor het eerst tegen een keiharde muur aan met AMD. Dat kan dus blijkbaar alleen op nvidia kaarten.
Kan iemand mij hier misschien uitleggen, waarom er wel een rocm voor linux is? waar je ook daadwerkelijk kunt trainen? Ik kan mij toch niet voorstellen, waar dan de bottleneck zit? amd kan het dus wel software en hardware matig? en nvidia op windows. waar gaat het dan mis?
YouTube: AMD ROCm is now on Windows! RDNA2 & RDNA3 GPUs Included!
Geen idee hoe bruikbaar het op het moment is.
Atari 2600 @ 1,1 Hz, 1 Bits speaker, 16 Kb mem, 8 kleuren..
Goeie tip, ik had de min mhz te hoog staan denk ik. Nu al een tijd alleen de fancurve, en nu blijft het wel staan.PatRamon schreef op zondag 10 maart 2024 @ 19:13:
[...]
En om welke settings gaat dit?
Denk het handmatig afstemmen van de GPU ofwel je eigen aanpassingen?
Mits dat zo is, heb je vermoedelijk iets niet goed afgesteld, waardoor je een "Adrenalin Crash" krijgt.
Pas wat waardes aan en try again, of draai meerdere testen via 3dmark om je gpu stabiel te krijgen mits je zelf doet aan aanpassen van waardes.
Niet dus, dat is maar voor de helft van de functies. Stable diffusion (pytorch) werkt dus nog helemaal niet met rocm op windows.snakeye schreef op zondag 10 maart 2024 @ 20:17:
[...]
Goeie tip!
Er is immiddels al een paar maanden ROCm support voor windows:
YouTube: AMD ROCm is now on Windows! RDNA2 & RDNA3 GPUs Included!
Geen idee hoe bruikbaar het op het moment is.
[ Voor 5% gewijzigd door rcthans op 10-03-2024 21:12 ]
Omdat mensen die er professioneel mee werken grotendeels Linux gebruiken.rcthans schreef op zondag 10 maart 2024 @ 16:10:
Kan iemand mij hier misschien uitleggen, waarom er wel een rocm voor linux is? waar je ook daadwerkelijk kunt trainen? Ik kan mij toch niet voorstellen, waar dan de bottleneck zit? amd kan het dus wel software en hardware matig? en nvidia op windows. waar gaat het dan mis?
En AMD heeft volgens mij gewoon te weinig software ontwikkelaars.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Min. frequentie (MHz) = Gewoon standaard al op 1800 MHz zetten.rcthans schreef op zondag 10 maart 2024 @ 21:03:
[...]
Goeie tip, ik had de min mhz te hoog staan denk ik. Nu al een tijd alleen de fancurve, en nu blijft het wel staan.
[...]
Standaard staat deze op 500, maar kan dips geven in oudere/nieuwe games.
Betekend niet als je niks doet op je pc, je gpu maar steeds staat te pompen, mits je dat denkt.
In 3dMark kun je mooi de tabellen vergelijken om zo min mogelijk dips te krijgen, ofwel 1 strakke lijn.
+ Zet op de achtergrond je grafrieken aan om alles te monitoren om de perfecte config te krijgen.
Oef dat is mooi gedaan zeg, mijn complimenten hoor (ook voor de vintage look van de foto's)
Beter dan het origineel, al zeg ik het zelf.
Thanks, was ff passen en meten. En ik moest ook ff met de dremel eraan nog vanwege de tabs op de heatsink. Maar ben er inderdaad erg tevreden mee. Nadeel alleen is dat ik nu alleen nog maar de coilwhine hoor, de rest is muisstil xDCMT schreef op donderdag 11 april 2024 @ 21:06:
@Majestici
Oef dat is mooi gedaan zeg, mijn complimenten hoor (ook voor de vintage look van de foto's).
Beter dan het origineel, al zeg ik het zelf.
/f/image/8vhexGHcRXc61g4p5mRUrB04.png?f=fotoalbum_large)
Dus misschien maar even de heatsink eraf pakken en met de hotglue aan de gang gaan...
Aan de slag gaan met hotglue of lijm om dingen te fixeren en evt. trillingen te dempen is niet aan te raden.
'Coilwhine' kan vele oorzaken hebben en hoeven niet eens van de spoelen af te komen.
Het is daarnaast ook maar de vraag of zoiets helpt omdat een PCB als klankbord kan fungeren.
Op Techpowerup zijn er een hoop die met secondenlijm iets gepoogd hebben, met twijfelachtige resultaten.
In de meeste gevallen deed het helemaal niets en zitten ze nu met een permanente kliederboel op de GPU.
Je kan evt. proberen om zachte thermalpads tussen de koeler & spoelen te doen en tussen de achterkant van de PCB en backplate. Die kleine MLCC's (bruine componentjes) zijn ook berucht als bron van coilwhine.
Dus die gebieden daar afdichten/dempen kan mogelijk helpen.
Wat bij mij RX6900XT goed werkt is om de F.max te beperken tot 2000MHz. Het kost wel ca. 10% prestatie, maar reduceert (in mijn geval) ook de hoeveelheid coilwhine met ca. 75%.
2250 is volgens TPU reference boost. Maar zelfs tussen stock en een snelle OC (kan wellicht nog hoger) zit al flink verschil.

EDIT: imgur upload, interne server kreeg het niet verwerkt ofzo ...
Zit wel een vervelend verschil tussen wat je instelt in de driver en wat je krijgt. Ondanks dat hij geen TDP of VREL limit raakt..
[ Voor 52% gewijzigd door Majestici op 12-05-2024 11:10 ]
Sheesh, 60W meer voor 4fps, ik begrijp die reference boost wel.Majestici schreef op zondag 12 mei 2024 @ 11:06:
En dan zeggen mensen dat je moderne hardware niet meer kunt overclocken. Nou, deze RDNA2 chips anders wel hoor. Misschien dat het op Nvidia een ander verhaal is...
2250 is volgens TPU reference boost. Maar zelfs tussen stock en een snelle OC (kan wellicht nog hoger) zit al flink verschil.
[Afbeelding]
EDIT: imgur upload, interne server kreeg het niet verwerkt ofzo ...
Zit wel een vervelend verschil tussen wat je instelt in de driver en wat je krijgt. Ondanks dat hij geen TDP of VREL limit raakt..
Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts
Klopt, gaat echt hard altijd op het uiteinde van de voltage/frequency curve. Maar als je de thermal headroom hebt is het toch 10% meer performance over referentie. Dat is toch best redelijk veel vind ik, op lucht. Echter heb ik hem zelf op 2510 @ 1060mvtt staan. Is iets van 220-225W in dezelfde game.JDx schreef op zondag 12 mei 2024 @ 11:59:
[...]
Sheesh, 60W meer voor 4fps, ik begrijp die reference boost wel.
Dat gezegd hebbende, mijn koeler is wel een stuk beter. Dus referentie unit zal ongeveer evenveel verbruiken op 75-80 graden.
EDIT:
Zie hier

[ Voor 16% gewijzigd door Majestici op 12-05-2024 12:50 ]
Om hier op terug te komen. Achter de schermen heeft een briljante programmeur 2 jaar voor AMD aan een CUDA voor AMD oplossing gewerkt. Die heeft hij nu online gezet. Ik draai daar mee al een tijdje stable-diffusion-webui-directml met zluda. Installeren was niet easy, maar ik haal nu precies dezelfde performance als mijn andere pc met 4070.Ludewig schreef op zondag 10 maart 2024 @ 21:24:
[...]
Omdat mensen die er professioneel mee werken grotendeels Linux gebruiken.
En AMD heeft volgens mij gewoon te weinig software ontwikkelaars.
https://github.com/vosen/ZLUDAShortly thereafter I got in contact with AMD and in early 2022 I have left Intel and signed a ZLUDA development contract with AMD. Once again I was asked for a far-reaching discretion: not to advertise the fact that AMD is evaluating ZLUDA and definitely not to make any commits to the public ZLUDA repo. After two years of development and some deliberation, AMD decided that there is no business case for running CUDA applications on AMD GPUs.
One of the terms of my contract with AMD was that if AMD did not find it fit for further development, I could release it. Which brings us to today.
/f/image/HUZRCyR2pUeeoIdAaS3Xtz0l.png?f=fotoalbum_large)
Vanaf 2200 lijkt de exponentiële voltageincrease in te zetten. Niet geheel vreemd dat 2250 ook de basespec is dan, zoals eerder aangehaald.
6800XT Voltage Frequency Curve (voor google search).
Niet dat het bepaald de meest efficiencte plek in de curve is, kan ik vanwege de koeling prima zo hoog zitten.
2650mhz. Maar de undervolt balk lijkt weinig te doen. Zelfs terug naar 1080mvtt zetten lijkt de 1.15V die hij selecteerd niet te veranderen. Achja, hij blijft rond de 60C en toch qua performance 10-15% over stock.
/f/image/Cq82BhW46jHf6HJQDMXKpSps.png?f=fotoalbum_large)
[ Voor 45% gewijzigd door Majestici op 25-05-2024 15:48 ]
Dit is dan gok ik wat de kaart zelf doet als je alleen de target clocks aanpast?Majestici schreef op zaterdag 25 mei 2024 @ 15:12:
Had deze toevallig ergens anders voor gemaakt. Misschien dat iemand de grafiek interessant vindt.
[Afbeelding]
Vanaf 2200 lijkt de exponentiële voltageincrease in te zetten. Niet geheel vreemd dat 2250 ook de basespec is dan, zoals eerder aangehaald.
6800XT Voltage Frequency Curve (voor google search).
Niet dat het bepaald de meest efficiencte plek in de curve is, kan ik vanwege de koeling prima zo hoog zitten.
2650mhz. Maar de undervolt balk lijkt weinig te doen. Zelfs terug naar 1080mvtt zetten lijkt de 1.15V die hij selecteerd niet te veranderen. Achja, hij blijft rond de 60C en toch qua performance 10-15% over stock.
[Afbeelding]
Want die curve is wel anders als je zelf de limiet op gaat zoeken zie ook de grafieken en tabellen die ik in de eerste post van dit topic heb staan. Daar zie je dat de sweetspot van deze chips eerder rond de 850mv zit.
Ik gebruik voor mijn 6950XT zelf:
6950XT_3_ELV_1560MHz_655mv_1392mem_90w_730-790IF_GameStable_Perf100
6950XT_3_ULV_1904MHz_770mv_2088mem_146w_870-890IF_GameStable_Perf123
6950XT_3_OM_2200MHz_880mv_2248mem_216w_890IF_GameStable_Perf137
6950XT_3_EX_2410MHz_940mv_2248mem_277w_GameStable_Perf147
Deze kaart heeft een iets andere Curve dan sommige andere deze vind lagere voltages veel leuker sweetspot zit duidelijk lager bij deze GPU. Maar voor 47% hogere prestaties moet ik van 90 naar 277 watt gaan. (vorigens zijn de memory en SOC voltages hier ook aangepast. Bij het ELV profiel zijn die aanzienlijk lager dan bij het OM en EX profiel.
Voor RTS games volstaat het ELV profiel en dat bespaart ondanks het automatisch terug clocken van de kaarten en gelijke FPS toch behoorlijk wat qua verbruik. Ik kan dan goed 30-40watt lager zitten.
Voor games zoals Helldivers en Deeprock galactic heb ik toch wel de snellere profielen nodig anders komt mijn FPS te veel onder de 100-120 en dan is het niet zo soepel meer.
Hoe heet dat tooltje wat jij als performance stat overlay gebruikt? ziet er wel nice uit.
[ Voor 7% gewijzigd door Astennu op 20-06-2024 12:37 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
De curve komt redelijk overeen met wat ik jaren geleden gemaakt heb voor de 6900XT.
Als belasting was daarbij OCCT gebruikt (shader complexity 3, zwaar, trekt veel stroom dus geeft een lager dan gemiddelde klok bij een gegeven spanning).
:fill(white):strip_exif()/f/image/QEpUJqqrxLjttRFQs9kghxJw.png?f=user_large)
Uit: https://gathering.tweaker...message/67451672#67451672
De groene curve was het handmatig opzoeken van de V/F grens. Het is jammer dat het niet verder te undervolten is, want dit is slechts de bovenste helft van de curve. Vanaf een bepaalde Fmax, zal de targetvoltage setting helemaal niets doet (m.a.w. alleen het hoge midden tot topbereik is te tunen).
Dit is ook te zien aan de efficiëntie curves (prestatie/Wptt), waarbij de winst van het undervolten naar beneden toe samenloopt en op een gegeven moment verdwijnt bij een bepaalde klok.
O.a. ook het geval bij GPU's zoals de 7900XTX en 4090FE.
[ Voor 12% gewijzigd door CMT op 20-06-2024 14:58 ]
Met MPT kan je wel lager de Navi 21 GPU's beginnen moeilijk te doen vij 600-625mv daar onder willen ze niet echt meerCMT schreef op donderdag 20 juni 2024 @ 14:10:
@Majestici
De curve komt redelijk overeen met wat ik jaren geleden gemaakt heb voor de 6900XT.
Als belasting was daarbij OCCT (shader complexity 3) gebruikt (zwaar, trekt veel stroom dus geeft een lager dan gemiddelde klok bij een gegeven spanning).
[Afbeelding]
Uit: https://gathering.tweaker...a%5Bfilter_userids%5D=cmt
De groene curve was het handmatig opzoeken van de V/F grens. Het is jammer dat het niet verder te undervolten is, want dit is slechts de bovenste helft van de curve. Vanaf een bepaalde Fmax, zal de targetvoltage setting helemaal niets doet (m.a.w. alleen het hoge midden tot topbereik is te tunen).
Dit is ook te zien aan de efficiëntie curves (prestatie/Wptt), waarbij de winst van het undervolten naar beneden toe samenloopt en op een gegeven moment verdwijnt bij een bepaalde klok.
O.a. ook het geval bij GPU's zoals de 7900XTX en 4090FE.
:fill(white):strip_exif()/f/image/paUykRditFXPvhoxsueV3ufS.png?f=user_large)
Als je die min voltages aan past naar 600mv kan je wel lager komen alleen kreeg ik dan crashes 650 is bij sommige ook hit en miss 625 vond deze kaart minder leuk leverde dan veel clocksnelheid in dus toen bij 655mv uitgekomen voor dit profiel.
Grote probleem van de 7900XTX kaarten is dat MPT (heeft AMD van wat ik begrepen heb geblokkeerd) niet meer werkt en je de SOC voltages niet kan tweaken
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Oh daar zit dan nog best veel marge in eigenlijk.
Uiteindelijk heb ik daar niet meer naar gekeken, wel de SoC en het GDDR6 geheugen getuned.
Dat gaf bij elkaar toch een leuke besparing, wat kan uitlopen tot 10-20Wptt afhankelijk van de belasting.
Vreemd genoeg gaf het verlagen van de SoC klok ook winst in prestatie (terwijl de GPU klok niet hoger kwam).
Ik zie ook dat je flink wat DDR voltage eraf heb gehaald
Dat verbaasde mij ook zo dat daar zo enorm veel marge in is (bij mijn kaart ging het probleemloos tot 1.125V met alles op stock gelaten).
Het zou veel leuker zijn geweest als AMD de (pro) gebruikers gewoon vrijheid gaf, zoals bij de CPU's het geval is. Er zijn genoeg gebruikers die liever voor efficiëntie / UV gaan, dan een mogelijke OC.
Tot voor kort gebruikte ik dit profiel voor mijn 6900XT:
/f/image/oNqUahRVhWHakfoAjkwZTDzw.png?f=fotoalbum_large)
Stock zag het er zo uit:
/f/image/m2OKYZe4EnYMmt7iHFz9RTn2.png?f=fotoalbum_large)
Het is oh zo jammer dat het sinds RDNA3 niet meer mogelijk is.
Daar zal nog veel meer besparing uit te halen zijn en dan is het goed mogelijk dat bijv. een 7900XTX een match wordt aan de 4090FE qua efficiëntie.
Ja klopt, ik had geen zin om de kaart 20 keer te laten crashenAstennu schreef op donderdag 20 juni 2024 @ 12:33:
[...]
Dit is dan gok ik wat de kaart zelf doet als je alleen de target clocks aanpast?
Want die curve is wel anders als je zelf de limiet op gaat zoeken zie ook de grafieken en tabellen die ik in de eerste post van dit topic heb staan. Daar zie je dat de sweetspot van deze chips eerder rond de 850mv zit.
Klopt ja, dat doe ik zelf dus ook. In dat soort slow-paced games heb je ook vaak niet veel achtergrond geluid, en dan is een lagere clock+voltage fijn vanwege het totale gebrek aan coilwhine dan. Zeker voorbij de 2500 gaat hij krijsen.Astennu schreef op donderdag 20 juni 2024 @ 12:33:toon volledige bericht
[...]
Ik gebruik voor mijn 6950XT zelf:
6950XT_3_ELV_1560MHz_655mv_1392mem_90w_730-790IF_GameStable_Perf100
6950XT_3_ULV_1904MHz_770mv_2088mem_146w_870-890IF_GameStable_Perf123
6950XT_3_OM_2200MHz_880mv_2248mem_216w_890IF_GameStable_Perf137
6950XT_3_EX_2410MHz_940mv_2248mem_277w_GameStable_Perf147
Deze kaart heeft een iets andere Curve dan sommige andere deze vind lagere voltages veel leuker sweetspot zit duidelijk lager bij deze GPU. Maar voor 47% hogere prestaties moet ik van 90 naar 277 watt gaan. (vorigens zijn de memory en SOC voltages hier ook aangepast. Bij het ELV profiel zijn die aanzienlijk lager dan bij het OM en EX profiel.
Voor RTS games volstaat het ELV profiel en dat bespaart ondanks het automatisch terug clocken van de kaarten en gelijke FPS toch behoorlijk wat qua verbruik. Ik kan dan goed 30-40watt lager zitten.
Voor games zoals Helldivers en Deeprock galactic heb ik toch wel de snellere profielen nodig anders komt mijn FPS te veel onder de 100-120 en dan is het niet zo soepel meer.
Intel Presentmon 2.0, met een eigen profiel ("EDIT" kun je zelf je hele opstelling maken).Astennu schreef op donderdag 20 juni 2024 @ 12:33:
[...]
Hoe heet dat tooltje wat jij als performance stat overlay gebruikt? ziet er wel nice uit.
/f/image/rbhjC9mqxALDbTSc6d6OOG9y.png?f=fotoalbum_large)
Als je hem wilt namaken. Vooral die GPU en CPU busy zijn erg handig om bottlenecks te traceren.
Ja ik heb gewoon een zware game gebruikt, ook omdat ik in die situatie de kaart gebruik. Beter was echter, zoals aangegeven, de grens opzoeken. Maar dan moet je zovaak die driver laten crashen.CMT schreef op donderdag 20 juni 2024 @ 14:10:
@Majestici
De curve komt redelijk overeen met wat ik jaren geleden gemaakt heb voor de 6900XT.
Als belasting was daarbij OCCT gebruikt (shader complexity 3, zwaar, trekt veel stroom dus geeft een lager dan gemiddelde klok bij een gegeven spanning).
<snip grafiek>
Daar kwam ik ook achter, een heel gedeelte van de frequency range kun je eigenlijk niets optimimaliseren. Maar wel is duidelijk dat AMD de reference koeler veel beter had moeten maken, dan was het TDP van de kaart significant lager geweest. Deze Radeon kaarten vinden warmte NIET leuk. Ben blij dat ik die noctua mod gedaan hebCMT schreef op donderdag 20 juni 2024 @ 14:10:
@Majestici
De groene curve was het handmatig opzoeken van de V/F grens. Het is jammer dat het niet verder te undervolten is, want dit is slechts de bovenste helft van de curve. Vanaf een bepaalde Fmax, zal de targetvoltage setting helemaal niets doet (m.a.w. alleen het hoge midden tot topbereik is te tunen).
Dit is ook te zien aan de efficiëntie curves (prestatie/Wptt), waarbij de winst van het undervolten naar beneden toe samenloopt en op een gegeven moment verdwijnt bij een bepaalde klok.
O.a. ook het geval bij GPU's zoals de 7900XTX en 4090FE.
[ Voor 21% gewijzigd door Majestici op 20-06-2024 19:02 ]
Bedoel je SOC Clocks of de voltages? de clocks leken hier niet veel te doen. Voltages hadden wel invloed omdat er meer power budget over was. Bandbreedte van de IF zakte er wel door waarschijnlijk door de lagere clocks maar die heb ik door de curve te tweaken weer op kunnen krikken.CMT schreef op donderdag 20 juni 2024 @ 16:09:
@Astennu
Oh daar zit dan nog best veel marge in eigenlijk.
Uiteindelijk heb ik daar niet meer naar gekeken, wel de SoC en het GDDR6 geheugen getuned.
Dat gaf bij elkaar toch een leuke besparing, wat kan uitlopen tot 10-20Wptt afhankelijk van de belasting.
Vreemd genoeg gaf het verlagen van de SoC klok ook winst in prestatie (terwijl de GPU klok niet hoger kwam).
Dit was wel het profiel waar mijn ram maar 1390MHz draaide ipv 2250 stockIk zie ook dat je flink wat DDR voltage eraf heb gehaald.
Dat verbaasde mij ook zo dat daar zo enorm veel marge in is (bij mijn kaart ging het probleemloos tot 1.125V met alles op stock gelaten).
Het zou veel leuker zijn geweest als AMD de (pro) gebruikers gewoon vrijheid gaf, zoals bij de CPU's het geval is. Er zijn genoeg gebruikers die liever voor efficiëntie / UV gaan, dan een mogelijke OC.
Voor 2090 gebruik ik 1200mv en voor 2250 1275mv dus dan is het verschil niet meer zo groot. Ik heb wel een 6900XT gehad die aan 1.125 genoeg had voor de stock mem clocks maar die zijn wel iets lager dan die van de 6950XT.
Mee eens als je dat kan tweaken had je het grootste issue van RDNA3 op kunnen lossen. Die MCD's verbruiken best veel en de interconnects ook. Als je die voltages wat kan verlagen kan je behoorlijke winst halen.Tot voor kort gebruikte ik dit profiel voor mijn 6900XT:
[Afbeelding]
Stock zag het er zo uit:
[Afbeelding]
Het is oh zo jammer dat het sinds RDNA3 niet meer mogelijk is.
Daar zal nog veel meer besparing uit te halen zijn en dan is het goed mogelijk dat bijv. een 7900XTX een match wordt aan de 4090FE qua efficiëntie.
[ Voor 4% gewijzigd door Astennu op 20-06-2024 22:37 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Het is meer dat die games gewoon max FPS tov refresh van mijn monitor kunnen halen. CPU is bij RTS de beperkende factor.Majestici schreef op donderdag 20 juni 2024 @ 18:56:
[...]
Ja klopt, ik had geen zin om de kaart 20 keer te laten crashenJe ziet inderdaad die rare curve op het einde is waar je eigenlijk de hele grafiek naartoe moet trekken. Echter lager dan 850 kun je met Adrenaline niet, dus de hele ondercurve had ik sowieso niet lager kunnen trekken. Was meer interessant om te zien hoe dat verbruik omhoog schoot voorbij 2200. Je gaat van 130W naar bijna 300+ in de spanne van 400mhz.
[...]
Klopt ja, dat doe ik zelf dus ook. In dat soort slow-paced games heb je ook vaak niet veel achtergrond geluid, en dan is een lagere clock+voltage fijn vanwege het totale gebrek aan coilwhine dan. Zeker voorbij de 2500 gaat hij krijsen.
Coilwhine is inderdaad een van de redenen waarom ik die lagere voltages gebruik dan hoor je de kaart niet meer stock met hoge FPS wel erg goed.
Thanks ik ga er naar kijken![...]
Intel Presentmon 2.0, met een eigen profiel ("EDIT" kun je zelf je hele opstelling maken).
[Afbeelding]
Als je hem wilt namaken. Vooral die GPU en CPU busy zijn erg handig om bottlenecks te traceren.
Ik gebruik zelf ook games en 3DMark Timespy die liet dingen altijd sneller crashen dan bepaalde games.[...]
Ja ik heb gewoon een zware game gebruikt, ook omdat ik in die situatie de kaart gebruik. Beter was echter, zoals aangegeven, de grens opzoeken. Maar dan moet je zovaak die driver laten crashen.
Speedway was de beste test voor RDNA3
Met RDNA3 niet met RDNA2 kan je met MPT de curve tweaken.[...]
Daar kwam ik ook achter, een heel gedeelte van de frequency range kun je eigenlijk niets optimimaliseren. Maar wel is duidelijk dat AMD de reference koeler veel beter had moeten maken, dan was het TDP van de kaart significant lager geweest. Deze Radeon kaarten vinden warmte NIET leuk. Ben blij dat ik die noctua mod gedaan hebWant ik kan op dezelfde TDP de kaart 500mhz hoger draaien.
Klopt ja ik heb de fan settings ook aangepast vooral max temps aangepast scheelt ook aardig voor het verbruik. Fan speeds gewoon wat eerder omhoog is de kaart nog steeds stil en veel koeler en scheelde toch snel 10-215 watt aan lekstroom omdat de kaart 70c of 80c ipv 90+ draaide.
[ Voor 10% gewijzigd door Astennu op 20-06-2024 22:42 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Scheelt 300 rpm op de ventilatoren en mijn hotspot blijft nu max 92 graden i.p.v rond 100 graden met stock settings.
Dat is in de meest extreme omstandigheden waarbij de power limit van de kaart de limiet is.
3Dmark Timespy en de game "Bodycam".
Alles bij gelijke omgevingstemperatuur.
Geheugen en VRAM temps zijn ook een stuk beter.
Het was redelijk makkelijk te doen, de backplate heb ik niet verwijderd en ook de connectoren voor LED en fans hoefden niet van het pcb af.
:strip_exif()/f/image/7G9GHqjwEFAjflf8wTdNPJOS.jpg?f=fotoalbum_large)
:strip_exif()/f/image/u2pJTthjEMk7MKXWxkO8Cg1M.jpg?f=fotoalbum_large)
:strip_exif()/f/image/6P3j2wt0SumKnlGWQWnFAat0.jpg?f=fotoalbum_large)
:strip_exif()/f/image/eYI3Pe3OCH7sjLi09X2GFUiv.jpg?f=fotoalbum_large)
[ Voor 7% gewijzigd door HugoBoss1985 op 25-11-2024 13:21 ]
Ik heb geen stock settings TimeSpy score paraat en TimeSpy heb ik ook weer verwijderd van dat systeem.DoubleYouPee schreef op maandag 25 november 2024 @ 20:26:
Wat is je TimeSpy score nu?
Voorheen was het met 1025mv en 2450mhz max altijd al fors meer dan stock, +/- 20.500 graphics score.
Als ik een bonk kabaal voor lief neem (fan rpm ver boven 2200 prm) dan presteert de kaart in TimeSpy op een paar honderd puntjes na vergelijkbaar met een 7900GRE.
Dat zit ik op iets van 2650 mhz max met hetzelfde offset voltage; 1025mv.
Maar dat lijkt in games (op de langere termijn i.p.v. een TimeSpy run) niet stabiel.
Ik ben nog steeds zeer tevreden met de prestaties, de upgrade naar de 7900XT (inmiddels weg) voelde niet echt zo groot.
En 16gb vram is ook heerlijk tegenwoordig
[ Voor 11% gewijzigd door HugoBoss1985 op 26-11-2024 13:28 ]
/f/image/VPPS1vJA9d3FRpbC1SyaTj10.png?f=fotoalbum_large)
Gelukkig wel via Thermal Grizzly een vervanger gekregen.
Hij is dan wel niet meer standaard, maar de temps nu zijn echt fantastisch. En sinds RNDA2 heel erg gevoelig is voor temperatuur als het aankomt op het verbruik, zie je verbruiksresultaten die wellicht moeilijk te geloven zijn, maar waar.
Dit is de reference design bij Hardware Unboxed's 6800XT review.
:strip_exif()/f/image/yGGfIJhfjGaFAHzyDmLeY4Wl.png?f=user_large)
Dit is mijn kaart op dezelfde boostclocks en fan RPM
:strip_exif()/f/image/SiHLY8O5MUse5Fp0yXjcDssM.png?f=user_large)
Als AMD de kaart zo gemaakt had bij introductie, waren de reviews wel anders geweest...
Die folie maakt het inderdaad lastig, dat heb ik ook ervaren.
Je trekt de PCM al snel mee (het blijft niet goed op de die plakken) met het verwijderen van het laatste laagje folie.
Het beste werkte het nog met een heel fijn pincet en dan bij een hoekje beginnen.
Je kan op mijn foto ook zien dat de PCM pad iets is gaan scheuren (bovenin) om die reden.
Deze repaste en repad heb ik ook anders gedaan dan voorheen: ik deed altijd alles op het pcb, nu alleen de PCM pad op het pcb en de pads op de heatsink.
Meestal leg ik het pcb op de heatsink maar nu heb ik dat ook andersom gedaan.
Die reference design op het screenshot van HWunboxed zit nog niet op het volledige maximum qua gerapporteerd wattage wat ik met de Asus TUF heb.
Dat zit op 271 watt (hetzelfde als de AMD 6800 XT?).
75 graden is dan wel vrij hoog voor 252 watt gerapporteerd en 2200 mhz.
Maar niet goed voor stock waardes waar er de volle 1150mv door de kaart heen gaat.
De meeste van deze kaarten krijgen standaard gewoon veel en veel teveel voltage vanuit het bios.
Mijn kaart heeft een delta van ongeveer 18-20 graden (altijd al zo geweest, ook voor de PCM) maar ik kan nu rustig 2550 mhz max in de driver instellen met 1025mv en 0% powerlimit.
En in veel games zit het ingame dan daadwerkelijk gewoon op 2500 mhz ingame... dat is 300 mhz meer dan wat je bij HWunboxed ziet
In Timespy is de daadwerkelijke klok wat lager dan 2500 mhz en in Bodycam ook.
Dat komt omdat de power limit van mijn kaart dan bereikt wordt, dus de kloks gaan omlaag.
Het meest extreme scenario wat echt de laagste kloks oplevert lijkt de nieuwe variant van Furmark.
Daar zat ik maar op zo'n 2000 mhz.
Mijn kaart doet met 881mv 2200 mhz max, ik moet even kijken naar wat voor een wattage dat oplevert in games.
Maar het is duidelijk dat een vaste klok maximum klok, maximum power limit en een vast (offset) voltage instellen nog behoorlijk wat verschil kan opleveren tijdens verschillende workloads/games.
2550 max, 1025mv, 0% power:
Black Mesa Blue Shift gaat ook richting de 271 watt, ik denk omdat hier ook (geen) cpu bottleneck is.
Ingame zo'n 2500 mhz.
In Bodycam dus ook ook 271 watt maar een stuk lagere kloks.
Dead Space Remake heeft een lager gerapporteerd wattage en de ingame klok schommelt maar haalt wel de 2500 mhz maximaal.
Deze game heeft veel microstutters dus de gpu draait minder lang aan een stuk voluit.
Warhammer Darktide heeft bij mij ook altijd een vrij inconsistente GPU usage gehad, de ingame klok en het verbruik liggen daarbij ook lager.
Starship Troopers Extermination ook hetzelfde verhaal, nooit 271 watt gezien maar wel hoge kloks.
[ Voor 6% gewijzigd door HugoBoss1985 op 26-11-2024 13:30 ]
Maar ik draai nu 2530 @ 1040mv. Komt neer op zo'n 2500 ingame. Zie screenshot voor powervalues en temps. Dat vind ik wel een mooie balans, en dan zit je niet helemaal bovenin de V/F curve. 2700 trekt hij erg veel. 300W+ zelfs in games. Temps zijn wel ok, maar ik wil mijn chip niet breken. Dat gebeurd namelijk bij RDNA volgens northfixrepair. Nu weet ik natuurlijk niet of die niet gewoon extreem heet geworden zijn...
/f/image/0E071CqY6fg04p1Rvav1pSiB.png?f=fotoalbum_large)
:strip_exif()/f/image/rQxJsnADYVDxpqp7PR5vEg4L.png?f=user_large)
EDIT: hmm, tis toch wat minder dan ik dacht nu, dat zal wel de PTM zijn, ik had dit nog niet getest met PTM installed.
/f/image/2q74WxZQdV2spjQcNDaUiohF.png?f=fotoalbum_large)
:strip_exif()/f/image/YgXwf8qwfIHdkyCMAOp2CfW0.png?f=user_large)
Maarja, 50watt meer voor 2 fps extra. Leuk misschien als je tegen het eind van z'n levensduur aanloopt en de paar fps nodig hebt. Nu nog niet.
[ Voor 30% gewijzigd door Majestici op 26-11-2024 20:36 ]
En 2550 max instellen is eigenlijk onzin en niet het meest efficiënte punt.
Ik vind dat het rond de 2450 mhz zit, 20.5000 Timespy Graphics is al netjes voor een 6800 XT en al flink minder verbruik dan stock.
Zo lang ik van de power limit af blij ben ik zelf niet bang dat ik iets sloop en tevens is het geluidsniveau dan ook nog acceptabel.
Die 2550 is nu wel lekker om de kamer te verwarmen
Heb jij vloeistof koeling?
Je temps zijn wel erg goed.
Mijn gpu die is iets bol terwijl het contactvlak van de heatsink redelijk vlak is.
Dus de warmteoverdracht zal bij mij nooit optimaal zijn.
[ Voor 17% gewijzigd door HugoBoss1985 op 26-11-2024 21:16 ]
Hopelijk doen ze dit beter met RDNA4 en krijgen ze wat market share.
Welke kaart en koeling heb jij nu?Majestici schreef op dinsdag 26 november 2024 @ 21:17:
Is wel leuk voor de enthusiast, maar ze zouden eigenlijk beter getuned moeten zijn vanuit de fabrikant. En ook de koeloplossingen moeten beter. Want RDNA2 is beter dan de reviews doen vermoeden.
Hopelijk doen ze dit beter met RDNA4 en krijgen ze wat market share.
Ik lees nu dat het de Red Dragon is.
Ik heb trouwens de OC versie van de TUF dus misschien een betere bin dan anders.
Ze mogen van mij ook wel gewoon standaard PTM gebruiken.
Ik ga daar bij mijn volgende grafische kaart upgrade wel op selecteren.
Bedoelde je NorthRidgeFix?
Zo ja, gave website.
Zo niet dan heb ik het juiste nog niet gevonden
Ja de reviews zijn wel apart, die 20.500 timespy is 6900xt territorium maar ik zie dat soort scores haast nooit op reviews.
Wellicht omdat de reviewers toen nooit iets met undervolten deden?
AMD drivers hebben ook de scores omhoog gebracht maar in nieuwer reviews zie ik het ook niet terug.
Die game van jou is zo te zien ook typisch zo'n game waar je de clocks heel hoog kan krijgen tegen laag verbruik.
https://linustechtips.com...updated/#comment-15746821
Dat zijn iets minder leuke plaatjes.
[ Voor 46% gewijzigd door HugoBoss1985 op 26-11-2024 21:35 ]
Mijn eigen design :P Maar het was oorspronkelijk een red dragon ja, dus daar is de heatsink nog van. Hellhound heeft een dikkere heatsink.HugoBoss1985 schreef op dinsdag 26 november 2024 @ 21:20:
[...]
Welke kaart en koeling heb jij nu?
Ik lees nu dat het de Red Dragon is.
[ Voor 16% gewijzigd door Majestici op 26-11-2024 21:51 ]
Netjes!DoubleYouPee schreef op dinsdag 26 november 2024 @ 21:40:
Standaard haalde mijn 6800XT 18.7K in timespy graphics. Draai nu 2400/2050mhz 24/7 op 1000mv. Score daarmee ~20.5K timespy graphics
Jouw gpu is dan misschien bij alle kloks (tenzij er een limiet is) stabiel op die 1000mv?
Dat is een hele goede undervolt als dat met gamen ook stabiel is.
De minimum frequentie kun je vanuit mijn ervaring gewoon laten voor wat het (default) is in je driver.
Misschien ook beter voor je idle temperaturen (geen idee of dat zo is)?
Ik heb heel in het begin met deze kaart gekeken wat hij deed met laagste voltage wat je in de driver kan instellen.
Dat is dus die 881mv.
Ik ben er pas lang daarna achter gekomen dat de instelling van het voltage een soort van offset voltage is.
Nu stel ik gewoon altijd 1025mv en de kaart past het zelf aan naar gelang welke maximum clock ik instel.
En dus ook naargelang de workload (welke game).
Er zit dus een heel verschil in daadwerkelijk voltage en hetgeen wat ingesteld wordt.
Je kan ook kijken bij welke klok de kaart (de gpu) niet boven het ingestelde voltage uit komt.
En dan de maximum clock en het maximale voltage instellen.
Bij mij is dat 2450 mhz in de driver voor die 1025mv.
Een ander "vast/zeker" gegeven is 2200 mhz en 881mv.
De enige twee opties van vaste max mhz en voltage die ik getest heb met mijn kaart.
Maar de laatste tijd gewoon altijd 1025mv, 2450mhz max in de winter en 2200mhz max in de zomer bijvoorbeeld.
Sinds de pcm upgrade 1025mv en 2550 max, als ik de kaart in de zomer nog gebruik gaat ik hem wel weer lager klokken
Net even 1025mv en 2450 max getest in Bodycam (UE5).
1006-1012mv in het hoofdmenu op 4k zonder framerate limit.
GPU PWR 246-260 watt (gerapporteerd, niet daadwerkeijk).
Deze game belast de videokaarten echt idioot veel en meer dan andere games die ik speel.
@Majestici Ach natuurlijk, die heb ik hier wel eens voorbij zien komen.
Vandaar die extreem lage temps en je fan rpm zal ook wel lekker laag zijn
Dat is gaaf, zo zie je ook maar dat je met 3d printen leuke dingen kan doen.
[ Voor 41% gewijzigd door HugoBoss1985 op 26-11-2024 22:23 ]
Ja, ik gebruik deze settings al een jaar zonder problemen.HugoBoss1985 schreef op dinsdag 26 november 2024 @ 21:55:
[...]
Netjes!
Jouw gpu is dan misschien bij alle kloks (tenzij er een limiet is) stabiel op die 1000mv?
Dat is een hele goede undervolt als dat met gamen ook stabiel is.
In games rapporteert hwinfo 0.99V en 2300mhz
Net een van marktplaats gescorede RX6400 in de pc van de jongste hier geprikt, en ik moet zeggen dat ik toch best happy ben. Als upgrade van de 5700g igpu stelt ie zeker niet teleur. De benchmark score (unigine heaven) is verdrievoudigd, terwijl het stroomverbruik (aan de muur) maar pakweg 20 watt gestegen is. Mijn go-to testgame (Doom 2016) loopt op 1080p ultra ook lekker vlot, en op 3440*1440 low was het ook nog prima te doen.
Enige "tegenvaller" is dat de kaart helemaal locked is, dus geen overclock/undervolt of zelfs ook maar custom fancurve mogelijk, misschien is het de moeite waard om em eens te repasten, misschien houdt ie zich dan wat stiller.
Voor de prijs (66 euro zoals gezegd op marktplaats) en gezien de beperkingen van het systeem (Ali 4 liter ITX case, 250w voeding zonder 6 pin), ben ik erg tevreden. Ik zou niemand persee tegen nieuwprijzen deze kaart aanraden, maar als upgrade voor een ouder systeem (al dan niet met kreupele voeding) voor wat 1080p gamen is het best een tof kaartje.
Gezien het stroomverbruik trouwens (piek 110w aan de muur) zou ik haast geneigd zijn om een custom kabel te maken voor de PSU en te kijken of ik ergens een 6500xt vandaan kan halen, als ik het goed heb zijn die niet clock/volt locked, dus daar moet met een beetje tweaken helemaal wat van te maken zijn
Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings