[b]
DaniëlWW2 in "[AMD Radeon RX7000 series] Ervaringen & Discussie"DaniëlWW2 schreef op zondag 6 augustus 2023 @
En die PL limiet bij mij is bizar.
Mijn RX7900XT Pulse heeft een 330W bios. Maar met -10% PL is het uitgelezen verbruik altijd rond de 285W. Range is 281W-287W. Ik weet niet wat AMD aan het doen is, maar dit lijkt meer op 13%-14% dan 10%. Ik vind het best want dit was precies wat ik eigenlijk wenste.
Verder is het voor mij een typisch gevalletje RTG gonna RTG.
De marketing en de leiding van die afdeling moeten zich diep gaan schamen. Drie goede generaties aan behoorlijk competitieve hardware en zo ongeveer elke kans weggegooid.
Hmm dat is vreemd, het kan zijn dat de uitlezing niet nauwkeurig is. Het is immers maar een software uitlezing en dat kan soms er erg ver naast zitten.
Bij AMD wordt de meting gedaan aan de hand van de DCR van de spoelen en dat is over het algemeen best nauwkeurig. Een stuk beter dan de shuntmetingen die bij Nvidia kaarten worden gedaan.
De in totaal 6-7 reference RX6900XT & RX6950XT kaarten die ik in handen heb gehad, waren allemaal behoorlijk nauwkeurig. Maar die maakte nog gebruik van een PPT budget (alle stroom en spanning werd ná de vrm's gemeten). De PPT van een stock RX6900XT is 255W en met -10% zit dat keurig op 229.5W.
Delen door 0.82 geeft dan een schatting van de TBP.
Bij RDNA3 is de vermogens uitlezing aangepast zodat het (ook) de hele boardpower bepaald wordt.
Maar misschien is dat nog niet zo nauwkeurig? Ik weet niet of dat nu veranderd is naar een shuntmeting bij de pci-e connectoren.
Ik weet wel dat het bij Nvidia kaarten echt een zooitje kan zijn met die shuntmetingen.
Naast dat het exemplarisch is, kan het ook per model enorm verschillen in uitlezing.
Ze geeft de Gigabyte Windforce ca. 8-10W TBP idle verbruik aan, terwijl dat gemeten met een Powernetics of PCAT systeem rond de 30W is in werkelijkheid.
Ik had hiervoor nog een andere 4090FE (omgeruild vanwege het coilwhine probleem) en tussen de twee 4090FE exemplaren zit 20W verschil in software uitlezing bij een vollast.
Wanneer je de reviews van Quasar Zone doorleest dan zie je hoe erg het soms gesteld is met de vermogens uitlezing van de GPU kaarten zelf.
De INNO3D 4090 X3 OC geeft zelf 6.8W in idle aan, terwijl het in werkelijkheid 25.1W is:
https://quasarzone.com/bb...sort=num%2C%20reply&type=
Quasarzone is trouwens een prachtige review site en de enige die ook echt spectrum metingen doet om de hoeveelheid coilwhine te meten! Hadden we dit maar standaard bij andere review sites ook...
Freesync en Nvidia is ook zo'n verhaal ja. Soms doet AMD echt feature implementeren en vinkje gezet zonder te kijken of het goed is. Maar Nvidia kan het ook met Freesync en rBAR. Dat werkt gewoon met AMD want het zijn zaken waar AMD wel aandacht en tijd in heeft gestoken. En als ze dit nu eens vaker deden in plaats van Nvidia najagen. Maar RTG gonna RTG.
Het is erg jammer wel, want ik speel hoofdzakelijk WoW en dat geeft dan bij bij 70-80 FPS overgangsproblemen. Dat heeft dan weer te maken met dat ik een VA scherm hebt waardoor dat zich uit in helderheids flikkeringen, gerelateerd aan uitschieters in de frametimes of gortige onderbrekingen daarvan (de brakke LFC / Low Framerate Compensation van Nvidia).
Ik heb sterk het vermoeden dat Nvidia dit doelbewust zo geïmplementeerd heeft om zo G-sync superieur te laten lijken.

Met mijn Sapphire Pulse niks. Al de derde custom Sapphire na mijn RX580 en RX5700XT waar ik mensen met andere merken erover heb horen klagen en ik nergens last van heb. En ik hoor het absoluut als ik het zou hebben. Ik weet dat Sapphire steevast adverteert dat ze hun PCB's zo ontwerpen om het te vermijden en dat begin ik te geloven. Want het valt me toch op dat het met Sapphire nauwelijks gemeld word. ASUS deze generatie zeker wel. Verder gaan er ook wat dingen mis met ASRock, Powercolor lijkt ook vapor chamber issues te hebben gehad en met XFX moet je helemaal aan de slag met de fan curve. Nitro+ lijkt uiteraard een Nitro+ te zijn.
Wel vind ik dat de reviews van dit model misleidend zijn. Er is een setting waar de ventilatoren rond de 1500RPM blijven, maar er zijn nog een paar standjes erboven. En dan hoor je de ventilatoren echt. Maar ik kan met gemak mijn fan curve aanpassen tot onder de 1500RPM. Het is een Pulse en geen Nitro+, maar het lijkt er wel op dat de fan curve een beetje is afgesteld om perfect te werken op open testbanken en wat minder in behuizingen. Deze is perfect adequaat als je niet gaat overclocken, een hoofdtelefoon opzet, fan curve aanpast of undervolt. Maar ik ben er niet 100% weg van. Het is goed genoeg voor mijn vereisten, niet perfect.

Ah dat is goed om te lezen, als ik ervoor ga dan wordt het zeker een Sapphire kaart.
De 7900XTX MBA had ook last van coilwhine, maar iets minder dan de RX6900XT. Het was tonaal ook iets anders. Meer een mug geluid dan een zindering.
De koeling is voor mij minder belangrijk aangezien het dan toch in een customloop beland.
Met 300-400W is het gewoon niet stil te krijgen met een luchtkoeler, of je moet een monoliet hebben zoals de Asus 4090 Strix

. Alles wat meer dan 1300 toeren maakt is voor mij ondraaglijk.
Ik ben trouwens nog een ander groot nadeel van de RTX4090 vergeten te vertellen en dat is de driver overhead. Dat blijkt echt niet te onderschatten te zijn, want mijn oude RX6900XT is i.c.m. een 5800X3D in gedeelten van games die sterk op 1 thread leunen, ca. 20% sneller dan de RTX4090.
Dus op de plekken waar het telt om niet flink in FPS in te moeten boeten.
Met PL op -10%, of wat het ook moge zijn, heb ik geen enkel probleem ervaren. Ik wist ook al dat de spikes wel zouden afnemen met wat PL verlaging en dat lijkt goed te werken. Misschien koop ik alsnog een 750W PSU als de pijn van deze videokaart wat is gaan zakken. Ik heb nog nooit zo'n dure videokaart gekocht.
Heb al een shortlist en ik denk dat ik dan
uitvoering: Fractal Design Ion Gold 750W koop.
[...]
Ik had die geprobeerd met mijn RX Vega 56. Tja het is niet voor mij.
Ik gebruik graag Radeon Chill, maak voor veel games custom profielen met wat andere settings en ik ben nu weer van plan om hetzelfde te doen als ik met mijn RX Vega 56 had gedaan. Ik wil twee UV profielen gaan maken. De eerste is high power waarbij ik waarschijnlijk op die 285W blijf zitten en het optimaliseer voor clock speeds. Het lijkt er voorzichtig erop dat ik op 1050mv weg kan komen met hoge 2400MHz tot net over de 2500MHz.
Dan ga ik nog een tweede profiel maken waar ik een stuk lager wil gaan mikken qua vermogen en wat clock speed opgeef. Voor de meeste games die ik speel, is deze RX7900XT zulke belachelijke overkill. Er zijn ook games waar AMD Chill een beetje te gevoelig kan zijn, dus dan heb ik ook een tweede profiel met flink lager verbruik. Dat lijkt ook niet zo moeilijk te zijn. Ik heb nooit echt gespeeld met mijn RX5700XT, maar ik was eigenlijk blij verrast dat maximale boost clock instellen nu ook werkt zoals je zou denken dat het werkt. Je kan gemakkelijk je vermogen verlagen door te spelen met maximale clock speed en voltages. Het maakt de PL beperking extra zinloos. Verder blijf ik maar even van mimimale clock speed af want dat is lijkt ook vrij letterlijk te zijn met crash ten gevolgen. Was grappig om een TimeSpy run te doen en crashes te krijgen als een deel voltooid is omdat de framerate omlaag ging tijdens het laden.
Ik heb wel gemerkt dat AMD hun eigen OC software ook een stuk beter is dan jaren geleden. Ik kan crashes hebben zonder dat de boel echt bevriest, maar complete profiel resets lijken niet zomaar te gebeuren en rebooten lijkt meestal ook niet nodig.
Het enige is dat ik nu een zeer domme bug ervaar waarbij ik een profiel exporteer om op te slaan en vervolgens probeer te importeren waarna AMD doodleuk zegt dat dit profiel niet compatibel is met mijn videokaart. Het is een XML bestandje en het lijkt erop dat het opgegeven deviceID volslagen onzin is. Moet alleen nog wel even uitvogelen wat het wel kan zijn.
PS: Join the cult, the cult of Sapphire.
Het is jammer dat AMD het niet wat meer modulair maakt. Ik zou bijv. graag willen kiezen of ik Wattman erbij willen hebben en/of Game profielen. Het is zo'n alles of niets keuze nu. Om streaming geef ik persoonlijk helemaal niets bijvoorbeeld.
Maar AMD is inderdaad flink bezig geweest met het verbeteren van de software tot een punt dat het op bepaalde vlakken gewoon veel beter is dan Nvidia (custom fancurves maken bijvoorbeeld). En een stuk gebruiksvriendelijker.
Het afregelen is ook erg fijn en makkelijk, wanneer je eenmaal doorhebt hoe het achter de schermen werkt.
In mijn situatie heb ik alleen de max. klok en targetvoltage aangepast om de RX6900XT efficiënter te maken dan een RX6800. Dezelfde weg bewandelen met een powerlimiet gaf slechtere resultaten.
Een ander voordeel is dat met een klokbeperking het vermogensbudget beschikbaar blijft voor zeer zware spellen (voor jouw is het dan wat minder misschien vanwege de beperkte capaciteit van de voeding).
Een ding waar ik achter ben gekomen is dat de v-sync vanuit Andrenaline voor onevenredig veel verbruik zorgt. Mocht je geen gebruik maken van Freesync + FPS cap, dan is het beste om v-sync altijd via de game in te stellen.
De Fractal ION voedingen zijn erg fijn met soepele kabels.
Maar lijkt het je niet beter om een paar tientjes meer uit te geven om dan meteen voor een Platinum model te gaan? Die hebben vaak een hybride fancurve met een fanstop bij lage vermogens.
Ik begrijp overigens helemaal hoe het is om voor het eerst zoveel geld uit te geven voor een GPU. Bij de 1080TI had ik niet verwacht dat ik ooit nog meer zou uitgeven aan een GPU en idem bij de RX6900XT.
De 4090FE is dan ook de 1e GPU waar ik geen kopersgeluk / euforie ervaar.
[
Voor 200% gewijzigd door
CMT op 07-08-2023 01:17
]