Vraag


Acties:
  • 0 Henk 'm!

  • mellie192
  • Registratie: Mei 2013
  • Laatst online: 27-07 21:59
Hoi, ik hoop dat iemand me met dit issue kan helpen.

3 maanden geleden heb ik een reference model RX 6950 XT gekocht, maar na het vergelijken met andere video's zag ik dat hij zwaar underperformde.
Vandaag, per toeval, kwam ik deze video tegen en ik lijk hetzelfde issue te hebben.

Na het draaien van Furmark, kwam ik er achter dat de max wattage piekte op 280W, terwijl de kaart ongeveer 335W hoort te trekken!
Ik heb geen idee hoe ik dit kan oplossen en ik ben radeloos, heeft iemand enig idee?

Relevante software en hardware die ik gebruik:
GPU: AMD Radeon RX 6950 XT (AMD reference model)
CPU: Intel i9-10900
PSU: Gigabyte GP-P1000GM 1000W
Motherboard: MSI B460 Tomahawk
RAM: 32GB Trident Z RGB 3200 mhz (4x 8gb)

Wat ik al gevonden of geprobeerd heb:
- Windows 11 factory reset
- AMD firmware opnieuw installeren
- Wattage boosten met Afterburner (dit werkt maar een klein beetje, maar niet boven de 300W)

EDIT:
Nog wat benchmarks:
Batllefield 1 op ultra en dx12: 100 average

Shadow of the Tomb Raider: 163 average
DX 12, no AMD FFX, AA TAA and ultra settings

Modern warfare 2: 159 average
Extreme settings, no upscaling

Timespy: 18770
GPU score: 20887
CPU score: 11923
https://www.3dmark.com/spy/38689610

Met vriendelijke groet,
Mellie192

[ Voor 14% gewijzigd door mellie192 op 18-08-2023 08:53 ]

Beste antwoord (via mellie192 op 20-08-2023 15:37)


  • Pos
  • Registratie: Januari 2005
  • Laatst online: 20:12

Pos

Je performance is binnen verwachting. Het is zinloos om er andere hardware tegenaan te gooien.
Daar ga je kwa fps niets op winnen.

Je zit op dit moment ook tegen de hotspot aan te tikken van 110 graden en dat wil je liever niet.

Je kunt eventueel meer info vinden over deze kaart in het RX 6000 topic hier op tweakers en dan mijn posts van de laatste paar maanden.
Ik heb dat hele ding uit elkaar gehaald en verschillende zaken geprobeerd om hem minder tegen de TJunction max aan te krijgen.
Uiteraard kun je nog de RMA route gaan indien nog binnen garantie termijn en ongeopend.

Alle reacties


Acties:
  • +1 Henk 'm!

  • JappieR
  • Registratie: Februari 2005
  • Laatst online: 21:13
1. En hoe heb je geconstateerd dat je gpu ondermaats presteert, haal je niet de gewenste fps in je spellen die je speelt?
2.Zo ja, welke spellen en op welke resolutie speel je?
3.Wat zijn de temperaturen van je gpu en cpu tijdens het spelen?

Concluderen dat je videokaart niet goed werkt omdat hij niet aan zijn maximaal opgegeven vermogen komt is geen goede conclusie. De link naar dat video-tje gaat niet over een referentie kaart van AMD zelf maar naar een Gigabyte kaart, dus de informatie uit dat filmpje zou ik voor nu maar gewoon als informatie aannemen.

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
JappieR schreef op vrijdag 18 augustus 2023 @ 07:46:
Concluderen dat je videokaart niet goed werkt omdat hij niet aan zijn maximaal opgegeven vermogen komt is geen goede conclusie.
Waarom niet? Elk beetje GPU tegenwoordig is TDP limited. Dus als hij niet tot zijn TDP limiet boost, is er iets mis mee. Nou ja, of hij is iets aan het doen waarbij dat niet nodig is. Eg als er een FPS limiter staat ingesteld. Maar dit is bijvoorbeeld het vermogensgebruik van deze kaart bij verschillende zaken: https://www.techpowerup.c...-reference-design/35.html.

En temperatuur kijken is dan een goede stap, net als een benchmark draaien.

Acties:
  • +1 Henk 'm!

  • Cyriel85
  • Registratie: December 2017
  • Laatst online: 20:24
Wellicht is de 1000w versie van Gigabyte prima, maar gezien de problemen met de kleinere broertjes, zou ik deze niet vertrouwen:
https://www.tomshardware....atement-on-exploding-psus

Wellicht is een andere PSU dus wel de oplossing en wellicht sowieso veiliger voor je systeem.

Heb je de kaart wel gevoed met losse kabels en niet met daisychain kabel?

[ Voor 29% gewijzigd door Cyriel85 op 18-08-2023 08:28 ]

Ryzen 5 3600 - MSi B450proVDH Max - AMD 6800XT - 16 GB Hyperx Predator


Acties:
  • 0 Henk 'm!

  • KilleBladhark
  • Registratie: December 2022
  • Laatst online: 07-09 22:05
Een paar vragen:

1. Was dit vanaf het begin al zo of heb je er nooit bij stil gestaan dit te testen? (Zelf meer benieuwd naar lol)

2. Wanneer je dit test, wat zijn de clock speeds waarop de kaart draait? Daarnaast wat zijn de temps van de kaart? (Post hier bijvoorbeeld een ss van)

3. Zoals @Cyriel85 aangeeft, gebruik je 2 losse 8 pin kabels of 1 kabel met daaraan 2 + 8 pin kabel?

4. Zijn je videokaart drivers up-to-date? (Weet niet of je dit bedoelt met "AMD Firmware")

5. Wat ik begrijp heb je dit alleen getest in Furmark? Wat zijn de resultaten als je het vergelijkt met bijvoorbeeld een game benchmark (Doe bijvoorbeeld een benchmark in Cyperpunk 2066)

6. Is er fysiek iets raars/mis te zien aan de kaart (Bijvoorbeeld draaien alle fans wel of zitten de kabels er allemaal goed in)

7. In welk slot van je moederbord heb je de GPU zitten?

The One Piece is real. (Can we get much higher!)


Acties:
  • 0 Henk 'm!

  • mellie192
  • Registratie: Mei 2013
  • Laatst online: 27-07 21:59
Cyriel85 schreef op vrijdag 18 augustus 2023 @ 08:26:
Wellicht is de 1000w versie van Gigabyte prima, maar gezien de problemen met de kleinere broertjes, zou ik deze niet vertrouwen:
https://www.tomshardware....atement-on-exploding-psus

Wellicht is een andere PSU dus wel de oplossing en wellicht sowieso veiliger voor je systeem.

Heb je de kaart wel gevoed met losse kabels en niet met daisychain kabel?
Interessant... Deze ga ik dan maar zo snel mogelijk vervangen!
Overigens zaten er bij deze voeding alleen maar daisy-chain kabels, dus ik heb ik er 2 aparte daisy-chain kabels in gedaan i.p.v. 1. Zou dit verschil moeten maken?

Acties:
  • +1 Henk 'm!

  • BillSpaarbank
  • Registratie: Januari 2005
  • Niet online
mellie192 schreef op vrijdag 18 augustus 2023 @ 08:51:
[...]


Interessant... Deze ga ik dan maar zo snel mogelijk vervangen!
Overigens zaten er bij deze voeding alleen maar daisy-chain kabels, dus ik heb ik er 2 aparte daisy-chain kabels in gedaan i.p.v. 1. Zou dit verschil moeten maken?
Ja, want iedere voedingskabel levert een maximum wattage. Ergens tussen de 200 en 300 W. Splitsen over 2 kabels zou een hoger wattage aan de GPU moeten leveren.

Een optimist is een slecht geïnformeerde pessimist...


Acties:
  • 0 Henk 'm!

  • mellie192
  • Registratie: Mei 2013
  • Laatst online: 27-07 21:59
JappieR schreef op vrijdag 18 augustus 2023 @ 07:46:
1. En hoe heb je geconstateerd dat je gpu ondermaats presteert, haal je niet de gewenste fps in je spellen die je speelt?
2.Zo ja, welke spellen en op welke resolutie speel je?
3.Wat zijn de temperaturen van je gpu en cpu tijdens het spelen?

Concluderen dat je videokaart niet goed werkt omdat hij niet aan zijn maximaal opgegeven vermogen komt is geen goede conclusie. De link naar dat video-tje gaat niet over een referentie kaart van AMD zelf maar naar een Gigabyte kaart, dus de informatie uit dat filmpje zou ik voor nu maar gewoon als informatie aannemen.
1. Inderdaad doordat mijn FPS zoveel lager is dan ik had verwacht, zo schiet GTA V bijvoorbeeld nooit boven de 80 fps.
2. Ik heb wat benchmarks toegevoegd aan de originele post, ik speel op 1080p
3. Temperaturen staan bij de (nieuwe) bijgeleverde 3dmark test
- GPU: 76 graden
- CPU: 60 graden

Acties:
  • 0 Henk 'm!

  • mellie192
  • Registratie: Mei 2013
  • Laatst online: 27-07 21:59
BillSpaarbank schreef op vrijdag 18 augustus 2023 @ 08:56:
[...]

Ja, want iedere voedingskabel levert een maximum wattage. Ergens tussen de 200 en 300 W. Splitsen over 2 kabels zou een hoger wattage aan de GPU moeten leveren.
Maar maakt het dan uit dat deze 2 aparte kabels een pig-tail zijn?
Nu zitten er dus 2 pig-tails in (erg lelijk omdat beide "2e" kabel niet aangesloten zit x).

Acties:
  • 0 Henk 'm!

  • mellie192
  • Registratie: Mei 2013
  • Laatst online: 27-07 21:59
KilleBladhark schreef op vrijdag 18 augustus 2023 @ 08:41:
Een paar vragen:

1. Was dit vanaf het begin al zo of heb je er nooit bij stil gestaan dit te testen? (Zelf meer benieuwd naar lol)

2. Wanneer je dit test, wat zijn de clock speeds waarop de kaart draait? Daarnaast wat zijn de temps van de kaart? (Post hier bijvoorbeeld een ss van)

3. Zoals @Cyriel85 aangeeft, gebruik je 2 losse 8 pin kabels of 1 kabel met daaraan 2 + 8 pin kabel?

4. Zijn je videokaart drivers up-to-date? (Weet niet of je dit bedoelt met "AMD Firmware")

5. Wat ik begrijp heb je dit alleen getest in Furmark? Wat zijn de resultaten als je het vergelijkt met bijvoorbeeld een game benchmark (Doe bijvoorbeeld een benchmark in Cyperpunk 2066)

6. Is er fysiek iets raars/mis te zien aan de kaart (Bijvoorbeeld draaien alle fans wel of zitten de kabels er allemaal goed in)

7. In welk slot van je moederbord heb je de GPU zitten?
1. Dit was inderdaad vanaf het begin al zo, maar toen legde ik het weg op mogelijk een CPU bottleneck (die heb ik evengoed nu), maar ik kon me al slecht voorstellen dat dat zoveel impact zou hebben (krijg bijvoorbeeld maar 100fps op battlefield 1, met m'n rtx 3060 ti kreeg ik veel meer FPS). Ben destijds door 30 man op Reddit als een debiel uitgemaakt dat ik een i9 10900 met deze kaart gebruikte :\.

2. Ik heb een 3dmark test toegevoegd aan het originele bericht

3. 2 losse 8-pins (maar beide kabels zijn alsnog pig-tails)

4. Bedoelde ik inderdaad met de AMD firmware, deze is up-to-date

5. Ik gebruikte de Furmark test om echt een pure GPU test uit te voeren zonder dat de CPU in de weg zou zitten. Op games is dit vrijwel hetzelfde, altijd rond de 280 W

6. Het enige wat ik kan opmerken is dat hij last heeft van coil whine, fysiek ziet hij er prima uit

7. Hij zit in de bovenste PCI slot van het moederbord

Acties:
  • 0 Henk 'm!

  • Cyriel85
  • Registratie: December 2017
  • Laatst online: 20:24
mellie192 schreef op vrijdag 18 augustus 2023 @ 09:25:
[...]


Maar maakt het dan uit dat deze 2 aparte kabels een pig-tail zijn?
Nu zitten er dus 2 pig-tails in (erg lelijk omdat beide "2e" kabel niet aangesloten zit x).
Nee dat maakt niet uit, als je maar per kabel slechts 1 connector van 4 of 6 (4+2) pin gebruikt is het goed.

Ryzen 5 3600 - MSi B450proVDH Max - AMD 6800XT - 16 GB Hyperx Predator


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 22:23
Vsync uit? Geen fps cap aanstaan in de driver?

Als AA forceert in de driver en de kaart het dus wat zwaarder krijgt, wordt hij dan wel 100% belast in timespy?

Acties:
  • +1 Henk 'm!

  • KilleBladhark
  • Registratie: December 2022
  • Laatst online: 07-09 22:05
Zit er op deze kaart een BIOS switch om bijvoorbeeld van silent mode naar OC mode te switchen? Zo ja, maakt dit een verschil?

Daarnaast ben ik wel benieuwd of je de kaart al in een ander systeem hebt geprobeerd om te kijken of die hierin dezelfde behaviour vertoond? Denk dan aan een wat moderner systeem. Zelf zou ik het raar vinden dat de 10900 deze GPU limiteert, maar daarnaast zou het me eigenlijk ook niet verbazen.

Tevens zou je dit volgens mij ook kunnen testen door te kijken of er iets verandert als je al deze tests doet op 1440p, dit is denk ik makkelijker te doen dan op een ander systeem.

Ik had je reddit post ook al gevonden en de suggesties die ik hierboven geef zijn hier ook al voorgesteld, zonder enige feedback van je, dus weet ik nu niet of deze dingen al geprobeerd zijn. Dit zou ik dan alsnog voorstellen om het in ieder geval uit te sluiten.

Edit: Heb ook een post gezien waarin de user zijn GPU ge-reseat had en alle kabels uit zijn PSU ook had ge-reseat en dit voor hem de fix was, ook dus te proberen.

Mocht dit verder allemaal geen effect hebben, kun je mogelijk een RMA proces starten.

[ Voor 7% gewijzigd door KilleBladhark op 18-08-2023 10:19 ]

The One Piece is real. (Can we get much higher!)


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@mellie192 Drivers detecteren Furmark als het goed is en beperken de videokaart dan automatisch wat. Furmark is namelijk wat zwaar. :P

Tweede is 1080p. Uh ik heb wel een vermoeden. Kan je eens in wat games AMD hun ingebouwde metrics overlay aanzetten, specifiek clock speeds en GPU utilisatie. Maar alles aan mag ook gewoon. Want ik zou niet verbaast zijn als die GPU niet naar zijn 335W TDP kan gaan omdat die door die lage resolutie tegen een CPU bottleneck aanloopt.

Verder wat is de meest grafisch intensieve game die je hebt? Zoiets als Cyberpunk 2077 of een recente game van de afgelopen maanden? Want daar zou je misschien wel eens meer vermogen kunnen zien. Je moet denk ik echt op zoek naar een serieuze GPU bottleneck. :)

Het is namelijk vrij normaal voor moderne videokaarten om juist niet tegen hun TDP limiet aan te zitten. Kijk ook hier eens naar. Het kan per game aardig verschillen. Toegegeven dit was met een MSI wat echt een heethoofd is. Die heeft 332W GPU powerlimiet en kan zo ruim over de 400W gaan. Maar genoeg games waar dat zeker niet gebeurd op 1080p. Wel op 4K. :)
https://www.igorslab.de/e...-the-energetic-crowbar/7/
review: AMD Radeon RX 6950 XT - Vijf razendsnelle Radeons vergeleken

Verklaard dit het niet, tja wat versta je onder een W11 factory reset? Compleet schone installatie?
Verder kan je ook nog https://www.guru3d.com/fi...uninstaller-download.html in safe mode proberen. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Gundogan
  • Registratie: Maart 2010
  • Laatst online: 00:08

Gundogan

Rip and tear, until it is done

mellie192 schreef op vrijdag 18 augustus 2023 @ 03:46:
Batllefield 1 op ultra en dx12: 100 average
Dit is gewoon in multiplayer? Want ik haal dit met een R5 5600 en RX 6600 al makkelijk op 1080p.

Ik zou inderdaad eens kijken wat je kaart doet tijdens games via de AMD overlay of MSI Afterburner. Tikt de kaart de max aangegeven kloksnelheden aan bij 90-100% utilisatie zonder dat je tegen powerlimits aanloopt? Furmark en ook Timespy zijn geen echt goede benchmarks hiervoor. Cyperpunk 2077 benchmark is prima. Heaven 4.0 benchmark heeft ook stukken waar in ieder geval mijn pc 99-100% utilisatie met max clockspeeds doet (hoewel ik de powerlimits voldoende heb opgeschroefd hiervoor).

[ Voor 4% gewijzigd door Gundogan op 18-08-2023 12:19 ]

Ryzen 5 5600, 32GB, Gigabyte B550M DS3H, RX 9060 XT 16GB


Acties:
  • 0 Henk 'm!

  • mellie192
  • Registratie: Mei 2013
  • Laatst online: 27-07 21:59
Bedankt allemaal voor de reacties, tips en uitleg!
Bij deze screenshots van benchmarks van de volgende games:
Cyberpunk 2077
CoD Modern Warfare 2
Rise of the Tomb Raider
Metro Exodus Enhanced Edition
Tiny Tina's Wonderland

Videokaart raakt de target clock speeds ook, rond de 2300 mhz.
https://www.techpowerup.c...s/radeon-rx-6950-xt.c3875
Ook piekt de GPU op 284W, met de OC van de Radeon software is dit 300W.

Ben ik dan toch tot een verkeerde conclusie gekomen, en is het dan toch de processor die zo'n erge bottleneck geeft?

Ik heb helaas geen 2k monitor, noch de mogelijkheid er met 1 te testen, dus 2k is momenteel geen mogelijkheid voor mij. :(
Videokaart ook niet in een andere computer getest, dit is mijn enige pc en vrienden hebben allemaal een nvidia kaart in hun pc.

De benchmarks zijn allemaal gemaakt zonder FSR en na een reseat van de GPU + GPU kabels.
Benchmarks zijn ook allemaal gemaakt in ultrawide 1080p, switchen naar 1920x1080p gaf geen enkel verschil.

Afbeeldingslocatie: https://tweakers.net/i/YKY2UJujNlY92p-tD5SpFkkiKfw=/232x232/filters:strip_exif()/f/image/YXG10KQCwmKsw5B2qNJ2X3vk.png?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/WFtm15yf5oApLN6qlzViWMX3ACA=/232x232/filters:strip_exif()/f/image/BjpmkOrQ3psoeQMZkL0oC6t8.png?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/ca-BHQX0Wzc2-9eAIZgAyz24cVU=/232x232/filters:strip_exif()/f/image/sFF9vcfytxEtSzNYSlrQ43lw.png?f=fotoalbum_tile
Afbeeldingslocatie: https://tweakers.net/i/8NjJXvn5q3lpaxp_LG2d3ZoSU-A=/232x232/filters:strip_exif()/f/image/CtlnAd3yu3PXupIOGkP28rtl.png?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/zs7SF4LKARObQxJDMUdcCZl6EOE=/232x232/filters:strip_exif()/f/image/LJ7vvL9fCsGRZE6oakh0mYxh.png?f=fotoalbum_tile

[ Voor 5% gewijzigd door mellie192 op 18-08-2023 21:15 . Reden: Extra informatie benchmark + gpu specs toegevoegd ]


Acties:
  • +1 Henk 'm!

  • Pos
  • Registratie: Januari 2005
  • Laatst online: 20:12

Pos

Kheb ook een reference 6950xt model. De 280 watt is het maximale wat hij mag trekken als je de powerslider op 0% extra hebt staan.
De powerslider kun je vinden in de adrenaline software onder custom.
Je kunt tot max 20% extra power vrijgeven wat dan 336 watt is.
Wel uiteraard een andere fancurve instellen.

Mijn default frequency is 2667.

Acties:
  • 0 Henk 'm!

  • mellie192
  • Registratie: Mei 2013
  • Laatst online: 27-07 21:59
Pos schreef op vrijdag 18 augustus 2023 @ 21:12:
Kheb ook een reference 6950xt model. De 280 watt is het maximale wat hij mag trekken als je de powerslider op 0% extra hebt staan.
De powerslider kun je vinden in de adrenaline software onder custom.
Je kunt tot max 20% extra power vrijgeven wat dan 336 watt is.
Wel uiteraard een andere fancurve instellen.

Mijn default frequency is 2667.
Hoi pos, dank voor de info en tip!
Dat verklaart de stroom consumptie dan, ik ben in de war geraakt doordat ik vaak op andere tests zie dat de wattage zoveel hoger zit.

Na het wijzigen van de slider schoot hij inderdaad naar 336W!
Deze screenshot van het Radeon paneel heb ik gemaakt tijdens een Cyberpunk 2077 benchmark.

Balen, ik had niet verwacht dat een i9 die 2 jaar jonger is dan de videokaart zo'n bottleneck zou hebben :'(.

Wordt het dan maar upgraden naar een R7 7700x of is het verstandig om een 2k scherm aan te schaffen?

Afbeeldingslocatie: https://tweakers.net/i/FJB7XCosY2Lnr1iOKAlGwQTitkQ=/800x/filters:strip_exif()/f/image/4e87p3TX8vepJEqKNNt3U7m8.png?f=fotoalbum_large

Acties:
  • Beste antwoord
  • 0 Henk 'm!

  • Pos
  • Registratie: Januari 2005
  • Laatst online: 20:12

Pos

Je performance is binnen verwachting. Het is zinloos om er andere hardware tegenaan te gooien.
Daar ga je kwa fps niets op winnen.

Je zit op dit moment ook tegen de hotspot aan te tikken van 110 graden en dat wil je liever niet.

Je kunt eventueel meer info vinden over deze kaart in het RX 6000 topic hier op tweakers en dan mijn posts van de laatste paar maanden.
Ik heb dat hele ding uit elkaar gehaald en verschillende zaken geprobeerd om hem minder tegen de TJunction max aan te krijgen.
Uiteraard kun je nog de RMA route gaan indien nog binnen garantie termijn en ongeopend.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ja dat verklaard het. Bij RDNA2 is GPU power en TDP nog gescheiden. Die 16GB aan VRAM heeft zeker 40W nodig waardoor je totaal alsnog op 335W komt. :)

Maar ik zou niet zomaar de powerlimiet verhogen en dan niks. Dat is overclocken zonder over te clocken. :P
Wat je wel moet controleren is of je ook die 110C benaderd als de powerlimiet weer naar 280W is. Zo ja, dan is die videokaart eigenlijk defect. 110C is niet acceptabel en dat benaderen ook niet. Het is de uiterste limiet voordat de GPU gaat terugclocken. :/

Verder zou ik me ook niet al te veel zorgen om de CPU maken. Er zitten vrij intensieve games aan te komen waar een RX6950XT niet zo vreemd meer zal zijn. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

Pagina: 1