[AMD Radeon RX7000 series] Ervaringen & Discussie Vorige deel Overzicht Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 15 ... 24 Laatste
Acties:

Acties:
  • 0 Henk 'm!

  • CerandoX.nl
  • Registratie: April 2004
  • Laatst online: 14-09 19:28

CerandoX.nl

Vides

Ik twijfel voor een 7900 XTX tussen deze twee GPU's:

uitvoering: Sapphire Nitro+ AMD Radeon RX 7900 XTX Vapor-X 24GB

uitvoering: ASRock AMD Radeon RX 7900 XTX Taichi 24GB OC

Niet dat looks zoveel uitmaakt, maar vindt dat zilveren en die grote RGB lichtbalken van de Sapphire iets storender.

Ik heb van AMD altijd Sapphire kaarten gehad in het verleden. De laatste was een Sapphire 290 Tri-X OC, maar die GPU is overleden, wel 6 jaar meegegaan. Toen een 3080 laptop gekocht, gezien de prijzen van de kaarten in die tijd. Dus eigenlijk een beetje huiverig geworden over Sapphire na het overlijden van de kaart. Wel onder de indruk hoeveel prestaties er nooit uitkwamen toen.

Na de 3080 laptop denk ik om weer terug te gaan naar AMD en met de 7900 XTX en de price drops lijkt dit het juiste moment.

Acties:
  • 0 Henk 'm!

  • Spacewide
  • Registratie: Oktober 2006
  • Laatst online: 16-09 17:45
CerandoX.nl schreef op vrijdag 28 juli 2023 @ 11:52:
Ik twijfel voor een 7900 XTX tussen deze twee GPU's:

uitvoering: Sapphire Nitro+ AMD Radeon RX 7900 XTX Vapor-X 24GB

uitvoering: ASRock AMD Radeon RX 7900 XTX Taichi 24GB OC

Niet dat looks zoveel uitmaakt, maar vindt dat zilveren en die grote RGB lichtbalken van de Sapphire iets storender.

Ik heb van AMD altijd Sapphire kaarten gehad in het verleden. De laatste was een Sapphire 290 Tri-X OC, maar die GPU is overleden, wel 6 jaar meegegaan. Toen een 3080 laptop gekocht, gezien de prijzen van de kaarten in die tijd. Dus eigenlijk een beetje huiverig geworden over Sapphire na het overlijden van de kaart. Wel onder de indruk hoeveel prestaties er nooit uitkwamen toen.

Na de 3080 laptop denk ik om weer terug te gaan naar AMD en met de 7900 XTX en de price drops lijkt dit het juiste moment.
Even diep in je portefeuille grabbelen en beide aanschaffen via Amazon. Je tijd nemen om beide te benchen, temps, coilwhine, uiterlijk,.. netjes binnen het termijn 1 ervan retourneren.
En laat ons je bevindingen weten natuurlijk.

Als ik blind moet kiezen zal ikzelf voor de Nitro gaan.

Acties:
  • 0 Henk 'm!
CHKYBSTRD schreef op donderdag 27 juli 2023 @ 14:39:
Ik heb zowaar vandaag een email gekregen dat het bedrag van de kaart gecrediteerd wordt, schijnbaar dus toch alsnog retour gekomen na bijna 3 maanden.
Oh wauw, dat heb ik persoonlijk nog niet meegemaakt. En na zo'n lange tijd. Dat moet een leuke meevaller voor je zijn geweest.
Ik denk dat het vooral komt omdat het toch om een verzekerd pakket ging. Zodra er geld bij gemoeid is, zijn ze blijkbaar wel gemotiveerd om het uit te zoeken.

De keren dat ik PostNL gebeld heb over pakketten die niet bezorgd waren, kwamen ze altijd met hetzelfde riedeltje, dat ze hun best zullen doen om het vermiste pakket te achterhalen.
Maar vervolgens hoor je nooit meer wat van ze, zelfs geen update met een melding dat het niet gelukt was.

Acties:
  • +1 Henk 'm!

  • Spacewide
  • Registratie: Oktober 2006
  • Laatst online: 16-09 17:45
CHKYBSTRD schreef op donderdag 27 juli 2023 @ 14:39:
[...]


Top kaart ik draai deze zelf ook en ben er echt heel tevreden mee. Blijft ontzettend koel en bij mij ook 0 coilwhine. Ik ben eigenlijk wel benieuwd wat voor clocks jij haalt op waterkoeling?


[...]


Ik heb zowaar vandaag een email gekregen dat het bedrag van de kaart gecrediteerd wordt, schijnbaar dus toch alsnog retour gekomen na bijna 3 maanden.
Als ik de PL op +15% zet haal ik de waardes die in de Adrenaline applicatie neerzet.
Laatste dirty test was bijvoorbeeld (maximaal)
Core: 3089mhz
Memory: 2850mhz
mV: lager dan 1070 lukt niet, maar die laat ik gewoon auto.

Temps tijdens 30min stresstest vandaag
50C op de core en 85C op de hotspot. Mijn waterblock maakt nog altijd geen mooi contact met de gpu die. Daar heb ik een hele thread voor gemaakt bij Alphacool. Los daarvan ben ik tevreden.

In de praktijk limiteer ik de meeste games met AMD Chill.

Acties:
  • 0 Henk 'm!

  • ShooterTR58
  • Registratie: Oktober 2016
  • Laatst online: 19-09 19:16
m00n schreef op vrijdag 28 juli 2023 @ 10:20:
[...]


Mijn ASUS Radeon RX 7900 XTX TUF-RX7900XTX-O24G-GAMING had hier ook enorme last van, vooral heel erg in menu's (waar het aantal FPS het dag uitschoten). Ook na het locken van de FPS was de coil whine aanwezig in games.

Heb hier gebruik gemaakt van mijn 30 dagen herroepingsrecht en deze op advies van @DaniëlWW2 de Sapphire Nitro+ AMD Radeon RX 7900 XTX Vapor-X 24GB gekocht. Deze was gelijk een stuk stiller. Ik heb de FPS wel gelocked op 60 fps (omdat mijn monitor niet meer ondersteund). Als ik dit niet doe, gaat de kaart zoemen (stuk minder dan de Asus).

Enige wat ik nog moet fixen is dat de kaart tijdens het browsen soms wat harder gaat blazen.
Ik zou willen om het te veranderen maar heb er niet echt heel erg last van, want heb toch headset op.
Maar de volgenden pc zal denk ik wel een ander videokaart zijn dan deze zonder coilwhine.

Acties:
  • 0 Henk 'm!

  • ShooterTR58
  • Registratie: Oktober 2016
  • Laatst online: 19-09 19:16
DaniëlWW2 schreef op vrijdag 28 juli 2023 @ 11:10:
[...]


Volgende ASUS met coil whine zo te horen...
Als je het niet kan verdragen, herroepingsrecht gebruiken en kijken naar XFX of Sapphire. Het is niet schadelijk voor het product, maar het kan wel ondraaglijk irritant zijn. Voor een RX7900XT vind ik de premium modellen al snel te duur tegenover de XTX. Maar helaas lijken de prijzen ook weer ongunstig te zijn geworden vergeleken met een week geleden. :/
Top, dank je wel, ja het geluid is niet overdreven hard, maar heb ze gezien ja ze zijn weer iets duurder dan ze waren.

Acties:
  • 0 Henk 'm!

  • CerandoX.nl
  • Registratie: April 2004
  • Laatst online: 14-09 19:28

CerandoX.nl

Vides

Spacewide schreef op vrijdag 28 juli 2023 @ 15:01:
[...]


Even diep in je portefeuille grabbelen en beide aanschaffen via Amazon. Je tijd nemen om beide te benchen, temps, coilwhine, uiterlijk,.. netjes binnen het termijn 1 ervan retourneren.
En laat ons je bevindingen weten natuurlijk.

Als ik blind moet kiezen zal ikzelf voor de Nitro gaan.
Ben voor de Asrock 7900 XTX Taichi gegaan. :) Ben benieuwd.

Acties:
  • 0 Henk 'm!

  • belgianmadcow
  • Registratie: Maart 2005
  • Laatst online: 16-09 12:47

belgianmadcow

enthousiast

Dag RX7000ers :)

Ik wou voor m'n aankomende build de uitvoering: ASUS TUF Gaming Radeon RX 7900 XT OC Edition 20GB GDDR6 maar die was net toen ik moest(*) bestellen uit stock bij Megekko :'(
Het is dan de uitvoering: ASRock AMD Radeon RX 7900 XT Phantom Gaming 20GB OC geworden. Ik ga gamen (single player AAA hoofdzakelijk) op 1440p, en denk de kaart eerder naar lager verbruik / stilte in te stellen. Bouw is volgende week.

Volgende plannen heb ik:
  1. Na bouwen, win install en driver install, benchmark Heaven met out of the box settings.
  2. Fps cappen door Radeon chill op 162 Hz min en max in te stellen, iets lager dan de 165 Hz van monitor maximum van freesync range (al vind ik het vreemd dat je een minimum vastlegt zo: wat als de kaart dat niet haalt in een bepaalde game?), dat op basis van de tips van Ancient Gameplays.
  3. GPU fan curves tunen met Adrenalin - of raden jullie Fan Control aan, als dat al up to date is voor 7900?
  4. Undervolten & overclocken: heb hier al wel rond gelezen en zie toch mogelijkheden om fps gelijk te houden met duidelijk minder W, dus minder warmte, dus stiller potentieel, maar gaat meestal over 7900XTX. Zal alvast eens door de vele pagina's van dit topic scrollen, tips welkom.
  5. Fingers crossed: kijken of ik de RGB ingesteld krijg met Polychrome sync, anders mag het lekker uit. Ik bouw in Fractal North met mesh, enkel een zachte oranje gloed ware evt wel leuk. Of dit ook maar enige kans op slagen heeft met ASUS B650 mobo, geen idee.
(*) bestelling liep via bedrijf en timing lag niet in mijn handen

Acties:
  • 0 Henk 'm!

  • Kolhrafn
  • Registratie: Juni 2009
  • Laatst online: 15-09 14:42
Ik heb net mijn ASrock Phantom Gaming 7900 XTX ter RMA gestuurd (Megekko).
Ding oververhitte bij het leven, zat zonder enige tweaking makkelijk aan een delta van 45 gr met een hotspot van 110-111 graden.
Een dag na de RMA al bericht van Megekko dat het niet te repareren valt, volledige bedrag (€1099,-) teruggestort gekregen.

Vervolgens kon ik voor hetzelfde bedrag een Sapphire Nitro + 7900 XTX krijgen via Amazon. Deze hangt er nu een dag in en wat een genot. Heerlijk stil (tenzij fans 100% draaien) en koel! Max delta van 25 graden nu en een maximale temperatuur van 85 graden.
Nu moet ik nog even sparen voor een nieuwe PC case met meer airflow.

Acties:
  • 0 Henk 'm!

  • Spacewide
  • Registratie: Oktober 2006
  • Laatst online: 16-09 17:45
Kolhrafn schreef op maandag 31 juli 2023 @ 15:55:
Ik heb net mijn ASrock Phantom Gaming 7900 XTX ter RMA gestuurd (Megekko).
Ding oververhitte bij het leven, zat zonder enige tweaking makkelijk aan een delta van 45 gr met een hotspot van 110-111 graden.
Een dag na de RMA al bericht van Megekko dat het niet te repareren valt, volledige bedrag (€1099,-) teruggestort gekregen.

Vervolgens kon ik voor hetzelfde bedrag een Sapphire Nitro + 7900 XTX krijgen via Amazon. Deze hangt er nu een dag in en wat een genot. Heerlijk stil (tenzij fans 100% draaien) en koel! Max delta van 25 graden nu en een maximale temperatuur van 85 graden.
Nu moet ik nog even sparen voor een nieuwe PC case met meer airflow.
Eigenlijk wel triest dat die kaarten zo aangeboden worden vanuit de grote merken.
Gelukkig trekken de winkels partij voor de klant.

Veel plezier ermee :9~

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dit is wel een interessante.
Computerbase.de heeft eens een idle powertest gedaan voor heel wat videokaarten als onderdeel van wat nieuwe tooling validatie. Het lijkt erop dat als je VRR aan hebt staan in je drivers, dat heel wat vermogen in idle scheelt. :)
https://www.computerbase....chickt_radeon_rx_schlafen

Dus iedereen even drivermenu openen --> Gaming --> Display --> AMD FreeSync Premium aanzetten voor al je monitoren als het niet aan staat. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Mooie vondst :).
Dat is meer in lijn wat normaal is. Ik heb zelf gelukkig nooit last gehad van de GPU geheugenklok die vast blijft zitten (de echte oorzaak van het hoge idle verbruik, VRR is blijkbaar een lapmiddel), ook niet met een 3440x1440@100Hz + 1920x1080@60Hz dual monitor setup.

Maar ik zie ook dingen in de lijst die nog niet kloppen of waarvan de waarden hoger zijn dan ik zelf ervaar.
Ik heb zo bijvoorbeeld de RX6950XT naast de RX6900XT (ca. 10W idle verbruik) en die is een fractie zuiniger (vrm's zijn wat luxer). Ik heb dat gevalideerd door het systeemverbruik te vergelijken met een IGP (dat weer zelf ca. 1W verschil geeft aan/uit).
Ook zie ik met dual monitor, veel minder toename in idle verbruik.
Dat is echt maar een paar watt gemeten op een externe 230V vermogensmeter. Dus de kaart zal nog minder verbruikstoename zien.

Ik vind het dus nog steeds twijfelachtig wat ze precies gemeten hebben. Of het is erg afhankelijk van hoe alles staat ingesteld? De pci-e link kent ook een soort powerdown/slaapstand, wat bij de Intel Arc GPU's niet goed schijnt te werken zonder expliciete bios instellingen.

Acties:
  • +6 Henk 'm!

  • PilatuS
  • Registratie: September 2002
  • Niet online
Het is denk ik zo'n 20 jaar geleden, maar ik ben weer terug bij een volledig AMD systeem. Gisteren de 7900XTX er in gezet en de 7800X3D een tijdje terug.

Atlijd weer een hoop werk met de waterkoeling, maar het resultaat mag er zijn.

Afbeeldingslocatie: https://tweakers.net/i/3b9rcM0qocOK4NdCcqNKpvTogOQ=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/82l1KEHvNy85VM8qsH73BuxA.jpg?f=user_large

Alleen nog even iets maken om de GPU te ondersteunen. De hoek van de kaart mag wel een stukje hoger want die hangt nu nogal. Temps zijn meer dan prima met een max hotspot van 67 graden bij gamen of 3DMark. Idle is netjes ietsjes boven de watertemp. Die watertemp laat ik wel flink oplopen voor ik de fans laat draaien want op die manier kan ik los van gamen draaien zonder dat de fans op de rad's draaien.

Helaas wel gelijk tegen problemen aangelopen. Aangezien deze kaart normaal rond de 4080 presteert, maar in COD MW2 meer rond de 4090 heb ik juist deze kaart gekozen. Gisteren na de installatie DMZ willen spelen omdat de kaart voornamelijk voor DMZ is gekocht. Helaas crashes, crashes en nog meer crashes. De hele avond bezig geweest, maar het niet aan de praat gekregen. Het spel meerdere keren opnieuw geinstalleerd en Google en Youtube langs geweest met de foutmeldigen. Blijkt dat ik nu 23.5.2 moet draaien want de 2 versies daarna geven de problemen. Uren bezig geweest voordat ik er achter kwam wat de oplossing was. Ga ik nu zoeken met wat ik nu weet kom ik het probleem gelijk tegen en ben ik dus niet de enige. Alleen gisteren dus uren bezig geweest zonder te weten dat het de driver was.

Kan nu wel DMZ spelen op 3840x1600 met max settings en constant 144fps halen, da's wel lekker :)

Acties:
  • 0 Henk 'm!

  • Wolfp4ck
  • Registratie: April 2018
  • Laatst online: 15-09 15:19
Kolhrafn schreef op maandag 31 juli 2023 @ 15:55:
Ik heb net mijn ASrock Phantom Gaming 7900 XTX ter RMA gestuurd (Megekko).
Ding oververhitte bij het leven, zat zonder enige tweaking makkelijk aan een delta van 45 gr met een hotspot van 110-111 graden.
Een dag na de RMA al bericht van Megekko dat het niet te repareren valt, volledige bedrag (€1099,-) teruggestort gekregen.

Vervolgens kon ik voor hetzelfde bedrag een Sapphire Nitro + 7900 XTX krijgen via Amazon. Deze hangt er nu een dag in en wat een genot. Heerlijk stil (tenzij fans 100% draaien) en koel! Max delta van 25 graden nu en een maximale temperatuur van 85 graden.
Nu moet ik nog even sparen voor een nieuwe PC case met meer airflow.
Tenzij fans 100% draaien ? Indien de fans op 100% draaien zal je het wel horen :)
mijn TUF hoor je ook niet op 85 graden :) het is pas van zodra je via de adrenaline driver de fans op 100% zet dat je de boeing 747 hoort

Acties:
  • 0 Henk 'm!

  • CHKYBSTRD
  • Registratie: Augustus 2014
  • Laatst online: 16-09 16:13
PilatuS schreef op dinsdag 1 augustus 2023 @ 12:25:
Het is denk ik zo'n 20 jaar geleden, maar ik ben weer terug bij een volledig AMD systeem. Gisteren de 7900XTX er in gezet en de 7800X3D een tijdje terug.

Atlijd weer een hoop werk met de waterkoeling, maar het resultaat mag er zijn.

[Afbeelding]

Alleen nog even iets maken om de GPU te ondersteunen. De hoek van de kaart mag wel een stukje hoger want die hangt nu nogal. Temps zijn meer dan prima met een max hotspot van 67 graden bij gamen of 3DMark. Idle is netjes ietsjes boven de watertemp. Die watertemp laat ik wel flink oplopen voor ik de fans laat draaien want op die manier kan ik los van gamen draaien zonder dat de fans op de rad's draaien.

Helaas wel gelijk tegen problemen aangelopen. Aangezien deze kaart normaal rond de 4080 presteert, maar in COD MW2 meer rond de 4090 heb ik juist deze kaart gekozen. Gisteren na de installatie DMZ willen spelen omdat de kaart voornamelijk voor DMZ is gekocht. Helaas crashes, crashes en nog meer crashes. De hele avond bezig geweest, maar het niet aan de praat gekregen. Het spel meerdere keren opnieuw geinstalleerd en Google en Youtube langs geweest met de foutmeldigen. Blijkt dat ik nu 23.5.2 moet draaien want de 2 versies daarna geven de problemen. Uren bezig geweest voordat ik er achter kwam wat de oplossing was. Ga ik nu zoeken met wat ik nu weet kom ik het probleem gelijk tegen en ben ik dus niet de enige. Alleen gisteren dus uren bezig geweest zonder te weten dat het de driver was.

Kan nu wel DMZ spelen op 3840x1600 met max settings en constant 144fps halen, da's wel lekker :)
Dat is wel vreemd ik draai de laatste versie en speel alleen maar COD en ik heb geen enkel probleem gehad. Ik heb dan wel de XT en niet de XTX. Heb jij de kaart overgeklockt? Daarvan weet ik wel dat COD vaak problemen kan geven.

Stay hungry, stay foolish!


Acties:
  • 0 Henk 'm!

  • DiscoNootje
  • Registratie: Mei 2019
  • Laatst online: 20:23
Hier een Sapphire 7900XTX Pulse aangeschaft. Komende van een 4090. Die 4090 was toch wel erg overkill voor mijn 1440p/240Hz use case. Bovendien gruwelde die kaart van de Coil Whine.

Deze Sapphire kaart is muisstil. Verbruikt aanzienlijk minder stroom. Heeft een hotspot van zo'n 70 graden. En levert eigenlijk maar zo'n 10-15% minder raster performance t.o.v. de 4090 in mijn games. En dat voor 60% van de prijs. Daarnaast. waar ik voorheen toch aardig wat driver issues had met de 6900XT lijkt dat nu met deze kaart verleden tijd. Alles draait soepel. Kortom, zeer tevreden!

Acties:
  • 0 Henk 'm!

  • Wolfp4ck
  • Registratie: April 2018
  • Laatst online: 15-09 15:19
hier ook tevreden van (in mijn geval) mijn TUF 7900 xtx
MW2 / FC6 / ARK / HOGWARTS / MINECRAFT RTX
Alles botervloeiend op max settings op 1440p ultrawide

Enige waar ik soms nog mee zit is ghosting, maar dat heeft meer te maken met een setting op mijn scherm die ik nog moet zien te vinden dan aan de GPU.

Och ja : Skyrim LE heeft ook problemen en moet ik hardhandig de FPS limiteren tot 60fps of het is onspeelbaar.

Acties:
  • 0 Henk 'm!

  • PilatuS
  • Registratie: September 2002
  • Niet online
CHKYBSTRD schreef op woensdag 2 augustus 2023 @ 10:03:
[...]


Dat is wel vreemd ik draai de laatste versie en speel alleen maar COD en ik heb geen enkel probleem gehad. Ik heb dan wel de XT en niet de XTX. Heb jij de kaart overgeklockt? Daarvan weet ik wel dat COD vaak problemen kan geven.
Geen overklok. Oude Nvidia drivers via safemode verwijderd met DDU. Dan de nieuwe kaart er in zonder iets aan te passen en puur de nieuwste drivers er op. Geen enkele keer heeft COD goed gewerkt. Crash na crash in het menu waarbij de CPU naar 100% gaat en 20 minuten bezig is om de shaders te doen zonder dat het ooit lukt. Bij het afsluiten van het spel iedere keer een crash. Ook via Steam hetzelfde probleem waarbij het spel meestal in het menu al vastloopt. 2 driver versies terug gegaan en het werkt goed. Op Reddit gevonden dat ik niet de enige ben. Misschien een combi van CPU en GPU dat het probleem geeft.

Acties:
  • 0 Henk 'm!

  • Wolfp4ck
  • Registratie: April 2018
  • Laatst online: 15-09 15:19
@PilatuS lol :) en niet dat ik je op enige manier uitlach of er plezier in schep in je miserie. Maar!
Omdat ik op een zondag middag mijn GTX 1080 eruit gehaald heb, de RX 7900 XTX erin gedaan heb, ook mijn voeding heb aangepast van 750w naar 850w en dat ik zonder adrenaline driver op MW2 kon zonder enige issue :)
Nadien met adrenaline drivers ook zonder enig probleem, dit terwijl de geforce experience nog steeds aan het draaien was.
Och ja had ook CPU aangepast van een 2700x naar een 5800x3d.

Acties:
  • 0 Henk 'm!

  • PilatuS
  • Registratie: September 2002
  • Niet online
Zat mensen die het hebben, maar niet iedereen heeft het. Zie ook hier: https://www.reddit.com/r/..._on_latest_amd_driver_vs/

Misschien een probleem met de 7 serie van Ryzen ?

Acties:
  • +1 Henk 'm!

  • Wolfp4ck
  • Registratie: April 2018
  • Laatst online: 15-09 15:19
zolang je kan gamen (zelf met 2 versies terug) zou ik het zo nemen, zeker met een custom loop zoals die van jou... effe kaart eruit pleuren en nieuwe erin zetten is geen optie dan.

Acties:
  • 0 Henk 'm!

  • Spacewide
  • Registratie: Oktober 2006
  • Laatst online: 16-09 17:45
Net COD getest op 7800x3d + 7900xt XFX.
Op settings van low tot high. FSR aan en uit.
Ik merk geen bijzonderheden op.

Het klinkt onwaarschijnlijk, maar zeker PCI-E energy saver uitzetten.
Windows Xbox game recorder uitschakelen.

Acties:
  • +1 Henk 'm!

  • PilatuS
  • Registratie: September 2002
  • Niet online
Spacewide schreef op woensdag 2 augustus 2023 @ 13:43:
Net COD getest op 7800x3d + 7900xt XFX.
Op settings van low tot high. FSR aan en uit.
Ik merk geen bijzonderheden op.

Het klinkt onwaarschijnlijk, maar zeker PCI-E energy saver uitzetten.
Windows Xbox game recorder uitschakelen.
Het is denk ik een combinatie met iets, maar geen idee wat.

PCI-E energy saver staat al uit. Verder ook van alles geprobeerd de eerste avond voordat ik er achter kwam dat een oudere driver de oplossing was. Het hele Xbox gebeuren staat uit. Ook alle ingame overlays uitgezet en nog 15 andere dingen gedaan.

Geen idee wat het is, maar denk dat ik moet hopen dat een nieuwere driver het oplost.

Acties:
  • 0 Henk 'm!

  • Kolhrafn
  • Registratie: Juni 2009
  • Laatst online: 15-09 14:42
Wolfp4ck schreef op woensdag 2 augustus 2023 @ 09:34:
[...]


Tenzij fans 100% draaien ? Indien de fans op 100% draaien zal je het wel horen :)
mijn TUF hoor je ook niet op 85 graden :) het is pas van zodra je via de adrenaline driver de fans op 100% zet dat je de boeing 747 hoort
Ja, op 100% is het wel echt extreem haha. Ik vind hem al vrij luid bij 85%. Op het moment via Adrenaline de fans op 45% gezet en blijf daarmee keurig op temperatuur. Heerlijke kaart verder.

Acties:
  • 0 Henk 'm!

  • Spacewide
  • Registratie: Oktober 2006
  • Laatst online: 16-09 17:45
PilatuS schreef op woensdag 2 augustus 2023 @ 14:10:
[...]


Het is denk ik een combinatie met iets, maar geen idee wat.

PCI-E energy saver staat al uit. Verder ook van alles geprobeerd de eerste avond voordat ik er achter kwam dat een oudere driver de oplossing was. Het hele Xbox gebeuren staat uit. Ook alle ingame overlays uitgezet en nog 15 andere dingen gedaan.

Geen idee wat het is, maar denk dat ik moet hopen dat een nieuwere driver het oplost.
Heb je ergens een post staan van je waterblock? Ik ben wel benieuwd naar bijvoorbeeld een Fire Strike thermal testje.
En ik hoop dat je probleem snel opgelost geraakt.

Acties:
  • 0 Henk 'm!

  • PilatuS
  • Registratie: September 2002
  • Niet online
Spacewide schreef op woensdag 2 augustus 2023 @ 15:30:
[...]


Heb je ergens een post staan van je waterblock? Ik ben wel benieuwd naar bijvoorbeeld een Fire Strike thermal testje.
En ik hoop dat je probleem snel opgelost geraakt.
Geen post van het waterblok. Heb 3DMark gedaan om de boel te testen met een max hotspot van 67 graden. Als je andere dingen wil weten kan ik het testen.

Opzich is het nu opgelost, maar niet ideaal. Idle power is met deze driver ook flink hoger. Eerst 15 tot 20W en nu vrij stabiel 55W, da's best een hoop. Eens zien wat de nieuwste driver doet wanneer ie komt. Tot die tijd maar gewoon deze draaien.

Acties:
  • +1 Henk 'm!

  • CHKYBSTRD
  • Registratie: Augustus 2014
  • Laatst online: 16-09 16:13
PilatuS schreef op woensdag 2 augustus 2023 @ 14:10:
[...]


Het is denk ik een combinatie met iets, maar geen idee wat.

PCI-E energy saver staat al uit. Verder ook van alles geprobeerd de eerste avond voordat ik er achter kwam dat een oudere driver de oplossing was. Het hele Xbox gebeuren staat uit. Ook alle ingame overlays uitgezet en nog 15 andere dingen gedaan.

Geen idee wat het is, maar denk dat ik moet hopen dat een nieuwere driver het oplost.
Ik denk ook dat het de combi is die problemen veroorzaakt, hopelijk komt er snel een oplossing voor.

Veel plezier met de nieuwe kaart!

Stay hungry, stay foolish!


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik zat al een tijdje te twijfelen tussen wachten op N32 of de RX7900XT.
Een combinatie van N32 dat waarschijnlijk de RX7800XT gaat worden (met waarschijnlijk een bijbehorende prijs voor een verkapte refresh van high end van drie jaar geleden :z) en wat FOMO omdat de prijzen voor de RX7900XT toch weer lijken te stijgen, mede omdat de dollar euro wisselkoers weer aan het verslechteren is, deden me toch de keuze maken. :*)
Afbeeldingslocatie: https://tweakers.net/i/dpWw2kmmIG8wd-DPSqqmOPGN97g=/800x/filters:strip_icc():strip_exif()/f/image/QWq72cL2CwtQY53UQZdxBTIa.jpg?f=fotoalbum_large

Nou die is een stukje zwaarder dan mijn oude RX5700XT Nitro+. Nauwelijks groter, wel overduidelijk zwaarder. En dit is dan een erg lichte videokaart voor RX7900XT standaarden. GPU bracket is hier denk ik al niet overdreven. :P
Idle power zelfs met een YT video open op mijn tweede scherm, lijkt zo rond de 35W te zitten met wat pieken naar 50W en dips naar 30W. Tenminste dat zegt AMD hun software. Het zal niet perfect zijn, maar wel indicatief.

Maar dat was het goede stuk. Nu voor het mindere. :P
Als eerste weet ik dat ik een RM550x heb die eigenlijk wat zwak is voor deze videokaart. Maar ik wil eigenlijk niet nog €100 uitgeven aan een PSU. Ik vind de iets meer dan €800 voor deze videokaart echt meer dan genoeg. Ook zit ik niet te wachten op 330W verbruik. Mijn plan was dan ook om de powerlimiet op -15% te zetten zodat er 50W eraf gaat en ik naar 280W zou gaan als beginpunt. Vervolgens wou ik op termijn eens kijken wat ik met voltages kan doen qua performance terugwinnen of verder verlagen. Probleem is dat ik blijkbaar gemist heb dat de PL omlaag maar tot -10% gaat. Waarom AMD? De limiet beperken is een ding, maar waarom moet het nu zo? }:|

Dus ik moet denk ik meteen al aan de slag om voltages en clock speed targets te manipuleren tot een punt dat ik ruim onder de 300W zit. Want het tweede is dat ik mijn vooronderzoek niet zo goed gedaan als met mijn oude RX5700XT. Ik wist echt wel dat transiënt spikes een ding zijn, maar ik had niet helemaal door hoe fors die zijn. Beide videokaarten zijn reviewed door Igor, dus ik zag het gisteren al toen de videokaart al verzonden was.

Afbeeldingslocatie: https://www.igorslab.de/wp-content/uploads/2019/09/21-Peak-Power-Analysis-2.png
Afbeeldingslocatie: https://www.igorslab.de/wp-content/uploads/2019/09/01-Power-Consumption-2.png

Afbeeldingslocatie: https://www.igorslab.de/wp-content/uploads/2023/03/01-Power-Consumption-1.png
Afbeeldingslocatie: https://www.igorslab.de/wp-content/uploads/2023/03/03-Peak-Power-1.png

Net even wezen spelen, wetende wat er waarschijnlijk ging komen en ja hoor, OCP en systeem uit. PSU handmatig aan en uitgezet en toen kon ik de boel weer opstarten. De strategie is duidelijk. Effectief verbruik verlagen, wetende dat die transiënt spikes harder dalen dan gemiddeld verbruik. Er moet zeker 100W van die spikes af want anders blijf ik bezig. Meten gaat niet gebeuren, dus maar aan de slag met undervolting tot een punt van stabiliteit. Sindsdien zit ik wat in te lezen over clockspeed vs. voltage curves. Het is weer jaren geleden sinds RX Vega. Mijn RX5700XT heb ik altijd zo gelaten omdat dit perfect out of the box was.

Ik kan overigens ASIC quality niet uit GPU-Z trekken. Heeft iemand nog ideeën want de optie lijkt er niet te zijn. Vermoed dat het ook niet gaat lukken. Verder let ook op dat de RX7900XT Pulse haar maximale ventilator snelheid 3600RPM is. Bij Techpowerup lijken die ventilatoren op 1500RPM te draaien (38%) en dan zijn ze doodstil. Maar dat lijkt een typisch gevalletje open testopstelling te zijn die misleid.

Dit zijn de instellingen en die hogere instellingen hoor je wel. Daar moet ook wat tuning vanuit mij plaatsvinden. Maar ik wou toch al voor lager verbruik gaan. Ik zit toch op ruim 150% sneller dan mijn RX5700XT op 1440p, dus een paar procent kan ik wel missen denk ik. Heb geen flauw benul wat ik ermee moet doen. :+
Afbeeldingslocatie: https://tweakers.net/i/9sj9aHTeAfiL3IN3awbXSKFumMM=/800x/filters:strip_icc():strip_exif()/f/image/rxQ0p4WedWR3eA9FMQvT8ulq.jpg?f=fotoalbum_large


Oh en de mensen die nu denken, jij prutser, koop gewoon een nieuwe PSU, ja ik weet het en misschien doe ik het gewoon. :P
Maar ik ga liever experimenteren met een beduidend lager verbruik. Ik vond de 260W die de RX5700XT kon produceren, soms al wat ongemakkelijk. Ik zit echt niet te wachten op 330W of 300W na die treurige -10% PL.

[ Voor 8% gewijzigd door DaniëlWW2 op 06-08-2023 00:13 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Skyline GT-R
  • Registratie: Januari 2004
  • Laatst online: 08-09 08:43
Om je alvast een antwoord te geven over vraag van ASIC quality, die kan je wel nog uitlezen met HWInfo. Als je daar alles opent kan je die terugvinden voor je GPU. Ik ga eens zoeken of ik nog een screenshot kan vinden van mn 7900XTX :)

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Skyline GT-R schreef op zaterdag 5 augustus 2023 @ 20:55:
Om je alvast een antwoord te geven over vraag van ASIC quality, die kan je wel nog uitlezen met HWInfo. Als je daar alles opent kan je die terugvinden voor je GPU. Ik ga eens zoeken of ik nog een screenshot kan vinden van mn 7900XTX :)
Ja gevonden. Precies 50%.
Dus in theorie geen geweldige overclocker, maar dat wil ik ook niet. Ik wil een laag vermogen undervolter. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • NinjaKiwiNL
  • Registratie: November 2007
  • Laatst online: 23:25

NinjaKiwiNL

Xbox Tag - NinjaKiwiNL

Vorig jaar alles vervangen behalve mijn GTX970. Nu deze echt defect aan het raken is wordt ik wel gedwongen om te kijken naar een nieuwe GPU. Ik had in gedachten om voor een 7900 XT te gaan, maar kwam ik deze video tegen Hoger verbruik bij zwaar gamen vind ik niet erg, maar in games als overwatch ect zit ik nou niet te wachten op zo’n verbruik. Wat zijn jullie gedachten hierover?

Het is wel echt een enorm verschil in energieverbruik zo..

| Canon EOS R | Canon 24-70mm F2.8L | Canon 85mm f1.2 | Laowa 100mm f2.8 |


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 16:49
NinjaKiwiNL schreef op zondag 6 augustus 2023 @ 11:58:
Vorig jaar alles vervangen behalve mijn GTX970. Nu deze echt defect aan het raken is wordt ik wel gedwongen om te kijken naar een nieuwe GPU. Ik had in gedachten om voor een 7900 XT te gaan, maar kwam ik deze video tegen Hoger verbruik bij zwaar gamen vind ik niet erg, maar in games als overwatch ect zit ik nou niet te wachten op zo’n verbruik. Wat zijn jullie gedachten hierover?

Het is wel echt een enorm verschil in energieverbruik zo..
Je gaat in fps ook wel mega veel vooruit. Wil je het verbruik niet te hoog laten oplopen en nog steeds een flinke stap maken kom je meer bij een rx6700xt of rx6800 uit.

Je kan natuurlijk ook altijd je max fps instellen en koppelen aan je vsync/freesync. Dan is het verbruik ook een stuk minder, zeker in games die anders een zeer hoge fps halen.

Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 16:49
DaniëlWW2 schreef op zaterdag 5 augustus 2023 @ 19:15:
Ik zat al een tijdje te twijfelen tussen wachten op N32 of de RX7900XT.
Een combinatie van N32 dat waarschijnlijk de RX7800XT gaat worden (met waarschijnlijk een bijbehorende prijs voor een verkapte refresh van high end van drie jaar geleden :z) en wat FOMO omdat de prijzen voor de RX7900XT toch weer lijken te stijgen, mede omdat de dollar euro wisselkoers weer aan het verslechteren is, deden me toch de keuze maken. :*)
[Afbeelding]

Nou die is een stukje zwaarder dan mijn oude RX5700XT Nitro+. Nauwelijks groter, wel overduidelijk zwaarder. En dit is dan een erg lichte videokaart voor RX7900XT standaarden. GPU bracket is hier denk ik al niet overdreven. :P
Idle power zelfs met een YT video open op mijn tweede scherm, lijkt zo rond de 35W te zitten met wat pieken naar 50W en dips naar 30W. Tenminste dat zegt AMD hun software. Het zal niet perfect zijn, maar wel indicatief.

Maar dat was het goede stuk. Nu voor het mindere. :P
Als eerste weet ik dat ik een RM550x heb die eigenlijk wat zwak is voor deze videokaart. Maar ik wil eigenlijk niet nog €100 uitgeven aan een PSU. Ik vind de iets meer dan €800 voor deze videokaart echt meer dan genoeg. Ook zit ik niet te wachten op 330W verbruik. Mijn plan was dan ook om de powerlimiet op -15% te zetten zodat er 50W eraf gaat en ik naar 280W zou gaan als beginpunt. Vervolgens wou ik op termijn eens kijken wat ik met voltages kan doen qua performance terugwinnen of verder verlagen. Probleem is dat ik blijkbaar gemist heb dat de PL omlaag maar tot -10% gaat. Waarom AMD? De limiet beperken is een ding, maar waarom moet het nu zo? }:|

Dus ik moet denk ik meteen al aan de slag om voltages en clock speed targets te manipuleren tot een punt dat ik ruim onder de 300W zit. Want het tweede is dat ik mijn vooronderzoek niet zo goed gedaan als met mijn oude RX5700XT. Ik wist echt wel dat transiënt spikes een ding zijn, maar ik had niet helemaal door hoe fors die zijn. Beide videokaarten zijn reviewed door Igor, dus ik zag het gisteren al toen de videokaart al verzonden was.

[Afbeelding]
[Afbeelding]

[Afbeelding]
[Afbeelding]

Net even wezen spelen, wetende wat er waarschijnlijk ging komen en ja hoor, OCP en systeem uit. PSU handmatig aan en uitgezet en toen kon ik de boel weer opstarten. De strategie is duidelijk. Effectief verbruik verlagen, wetende dat die transiënt spikes harder dalen dan gemiddeld verbruik. Er moet zeker 100W van die spikes af want anders blijf ik bezig. Meten gaat niet gebeuren, dus maar aan de slag met undervolting tot een punt van stabiliteit. Sindsdien zit ik wat in te lezen over clockspeed vs. voltage curves. Het is weer jaren geleden sinds RX Vega. Mijn RX5700XT heb ik altijd zo gelaten omdat dit perfect out of the box was.

Ik kan overigens ASIC quality niet uit GPU-Z trekken. Heeft iemand nog ideeën want de optie lijkt er niet te zijn. Vermoed dat het ook niet gaat lukken. Verder let ook op dat de RX7900XT Pulse haar maximale ventilator snelheid 3600RPM is. Bij Techpowerup lijken die ventilatoren op 1500RPM te draaien (38%) en dan zijn ze doodstil. Maar dat lijkt een typisch gevalletje open testopstelling te zijn die misleid.

Dit zijn de instellingen en die hogere instellingen hoor je wel. Daar moet ook wat tuning vanuit mij plaatsvinden. Maar ik wou toch al voor lager verbruik gaan. Ik zit toch op ruim 150% sneller dan mijn RX5700XT op 1440p, dus een paar procent kan ik wel missen denk ik. Heb geen flauw benul wat ik ermee moet doen. :+
[Afbeelding]


Oh en de mensen die nu denken, jij prutser, koop gewoon een nieuwe PSU, ja ik weet het en misschien doe ik het gewoon. :P
Maar ik ga liever experimenteren met een beduidend lager verbruik. Ik vond de 260W die de RX5700XT kon produceren, soms al wat ongemakkelijk. Ik zit echt niet te wachten op 330W of 300W na die treurige -10% PL.
Prutser.....haal gewoon een nieuwe psu! :)

Zelfs als je het stabiel krijgt hik je tegen het maximale van de psu aan. Mocht er dan es iets misgaan weet je nooit of het door de psu of iets anders komt (driver etc.).

Vanwege een veilige marge en potentiële vastlopers zou ik toch echt een zwaardere psu overwegen. Datzelfde advies zou je anderen hier ook gegeven hebben denk ik.

Veel plezier met je aankoop en welkom bij team rx7900!

Acties:
  • 0 Henk 'm!

  • NinjaKiwiNL
  • Registratie: November 2007
  • Laatst online: 23:25

NinjaKiwiNL

Xbox Tag - NinjaKiwiNL

meljor schreef op zondag 6 augustus 2023 @ 12:08:
[...]


Je gaat in fps ook wel mega veel vooruit. Wil je het verbruik niet te hoog laten oplopen en nog steeds een flinke stap maken kom je meer bij een rx6700xt of rx6800 uit.

Je kan natuurlijk ook altijd je max fps instellen en koppelen aan je vsync/freesync. Dan is het verbruik ook een stuk minder, zeker in games die anders een zeer hoge fps halen.
Ik vind hoog verbruik icm een zware grafische game geen probleem, maar wanneer je “lichtere” games speelt, en nog steeds 300+ watt verbruik hebt wel een flinke tegenvaller (aangezien ik overwatch bijvoorbeeld best wel vaak speel) In de video wordt inderdaad niet genoemd als je max fps of vsync/freesync of het verbruik dan afneemt. Iemand hier die daar ervaring mee heeft of het verbruik dan nog steeds zo hoog blijft?

| Canon EOS R | Canon 24-70mm F2.8L | Canon 85mm f1.2 | Laowa 100mm f2.8 |


Acties:
  • +1 Henk 'm!

  • Spacewide
  • Registratie: Oktober 2006
  • Laatst online: 16-09 17:45
NinjaKiwiNL schreef op zondag 6 augustus 2023 @ 12:15:
[...]


Ik vind hoog verbruik icm een zware grafische game geen probleem, maar wanneer je “lichtere” games speelt, en nog steeds 300+ watt verbruik hebt wel een flinke tegenvaller (aangezien ik overwatch bijvoorbeeld best wel vaak speel) In de video wordt inderdaad niet genoemd als je max fps of vsync/freesync of het verbruik dan afneemt. Iemand hier die daar ervaring mee heeft of het verbruik dan nog steeds zo hoog blijft?
AMD chill is the way to go.
Eens je in-game bent druk je ALT+R en in het tabblad "Gaming" activeer je AMD chill. Hiermee limiteer je dynamisch je frames
Zo speel ik bv BF2042 tussen 120 en 144fps op 120watt op 34°C.


VSync laat ik liever uit.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

NinjaKiwiNL schreef op zondag 6 augustus 2023 @ 11:58:
Vorig jaar alles vervangen behalve mijn GTX970. Nu deze echt defect aan het raken is wordt ik wel gedwongen om te kijken naar een nieuwe GPU. Ik had in gedachten om voor een 7900 XT te gaan, maar kwam ik deze video tegen Hoger verbruik bij zwaar gamen vind ik niet erg, maar in games als overwatch ect zit ik nou niet te wachten op zo’n verbruik. Wat zijn jullie gedachten hierover?

Het is wel echt een enorm verschil in energieverbruik zo..
Ik zit sinds gisteren met een RX7900XT te experimenteren.
Ik lijk zo de powerlimiet van mijn Sapphire Pulse op -10% te kunnen zetten waarmee die om een of andere reden van nominaal 330W naar 285W effectief gaat. Dus eerder 15% dan 10% eraf. Prestatieverlies lijkt er niet te zijn.

Dit lost zo te zien ook al mijn PSU issue op @meljor. Ik weet het, ik weet het, moet er denk ik nog even tegenaan hikken. Ik heb al een shortlist van opties. :P
Helpt niet mee dat ik jaren geleden zo nodig een paar euro moest besparen en een RM550x kocht in plaats van een RM650i. Nee ik moest die paar euro besparen terwijl ik eigenlijk ook die read outs van de i versie wou hebben. :F


Verder is er AMD Chill waarmee je een dynamische framerate limiet kan instellen per game. Stel een minimum en maximum in (beide waarden mogen ook hetzelfde zijn als je een harde frame cap wil) en dan tijdens het spelen houdt de videokaart het maximum aan. Ben je weg van je toetsenbord (geen imputs) dan gaat de videokaart meteen naar de minimum fps. Het is misschien wat te gevoelig voor shooters, maar perfect voor veel andere games. :)

Kan je ook nog undervolten. Daar ligt in principe de echt grote winst. Maar het kan soms wel uitdagend zijn het ook stabiel te krijgen. AMD heeft eigenlijk sinds RX Vega, een vrij unieke manier van overclocken waarbij de meeste winst te halen is uit undervolten. Maar omdat je slechte controle over het boost algoritme hebt, kan je zomaar in een valkuil vallen. Zie hieronder want ik heb het ook alweer gemerkt. :)


Die RX7900XT van mij is ook een leuke. Was wat aan het testen met Unigine Superposition en vanaf 1100mv tot en met 1005mv met 2500-2600 min/max target, gingen de scores maar omhoog. Daarna zakte het in en bij 940mv harde crash. Dacht probeer 2400-2500 met 1005mv ook eens en nog hogere score. Daarna nam het weer af.

Vervolgens Witcher 3 opgestart en toevallig eens een willekeurige save erbij gepakt in Oxenfurt in de nacht. Nou ik heb een vrijwel gegarandeerd crashpunt bij instabiliteit gevonden. Werkt gewoon met stock clocks en voltage met -10% PL, maar zowel 2500-2600 als 2400-2500 met 1005mv is crash. Witcher 3 blijft geweldig daarvoor. Was ook al jaren geleden met mijn RX Vega. Kon je zo een uur iets draaien zonder problemen maar bij Witcher 3 was het in een paar minuten duidelijk. Uiteindelijk had ik mijn OC/UV profiel afgesteld op Witcher 3 toen ik erachter kwam dat die game op 910mv niet over de 1430MHz moest boosten met mijn RX Vega 56. Werkte perfect in elke game, ook waar in andere games de boostclock iets hoger was. Verder is dit ook een veel leukere manier van stress testen. :+

Ook zit er een duidelijk verschil in vermogen tussen Superposition en Witcher 3. Denk dat ik iets anders moet gaan vinden voor snelle testruns met scores om te checken of er niet ergens toch prestatieverlies optreed. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Touwkop
  • Registratie: Februari 2010
  • Laatst online: 14-08 23:49
Ik heb welliswaar een 6800 XT, maar voor mij is BF2042 de game die mijn minimale undervolt bepaalt. Ik kon alle spellen probleemloos op 1050mV draaien (standaard 1150mV), maar niet BF2042. Deze game heeft minimaal 1060mV nodig anders start het spel gewoon niet zonder te crashen op. Wellicht zou je dit, indien je het spel bezit, ook voor de 7900XT kunnen testen.

Meten = Weten = Denken = Doen


Acties:
  • +2 Henk 'm!

  • Kaasrol
  • Registratie: Januari 2011
  • Laatst online: 17-09 08:38
DaniëlWW2 schreef op zondag 6 augustus 2023 @ 12:58:
[...]


Ik zit sinds gisteren met een RX7900XT te experimenteren.
Ik lijk zo de powerlimiet van mijn Sapphire Pulse op -10% te kunnen zetten waarmee die om een of andere reden van nominaal 330W naar 285W effectief gaat. Dus eerder 15% dan 10% eraf. Prestatieverlies lijkt er niet te zijn.

Dit lost zo te zien ook al mijn PSU issue op @meljor. Ik weet het, ik weet het, moet er denk ik nog even tegenaan hikken. Ik heb al een shortlist van opties. :P
Helpt niet mee dat ik jaren geleden zo nodig een paar euro moest besparen en een RM550x kocht in plaats van een RM650i. Nee ik moest die paar euro besparen terwijl ik eigenlijk ook die read outs van de i versie wou hebben. :F


Verder is er AMD Chill waarmee je een dynamische framerate limiet kan instellen per game. Stel een minimum en maximum in (beide waarden mogen ook hetzelfde zijn als je een harde frame cap wil) en dan tijdens het spelen houdt de videokaart het maximum aan. Ben je weg van je toetsenbord (geen imputs) dan gaat de videokaart meteen naar de minimum fps. Het is misschien wat te gevoelig voor shooters, maar perfect voor veel andere games. :)

Kan je ook nog undervolten. Daar ligt in principe de echt grote winst. Maar het kan soms wel uitdagend zijn het ook stabiel te krijgen. AMD heeft eigenlijk sinds RX Vega, een vrij unieke manier van overclocken waarbij de meeste winst te halen is uit undervolten. Maar omdat je slechte controle over het boost algoritme hebt, kan je zomaar in een valkuil vallen. Zie hieronder want ik heb het ook alweer gemerkt. :)


Die RX7900XT van mij is ook een leuke. Was wat aan het testen met Unigine Superposition en vanaf 1100mv tot en met 1005mv met 2500-2600 min/max target, gingen de scores maar omhoog. Daarna zakte het in en bij 940mv harde crash. Dacht probeer 2400-2500 met 1005mv ook eens en nog hogere score. Daarna nam het weer af.

Vervolgens Witcher 3 opgestart en toevallig eens een willekeurige save erbij gepakt in Oxenfurt in de nacht. Nou ik heb een vrijwel gegarandeerd crashpunt bij instabiliteit gevonden. Werkt gewoon met stock clocks en voltage met -10% PL, maar zowel 2500-2600 als 2400-2500 met 1005mv is crash. Witcher 3 blijft geweldig daarvoor. Was ook al jaren geleden met mijn RX Vega. Kon je zo een uur iets draaien zonder problemen maar bij Witcher 3 was het in een paar minuten duidelijk. Uiteindelijk had ik mijn OC/UV profiel afgesteld op Witcher 3 toen ik erachter kwam dat die game op 910mv niet over de 1430MHz moest boosten met mijn RX Vega 56. Werkte perfect in elke game, ook waar in andere games de boostclock iets hoger was. Verder is dit ook een veel leukere manier van stress testen. :+

Ook zit er een duidelijk verschil in vermogen tussen Superposition en Witcher 3. Denk dat ik iets anders moet gaan vinden voor snelle testruns met scores om te checken of er niet ergens toch prestatieverlies optreed. :)
Mijn test voor undervolt-instabiliteit is Time Spy (non extreme) Graphics Test 2. Ik weet niet waardoor, maar kan vrijwel alle games nog stabiel spelen met te zware UV terwijl die test op dezelfde settings crasht, dus dan weet je vrij zeker dat je veilig zit.

R7 5800X3D | RX 7900XT | 32GB Kingston 3600MHzC16 | Samsung 980 Pro 2TB | be quiet! Pure Power 12 M 1000W


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
NinjaKiwiNL schreef op zondag 6 augustus 2023 @ 11:58:
Vorig jaar alles vervangen behalve mijn GTX970. Nu deze echt defect aan het raken is wordt ik wel gedwongen om te kijken naar een nieuwe GPU. Ik had in gedachten om voor een 7900 XT te gaan, maar kwam ik deze video tegen Hoger verbruik bij zwaar gamen vind ik niet erg, maar in games als overwatch ect zit ik nou niet te wachten op zo’n verbruik. Wat zijn jullie gedachten hierover?
Ik zou je even hard afvragen of zo'n 260% winst van een 6700 XT niet voldoende is. Heb je een plan om te upgraden naar een widescreen 1440p scherm of wil je per se RT of zo?

In het algemeen is dit niet bepaald een fantastische generatie (bij AMD vind ik de kwaliteit van de nieuwe kaarten nogal matig en bij Nvidia vragen ze de hoofdprijs voor de goede kaarten). Dan vind ik normaliter een goed idee om een relatief goedkope kaart te kopen. Veel geld investeren in een matige generatie betaald zich meestal niet uit.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Bedankt voor de tips mensen. Moet er weer even inkomen. :)
meljor schreef op zondag 6 augustus 2023 @ 12:13:
Veel plezier met je aankoop en welkom bij team rx7900!
En uiteraard ook een Sapphire. :Y)
Ludewig schreef op zondag 6 augustus 2023 @ 15:44:
Ik zou je even hard afvragen of zo'n 260% winst van een 6700 XT niet voldoende is. Heb je een plan om te upgraden naar een widescreen 1440p scherm of wil je per se RT of zo?
Of toch wachten op de N32 aankondiging wat een paar weken lijkt te worden. De RX7800XT wordt qua prijs denk ik dramatisch, die ander heb ik geen idee. Maar de verwachte prestaties rond de RX6800 vs. RX6700XT is toch winst. :)
In het algemeen is dit niet bepaald een fantastische generatie (bij AMD vind ik de kwaliteit van de nieuwe kaarten nogal matig en bij Nvidia vragen ze de hoofdprijs voor de goede kaarten). Dan vind ik normaliter een goed idee om een relatief goedkope kaart te kopen. Veel geld investeren in een matige generatie betaald zich meestal niet uit.
Ligt eraan waar je naar kijkt. Je kan denk ik eindeloos discussiëren over de RTX4080 en RX7900XTX. Maar RTX4070Ti vs. RX7900XT vind ik makkelijk de RX7900XT. Het doet me veel te veel denken aan RTX3070 vs. RX6800. Leuk dat je betere RT hardware hebt, je kan het niet fatsoenlijk meer aanzetten in de ene na de andere game. En die 12GB aan VRAM lijken opeens ook niet zo royaal meer te zijn zoals het ruim een halfjaar geleden nog leek. RTX4070 vs. RX7800XT gaat denk ik ook een eindeloze discussie worden en de RTX4060Ti gaat denk ik geen schijn van kans maken tegen waar AMD mee komt. RTX4060 is denk ik iets beter dan de RX7600.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@DaniëlWW2

De 4070 Ti heeft met 12 Gb wat mij betreft gewoon echt te weinig VRAM voor de prijs.

Wat betreft de 7800 XT, en 7700 XT weten we de (echte) prijs nog niet, dus daar is nog weinig over te zeggen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!
@DaniëlWW2
Gefeliciteerd met de aankoop! :). Het is inderdaad erg irritant dat AMD zo'n onzinnige powerlimiet beperking heeft opgelegd. Dat is een van de dingen die mij niet aanstaan van AMD.
Dat de mod mogelijkheden worden ingeperkt is tot daar aan toe, maar geef dan riante aanpasmogelijkheden aan de consument. Waarom mag het wel bij CPU's, maar niet bij GPU's :X
Met RDNA2 is de -10% powerlimiet grens begonnen, maar daarbij is er nog de mogelijkheid om het toch aan te passen via een omweg met een 3rd party tool (MorePowerTools).

Het is een grote reden waarom ik deze generatie voor een 4090FE gekozen heb (maar die heeft dan weer andere irritante problemen zoals onoplosbare coilwhine = niveau zwerm muggen op steroids, Freesync dat door Nvidia gesaboteerd is = grens waarbij frames worden verdubbeld ligt in het normale werkbereik van Freesync i.p.v. voorbij de min. Freesync grens en fragiele powerconnector).
Ik zit dus echt na te denken om terug te gaan naar een 7900XTX.

Heb je trouwens veel last van coilwhine? Ik lees daar zoveel tegenstrijdige verhalen over terwijl eigenlijk al de RDNA3 kaarten gebruik maken van het referentieontwerp met voor 95-100% dezelfde componenten.

De powerspikes, zijn aardig te onderdrukken door de max. targetklok omlaag te brengen.
Vaak boost de kaart onnodig hard voor de laatste paar frames.
Samen met een -10% powerlimiet voor zware belasting moet het wel lukken op 550W denk ik.
Ik heb i.i.g. een RX6950XT met -10% PL op een 600W Corsair SF600 voeding gehad ic.m. een 5800X.
Wel een grensgeval, maar het ken njet ^^.

Een tip trouwens wanneer je geen behoefte hebt aan al de extra gaming meuk van Andrenaline, maar toch de mogelijkheden van Wattman wilt gebruiken.
Er is een 3rd party tool genaamd MorePowerTools dat al de de Wattman instellingen kan doen in een superlicht en klein programmaatje: https://www.igorslab.de/e...rclocking-navi-unlimited/
Ik vind het erg fijn samen met een minimal install.

Acties:
  • 0 Henk 'm!

  • NomadTitan
  • Registratie: December 2003
  • Laatst online: 21:40
Al een tijdje een Asus TUF 7900XT oc en moet zeggen een beest van een kaart. Kom van een 1080 en wat een upgrade zeg, speel op 3440x1440 met een 100hz scherm en nog geen game die ik niet kan draaien. Overigens heb een aardige OC 3150 met +15%pl met een 35mv undervolt en de frequency zit zo'n beetje tussen de 2800-2980mhz (core) en 2650mhz geheugen.

Tevens Radeon Chill is echt top trouwens. Ervaarde wel coilwine bij hele hoge FPS maar met Chill geen last meer van, tevens als ik ff afk ben in een game dan is de kaart onhoorbaar aangezien de fps dan terug zakken. Scheelt behoorlijk wat warmte ook in mijn kamer :-) Want als die full-blast is dan komt er toch aardig wat hitte uit mijn pc.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op zondag 6 augustus 2023 @ 19:19:
@DaniëlWW2

De 4070 Ti heeft met 12 Gb wat mij betreft gewoon echt te weinig VRAM voor de prijs.
Dat is mijn punt. :P
Wat betreft de 7800 XT, en 7700 XT weten we de (echte) prijs nog niet, dus daar is nog weinig over te zeggen.
Nog niet nee, maar een de RX7800XT noemen, belooft natuurlijk niet veel goeds. Ik zou verbaast zijn als het $500/€550word.
CMT schreef op zondag 6 augustus 2023 @ 19:54:
@DaniëlWW2
Gefeliciteerd met de aankoop! :). Het is inderdaad erg irritant dat AMD zo'n onzinnige powerlimiet beperking heeft opgelegd. Dat is een van de dingen die mij niet aanstaan van AMD.
Dat de mod mogelijkheden worden ingeperkt is tot daar aan toe, maar geef dan riante aanpasmogelijkheden aan de consument. Waarom mag het wel bij CPU's, maar niet bij GPU's :X
Met RDNA2 is de -10% powerlimiet grens begonnen, maar daarbij is er nog de mogelijkheid om het toch aan te passen via een omweg met een 3rd party tool (MorePowerTools).
En die PL limiet bij mij is bizar. :P
Mijn RX7900XT Pulse heeft een 330W bios. Maar met -10% PL is het uitgelezen verbruik altijd rond de 285W. Range is 281W-287W. Ik weet niet wat AMD aan het doen is, maar dit lijkt meer op 13%-14% dan 10%. Ik vind het best want dit was precies wat ik eigenlijk wenste.

Verder is het voor mij een typisch gevalletje RTG gonna RTG.
De marketing en de leiding van die afdeling moeten zich diep gaan schamen. Drie goede generaties aan behoorlijk competitieve hardware en zo ongeveer elke kans weggegooid.
Het is een grote reden waarom ik deze generatie voor een 4090FE gekozen heb (maar die heeft dan weer andere irritante problemen zoals onoplosbare coilwhine = niveau zwerm muggen op steroids, Freesync dat door Nvidia gesaboteerd is = grens waarbij frames worden verdubbeld ligt in het normale werkbereik van Freesync i.p.v. voorbij de min. Freesync grens en fragiele powerconnector).
Ik zit dus echt na te denken om terug te gaan naar een 7900XTX.
Freesync en Nvidia is ook zo'n verhaal ja. Soms doet AMD echt feature implementeren en vinkje gezet zonder te kijken of het goed is. Maar Nvidia kan het ook met Freesync en rBAR. Dat werkt gewoon met AMD want het zijn zaken waar AMD wel aandacht en tijd in heeft gestoken. En als ze dit nu eens vaker deden in plaats van Nvidia najagen. Maar RTG gonna RTG.
Heb je trouwens veel last van coilwhine? Ik lees daar zoveel tegenstrijdige verhalen over terwijl eigenlijk al de RDNA3 kaarten gebruik maken van het referentieontwerp met voor 95-100% dezelfde componenten.
Met mijn Sapphire Pulse niks. Al de derde custom Sapphire na mijn RX580 en RX5700XT waar ik mensen met andere merken erover heb horen klagen en ik nergens last van heb. En ik hoor het absoluut als ik het zou hebben. Ik weet dat Sapphire steevast adverteert dat ze hun PCB's zo ontwerpen om het te vermijden en dat begin ik te geloven. Want het valt me toch op dat het met Sapphire nauwelijks gemeld word. ASUS deze generatie zeker wel. Verder gaan er ook wat dingen mis met ASRock, Powercolor lijkt ook vapor chamber issues te hebben gehad en met XFX moet je helemaal aan de slag met de fan curve. Nitro+ lijkt uiteraard een Nitro+ te zijn. :Y)

Wel vind ik dat de reviews van dit model misleidend zijn. Er is een setting waar de ventilatoren rond de 1500RPM blijven, maar er zijn nog een paar standjes erboven. En dan hoor je de ventilatoren echt. Maar ik kan met gemak mijn fan curve aanpassen tot onder de 1500RPM. Het is een Pulse en geen Nitro+, maar het lijkt er wel op dat de fan curve een beetje is afgesteld om perfect te werken op open testbanken en wat minder in behuizingen. Deze is perfect adequaat als je niet gaat overclocken, een hoofdtelefoon opzet, fan curve aanpast of undervolt. Maar ik ben er niet 100% weg van. Het is goed genoeg voor mijn vereisten, niet perfect. :)
De powerspikes, zijn aardig te onderdrukken door de max. targetklok omlaag te brengen.
Vaak boost de kaart onnodig hard voor de laatste paar frames.
Samen met een -10% powerlimiet voor zware belasting moet het wel lukken op 550W denk ik.
Ik heb i.i.g. een RX6950XT met -10% PL op een 600W Corsair SF600 voeding gehad ic.m. een 5800X.
Wel een grensgeval, maar het ken njet ^^.
Met PL op -10%, of wat het ook moge zijn, heb ik geen enkel probleem ervaren. Ik wist ook al dat de spikes wel zouden afnemen met wat PL verlaging en dat lijkt goed te werken. Misschien koop ik alsnog een 750W PSU als de pijn van deze videokaart wat is gaan zakken. Ik heb nog nooit zo'n dure videokaart gekocht. :P
Heb al een shortlist en ik denk dat ik dan uitvoering: Fractal Design Ion Gold 750W koop.
Een tip trouwens wanneer je geen behoefte hebt aan al de extra gaming meuk van Andrenaline, maar toch de mogelijkheden van Wattman wilt gebruiken.
Er is een 3rd party tool genaamd MorePowerTools dat al de de Wattman instellingen kan doen in een superlicht en klein programmaatje: https://www.igorslab.de/e...rclocking-navi-unlimited/
Ik vind het erg fijn samen met een minimal install.
Ik had die geprobeerd met mijn RX Vega 56. Tja het is niet voor mij.
Ik gebruik graag Radeon Chill, maak voor veel games custom profielen met wat andere settings en ik ben nu weer van plan om hetzelfde te doen als ik met mijn RX Vega 56 had gedaan. Ik wil twee UV profielen gaan maken. De eerste is high power waarbij ik waarschijnlijk op die 285W blijf zitten en het optimaliseer voor clock speeds. Het lijkt er voorzichtig erop dat ik op 1050mv weg kan komen met hoge 2400MHz tot net over de 2500MHz.

Dan ga ik nog een tweede profiel maken waar ik een stuk lager wil gaan mikken qua vermogen en wat clock speed opgeef. Voor de meeste games die ik speel, is deze RX7900XT zulke belachelijke overkill. Er zijn ook games waar AMD Chill een beetje te gevoelig kan zijn, dus dan heb ik ook een tweede profiel met flink lager verbruik. Dat lijkt ook niet zo moeilijk te zijn. Ik heb nooit echt gespeeld met mijn RX5700XT, maar ik was eigenlijk blij verrast dat maximale boost clock instellen nu ook werkt zoals je zou denken dat het werkt. Je kan gemakkelijk je vermogen verlagen door te spelen met maximale clock speed en voltages. Het maakt de PL beperking extra zinloos. Verder blijf ik maar even van mimimale clock speed af want dat is lijkt ook vrij letterlijk te zijn met crash ten gevolgen. Was grappig om een TimeSpy run te doen en crashes te krijgen als een deel voltooid is omdat de framerate omlaag ging tijdens het laden. :P

Ik heb wel gemerkt dat AMD hun eigen OC software ook een stuk beter is dan jaren geleden. Ik kan crashes hebben zonder dat de boel echt bevriest, maar complete profiel resets lijken niet zomaar te gebeuren en rebooten lijkt meestal ook niet nodig.

Het enige is dat ik nu een zeer domme bug ervaar waarbij ik een profiel exporteer om op te slaan en vervolgens probeer te importeren waarna AMD doodleuk zegt dat dit profiel niet compatibel is met mijn videokaart. Het is een XML bestandje en het lijkt erop dat het opgegeven deviceID volslagen onzin is. Moet alleen nog wel even uitvogelen wat het wel kan zijn. :z


PS: Join the cult, the cult of Sapphire. O-)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
[b]DaniëlWW2 in "[AMD Radeon RX7000 series] Ervaringen & Discussie"DaniëlWW2 schreef op zondag 6 augustus 2023 @
En die PL limiet bij mij is bizar. :P
Mijn RX7900XT Pulse heeft een 330W bios. Maar met -10% PL is het uitgelezen verbruik altijd rond de 285W. Range is 281W-287W. Ik weet niet wat AMD aan het doen is, maar dit lijkt meer op 13%-14% dan 10%. Ik vind het best want dit was precies wat ik eigenlijk wenste.

Verder is het voor mij een typisch gevalletje RTG gonna RTG.
De marketing en de leiding van die afdeling moeten zich diep gaan schamen. Drie goede generaties aan behoorlijk competitieve hardware en zo ongeveer elke kans weggegooid.
Hmm dat is vreemd, het kan zijn dat de uitlezing niet nauwkeurig is. Het is immers maar een software uitlezing en dat kan soms er erg ver naast zitten.
Bij AMD wordt de meting gedaan aan de hand van de DCR van de spoelen en dat is over het algemeen best nauwkeurig. Een stuk beter dan de shuntmetingen die bij Nvidia kaarten worden gedaan.

De in totaal 6-7 reference RX6900XT & RX6950XT kaarten die ik in handen heb gehad, waren allemaal behoorlijk nauwkeurig. Maar die maakte nog gebruik van een PPT budget (alle stroom en spanning werd ná de vrm's gemeten). De PPT van een stock RX6900XT is 255W en met -10% zit dat keurig op 229.5W.
Delen door 0.82 geeft dan een schatting van de TBP.

Bij RDNA3 is de vermogens uitlezing aangepast zodat het (ook) de hele boardpower bepaald wordt.
Maar misschien is dat nog niet zo nauwkeurig? Ik weet niet of dat nu veranderd is naar een shuntmeting bij de pci-e connectoren.

Ik weet wel dat het bij Nvidia kaarten echt een zooitje kan zijn met die shuntmetingen.
Naast dat het exemplarisch is, kan het ook per model enorm verschillen in uitlezing.
Ze geeft de Gigabyte Windforce ca. 8-10W TBP idle verbruik aan, terwijl dat gemeten met een Powernetics of PCAT systeem rond de 30W is in werkelijkheid.
Ik had hiervoor nog een andere 4090FE (omgeruild vanwege het coilwhine probleem) en tussen de twee 4090FE exemplaren zit 20W verschil in software uitlezing bij een vollast.

Wanneer je de reviews van Quasar Zone doorleest dan zie je hoe erg het soms gesteld is met de vermogens uitlezing van de GPU kaarten zelf.
De INNO3D 4090 X3 OC geeft zelf 6.8W in idle aan, terwijl het in werkelijkheid 25.1W is: https://quasarzone.com/bb...sort=num%2C%20reply&type=
Quasarzone is trouwens een prachtige review site en de enige die ook echt spectrum metingen doet om de hoeveelheid coilwhine te meten! Hadden we dit maar standaard bij andere review sites ook...
Freesync en Nvidia is ook zo'n verhaal ja. Soms doet AMD echt feature implementeren en vinkje gezet zonder te kijken of het goed is. Maar Nvidia kan het ook met Freesync en rBAR. Dat werkt gewoon met AMD want het zijn zaken waar AMD wel aandacht en tijd in heeft gestoken. En als ze dit nu eens vaker deden in plaats van Nvidia najagen. Maar RTG gonna RTG.
Het is erg jammer wel, want ik speel hoofdzakelijk WoW en dat geeft dan bij bij 70-80 FPS overgangsproblemen. Dat heeft dan weer te maken met dat ik een VA scherm hebt waardoor dat zich uit in helderheids flikkeringen, gerelateerd aan uitschieters in de frametimes of gortige onderbrekingen daarvan (de brakke LFC / Low Framerate Compensation van Nvidia).
Ik heb sterk het vermoeden dat Nvidia dit doelbewust zo geïmplementeerd heeft om zo G-sync superieur te laten lijken. :/
Met mijn Sapphire Pulse niks. Al de derde custom Sapphire na mijn RX580 en RX5700XT waar ik mensen met andere merken erover heb horen klagen en ik nergens last van heb. En ik hoor het absoluut als ik het zou hebben. Ik weet dat Sapphire steevast adverteert dat ze hun PCB's zo ontwerpen om het te vermijden en dat begin ik te geloven. Want het valt me toch op dat het met Sapphire nauwelijks gemeld word. ASUS deze generatie zeker wel. Verder gaan er ook wat dingen mis met ASRock, Powercolor lijkt ook vapor chamber issues te hebben gehad en met XFX moet je helemaal aan de slag met de fan curve. Nitro+ lijkt uiteraard een Nitro+ te zijn. :Y)

Wel vind ik dat de reviews van dit model misleidend zijn. Er is een setting waar de ventilatoren rond de 1500RPM blijven, maar er zijn nog een paar standjes erboven. En dan hoor je de ventilatoren echt. Maar ik kan met gemak mijn fan curve aanpassen tot onder de 1500RPM. Het is een Pulse en geen Nitro+, maar het lijkt er wel op dat de fan curve een beetje is afgesteld om perfect te werken op open testbanken en wat minder in behuizingen. Deze is perfect adequaat als je niet gaat overclocken, een hoofdtelefoon opzet, fan curve aanpast of undervolt. Maar ik ben er niet 100% weg van. Het is goed genoeg voor mijn vereisten, niet perfect. :)
Ah dat is goed om te lezen, als ik ervoor ga dan wordt het zeker een Sapphire kaart.
De 7900XTX MBA had ook last van coilwhine, maar iets minder dan de RX6900XT. Het was tonaal ook iets anders. Meer een mug geluid dan een zindering.

De koeling is voor mij minder belangrijk aangezien het dan toch in een customloop beland.
Met 300-400W is het gewoon niet stil te krijgen met een luchtkoeler, of je moet een monoliet hebben zoals de Asus 4090 Strix :P. Alles wat meer dan 1300 toeren maakt is voor mij ondraaglijk.

Ik ben trouwens nog een ander groot nadeel van de RTX4090 vergeten te vertellen en dat is de driver overhead. Dat blijkt echt niet te onderschatten te zijn, want mijn oude RX6900XT is i.c.m. een 5800X3D in gedeelten van games die sterk op 1 thread leunen, ca. 20% sneller dan de RTX4090.
Dus op de plekken waar het telt om niet flink in FPS in te moeten boeten.
Met PL op -10%, of wat het ook moge zijn, heb ik geen enkel probleem ervaren. Ik wist ook al dat de spikes wel zouden afnemen met wat PL verlaging en dat lijkt goed te werken. Misschien koop ik alsnog een 750W PSU als de pijn van deze videokaart wat is gaan zakken. Ik heb nog nooit zo'n dure videokaart gekocht. :P
Heb al een shortlist en ik denk dat ik dan uitvoering: Fractal Design Ion Gold 750W koop.

[...]

Ik had die geprobeerd met mijn RX Vega 56. Tja het is niet voor mij.
Ik gebruik graag Radeon Chill, maak voor veel games custom profielen met wat andere settings en ik ben nu weer van plan om hetzelfde te doen als ik met mijn RX Vega 56 had gedaan. Ik wil twee UV profielen gaan maken. De eerste is high power waarbij ik waarschijnlijk op die 285W blijf zitten en het optimaliseer voor clock speeds. Het lijkt er voorzichtig erop dat ik op 1050mv weg kan komen met hoge 2400MHz tot net over de 2500MHz.

Dan ga ik nog een tweede profiel maken waar ik een stuk lager wil gaan mikken qua vermogen en wat clock speed opgeef. Voor de meeste games die ik speel, is deze RX7900XT zulke belachelijke overkill. Er zijn ook games waar AMD Chill een beetje te gevoelig kan zijn, dus dan heb ik ook een tweede profiel met flink lager verbruik. Dat lijkt ook niet zo moeilijk te zijn. Ik heb nooit echt gespeeld met mijn RX5700XT, maar ik was eigenlijk blij verrast dat maximale boost clock instellen nu ook werkt zoals je zou denken dat het werkt. Je kan gemakkelijk je vermogen verlagen door te spelen met maximale clock speed en voltages. Het maakt de PL beperking extra zinloos. Verder blijf ik maar even van mimimale clock speed af want dat is lijkt ook vrij letterlijk te zijn met crash ten gevolgen. Was grappig om een TimeSpy run te doen en crashes te krijgen als een deel voltooid is omdat de framerate omlaag ging tijdens het laden. :P

Ik heb wel gemerkt dat AMD hun eigen OC software ook een stuk beter is dan jaren geleden. Ik kan crashes hebben zonder dat de boel echt bevriest, maar complete profiel resets lijken niet zomaar te gebeuren en rebooten lijkt meestal ook niet nodig.

Het enige is dat ik nu een zeer domme bug ervaar waarbij ik een profiel exporteer om op te slaan en vervolgens probeer te importeren waarna AMD doodleuk zegt dat dit profiel niet compatibel is met mijn videokaart. Het is een XML bestandje en het lijkt erop dat het opgegeven deviceID volslagen onzin is. Moet alleen nog wel even uitvogelen wat het wel kan zijn. :z


PS: Join the cult, the cult of Sapphire. O-)
Het is jammer dat AMD het niet wat meer modulair maakt. Ik zou bijv. graag willen kiezen of ik Wattman erbij willen hebben en/of Game profielen. Het is zo'n alles of niets keuze nu. Om streaming geef ik persoonlijk helemaal niets bijvoorbeeld.
Maar AMD is inderdaad flink bezig geweest met het verbeteren van de software tot een punt dat het op bepaalde vlakken gewoon veel beter is dan Nvidia (custom fancurves maken bijvoorbeeld). En een stuk gebruiksvriendelijker.

Het afregelen is ook erg fijn en makkelijk, wanneer je eenmaal doorhebt hoe het achter de schermen werkt.
In mijn situatie heb ik alleen de max. klok en targetvoltage aangepast om de RX6900XT efficiënter te maken dan een RX6800. Dezelfde weg bewandelen met een powerlimiet gaf slechtere resultaten.
Een ander voordeel is dat met een klokbeperking het vermogensbudget beschikbaar blijft voor zeer zware spellen (voor jouw is het dan wat minder misschien vanwege de beperkte capaciteit van de voeding).

Een ding waar ik achter ben gekomen is dat de v-sync vanuit Andrenaline voor onevenredig veel verbruik zorgt. Mocht je geen gebruik maken van Freesync + FPS cap, dan is het beste om v-sync altijd via de game in te stellen.

De Fractal ION voedingen zijn erg fijn met soepele kabels.
Maar lijkt het je niet beter om een paar tientjes meer uit te geven om dan meteen voor een Platinum model te gaan? Die hebben vaak een hybride fancurve met een fanstop bij lage vermogens.

Ik begrijp overigens helemaal hoe het is om voor het eerst zoveel geld uit te geven voor een GPU. Bij de 1080TI had ik niet verwacht dat ik ooit nog meer zou uitgeven aan een GPU en idem bij de RX6900XT.
De 4090FE is dan ook de 1e GPU waar ik geen kopersgeluk / euforie ervaar.

[ Voor 200% gewijzigd door CMT op 07-08-2023 01:17 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

CMT schreef op maandag 7 augustus 2023 @ 01:12:
[...]


Hmm dat is vreemd, het kan zijn dat de uitlezing niet nauwkeurig is. Het is immers maar een software uitlezing en dat kan soms er erg ver naast zitten.
Bij AMD wordt de meting gedaan aan de hand van de DCR van de spoelen en dat is over het algemeen best nauwkeurig. Een stuk beter dan de shuntmetingen die bij Nvidia kaarten worden gedaan.

De in totaal 6-7 reference RX6900XT & RX6950XT kaarten die ik in handen heb gehad, waren allemaal behoorlijk nauwkeurig. Maar die maakte nog gebruik van een PPT budget (alle stroom en spanning werd ná de vrm's gemeten). De PPT van een stock RX6900XT is 255W en met -10% zit dat keurig op 229.5W.
Delen door 0.82 geeft dan een schatting van de TBP.

Bij RDNA3 is de vermogens uitlezing aangepast zodat het (ook) de hele boardpower bepaald wordt.
Maar misschien is dat nog niet zo nauwkeurig? Ik weet niet of dat nu veranderd is naar een shuntmeting bij de pci-e connectoren.
Ik hoop uiteraard dat het precies is, maar het lijkt op een uitleesfout. Afijn, zo lang als OCP niet afgaat is het goed. :P
Ik weet wel dat het bij Nvidia kaarten echt een zooitje kan zijn met die shuntmetingen.
Naast dat het exemplarisch is, kan het ook per model enorm verschillen in uitlezing.
Ze geeft de Gigabyte Windforce ca. 8-10W TBP idle verbruik aan, terwijl dat gemeten met een Powernetics of PCAT systeem rond de 30W is in werkelijkheid.
Ik had hiervoor nog een andere 4090FE (omgeruild vanwege het coilwhine probleem) en tussen de twee 4090FE exemplaren zit 20W verschil in software uitlezing bij een vollast.

Wanneer je de reviews van Quasar Zone doorleest dan zie je hoe erg het soms gesteld is met de vermogens uitlezing van de GPU kaarten zelf.
De INNO3D 4090 X3 OC geeft zelf 6.8W in idle aan, terwijl het in werkelijkheid 25.1W is: https://quasarzone.com/bb...sort=num%2C%20reply&type=
Quasarzone is trouwens een prachtige review site en de enige die ook echt spectrum metingen doet om de hoeveelheid coilwhine te meten! Hadden we dit maar standaard bij andere review sites ook...
Ga ik misschien eens lezen als ik tijd heb. :)
[...]

Het is erg jammer wel, want ik speel hoofdzakelijk WoW en dat geeft dan bij bij 70-80 FPS overgangsproblemen. Dat heeft dan weer te maken met dat ik een VA scherm hebt waardoor dat zich uit in helderheids flikkeringen, gerelateerd aan uitschieters in de frametimes of gortige onderbrekingen daarvan (de brakke LFC / Low Framerate Compensation van Nvidia).
Ik heb sterk het vermoeden dat Nvidia dit doelbewust zo geïmplementeerd heeft om zo G-sync superieur te laten lijken. :/
Nah, ik denk dat het gewoon niet goed geïmplementeerd is.
Bij Nvidia wordden denk ik, te vaak "magische eigenschappen" aangenomen waarbij ze alles bewust zo doen. Ze hebben gewoon hun eigen lijst met problemen, maar die worden zelden besproken. Stel je voor dat je de meerprijs voor het superieure merk hebt betaalt en basale dingen zoals adaptive sync of monitorconnectie, minder goed werken dan, AMD. :N
Jakkes. :+

Ik word soms echt niet goed van die types die er elke keer als de kippen bij zijn met een AMD driver probleem en het alleen hier over willen en kunnen hebben. Maar als je ook maar iets over Nvidia zegt, ook al is het maar een regel, dan komt meteen het selectief "bevragen" waarbij de rest van je reactie gegenereerd word. Of dan moet je het eindeloos gaan lopen toelichten en verdedigen met onderbouwing of komen de verwijten dat je een AMD fanboy bent. :z
[...]


Ah dat is goed om te lezen, als ik ervoor ga dan wordt het zeker een Sapphire kaart.
De 7900XTX MBA had ook last van coilwhine, maar iets minder dan de RX6900XT. Het was tonaal ook iets anders. Meer een mug geluid dan een zindering.

De koeling is voor mij minder belangrijk aangezien het dan toch in een customloop beland.
Met 300-400W is het gewoon niet stil te krijgen met een luchtkoeler, of je moet een monoliet hebben zoals de Asus 4090 Strix :P. Alles wat meer dan 1300 toeren maakt is voor mij ondraaglijk.
Tja ik weet niet eens of er waterblokken zijn die compatibel zijn met Sapphire. ASRock en Powercolor zeker, maar ik weet niks van Sapphire. :/
Ik ben trouwens nog een ander groot nadeel van de RTX4090 vergeten te vertellen en dat is de driver overhead. Dat blijkt echt niet te onderschatten te zijn, want mijn oude RX6900XT is i.c.m. een 5800X3D in gedeelten van games die sterk op 1 thread leunen, ca. 20% sneller dan de RTX4090.
Dus op de plekken waar het telt om niet flink in FPS in te moeten boeten.
Tja 68% meer SM's dan een RTX4080 en waar is die grote van prestatieverbetering?
De RTX4090 heeft serieuze CPU overhead issues. Die had veel sneller moeten zijn dan die eigenlijk is. En dat is gemiddeld. Kan me goed voorstellen dat er gevallen zijn waar het erger is.

Toen Jedi Survivor kwam en iedereen liep te schreeuwen dat het zo slecht geoptimaliseerd was, had ik al door dat het gewoon draaide op Radeon. Dat mocht ook niet gezegd worden. De RX7900XTX was gewoon makkelijk sneller dan de RTX4090 in de eerste dagen totdat er wat CPU overhead fixes kwamen. :z
Het is jammer dat AMD het niet wat meer modulair maakt. Ik zou bijv. graag willen kiezen of ik Wattman erbij willen hebben en/of Game profielen. Het is zo'n alles of niets keuze nu. Om streaming geef ik persoonlijk helemaal niets bijvoorbeeld.
Maar AMD is inderdaad flink bezig geweest met het verbeteren van de software tot een punt dat het op bepaalde vlakken gewoon veel beter is dan Nvidia (custom fancurves maken bijvoorbeeld). En een stuk gebruiksvriendelijker.

Het afregelen is ook erg fijn en makkelijk, wanneer je eenmaal doorhebt hoe het achter de schermen werkt.
In mijn situatie heb ik alleen de max. klok en targetvoltage aangepast om de RX6900XT efficiënter te maken dan een RX6800. Dezelfde weg bewandelen met een powerlimiet gaf slechtere resultaten.
Een ander voordeel is dat met een klokbeperking het vermogensbudget beschikbaar blijft voor zeer zware spellen (voor jouw is het dan wat minder misschien vanwege de beperkte capaciteit van de voeding).
Ik zet dan ook een dubbele oplossing in. PL naar -10% voor OCP en daarnaast voltages en clocks. Ik beperk het boost algoritme gewoon tot die schijnbaar 285W en dan komt er pas een clock en voltage erbij. :)

Verder zijn de fan curves inderdaad fijn. Helaas zit ik wel met een fan stop op een ongelukkige temperatuur. Het lijkt erop dat de ventilatoren altijd zullen gaan draaien en om echt weer onder de fan stop te komen, moeten die denk ik harder draaien dan ik zou willen.
Een ding waar ik achter ben gekomen is dat de v-sync vanuit Andrenaline voor onevenredig veel verbruik zorgt. Mocht je geen gebruik maken van Freesync + FPS cap, dan is het beste om v-sync altijd via de game in te stellen.
Ik gebruik eigenlijk nooit v-sync en altijd caps. :)
De Fractal ION voedingen zijn erg fijn met soepele kabels.
Maar lijkt het je niet beter om een paar tientjes meer uit te geven om dan meteen voor een Platinum model te gaan? Die hebben vaak een hybride fancurve met een fanstop bij lage vermogens.

Ik begrijp overigens helemaal hoe het is om voor het eerst zoveel geld uit te geven voor een GPU. Bij de 1080TI had ik niet verwacht dat ik ooit nog meer zou uitgeven aan een GPU en idem bij de RX6900XT.
De 4090FE is dan ook de 1e GPU waar ik geen kopersgeluk / euforie ervaar.
Oh hier zat wel een beetje "yay high end videokaart" bij. Maar nog eens €150 voor een PSU doet misschien wel wat pijn. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • TMobile
  • Registratie: Augustus 2020
  • Laatst online: 18-09 13:55
Ik ben al een poosje aan het kijken om mijn 2070 te vervangen met een 7900XT en lees hier regelmatig mee over de verschillende koelers. Klopt mijn opvatting dat de verschillende modellen van zowel ASRock, Sapphire en XFX allemaal prima zijn maar dat toch vooral die eerste twee aangeraden worden? Mbt. Asus zie ik vooral veel over coilwhine voorbij komen, die lijken behoorlijk tegen te vallen.

Acties:
  • 0 Henk 'm!

  • NosferatuX
  • Registratie: Oktober 2018
  • Niet online
Toch nog even een vraagje aan de mensen die zowel ervaring hebben met de amd 7000 serie en Nvidia's 3000/4000 serie.

Uit bijna alle reviews maak ik op dat de frametimes van AMD een stuk variabeler zijn met meer en groterw uitschieters.
Dat hoeft natuurlijk geen probleem te zijn echter ben ik zelf vrij gevoelig voor microstuttering.

Hoe is jullie ervaring mbt het verschil tussen amd en nvidia hierin? Is het merkbaar?

De laatste AMD kaart die ik gebruikt heb was de epische HD4890 black edition dus dat is al even geleden ;)

[ Voor 11% gewijzigd door NosferatuX op 09-08-2023 13:16 ]

a frontpage moderation system, like on tweakers, controlled and abused by monkeys will be peanuts and means nothing but... peanuts.


Acties:
  • +2 Henk 'm!
@NosferatuX
Wat betreft frametimes heb ik zelf niet echt een verschil gemerkt tussen een 1080Ti, RX6900XT en 4090FE.
Er zijn bepaalde spellen die beroerder draaien op AMD zoals Destiny 2, maar dat spel is ook een ramp op Nvidia kaarten. Het is dus meer afhankelijk van het spel dan de keuze AMD vs Nvidia.
  • Diablo 4 draait bijvoorbeeld heel soepel, afgezien van transversaal gestotter waar iedereen last van heeft (probleem van de game). Geplaagd met crashes en problemen bij alle soorten GPU's. In mijn geval zorgt Freesync daar voor instabiliteit bij het teleporten dat regelmatig tot crashes leidt = game probleem
  • De interne benchmark van Shadow of the Tombraider draait even soepel op AMD of Nvidia.
  • De interne benchmark van Borderlands 3 vertoont dezelfde stotter problemen met zowel AMD als Nvidia, dat dan na verloop van tijd verdwijnt als de shadercache volledig is opgebouwd.
  • Met World of Warcraft ervaar ik met de 4090FE meer problemen zodra ik Freesync gebruik.
    Dat is dan weer omdat Nvidia's LFC midden in het Freesync werkgebied ligt, zodat de grens om frames te verdubbelen bij 70-80 FPS plaats vindt (idioot waarom ze dit zo geïmplementeerd hebben..). Het resultaat is veel gestotter rond dat punt en vanwege het VA scherm zeer zichtbare helderheidsflikkeringen (of eigenlijk flitsen zo erg kan het zijn).
    Met de RX6900XT draait Freesync feilloos in WoW met op hetzelfde VA scherm minimale helderheidsflikkeringen zodra er frametime interrupties ontstaan. Daarbij moet je dan opletten om het te zien in tegenstelling tot de flitsen die ik met de RTX4090FE ervaar.
Een ander dingetje om rekening mee te houden is de driver overhead, mocht je voor een RTX4090 gaan of misschien zelfs al met een RTX4080.
De combi 5800X3D + RX6900XT was in gaming situaties die sterk op 1 thread leunen, sneller dan de combi 5800X3D + 4090FE. Pas met een 7800X3D is dat meer op gelijke voet gekomen (maar dan zit je daar met een GPU die in theorie 2x zo sterk is).

Er zijn trouwens ook gamereviews waarbij de avg. FPS & P1 FPS verhouding bij AMD kaarten duidelijk kleiner is dan bij Nvidia. Ratchet & Clank bijvoorbeeld.
Ik denk dus dat het om het even is en meer afhankelijk van de gameoptimalisatie dan de keuze tussen GPU fabrikant.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

TMobile schreef op woensdag 9 augustus 2023 @ 11:15:
Ik ben al een poosje aan het kijken om mijn 2070 te vervangen met een 7900XT en lees hier regelmatig mee over de verschillende koelers. Klopt mijn opvatting dat de verschillende modellen van zowel ASRock, Sapphire en XFX allemaal prima zijn maar dat toch vooral die eerste twee aangeraden worden? Mbt. Asus zie ik vooral veel over coilwhine voorbij komen, die lijken behoorlijk tegen te vallen.
Nee, we raden vooral Sapphire en ook XFX aan. ;)
Met ASRock lijken er helaas problemen te zijn met contact tussen de GPU en de koeling. Verder kan ik niks vinden over bijvoorbeeld wat voor type lagers ze gebruiken voor hun ventilatoren. Dat is dus meestal glijlagers die harder slijten en luidruchtig worden. Iets dat Sapphire of XFX allang niet meer doen. Daar krijg je ventilatoren met kogellagers. Aangezien ventilatoren meestal een van de eerste dingen zijn die kapot gaan, is dat toch wel een dingetje.

Sapphire is vervolgens eigenlijk nog beter dan EVGA voor Nvidia was. Daar krijg je gewoon altijd kwaliteit.
XFX kan wisselend zijn en dat zijn ze hier ook. XFX heeft voor de RX7900 series hun ventilatoren helaas op standje opstijgen gezet. En het is ook onnodig omdat ze maar een model voor de XT en een voor de XTX hebben meer dan adequaat koelt. Het is geen Nitro+, maar waarschijnlijk wel net iets beter dan de Pulse die ik heb. Die Pulse ging alleen eventjes voor €800. Daar is nu geen sprake meer van, waardoor de XFX nu de voorkeur zou moeten genieten. Die is nu immers iets goedkoper. Maar de meerprijs van de Nitro+ is ook niet zo groot. Die heeft alleen wel een forse TDP rating en vereist 3x 8 pin.

Zie:
Afbeeldingslocatie: https://tpucdn.com/review/sapphire-radeon-rx-7900-xt-pulse/images/noise-normalized-temperature.png
Afbeeldingslocatie: https://tpucdn.com/review/sapphire-radeon-rx-7900-xt-pulse/images/cooler-performance-comparison-gpu.png
https://www.techpowerup.c...-rx-7900-xt-pulse/36.html

Het verschil tussen de XTX en XT ontwerpen van XFX is de hoogte en dus het totaaloppervlak van de koeler. De XT koeler zal iets minder zijn dan de XTX die bij TPU werd gebruikt, maar dan zit je nog steeds goed. Je hebt ook de ruimte om de fan curve verder aan te passen om de videokaart echt bijna onhoorbaar te maken.

Afmetingen:
34.4 x 12.8 x 5.5
https://www.xfxforce.com/shop/xfx-speedster-merc310-7900xt#2
34.4 x 12.8 x 5.7
https://www.xfxforce.com/...0-7900xtx-black-edition#2

Powercolor kan ook erg goed zijn, maar zowel de prijzen als leverbaarheid maakt ze niet interessant.

Verder bestaat er een (terecht) wantrouwen vanuit meer Radeon enthousiastelingen naar ASUS, MSI en Gigabyte. Allen hebben de afgelopen generaties echt waardeloze producten gelanceerd. Bijvoorbeeld de RX Vega modellen van Gigabyte waren botweg niet stabiel out of the box. Verder zijn al hun modellen voorzien van glijlagers voor de ventilatoren. MSI vond het nog wel eens lastig om normaal formaat thermal pads te gebruiken voor je VRAM koeling of een koeler te gebruiken die de GPU daadwerkelijk adequaat kan koelen. Verder hebben beiden ook problemen met hotspot temperaturen. Dit omdat ze nog steeds direct contact heat pipes gebruiken en dit adverteren als een voordeel. Dat is vaak een bron van ellende met Radeon's. Maakt net een stukje van de GPU minder contact omdat het oppervlakte van die heatpipes niet egaal is en hallo 100C+ hotspot temperaturen, soms zelfs throtteling en je kan die terugsturen. Persoonlijk raad ik graag videokaarten aan waarbij dergelijke zaken niet zomaar gebeuren...

Dan hebben we ASUS die voor bijvoorbeeld hun RX5700XT TUF je VRAM oververhit liet raken door in plaats van VRAM koeling, VRAM hitte isolatie te installeren. Ondertussen bij de RX5700XT ROG kon de koeler er letterlijk vanaf zakken omdat te lange schroeven waren gebruikt. Verder zijn ASUS Radeons vaak zeker niet zo goed geweest als de Nvidia tegenhangers. Die TUF nu lijkt op het eerste gezicht een erg goede videokaart gemaakt, maar ze lijken opvallend gevoelig te zijn voor coil whine. En bij veel webwinkels is een Sapphire Nitro+ voor hetzelfde bedrag te krijgen. Dan weten we het wel. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Cowamundo
  • Registratie: September 2013
  • Laatst online: 28-08 17:33
Als ik de comments hier zo lees is er nogal wat verschuiving kwa kwaliteit de laatste jaren op de GPU markt. De “grote” merken vragen door hun naam meer geld maar leveren (zo lijkt het) steeds minder kwaliteit. Slechte zaak!
Gelukkig zijn er genoeg users op fora die mensen weer de richting kwaliteit op sturen ipv naar een “grote” naam.
Zie ook in reviews steeds vaker merken goed/beter uit de bus komen waarvan ik 5+ jaar terug niet zomaar een kaart van aangeschaft zou hebben.
Bij deze iedereen bedankt voor de bakken met informatie in dit topic!

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Cowamundo schreef op woensdag 9 augustus 2023 @ 18:16:
Als ik de comments hier zo lees is er nogal wat verschuiving kwa kwaliteit de laatste jaren op de GPU markt. De “grote” merken vragen door hun naam meer geld maar leveren (zo lijkt het) steeds minder kwaliteit. Slechte zaak!
Gelukkig zijn er genoeg users op fora die mensen weer de richting kwaliteit op sturen ipv naar een “grote” naam.
Zie ook in reviews steeds vaker merken goed/beter uit de bus komen waarvan ik 5+ jaar terug niet zomaar een kaart van aangeschaft zou hebben.
Bij deze iedereen bedankt voor de bakken met informatie in dit topic!
Nah, Sapphire was jaren geleden ook de beste voor Radeons. :P

Maar ik denk dat het komt omdat met de enorme prijsstijgingen en flink toegenomen TDP's, er veel minder videokaarten worden gemaakt en verkocht. Gamers die nog wel wat kopen, lijken vanwege de prijsstijgingen ook terecht, kritischer te zijn geworden wat ze kopen.

Een 300W videokaart, tja ik weet de Fermi grappen nog. Heb er nu zelf eentje. Undervolted zodat die onder de 300W blijft, maar alsnog is het best een heethoofd. Als ik zoiets koop wat in de "aanbieding" alsnog €800 is, dan wil ik ook een goed product hebben. Ik ga kostenbesparingen die het product minder goed maken, niet accepteren en met mij velen. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • NosferatuX
  • Registratie: Oktober 2018
  • Niet online
CMT schreef op woensdag 9 augustus 2023 @ 16:23:
@NosferatuX
Wat betreft frametimes heb ik zelf niet echt een verschil gemerkt tussen een 1080Ti, RX6900XT en 4090FE.
Er zijn bepaalde spellen die beroerder draaien op AMD zoals Destiny 2, maar dat spel is ook een ramp op Nvidia kaarten. Het is dus meer afhankelijk van het spel dan de keuze AMD vs Nvidia.
  • Diablo 4 draait bijvoorbeeld heel soepel, afgezien van transversaal gestotter waar iedereen last van heeft (probleem van de game). Geplaagd met crashes en problemen bij alle soorten GPU's. In mijn geval zorgt Freesync daar voor instabiliteit bij het teleporten dat regelmatig tot crashes leidt = game probleem
  • De interne benchmark van Shadow of the Tombraider draait even soepel op AMD of Nvidia.
  • De interne benchmark van Borderlands 3 vertoont dezelfde stotter problemen met zowel AMD als Nvidia, dat dan na verloop van tijd verdwijnt als de shadercache volledig is opgebouwd.
  • Met World of Warcraft ervaar ik met de 4090FE meer problemen zodra ik Freesync gebruik.
    Dat is dan weer omdat Nvidia's LFC midden in het Freesync werkgebied ligt, zodat de grens om frames te verdubbelen bij 70-80 FPS plaats vindt (idioot waarom ze dit zo geïmplementeerd hebben..). Het resultaat is veel gestotter rond dat punt en vanwege het VA scherm zeer zichtbare helderheidsflikkeringen (of eigenlijk flitsen zo erg kan het zijn).
    Met de RX6900XT draait Freesync feilloos in WoW met op hetzelfde VA scherm minimale helderheidsflikkeringen zodra er frametime interrupties ontstaan. Daarbij moet je dan opletten om het te zien in tegenstelling tot de flitsen die ik met de RTX4090FE ervaar.
Een ander dingetje om rekening mee te houden is de driver overhead, mocht je voor een RTX4090 gaan of misschien zelfs al met een RTX4080.
De combi 5800X3D + RX6900XT was in gaming situaties die sterk op 1 thread leunen, sneller dan de combi 5800X3D + 4090FE. Pas met een 7800X3D is dat meer op gelijke voet gekomen (maar dan zit je daar met een GPU die in theorie 2x zo sterk is).

Er zijn trouwens ook gamereviews waarbij de avg. FPS & P1 FPS verhouding bij AMD kaarten duidelijk kleiner is dan bij Nvidia. Ratchet & Clank bijvoorbeeld.
Ik denk dus dat het om het even is en meer afhankelijk van de gameoptimalisatie dan de keuze tussen GPU fabrikant.
Hmm met een 3080 heb ik in Destiny 2 toen ik dat speelde echt de meest smoothest gameplay gehad. Ook met WoW geen enkel probleem. Op een gsync premium compatible monitor dat wel.
Die andere games geen ervaring mee maar als ik jou ervaring zo hoor is het een beetje afwisselend tussen Nvidia en AMD dus per game.

De conclusie mbt de "slechtere" frame times trok ik na het zien van 7900xtx vs 4080/4090 reviews met onscreen stats. Met name die van Daniel Owen die echt goede vergelijking videos maakt de laatste tijd..

Dat geflikker had ik trouwens ook met mijn vorige monitor die ik gebruikte, die had geen gysnc compatible/premium status. Het werkte toen wel met mijn nvidia kaart maar idd met geflikker, vooral op grijze scenes merkbaar
DaniëlWW2 schreef op woensdag 9 augustus 2023 @ 17:33:
[...]


Nee, we raden vooral Sapphire en ook XFX aan. ;)
Met ASRock lijken er helaas problemen te zijn met contact tussen de GPU en de koeling. Verder kan ik niks vinden over bijvoorbeeld wat voor type lagers ze gebruiken voor hun ventilatoren. Dat is dus meestal glijlagers die harder slijten en luidruchtig worden. Iets dat Sapphire of XFX allang niet meer doen. Daar krijg je ventilatoren met kogellagers. Aangezien ventilatoren meestal een van de eerste dingen zijn die kapot gaan, is dat toch wel een dingetje.

Sapphire is vervolgens eigenlijk nog beter dan EVGA voor Nvidia was. Daar krijg je gewoon altijd kwaliteit.
XFX kan wisselend zijn en dat zijn ze hier ook. XFX heeft voor de RX7900 series hun ventilatoren helaas op standje opstijgen gezet. En het is ook onnodig omdat ze maar een model voor de XT en een voor de XTX hebben meer dan adequaat koelt. Het is geen Nitro+, maar waarschijnlijk wel net iets beter dan de Pulse die ik heb. Die Pulse ging alleen eventjes voor €800. Daar is nu geen sprake meer van, waardoor de XFX nu de voorkeur zou moeten genieten. Die is nu immers iets goedkoper. Maar de meerprijs van de Nitro+ is ook niet zo groot. Die heeft alleen wel een forse TDP rating en vereist 3x 8 pin.

Zie:
[Afbeelding]
[Afbeelding]
https://www.techpowerup.c...-rx-7900-xt-pulse/36.html

Het verschil tussen de XTX en XT ontwerpen van XFX is de hoogte en dus het totaaloppervlak van de koeler. De XT koeler zal iets minder zijn dan de XTX die bij TPU werd gebruikt, maar dan zit je nog steeds goed. Je hebt ook de ruimte om de fan curve verder aan te passen om de videokaart echt bijna onhoorbaar te maken.

Afmetingen:
34.4 x 12.8 x 5.5
https://www.xfxforce.com/shop/xfx-speedster-merc310-7900xt#2
34.4 x 12.8 x 5.7
https://www.xfxforce.com/...0-7900xtx-black-edition#2

Powercolor kan ook erg goed zijn, maar zowel de prijzen als leverbaarheid maakt ze niet interessant.

Verder bestaat er een (terecht) wantrouwen vanuit meer Radeon enthousiastelingen naar ASUS, MSI en Gigabyte. Allen hebben de afgelopen generaties echt waardeloze producten gelanceerd. Bijvoorbeeld de RX Vega modellen van Gigabyte waren botweg niet stabiel out of the box. Verder zijn al hun modellen voorzien van glijlagers voor de ventilatoren. MSI vond het nog wel eens lastig om normaal formaat thermal pads te gebruiken voor je VRAM koeling of een koeler te gebruiken die de GPU daadwerkelijk adequaat kan koelen. Verder hebben beiden ook problemen met hotspot temperaturen. Dit omdat ze nog steeds direct contact heat pipes gebruiken en dit adverteren als een voordeel. Dat is vaak een bron van ellende met Radeon's. Maakt net een stukje van de GPU minder contact omdat het oppervlakte van die heatpipes niet egaal is en hallo 100C+ hotspot temperaturen, soms zelfs throtteling en je kan die terugsturen. Persoonlijk raad ik graag videokaarten aan waarbij dergelijke zaken niet zomaar gebeuren...

Dan hebben we ASUS die voor bijvoorbeeld hun RX5700XT TUF je VRAM oververhit liet raken door in plaats van VRAM koeling, VRAM hitte isolatie te installeren. Ondertussen bij de RX5700XT ROG kon de koeler er letterlijk vanaf zakken omdat te lange schroeven waren gebruikt. Verder zijn ASUS Radeons vaak zeker niet zo goed geweest als de Nvidia tegenhangers. Die TUF nu lijkt op het eerste gezicht een erg goede videokaart gemaakt, maar ze lijken opvallend gevoelig te zijn voor coil whine. En bij veel webwinkels is een Sapphire Nitro+ voor hetzelfde bedrag te krijgen. Dan weten we het wel. ;)
Heb je toevallig meer info, eventueel links mbt het Asrock probleem? Mijn oog was namelijk gevallen op een Taichi maar heb hier niks over kunnen vinden

a frontpage moderation system, like on tweakers, controlled and abused by monkeys will be peanuts and means nothing but... peanuts.


Acties:
  • 0 Henk 'm!

  • CHKYBSTRD
  • Registratie: Augustus 2014
  • Laatst online: 16-09 16:13
NosferatuX schreef op woensdag 9 augustus 2023 @ 19:45:
[...]

Heb je toevallig meer info, eventueel links mbt het Asrock probleem? Mijn oog was namelijk gevallen op een Taichi maar heb hier niks over kunnen vinden
Die witte Taichi ziet er wel top uit 👌🏻, zelf veel verschillende merken gehad maar de AsRock tot heden nog niet.

Stay hungry, stay foolish!


Acties:
  • 0 Henk 'm!

  • Snowdog
  • Registratie: Maart 2001
  • Laatst online: 20:15
DaniëlWW2 schreef op woensdag 9 augustus 2023 @ 18:36:
[...]


Nah, Sapphire was jaren geleden ook de beste voor Radeons. :P

Maar ik denk dat het komt omdat met de enorme prijsstijgingen en flink toegenomen TDP's, er veel minder videokaarten worden gemaakt en verkocht. Gamers die nog wel wat kopen, lijken vanwege de prijsstijgingen ook terecht, kritischer te zijn geworden wat ze kopen.

Een 300W videokaart, tja ik weet de Fermi grappen nog. Heb er nu zelf eentje. Undervolted zodat die onder de 300W blijft, maar alsnog is het best een heethoofd. Als ik zoiets koop wat in de "aanbieding" alsnog €800 is, dan wil ik ook een goed product hebben. Ik ga kostenbesparingen die het product minder goed maken, niet accepteren en met mij velen. ;)
De grote merken waren inderdaad al vele jaren crap en Sapphire is gewoon kwalitatief een van de beste. Maar ik denk niet dat gamers zich zoveel aantrekken van de prijzen vooralsnog. Blijkbaar verkopen ze ondanks een afname in verkopen nog altijd genoeg om deze prijzen te handhaven. Het zal een generatie of 2 nemen om te zien hoe dit zich gaat uitspelen. Mag hopen dat dit niet het nieuwe normaal gaat zijn though, dat zou het einde van PC gaming zijn uiteindelijk.

Acties:
  • 0 Henk 'm!

  • NosferatuX
  • Registratie: Oktober 2018
  • Niet online
CHKYBSTRD schreef op woensdag 9 augustus 2023 @ 20:05:
[...]


Die witte Taichi ziet er wel top uit 👌🏻, zelf veel verschillende merken gehad maar de AsRock tot heden nog niet.
Reviews zijn ook erg goed van de Taichi dus ben erg benieuwd naar de bekende problemen mbt de heatsink

a frontpage moderation system, like on tweakers, controlled and abused by monkeys will be peanuts and means nothing but... peanuts.


Acties:
  • 0 Henk 'm!

  • Cowamundo
  • Registratie: September 2013
  • Laatst online: 28-08 17:33
Snowdog schreef op woensdag 9 augustus 2023 @ 20:09:
[...]


De grote merken waren inderdaad al vele jaren crap en Sapphire is gewoon kwalitatief een van de beste. Maar ik denk niet dat gamers zich zoveel aantrekken van de prijzen vooralsnog. Blijkbaar verkopen ze ondanks een afname in verkopen nog altijd genoeg om deze prijzen te handhaven. Het zal een generatie of 2 nemen om te zien hoe dit zich gaat uitspelen. Mag hopen dat dit niet het nieuwe normaal gaat zijn though, dat zou het einde van PC gaming zijn uiteindelijk.
Als prijzen maar lang genoeg hoog zijn gaan mensen vanzelf weer kopen/consumeren kuch kuch benzine/boodschappen.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

NosferatuX schreef op woensdag 9 augustus 2023 @ 19:45:
Heb je toevallig meer info, eventueel links mbt het Asrock probleem? Mijn oog was namelijk gevallen op een Taichi maar heb hier niks over kunnen vinden
Uh in dit topic eens zoeken? :P
Er is iemand die heel wat ASRock Phanton Gamings heeft gehad...
Maar het punt met ASRock is dat je zomaar een exemplaar kan krijgen waarbij contact dus niet goed is. En dan komen we terug bij het aanraden van modellen. Hoe moet ik een nog steeds relatief nieuw merk in videokaarten aanraden als zulke dingen voorbij komen als er een meer betrouwbaar alternatief is?
Snowdog schreef op woensdag 9 augustus 2023 @ 20:09:
De grote merken waren inderdaad al vele jaren crap en Sapphire is gewoon kwalitatief een van de beste. Maar ik denk niet dat gamers zich zoveel aantrekken van de prijzen vooralsnog. Blijkbaar verkopen ze ondanks een afname in verkopen nog altijd genoeg om deze prijzen te handhaven. Het zal een generatie of 2 nemen om te zien hoe dit zich gaat uitspelen. Mag hopen dat dit niet het nieuwe normaal gaat zijn though, dat zou het einde van PC gaming zijn uiteindelijk.
Hoeveel mensen zullen nog een GTX1060 hebben omdat de prijzen te hoog waren? En als ik snel zou kijken, dan betwijfel ik of ik een goede vervanger voor minder dan €300 zou vinden. Menig RTX3060 12GB kost iets meer, maar eigenlijk is de RX6700XT de betere koop. Die is alleen ruim €350. Dat beschouw ik inmiddels als fatsoenlijke "instappers". Ik kan me nog herinneren hoe je daar een high end videokaart voor kocht...

Met deze prijzen zal PC gaming ook een kleine niche worden. Een niche van mensen die het kunnen betalen. Dat is al wat er gebeurd nu. Kijk alleen al naar RTX40. Het begint zowat pas bij de €600+ kostende RTX4070. De rest is gewoon slecht. Bij AMD komt N32 dan eindelijk. De enige GPU die misschien nog wat kan maken van deze generatie in het "lagere" segment is de RX7700XT 12GB. Maar ik vrees dat die makkelijk €400+ gaat zijn. De RX7800XT gaat denk ik helemaal wat worden. Dat is een midrange chip die in de 70 klasse hoort te zitten. Ik vrees dat €550 nog mee zou vallen...

De markt gaat hard op weg naar een lage volume luxe markt waar veel het gewoon niet meer kunnen betalen. En dat is best als je Nvidia bent, maar onbegrijpelijk als je AMD bent met je DIY CPU + moederbord segment dat voor een flink deel draait op gamers en dus ook GPU's. AMD is hier zelfs voor RTG standaarden, echt aan het falen...

Dat was voor mij ook de rationeel om me te laten "upsellen". Toen ik zag dat volle 60CU N32, de RX7800XT zou worden, deed ik meteen een snelle rekensom. Ik kan voor circa 2x sneller dan mijn RX5700XT gaan met de RX7800XT of ruim 2,5x sneller met de RX7900XT. Voor de vanuit mijn perspectief nog eens ruim 50% extra, betaal ik waarschijnlijk niet eens 1/3 meer. De verbeterde game ervaring die ik ermee bereik is er alleen wel.

Want nu kan ik wel RT aanzetten in games. Zelfs in Witcher 3 en Cyberpunk. Ik haal net 60fps met max RT (met FSR2) in the Witcher 3 met die totaal niet geoptimaliseerde RTXGI implementatie die voor geen meter draait op zo ongeveer alles dat geen RTX40 is. Helaas is de mod die de boel enorm optimaliseerde, stuk omdat de RTXGI unlocker al maanden niet geüpdatet is. In Cyberpunk met een RT optimalisatie mod haal ik nota bene nog steeds iets van 45fps (met FSR2) met full path tracing aan en 60fps+ met full RT. Die had ik snel getest, misschien zijn er zwaardere nog plekken waar het wat minder presteert, maar dat is behoorlijk. Eigenlijk beter dan gehoopt. :)

En uiteraard denk ik dat ik uiteindelijk RT ook uitzet in bijvoorbeeld Cyberpunk omdat het verschil in grafische kwaliteit ook niet die gigantische verlies in fps waard lijkt te zijn. Net zoals zoveel mensen voor me. :P

RT en FSR2 uit
Afbeeldingslocatie: https://tweakers.net/i/Bu-BDXjiVwthIobD_RzVTPIdWAo=/800x/filters:strip_icc():strip_exif()/f/image/3go6hNlENLvl7qUyTrJvnRdT.jpg?f=fotoalbum_large

Psyco RT
Afbeeldingslocatie: https://tweakers.net/i/VAk0YKcdG295cCjjCxLzmSd1uOw=/800x/filters:strip_icc():strip_exif()/f/image/M8R3T2rpQgsfnyGAzsjNSz07.jpg?f=fotoalbum_large

Psyco + shadows
Afbeeldingslocatie: https://tweakers.net/i/WyBNjF3lriq8vkLL9nHY2SvDi-4=/800x/filters:strip_icc():strip_exif()/f/image/NHolbwja19GVv4CiBfnTh3hN.jpg?f=fotoalbum_large

Full RT
Afbeeldingslocatie: https://tweakers.net/i/Cz6MHjkU41_DieFrj1nsp01FMPs=/800x/filters:strip_icc():strip_exif()/f/image/WDKqRkAAC1ff5XfuuYtN6b5L.jpg?f=fotoalbum_large

PT
Afbeeldingslocatie: https://tweakers.net/i/KyDv_GSKSGUrUeNUCQ_UOXXfy1A=/800x/filters:strip_icc():strip_exif()/f/image/lZkcFRP5EuESURXep8OPNbcL.jpg?f=fotoalbum_large

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • NosferatuX
  • Registratie: Oktober 2018
  • Niet online
DaniëlWW2 schreef op woensdag 9 augustus 2023 @ 22:36:
[...]


Uh in dit topic eens zoeken? :P
Er is iemand die heel wat ASRock Phanton Gamings heeft gehad...
Maar het punt met ASRock is dat je zomaar een exemplaar kan krijgen waarbij contact dus niet goed is. En dan komen we terug bij het aanraden van modellen. Hoe moet ik een nog steeds relatief nieuw merk in videokaarten aanraden als zulke dingen voorbij komen als er een meer betrouwbaar alternatief is?
1 persoon op 1 forum die deze problemen heeft gehad vind ik niet representatief genoeg om te kunnen zeggen dat er een bekend probleem is met de kaarten van een bepaald merk om eerlijk te zijn. Ik heb gezocht in dit topic en ik kan absoluut niet opmaken uit dit topic dat er een probleem is met specifiek kaarten van Asrock. Vandaar dat ik vroeg om meer info of eventueel links waaruit dit probleem blijkt.
Wel lullig voor dat persoon dat die zo een pech heeft gehad maar er is verder werkelijk echt helemaal niks bekend hierover op het hele internet voor zover ik kan vinden.

Ik bedoel als er echt een probleem zou zijn, zou er toch wel wat meer over te vinden moeten zijn lijkt mij
En als ik zoek op [insert random merknaam] + overheating dan heeft elk merk daar last van

[ Voor 9% gewijzigd door NosferatuX op 09-08-2023 23:03 ]

a frontpage moderation system, like on tweakers, controlled and abused by monkeys will be peanuts and means nothing but... peanuts.


Acties:
  • +1 Henk 'm!

  • CHKYBSTRD
  • Registratie: Augustus 2014
  • Laatst online: 16-09 16:13
NosferatuX schreef op woensdag 9 augustus 2023 @ 22:51:
[...]


1 persoon op 1 forum die deze problemen heeft gehad vind ik niet representatief genoeg om te kunnen zeggen dat er een bekend probleem is met de kaarten van een bepaald merk om eerlijk te zijn. Ik heb gezocht in dit topic en ik kan absoluut niet opmaken uit dit topic dat er een probleem is met specifiek kaarten van Asrock. Vandaar dat ik vroeg om meer info of eventueel links waaruit dit probleem blijkt.
Wel lullig voor dat persoon dat die zo een pech heeft gehad maar er is verder werkelijk echt helemaal niks bekend hierover op het hele internet voor zover ik kan vinden.

Ik bedoel als er echt een probleem zou zijn, zou er toch wel wat meer over te vinden moeten zijn lijkt mij
En als ik zoek op [insert random merknaam] + overheating dan heeft elk merk daar last van
Ik denk dat je de kaart gewoon moet bestellen en als deze bevalt ook qua temps dan is het toch goed. Zijn de temps niet goed, is er een gigantische coilwhine of er is een andere reden dan gebruik je gewoon je herroepingsrecht. ;) :)

Stay hungry, stay foolish!


  • CHKYBSTRD
  • Registratie: Augustus 2014
  • Laatst online: 16-09 16:13
Spacewide schreef op vrijdag 28 juli 2023 @ 21:16:
[...]


Als ik de PL op +15% zet haal ik de waardes die in de Adrenaline applicatie neerzet.
Laatste dirty test was bijvoorbeeld (maximaal)
Core: 3089mhz
Memory: 2850mhz
mV: lager dan 1070 lukt niet, maar die laat ik gewoon auto.

Temps tijdens 30min stresstest vandaag
50C op de core en 85C op de hotspot. Mijn waterblock maakt nog altijd geen mooi contact met de gpu die. Daar heb ik een hele thread voor gemaakt bij Alphacool. Los daarvan ben ik tevreden.

In de praktijk limiteer ik de meeste games met AMD Chill.
Weet je zeker dat het om de XT gaat en niet om de XTX ;) die van mij komt niet boven de 2750mhz uit tijdens gamen. Flink verschil ondanks dat ik een luchtkoeling heb.

Stay hungry, stay foolish!


Acties:
  • +1 Henk 'm!

  • Cigarguy
  • Registratie: Maart 2017
  • Laatst online: 22:42
DaniëlWW2 schreef op woensdag 9 augustus 2023 @ 22:36:
[...]


Uh in dit topic eens zoeken? :P
Er is iemand die heel wat ASRock Phanton Gamings heeft gehad...
Maar het punt met ASRock is dat je zomaar een exemplaar kan krijgen waarbij contact dus niet goed is. En dan komen we terug bij het aanraden van modellen. Hoe moet ik een nog steeds relatief nieuw merk in videokaarten aanraden als zulke dingen voorbij komen als er een meer betrouwbaar alternatief is?


[...]

Hoeveel mensen zullen nog een GTX1060 hebben omdat de prijzen te hoog waren? En als ik snel zou kijken, dan betwijfel ik of ik een goede vervanger voor minder dan €300 zou vinden. Menig RTX3060 12GB kost iets meer, maar eigenlijk is de RX6700XT de betere koop. Die is alleen ruim €350. Dat beschouw ik inmiddels als fatsoenlijke "instappers". Ik kan me nog herinneren hoe je daar een high end videokaart voor kocht...

Met deze prijzen zal PC gaming ook een kleine niche worden. Een niche van mensen die het kunnen betalen. Dat is al wat er gebeurd nu. Kijk alleen al naar RTX40. Het begint zowat pas bij de €600+ kostende RTX4070. De rest is gewoon slecht. Bij AMD komt N32 dan eindelijk. De enige GPU die misschien nog wat kan maken van deze generatie in het "lagere" segment is de RX7700XT 12GB. Maar ik vrees dat die makkelijk €400+ gaat zijn. De RX7800XT gaat denk ik helemaal wat worden. Dat is een midrange chip die in de 70 klasse hoort te zitten. Ik vrees dat €550 nog mee zou vallen...

De markt gaat hard op weg naar een lage volume luxe markt waar veel het gewoon niet meer kunnen betalen. En dat is best als je Nvidia bent, maar onbegrijpelijk als je AMD bent met je DIY CPU + moederbord segment dat voor een flink deel draait op gamers en dus ook GPU's. AMD is hier zelfs voor RTG standaarden, echt aan het falen...

Dat was voor mij ook de rationeel om me te laten "upsellen". Toen ik zag dat volle 60CU N32, de RX7800XT zou worden, deed ik meteen een snelle rekensom. Ik kan voor circa 2x sneller dan mijn RX5700XT gaan met de RX7800XT of ruim 2,5x sneller met de RX7900XT. Voor de vanuit mijn perspectief nog eens ruim 50% extra, betaal ik waarschijnlijk niet eens 1/3 meer. De verbeterde game ervaring die ik ermee bereik is er alleen wel.

Want nu kan ik wel RT aanzetten in games. Zelfs in Witcher 3 en Cyberpunk. Ik haal net 60fps met max RT (met FSR2) in the Witcher 3 met die totaal niet geoptimaliseerde RTXGI implementatie die voor geen meter draait op zo ongeveer alles dat geen RTX40 is. Helaas is de mod die de boel enorm optimaliseerde, stuk omdat de RTXGI unlocker al maanden niet geüpdatet is. In Cyberpunk met een RT optimalisatie mod haal ik nota bene nog steeds iets van 45fps (met FSR2) met full path tracing aan en 60fps+ met full RT. Die had ik snel getest, misschien zijn er zwaardere nog plekken waar het wat minder presteert, maar dat is behoorlijk. Eigenlijk beter dan gehoopt. :)

En uiteraard denk ik dat ik uiteindelijk RT ook uitzet in bijvoorbeeld Cyberpunk omdat het verschil in grafische kwaliteit ook niet die gigantische verlies in fps waard lijkt te zijn. Net zoals zoveel mensen voor me. :P

RT en FSR2 uit
[Afbeelding]

Psyco RT
[Afbeelding]

Psyco + shadows
[Afbeelding]

Full RT
[Afbeelding]

PT
[Afbeelding]
Ik kan mij niet meer herinneren hoe de 1060 3gb en 6gb kaarten zich verhouden toen deze gelanceerd werden in 2017, vergeleken met de huidige 4060 8gb en 16 gb

Als ik mij goed herinner deed een 3gb kaart zo'n 250 euro gemiddeld twee maanden na lancering en een 6gb kaart 350 euro. Ik heb zelf in 2017 niet gepiekerd over het 3 gb model, maar wat daar de beweegredenen voor waren weet ik niet meer.

Als ik nu een 1080P game systeem moet samen stellen ben ik minder centen (absoluut, niet inflatie gecorrgieerd) kwijt in 2017. Ja de videokaarten zijn wat duurder in het 4060 / 7600 segment, maar dat wordt ruimschoots gecompenseerd door de afgenomen prijs van opslag en intern geheugen.

Ergens is het wel bijzonder om te zien dat we in 2017 lang niet zo emotioneel waren over de hoge prijzen van opslag en intern geheugen :+ , terwijl veel dat wel zijn over videokaarten.

Voor de leuk; link naar de pc waar het over gaat. Deze pc is trouwens vorige week geupdate naar een Ryzen 5 5600, 32 gb ddr, een extra 2 tb ssd en een 4060 en draait naar volle tevredenheid van mijn broertje weer de nieuwste titels.

Ik wil de upsale technieken van Nvidia en AMD zeker niet goed praten. Ik houd zelf ook nog krampachtig vast aan mijn huidige systeem: link. Inmiddels wel een 2tb SSD erbij besteld.

TLDR: gamen op 1080P is zeker nog even betaalbaar als een aantal jaar geleden

iRacing Profiel


Acties:
  • +1 Henk 'm!

  • TMobile
  • Registratie: Augustus 2020
  • Laatst online: 18-09 13:55
Daniël en anderen, dank voor de toelichting.
Zelf heb ik 't oog op de Nitro+ of de MERC 310 Black, dus dat zit dan wel goed.

(Alleen jammer dat ik nu ook gelijk een nieuwe behuizing + cpu koeler + fans wil) :+

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Cigarguy schreef op donderdag 10 augustus 2023 @ 09:31:
[...]


Ik kan mij niet meer herinneren hoe de 1060 3gb en 6gb kaarten zich verhouden toen deze gelanceerd werden in 2017, vergeleken met de huidige 4060 8gb en 16 gb

Als ik mij goed herinner deed een 3gb kaart zo'n 250 euro gemiddeld twee maanden na lancering en een 6gb kaart 350 euro. Ik heb zelf in 2017 niet gepiekerd over het 3 gb model, maar wat daar de beweegredenen voor waren weet ik niet meer.

Als ik nu een 1080P game systeem moet samen stellen ben ik minder centen (absoluut, niet inflatie gecorrgieerd) kwijt in 2017. Ja de videokaarten zijn wat duurder in het 4060 / 7600 segment, maar dat wordt ruimschoots gecompenseerd door de afgenomen prijs van opslag en intern geheugen.

Ergens is het wel bijzonder om te zien dat we in 2017 lang niet zo emotioneel waren over de hoge prijzen van opslag en intern geheugen :+ , terwijl veel dat wel zijn over videokaarten.

Voor de leuk; link naar de pc waar het over gaat. Deze pc is trouwens vorige week geupdate naar een Ryzen 5 5600, 32 gb ddr, een extra 2 tb ssd en een 4060 en draait naar volle tevredenheid van mijn broertje weer de nieuwste titels.

Ik wil de upsale technieken van Nvidia en AMD zeker niet goed praten. Ik houd zelf ook nog klampachtig vast aan mijn huidige systeem: link. Inmiddels wel een 2tb SSD erbij besteld.

TLDR: gamen op 1080P is zeker nog even betaalbaar als een aantal jaar geleden
Toegegeven de GTX1060 6GB is misschien niet het beste voorbeeld. :)
Niet alleen vanwege de prijzen, maar ook omdat die nauwelijks sneller of echt goedkoper was dan de GTX970 de generatie ervoor. Maar de sprong van 3,5GB en 0,5GB langzaam naar 6GB was denk ik wel fijn.

Maar sindsdien is dat segment niet bepaald leuk geweest. De GTX1660 series boden bar weinig. De RX5600XT kwam laat en AMD heeft die launch ook aardig verprutst. De Ampere/RDNA2 generatie was drama en nu ben je aangewezen op afgeprijsde GPU's van de vorige generatie. Concreet de RTX3060 12GB en RX6700XT. Ironie is dat er voornamelijk veel N23 met 8GB en GA104 met 8GB GPU's zijn en juist N22 en GA106 met 12GB minder overvloedig lijkt te zijn. In theorie zou Nvidia nog steeds 16GB modellen van GA104 kunnen lanceren, maar dan kunnen ze eigenlijk ook meteen elke huidige RTX3060Ti/RTX3070/RTX3070Ti afschrijven.

Verder kregen de meeste videokaarten in 2017 wel een adequate hoeveelheid VRAM. Daar is nu geen sprake van. Afgezet tegen de prestatiepunten denk ik dat alleen de RTX4060Ti 16GB, de aankomende RX7800XT, RX7900XT, RX7900XTX, RTX4080 en RTX4090 tenminste adequaat te noemen zijn. De aankomende RX7700XT ligt denk ik echt aan de prijs.

Laatste is dat 1080p gaming inmiddels ook steeds meer naar de onderkant van de markt verschuift. Het kan, maar veel videokaarten zijn qua rekenkracht er behoorlijke overkill voor. Maar dan ga je naar 1440p en dan zit je al snel tegen een VRAM beperking aan. De balans is gewoon weg, zeker bij Nvidia.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • NosferatuX
  • Registratie: Oktober 2018
  • Niet online
Shit shit shitzel..
Echt prachtige kaart maar gaat niet passen.
Helaas gaat het niet lukken de radiator in mijn case naar boven te verplaatsen en kan dus geen ruimte vrijmaken voor de GPU |:(
Typisch weer, had moeten passen in deze case maarja. Voor nu moet ie dus even retour want kan hem niet uitproberen en geen idee hoe lang het puzzelen mbt een nieuwe case of cooling gaat duren, dat zou dus allemaal van de zicht termijn afgaan ;(

Maarreh, deze kaart is echt mooi

Afbeeldingslocatie: https://tweakers.net/i/A8eRO0lS5bJQdZWX9uf9k5qw8q4=/800x/filters:strip_icc():strip_exif()/f/image/37EEUIkxctX4d71hUITnowNp.jpg?f=fotoalbum_large

a frontpage moderation system, like on tweakers, controlled and abused by monkeys will be peanuts and means nothing but... peanuts.


  • NinjaKiwiNL
  • Registratie: November 2007
  • Laatst online: 23:25

NinjaKiwiNL

Xbox Tag - NinjaKiwiNL

NosferatuX schreef op donderdag 10 augustus 2023 @ 16:57:
Shit shit shitzel..
Echt prachtige kaart maar gaat niet passen.
Helaas gaat het niet lukken de radiator in mijn case naar boven te verplaatsen en kan dus geen ruimte vrijmaken voor de GPU |:(
Typisch weer, had moeten passen in deze case maarja. Voor nu moet ie dus even retour want kan hem niet uitproberen en geen idee hoe lang het puzzelen mbt een nieuwe case of cooling gaat duren, dat zou dus allemaal van de zicht termijn afgaan ;(

Maarreh, deze kaart is echt mooi

[Afbeelding]
Wat enorm jammer dat die niet past! Mooiste kaart in de hele 7900 lijn imo! Stiekem wel met schuin oog naar zitten kijken vanwege mijn white build.

Maar ik denk dat ik toch naar Nvidia gaat kijken. Ik doe nu nog alleen photo editing, maar ik wil in de toekomst erg graag over gaan naar video. Ik lees echt veel gedoe over met AMD kaarten, crashes, langzaam ect. Maar ervaringen variëren enorm op internet. Ik zou het enorm jammer vinden om dan tegen deze dingen aan te lopen, en dan spijt hebben.

| Canon EOS R | Canon 24-70mm F2.8L | Canon 85mm f1.2 | Laowa 100mm f2.8 |


Acties:
  • +1 Henk 'm!

  • NosferatuX
  • Registratie: Oktober 2018
  • Niet online
NinjaKiwiNL schreef op donderdag 10 augustus 2023 @ 17:27:
[...]


Wat enorm jammer dat die niet past! Mooiste kaart in de hele 7900 lijn imo! Stiekem wel met schuin oog naar zitten kijken vanwege mijn white build.

Maar ik denk dat ik toch naar Nvidia gaat kijken. Ik doe nu nog alleen photo editing, maar ik wil in de toekomst erg graag over gaan naar video. Ik lees echt veel gedoe over met AMD kaarten, crashes, langzaam ect. Maar ervaringen variëren enorm op internet. Ik zou het enorm jammer vinden om dan tegen deze dingen aan te lopen, en dan spijt hebben.
Ja baal als een stekker. Wordt duur grapje om een beetje een mooie nieuwe witte case te vinden. Zit al even te kijken naar een lian li o11 Evo.. Daar moeten dan natuurlijk ook die uni fans bij.. pfff lol.

Ik zat ook te twijfelen tussen een 4080 of een 7900 xtx. Inmiddels is qua gaming de XTX gewoon sneller in zo goed als alle games maar ook ik wil er productivity mee doen. Video inderdaad maar ook Ai image generation.
Daar wordt het wat ingewikkeld. Video editing doe ik tot nu toe met premiere maar gebruik voornamelijk de CPU voor zover ik weet (12 cores) Maar gebruik dit niet professioneel

Mbt Ai image generation, op stable diffusion met SHARK zit de performance van een XTX heel dicht bij een 4090 en dat ook op gewoon windows dus geen linux. Tot nu toe wel met een paar limitaties is mij verteld maar qua snelheid dus zeer goed.
Een 4090 qua prijs vind ik te veel en dan, mbt Ai, is die 24GB van de XTX veel interessanter tegenover 16GB van een 4080. Om modellen te trainen maar ook om hogere resoluties te genereren.

Ook is vorige maand ROCm op windows gelanceerd, wat betekend dat er heel veel support kan komen voor software toepassingen. Er kan dan als het ware "cuda" op AMD kaarten gebruikt worden. Niet direct maar er vind dan een soort vertaling plaats. Het zal waarschijnlijk niet zo snel als bij Nvidia worden maar vele malen sneller dan nu.

Ook voor andere Ai toepassingen kan dit zeer interessant zijn. Vandaar dat de keuze toch voor een 7900 XTX was gevallen ipv een 4080, met het oog op de toekomst. Indien een 4090 voor mij het waard zou zijn, dan zou ik die gekozen hebben.

En nu ik er over nadenk terwijl ik dit type, hoe ver zit ik straks van de goedkoopste 4090 af als ik mijn hele case moet geen upgraden.. hmmm ojeej...lol

Edit
Even gekeken. 4090 dan nog steeds geen optie, gelukkig :)

a frontpage moderation system, like on tweakers, controlled and abused by monkeys will be peanuts and means nothing but... peanuts.


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Hoeveel mm is die ASRock te lang? Want ik zie dat die 345mm is, de uitvoering: Powercolor Radeon RX 7900 XTX HellHound Spectral White 24GB is 338mm en de uitvoering: Sapphire Nitro+ AMD Radeon RX 7900 XTX Vapor-X 24GB is 320mm. De Powercolor is niet veel korter, maar Nitro+ past misschien nog wel. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

NosferatuX schreef op woensdag 9 augustus 2023 @ 19:45:
[...]


Hmm met een 3080 heb ik in Destiny 2 toen ik dat speelde echt de meest smoothest gameplay gehad. Ook met WoW geen enkel probleem. Op een gsync premium compatible monitor dat wel.
Die andere games geen ervaring mee maar als ik jou ervaring zo hoor is het een beetje afwisselend tussen Nvidia en AMD dus per game.

De conclusie mbt de "slechtere" frame times trok ik na het zien van 7900xtx vs 4080/4090 reviews met onscreen stats. Met name die van Daniel Owen die echt goede vergelijking videos maakt de laatste tijd..

Dat geflikker had ik trouwens ook met mijn vorige monitor die ik gebruikte, die had geen gysnc compatible/premium status. Het werkte toen wel met mijn nvidia kaart maar idd met geflikker, vooral op grijze scenes merkbaar
Misschien heeft Bungie dat na verloop van tijd verbeterd? Bij de uitgave waren er veel problemen met een beruchte pvp map dat bekend stond om voor veel hapering te zorgen. Ik had destijds nog een MSI 1080Ti en quadcore CPU.

Met de opvolgende DLC Beyond Light hadden ze er een regelrechte puinhoop van gemaakt. Als ik het mij goed herinner, was de regressie deels te wijten aan het feit dat de cpu multicore ondersteuning uit was geschakeld, omdat het simpelweg te buggy was (aan een octacore had je dus niets). Via een omweg was het wel aan te zetten, maar dan gebeurde er gekke dingen met de textures.

Ik weet trouwens niet hoe gevoelig je bent voor microstutters? Tussen VRR en V-sync merk ik bijvoorbeeld wel een verschil in hoe rustig een beeld oogt. Dat is met v-sync perfect en met VRR kan het onrustig zijn (hangt sterk af van de kwaliteit van de game, minder frametime spikes = rustiger beeld).
Maar ik vermoed dat het eerder om de onderbrekingen / micro haperingen te doen is.

De helderheids flikkerringen zijn trouwens gewoon een achilles hiel van VA schermen en dat komt nog meer tot uiting met hoge refresh panelen. Het is een gevolg van interupties in de frametimes.
Het ligt dus niet aan Freesync zelf. Maar aan de paneel technologie + brakke game en het feit dat de Freesync implementatie (driver) van Nvidia bizar slecht is. Een IPS, TN of OLED scherm zijn niet gevoelig voor dit probleem.

Met de LG 35WN65C + AMD kaart heb ik gelukkig maar weinig last van geflikker omdat het 'maar' een 100Hz scherm is. Freesync werkt daarbij perfect met kwalitatief goede spellen en bij gortige frametime onderbrekingen resulteert het alleen in een lichte flikkering.

  • NosferatuX
  • Registratie: Oktober 2018
  • Niet online
DaniëlWW2 schreef op donderdag 10 augustus 2023 @ 19:05:
Hoeveel mm is die ASRock te lang? Want ik zie dat die 345mm is, de uitvoering: Powercolor Radeon RX 7900 XTX HellHound Spectral White 24GB is 338mm en de uitvoering: Sapphire Nitro+ AMD Radeon RX 7900 XTX Vapor-X 24GB is 320mm. De Powercolor is niet veel korter, maar Nitro+ past misschien nog wel. :)
Als hij een halve centimeter korter was, had ie gepast maar dan zou hij alsnog wel erg dicht tegen de radiator aan zitten (intake). Ik wilde dus sowieso de radiotor naar top mounten in de case maar dat kan helemaal niet blijkbaar.
Mijn huidige GPU zit wel gewoon zo er in maar dat is zo een koele kikker die heeft nergens last van, ook niet van een relatief warme lucht die uit de radiator komt maar ik denk dat een 450w 7900 XTX daar wel wat gevoelig voor is.
De NITRO zou wel passen, die is net zo lang als mijn huidige kaar maar die is niet wit :)

En om heel eerlijk te zijn nu deze Taichi in levende lijve gezien te hebben moet ik zeggen dat ie wel erg mooi is.

De Nitro is ook weer minstens 100 euro meer geloof ik
CMT schreef op donderdag 10 augustus 2023 @ 19:11:
[...]


Misschien heeft Bungie dat na verloop van tijd verbeterd? Bij de uitgave waren er veel problemen met een beruchte pvp map dat bekend stond om voor veel hapering te zorgen. Ik had destijds nog een MSI 1080Ti en quadcore CPU.

Met de opvolgende DLC Beyond Light hadden ze er een regelrechte puinhoop van gemaakt. Als ik het mij goed herinner, was de regressie deels te wijten aan het feit dat de cpu multicore ondersteuning uit was geschakeld, omdat het simpelweg te buggy was (aan een octacore had je dus niets). Via een omweg was wel het aan te zetten, maar dan gebeurde er gekke dingen met de textures.

Ik weet trouwens niet hoe gevoelig je bent voor microstutters? Tussen VRR en V-sync merk ik bijvoorbeeld wel een verschil in hoe rustig een beeld oogt. Dat is met v-sync perfect en met VRR kan het onrustig zijn (hang sterk van de kwaliteit van de game, minder frametime spikes = rustiger beeld).
Maar ik vermoed dat het eerder om de onderbrekingen / micro haperingen te doen is.

De helderheids flikkerringen zijn trouwens gewoon een achilles hiel van VA schermen en dat komt nog meer tot uiting met hoge refresh panelen. Het is een gevolg van interupties in de frametimes.
Het ligt dus niet aan Freesync zelf. Maar aan de paneel technologie + brakke game en het feit dat de Freesync implementatie (driver) van Nvidia bizar slecht is. Een IPS, TN of OLED scherm zijn niet gevoelig voor dit probleem.

Met de LG 35WN65C + AMD kaart heb ik gelukkig maar weinig last van geflikker omdat het 'maar' een 100Hz scherm is. Freesync werkt daarbij perfect met kwalitatief goede spellen en bij gortige frametime onderbrekingen resulteert het alleen in een lichte flikkering.
Ik heb Destiny eigenlijk alleen even in het begin gespeeld, geen DLC dus als die belabberd was zou dat best kunnen inderdaad :)
Ik heb nu een LG UltraGear 38GN950, die heeft Freesync Premium Pro en is Gsync compatible, daar had ik met Nvidia ook geen last van mbt flikkering.
Daarvoor had ik even een goedkope VA, die had daar wel last van maar die had ook geen Gsync compatible certificering van Nvidia gekregen.

Er zijn echter wel een paar VA monitoren die een Gsync compatible certificering hebben gekregen, die zouden dat nooit krijgen wanneer ze flikkeren denk ik .. dus het moet wel kunnen op VA maar die zijn op een handje te tellen denk ik. De VA modellen met Gsync module zullen sowieso nooit flikkeren, dat weet ik wel zeker

Ik had specifiek voor de monitor die ik nu heb gekozen omdat ook niet meer afhankelijk wilde zijn hardware matige gsync en ik moet zeggen het beter werkt dan op mijn monitor met ingebouwde gsync module, dat verbaasde me wel maar in mijn ervaring werkt het dus perfect, beter zelfs als de hardware matige versie :+

a frontpage moderation system, like on tweakers, controlled and abused by monkeys will be peanuts and means nothing but... peanuts.


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

NosferatuX schreef op donderdag 10 augustus 2023 @ 19:36:
[...]


Als hij een halve centimeter korter was, had ie gepast maar dan zou hij alsnog wel erg dicht tegen de radiator aan zitten (intake). Ik wilde dus sowieso de radiotor naar top mounten in de case maar dat kan helemaal niet blijkbaar.
Mijn huidige GPU zit wel gewoon zo er in maar dat is zo een koele kikker die heeft nergens last van, ook niet van een relatief warme lucht die uit de radiator komt maar ik denk dat een 450w 7900 XTX daar wel wat gevoelig voor is.
De NITRO zou wel passen, die is net zo lang als mijn huidige kaar maar die is niet wit :)

En om heel eerlijk te zijn nu deze Taichi in levende lijve gezien te hebben moet ik zeggen dat ie wel erg mooi is.

De Nitro is ook weer minstens 100 euro meer geloof ik
Oh niet nog eens €100 willen betalen kan ik ook begrijpen. Dat is ook mede de reden waarom ik een Sapphire Pulse RX7900XT heb en niet een XFX, Nitro+ of een Powercolor Hellhound.
Maar als je nog 5mm nodig hebt, dan past de Powercolor toch net wel? :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • NosferatuX
  • Registratie: Oktober 2018
  • Niet online
DaniëlWW2 schreef op donderdag 10 augustus 2023 @ 19:46:
[...]


Oh niet nog eens €100 willen betalen kan ik ook begrijpen. Dat is ook mede de reden waarom ik een Sapphire Pulse RX7900XT heb en niet een XFX, Nitro+ of een Powercolor Hellhound.
Maar als je nog 5mm nodig hebt, dan past de Powercolor toch net wel? :)
Die zou wellicht net passen maar ik denk dat ik dan een "kwalitatief mindere" (aanname) GPU heb en relatief warme lucht uit de radiator in een 7900 XTX blazen lijkt me ook geen goed plan, ook al werkt dat met mijn huidige gewoon goed. De airflow omdraaien voelt ook weer niet goed :P Dan zou ik eerder voor die Nitro kiezen maar die past visueel niet zo goed omdat ik bijna een gehele witte build heb.

Heb op zich wel een leuke case gevonden die is ongeveer net zo duur als het verschil tussen de taichi en de nitro momenteel en dan blijft alles wat wit is wit nu. Alleen geen zin om alles om te zetten, zucht

[ Voor 12% gewijzigd door NosferatuX op 10-08-2023 20:24 ]

a frontpage moderation system, like on tweakers, controlled and abused by monkeys will be peanuts and means nothing but... peanuts.


  • NosferatuX
  • Registratie: Oktober 2018
  • Niet online
Ik zou eventueel voor de Nitro kiezen puur uit luiheid om niet te hoeven gaan kloten met me build verder.
Maar die kaart kruipt qua prijs elke dag weer omhoog terwijl andere flagships dalen.
Toen de Nitro 1099 was, was de taichi 1200-1300 geloof ik. Nu de Taichi 1059 is gaat de nitro weer richting de 1200. Vermoeiend haha.

a frontpage moderation system, like on tweakers, controlled and abused by monkeys will be peanuts and means nothing but... peanuts.


  • NosferatuX
  • Registratie: Oktober 2018
  • Niet online
DIT zou dus perfect zijn maar hier is er maar 1 van en niet te koop.

Afbeeldingslocatie: https://tweakers.net/i/iWS7iiz5NOZFT4E7perXdevYvig=/800x/filters:strip_exif()/f/image/V22zYN2UXtyNbrW2PBmpg9vc.png?f=fotoalbum_large

a frontpage moderation system, like on tweakers, controlled and abused by monkeys will be peanuts and means nothing but... peanuts.


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

NinjaKiwiNL schreef op donderdag 10 augustus 2023 @ 17:27:
[...]


Wat enorm jammer dat die niet past! Mooiste kaart in de hele 7900 lijn imo! Stiekem wel met schuin oog naar zitten kijken vanwege mijn white build.

Maar ik denk dat ik toch naar Nvidia gaat kijken. Ik doe nu nog alleen photo editing, maar ik wil in de toekomst erg graag over gaan naar video. Ik lees echt veel gedoe over met AMD kaarten, crashes, langzaam ect. Maar ervaringen variëren enorm op internet. Ik zou het enorm jammer vinden om dan tegen deze dingen aan te lopen, en dan spijt hebben.
Ik zou eerder kijken welke software je nu precies wil gebruiken en dan kijken wat de huidige status ervan is.
Het is gewoon de realiteit dat AMD niet zo breed ondersteund is als Nvidia. Dat veranderd wel, maar het is een langzaam proces. Werken je applicaties met Radeon, geweldig. Is het niet zo, helaas ben je dan vendor locked. Wachten/hopen dat het opeens wel snel zal gaan werken, zou ik niet doen. Ik volg dit al sporadisch wat jaren en het gaat niet zo snel als je zou hopen.

Verder wil ik ook gezegd hebben dat voor specifiek video rendering en nogal wat onzin rond lijkt te gaan. Het was zeker voor RDNA3 niet zo goed als Nvidia in encoder performance, maar ik lees bijvoorbeeld nooit eens wat over ReLive. Daar kan je wel wat mee.

Dit is denk ik ook een aardige overzicht van een aardige zuurpruim als het om AMD gaat. :P
Komt bij dat DaVinci Resolve inmiddels ook RDA3 AVI ondersteunt. :)

Verder zou Hardware Unboxed binnenkort blijkbaar met een vergelijking van AMD en Nvidia driver software komen. Dit mede omdat ze recentelijk voor hun eigen editing juist naar RDNA3 zijn overgestapt omdat ze constant problemen ervaarden met monitor connectie (flikkerende schermen) met RTX40.

Laatste is dat het ook wel een intersante tijd gaat worden. Nvidia zet natuurlijk vol in op AI features die op hun tensor cores draaien, in hun gesloten CUDA ecosysteem. AMD heeft daarentegen Xilinx nu echt overgenomen. En in video encoding is dat een heel ander niveau dan een GPU met een encoder erbij. Xilinx is een van de grootste leveranciers van server grade FPGA's, waaronder voor encoding, ook voor Amazon. De backend van Twitch of Amazon Prime Video kan zomaar wel eens voor een flink deel draaien op Xilinx oplossingen. De tolerantie voor incompatibiliteit of instabiliteit van software, zal daar nada zijn.
Zie: https://www.xilinx.com/ap...center/video-imaging.html

Nu is het de RTG en kunnen ze deze kans alsnog compleet verprutsen. Maar ik mag toch hopen dat er nu echt wat slagkracht gaat komen voor Radeon based encoding. Hardware lijkt inmiddels wel goed genoeg, driver software ook, nu nog integratie in alle video editors en dedicated performance enhancements introduceren. Maar geen garanties want het is en blijft de RTG. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • NosferatuX
  • Registratie: Oktober 2018
  • Niet online

a frontpage moderation system, like on tweakers, controlled and abused by monkeys will be peanuts and means nothing but... peanuts.


Acties:
  • +1 Henk 'm!

  • CHKYBSTRD
  • Registratie: Augustus 2014
  • Laatst online: 16-09 16:13

Stay hungry, stay foolish!


  • NosferatuX
  • Registratie: Oktober 2018
  • Niet online
die is zeker nice! gaat AMD die zelf verkopen?
Oh.. not for sale.. Die gaan naar streamers waarschijnlijk

[ Voor 6% gewijzigd door NosferatuX op 10-08-2023 23:27 ]

a frontpage moderation system, like on tweakers, controlled and abused by monkeys will be peanuts and means nothing but... peanuts.


Acties:
  • +1 Henk 'm!
NosferatuX schreef op donderdag 10 augustus 2023 @ 19:36:
Ik heb Destiny eigenlijk alleen even in het begin gespeeld, geen DLC dus als die belabberd was zou dat best kunnen inderdaad :)
Ik heb nu een LG UltraGear 38GN950, die heeft Freesync Premium Pro en is Gsync compatible, daar had ik met Nvidia ook geen last van mbt flikkering.
Daarvoor had ik even een goedkope VA, die had daar wel last van maar die had ook geen Gsync compatible certificering van Nvidia gekregen.

Er zijn echter wel een paar VA monitoren die een Gsync compatible certificering hebben gekregen, die zouden dat nooit krijgen wanneer ze flikkeren denk ik .. dus het moet wel kunnen op VA maar die zijn op een handje te tellen denk ik. De VA modellen met Gsync module zullen sowieso nooit flikkeren, dat weet ik wel zeker

Ik had specifiek voor de monitor die ik nu heb gekozen omdat ook niet meer afhankelijk wilde zijn hardware matige gsync en ik moet zeggen het beter werkt dan op mijn monitor met ingebouwde gsync module, dat verbaasde me wel maar in mijn ervaring werkt het dus perfect, beter zelfs als de hardware matige versie :+
Ah kijk, de LG 38GN950 is een IPS scherm :). Ik heb zelf nooit een G-sync monitor gehad, maar geloof dat het beter zal werken met een G-sync uitgeruste VA scherm. Het voordeel van G-sync was dat de variable overdrive, wat mogelijk het probleem kan verminderen.
Aan andere kant geeft een monitor met G-sync vaak een slechter contrast, dus het paneel gaat ook niet helemaal 'uit' bij het weergeven van zwart. Dat verminderd evt.VA flikkering ook.

Ik heb even getwijfeld om een het QD-Oled scherm te halen van Alienware, om zo toch van Freesync te kunnen genieten, maar dat model schijnt weer geplaagd te zijn met flinke coilwhine.
Op dit moment zit ik dus erg te tobben om wel of niet voor een 7900XTX te gaan.
De winst ten opzichte van een RX6900XT is zo mager, wanneer het vermogen gelijk getrokken wordt.

Acties:
  • +4 Henk 'm!

  • Wolfp4ck
  • Registratie: April 2018
  • Laatst online: 15-09 15:19
Dat is ook de reden waarom ik mij een renault heb gekocht in plaats van een Ferrari, ik dacht, pffff.... als het vermogen gelijk getrokken wordt is het enkel de aerodynamica dat misschien nog iets van verschil maakt ;)
Beter het vermogen niet nodig hebben maar toch hebben dan het ooit nodig hebben en niet hebben

Acties:
  • 0 Henk 'm!

  • CHKYBSTRD
  • Registratie: Augustus 2014
  • Laatst online: 16-09 16:13
NosferatuX schreef op donderdag 10 augustus 2023 @ 23:26:
[...]


die is zeker nice! gaat AMD die zelf verkopen?
Oh.. not for sale.. Die gaan naar streamers waarschijnlijk
Helaas wordt dat heel moeilijk idd, komt wel iets van een winactie dacht ik te lezen.

Aanvulling:
Het gaat om gelimiteerde oplages van de Radeon RX 7900 XTX , 500 stuks , die niet te koop zullen worden aangeboden. In plaats daarvan worden ze onder meer verloot op de QuakeCon-beurs, die van 10 tot 13 augustus loopt in Texas.

[ Voor 29% gewijzigd door CHKYBSTRD op 11-08-2023 12:50 ]

Stay hungry, stay foolish!


Acties:
  • 0 Henk 'm!

  • Skyline GT-R
  • Registratie: Januari 2004
  • Laatst online: 08-09 08:43
Is dat niet gelijkaardig aan die RX 6900 XT Halo kaarten?

Acties:
  • +1 Henk 'm!
Wolfp4ck schreef op vrijdag 11 augustus 2023 @ 08:57:
Dat is ook de reden waarom ik mij een renault heb gekocht in plaats van een Ferrari, ik dacht, pffff.... als het vermogen gelijk getrokken wordt is het enkel de aerodynamica dat misschien nog iets van verschil maakt ;)
Beter het vermogen niet nodig hebben maar toch hebben dan het ooit nodig hebben en niet hebben
Je hebt mijn dag gemaakt, helemaal mee eens hoor :P. Puntje is wel dat de RX6900XT omgetoverd kan worden in een Ferrari of naja misschien een Dodge muscle car die wel power heeft, maar niet vooruit te branden is ^^.

Acties:
  • 0 Henk 'm!

  • DannyXP1600
  • Registratie: Januari 2002
  • Laatst online: 01:06
CMT schreef op vrijdag 11 augustus 2023 @ 16:56:
[...]

Je hebt mijn dag gemaakt, helemaal mee eens hoor :P. Puntje is wel dat de RX6900XT omgetoverd kan worden in een Ferrari of naja misschien een Dodge muscle car die wel power heeft, maar niet vooruit te branden is ^^.
Ah, jij hebt nog nooit met een muscle car gereden.
Een muscle car is snel.
Rechtdoor.

Acties:
  • 0 Henk 'm!

  • Tweakriez
  • Registratie: April 2013
  • Laatst online: 01:00

Tweakriez

clicksmashstuff.com

TMobile schreef op donderdag 10 augustus 2023 @ 14:43:
Daniël en anderen, dank voor de toelichting.
Zelf heb ik 't oog op de Nitro+ of de MERC 310 Black, dus dat zit dan wel goed.

(Alleen jammer dat ik nu ook gelijk een nieuwe behuizing + cpu koeler + fans wil) :+
Nitro+ hier, geweldige kaart. Prachtig design en super stil. Heeft als extra's een rgb connector om rgb te syncen met bijvoorbeeld led lights in de kast en een ventilator aansluiting om de fans te laten opspinnen als de casefans dit doen.

Afbeeldingslocatie: https://tweakers.net/i/tWrlLgCzEYZl2KWbwBz1RXtC52w=/800x/filters:strip_icc():strip_exif()/f/image/uldOX1qJ0wxgORjL4BLH8yIb.jpg?f=fotoalbum_large

Acties:
  • +1 Henk 'm!

  • bas1986
  • Registratie: December 2005
  • Laatst online: 03-06 10:13
Vraagje. Ik heb een 7900xtx gekocht. De heeft 3x een 8 pin pcie nodig:

Afbeeldingslocatie: https://tweakers.net/i/TvRFPIFoBvr3ESsVDXAkDHgVYhI=/x800/filters:strip_icc():strip_exif()/f/image/Q2pPeY3d3xpWAV5rnsOywUHu.jpg?f=fotoalbum_large

Mij voeding heeft dit 2x pcie en 1x een 600w 12+4 pin. Krijg ik de videokaart ooit met deze voeding aangesloten?

Afbeeldingslocatie: https://tweakers.net/i/bLfq0eJnuVCxV8HTIjE93vCjUSQ=/x800/filters:strip_icc():strip_exif()/f/image/CgmlgATmS3By74BYopckM8qT.jpg?f=fotoalbum_large

Volgens mij is optie 3 niet supported voor deze videokaart en moet hij 3x los hebben:

Afbeeldingslocatie: https://tweakers.net/i/VNxI982PaEwDqE7wLOwzq75mI9M=/x800/filters:strip_icc():strip_exif()/f/image/sdG2ACG2LcrAs7nSE21Kq3DC.jpg?f=fotoalbum_large

[ Voor 19% gewijzigd door bas1986 op 12-08-2023 16:43 ]


Acties:
  • 0 Henk 'm!

  • Cowamundo
  • Registratie: September 2013
  • Laatst online: 28-08 17:33
@bas1986
Als ik zo naar de 3e afbeelding kijk zou je één stekker met 2x 6+2 en één stekker met 1x 6+2 moeten hebben die je beide in een PCIe van je voeding (A+B) kan steken?

Acties:
  • +1 Henk 'm!

  • Spacewide
  • Registratie: Oktober 2006
  • Laatst online: 16-09 17:45
Op de A.) daisychain 2x pcie en op B.) een enkele pcie.

De meesten zullen het afraden, maar dat lukt vast wel. Welke voeding heb je dan?

Acties:
  • 0 Henk 'm!

  • bas1986
  • Registratie: December 2005
  • Laatst online: 03-06 10:13
Cowamundo schreef op zaterdag 12 augustus 2023 @ 17:15:
@bas1986
Als ik zo naar de 3e afbeelding kijk zou je één stekker met 2x 6+2 en één stekker met 1x 6+2 moeten hebben die je beide in een PCIe van je voeding (A+B) kan steken?
Klopt, qua bekabeling kan het idd wel, maar of het gesupport is ?

Acties:
  • 0 Henk 'm!

  • bas1986
  • Registratie: December 2005
  • Laatst online: 03-06 10:13
Spacewide schreef op zaterdag 12 augustus 2023 @ 17:17:
Op de A.) daisychain 2x pcie en op B.) een enkele pcie.

De meesten zullen het afraden, maar dat lukt vast wel. Welke voeding heb je dan?
be quiet! Pure Power 12 M power supply unit 850 W 20+4 pin ATX ATX Zwart

Acties:
  • +1 Henk 'm!

  • Lanfear89
  • Registratie: Juli 2012
  • Niet online
Spacewide schreef op zaterdag 12 augustus 2023 @ 17:17:
Op de A.) daisychain 2x pcie en op B.) een enkele pcie.

De meesten zullen het afraden, maar dat lukt vast wel. Welke voeding heb je dan?
Met zo'n daisychain heb ik ook enkele maanden mijn 7900 xtx gedraaid. Gedeeltelijk omdat ik moest wachten op kabels van cablemod, maar voornamelijk ook omdat de naaiballen maar 2 kabels met de PSU mee hadden geleverd.
Het referentiemodel gebruikt 2 PCIe aansluitingen, van wat ik vernomen heb is deze 3e over het algemeen meer voor wat betere stabiliteit etc.

Acties:
  • +1 Henk 'm!

  • YaNightmare
  • Registratie: Augustus 2006
  • Laatst online: 19-09 19:10
bas1986 schreef op zaterdag 12 augustus 2023 @ 17:29:
[...]

Klopt, qua bekabeling kan het idd wel, maar of het gesupport is ?
Ik heb precies dezelfde videokaart en voeding, ik heb hem aangesloten met 1x daisy chain en 1 x direct.

Geen enkel probleem, super stabiel en ook op langdurige volle load.

Wat ik online had gevonden is voornamelijk de reden om niet teveel de kabels te belasten, maar de kaart trekt Max 400W en de totale aansluiting over 2x Pcie kan 600 hebben.

Acties:
  • +2 Henk 'm!

  • bas1986
  • Registratie: December 2005
  • Laatst online: 03-06 10:13
Bedankt @YaNightmare @Lanfear89 @Spacewide @Cowamundo voor de tips. Heb hem nu als aangesloten met 1 Daisy chain en 1 direct.

Acties:
  • +2 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 16:49
bas1986 schreef op zaterdag 12 augustus 2023 @ 20:08:
Bedankt @YaNightmare @Lanfear89 @Spacewide @Cowamundo voor de tips. Heb hem nu als aangesloten met 1 Daisy chain en 1 direct.
Zo draait mijn xfx xtx ook, werkt prima al 8 maanden bijna.

Acties:
  • +2 Henk 'm!

  • NosferatuX
  • Registratie: Oktober 2018
  • Niet online
Volgens mij hoeft het, als je een goede PSU hebt, echt geen probleem te zijn
Ik heb al 10 jaar een Corsair AX860i platinum die al dik 4/5 builds mee gaat en daar hebben GPUs aan 1 kabel aangehangen met twee connectoren dus 1 daisy en totaal geen verschil, ook geen probleem met max powerlimit etc

a frontpage moderation system, like on tweakers, controlled and abused by monkeys will be peanuts and means nothing but... peanuts.


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Inmiddels denk ik dat ik redelijk tevreden ben met mijn UV profielen.
Ik speel ook graag oudere games en ik heb nog een back log, waarvoor de RX7900XT op zijn zachts gezegd wat excessief is. :P

Verder weet ik maar al te goed dat framerate caps zo mooi klinken, maar of ze ook werken is een tweede.
Dus ik heb twee profielen gemaakt. De eerste is -10% PL, max 2450MHz en uiteindelijk 1055mv. -10% PL komt nog steeds neer op 280-285W als weergeven waarde. Maar bijvoorbeeld 2550MHz proberen, zorgt niet voor een hoger verbruik of hogere fps, waardoor ik vrij zeker weet dat het wel een vermogenslimiet is.

Vervolgens 1050mv leek stabiel totdat Witcher 3 nee zei. Het blijft bijzonder dat je meerdere stresstests kan draaien en het in de game in een paar minuten alsnog kan crashen. 1055mv lijkt dat opgelost te hebben. Resultaat is in Time spy een redelijke 21500 met 25600 graphics en 11250 voor de 5800X3D. Gemiddelde zou iets van 22100 Time spy score zijn voor een dergelijk systeem, dus zeker niet verkeerd. Want wel mooi 45-50W eraf van de 330W TPD bios en een betere fancurve. Verder qua hotspot moet ik moeite doen om die 15C boven edge te krijgen. En ver in de 70C kom ik niet. Deze RX7900XT is koeler dan mijn RX5700XT. :)

Tweede profiel is een leuke. :P
Ik was eens gaan kijken met 2250MHz om te zien hoe ver ik kon komen qua voltage. Ik ben gestopt bij 750mv omdat het nog steeds stabiel is. Qua verbruik varieert het van 210-250W en per applicatie. Ook interessant dat hier de uitgelezen circa 730mv wel klopt, maar bij dat andere profiel waar het vaak rond de 800mv zou zitten, tja daar lijkt weinig van de kloppen. Qua scores is het nu 20380 Time Spy met 23900 Graphics en 11100 voor de 5800X3D. Zeker een verschil, maar de GPU zit nu veel meer in een efficienter punt zonder al te veel verlies.

Ga misschien nog eens kijken wat 2300MHz en 2350MHz doen, maar in principe is dit ruim afdoende voor veel games. Zeker omdat je hier al snel naar 100W minder kijkt dan die 330W TDP bios. En qua prestatieverlies is het 7% op dat andere profiel. Op de default verlies ik misschien 10%. Dat is niet zoveel als ik het afzet tegen hoeveel lager het verbruik is.


Maar bij mij komt wel weer een gedachte op van hoever is AMD niet gegaan om nog een beetje clock speed uit N31 te halen? Want bij mij blijft de gedachte terugkomen wat als AMD zowel de RX7900XT als RX7900XTX op 2400MHz had afgesteld met lagere voltages, hoeveel efficienter waren ze dan niet geweest voor een paar procent prestatieverlies? Ja de RX7900XTX zou dan nipt van de RTX4080 verloren hebben en de RX7900XT zou eerder gelijkwaardig zijn aan de RTX4070Ti, maar wat maakt het verder uit? Want nu is de perceptie weer gezet dat Radeon inefficiënt is voor een paar procent prestatiewinst.

Ik kan gewoon die gedachte niet kwijtraken hoe erg AMD dit heeft verknalt. Als ze de videokaarten nu de RX7800XT ($750) en RX7970XT ($1000) hadden genoemd, dan was het marketingtechnisch zoveel beter geweest. De RX7900XT is vanwege haar 20GB VRAM gewoon beter dan de RTX4070Ti. Het hele punt van de RTX4070Ti is RT wat veel VRAM kost. De RX7900XTX is vervolgens weer zo'n aparte naam waardoor bijna niemand het kan volgen. Maar de RX7970XT zou meteen nostalgische gevoelens opwekken naar een zeer goede videokaart van ruim tien jaar geleden. Zo definieer je ook geen beoogt prestatiedoel of waardeoordeel tegenover de RTX4080 of RTX4090.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Azerox
  • Registratie: Mei 2009
  • Laatst online: 11-09 23:39
Ik heb afgelopen weekend mijn 7900xtx reference voorzien van (wederom) nieuwe koelpasta en deze keer ook alle thermal pads en putty met nieuwe putty vervangen. Wat een verschil! Ik had eerder al de gpu voorzien van een nieuw laagje kryonaut maar na enkele weken kreeg ik last van het pump-out effect waardoor de temps lamngzaam van 90c naar 100c opliepen, na het opnieuw openmaken zag ik ook een hele grote plek in het midden van de die waar dus geen paste meer zat. Daarnaast was de blauwe putty niet meer perfect gespreid waardoor de mem temp rond de 95 graden zat. Na wat zoekwerk heb ik nu Themalright TFX gepaste en mijn temps gingen van kryonaut hotspot 100 graden (geen OC) naar nu nog geen 80 graden (3.2ghz +15PL 2700mem 1100mv). Ook de mem temps zijn nu max 80 graden terwijl deze voorheen rond de 95 graden zat. Dus mocht je nog een repaste willen doen, ik adviseer je Themalright TFX (geen pump-out ivm erg dik spul) en Upsiren UX Pro Ultra thermal putty. Beide verkrijgbaar op grote vriend Aliexpress.

Acties:
  • +2 Henk 'm!

  • Cowamundo
  • Registratie: September 2013
  • Laatst online: 28-08 17:33
Een kaart zo jong als de 7900xtx en nu al 2x een repaste? Klinkt niet echt als premium kwaliteit als dit nu al 2x nodig is…

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 21:20
DaniëlWW2 schreef op dinsdag 15 augustus 2023 @ 20:22:
Inmiddels denk ik dat ik redelijk tevreden ben met mijn UV profielen.
Ik speel ook graag oudere games en ik heb nog een back log, waarvoor de RX7900XT op zijn zachts gezegd wat excessief is. :P

Verder weet ik maar al te goed dat framerate caps zo mooi klinken, maar of ze ook werken is een tweede.
Dus ik heb twee profielen gemaakt. De eerste is -10% PL, max 2450MHz en uiteindelijk 1055mv. -10% PL komt nog steeds neer op 280-285W als weergeven waarde. Maar bijvoorbeeld 2550MHz proberen, zorgt niet voor een hoger verbruik of hogere fps, waardoor ik vrij zeker weet dat het wel een vermogenslimiet is.

Vervolgens 1050mv leek stabiel totdat Witcher 3 nee zei. Het blijft bijzonder dat je meerdere stresstests kan draaien en het in de game in een paar minuten alsnog kan crashen. 1055mv lijkt dat opgelost te hebben. Resultaat is in Time spy een redelijke 21500 met 25600 graphics en 11250 voor de 5800X3D. Gemiddelde zou iets van 22100 Time spy score zijn voor een dergelijk systeem, dus zeker niet verkeerd. Want wel mooi 45-50W eraf van de 330W TPD bios en een betere fancurve. Verder qua hotspot moet ik moeite doen om die 15C boven edge te krijgen. En ver in de 70C kom ik niet. Deze RX7900XT is koeler dan mijn RX5700XT. :)

Tweede profiel is een leuke. :P
Ik was eens gaan kijken met 2250MHz om te zien hoe ver ik kon komen qua voltage. Ik ben gestopt bij 750mv omdat het nog steeds stabiel is. Qua verbruik varieert het van 210-250W en per applicatie. Ook interessant dat hier de uitgelezen circa 730mv wel klopt, maar bij dat andere profiel waar het vaak rond de 800mv zou zitten, tja daar lijkt weinig van de kloppen. Qua scores is het nu 20380 Time Spy met 23900 Graphics en 11100 voor de 5800X3D. Zeker een verschil, maar de GPU zit nu veel meer in een efficienter punt zonder al te veel verlies.

Ga misschien nog eens kijken wat 2300MHz en 2350MHz doen, maar in principe is dit ruim afdoende voor veel games. Zeker omdat je hier al snel naar 100W minder kijkt dan die 330W TDP bios. En qua prestatieverlies is het 7% op dat andere profiel. Op de default verlies ik misschien 10%. Dat is niet zoveel als ik het afzet tegen hoeveel lager het verbruik is.


Maar bij mij komt wel weer een gedachte op van hoever is AMD niet gegaan om nog een beetje clock speed uit N31 te halen? Want bij mij blijft de gedachte terugkomen wat als AMD zowel de RX7900XT als RX7900XTX op 2400MHz had afgesteld met lagere voltages, hoeveel efficienter waren ze dan niet geweest voor een paar procent prestatieverlies? Ja de RX7900XTX zou dan nipt van de RTX4080 verloren hebben en de RX7900XT zou eerder gelijkwaardig zijn aan de RTX4070Ti, maar wat maakt het verder uit? Want nu is de perceptie weer gezet dat Radeon inefficiënt is voor een paar procent prestatiewinst.

Ik kan gewoon die gedachte niet kwijtraken hoe erg AMD dit heeft verknalt. Als ze de videokaarten nu de RX7800XT ($750) en RX7970XT ($1000) hadden genoemd, dan was het marketingtechnisch zoveel beter geweest. De RX7900XT is vanwege haar 20GB VRAM gewoon beter dan de RTX4070Ti. Het hele punt van de RTX4070Ti is RT wat veel VRAM kost. De RX7900XTX is vervolgens weer zo'n aparte naam waardoor bijna niemand het kan volgen. Maar de RX7970XT zou meteen nostalgische gevoelens opwekken naar een zeer goede videokaart van ruim tien jaar geleden. Zo definieer je ook geen beoogt prestatiedoel of waardeoordeel tegenover de RTX4080 of RTX4090.
Dank voor het posten van je undervolt en verbruik.
Wat is het minimum in te stellen voltage van jouw kaart / een 7900 xtx?
20.000+ Timespy is snel.
Wat doet Timespy met 170-200 watt verbruik?

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

HugoBoss1985 schreef op woensdag 16 augustus 2023 @ 23:41:
[...]


Dank voor het posten van je undervolt en verbruik.
Wat is het minimum in te stellen voltage van jouw kaart / een 7900 xtx?
20.000+ Timespy is snel.
Wat doet Timespy met 170-200 watt verbruik?
Minimum is 500mv omdat je niet lager mag van AMD. :P
Maar iets van 22000 is de standaard. Mag ook wel voor een flinke 84CU chip met 800GB/s. Was trouwens vergeten VRAM temperaturen te checken. Max met mijn 2450MHz profiel is iets van 86C. Acceptabel dus.

Maar om onder de 200W te duiken, denk ik dat ik de clock speed richting de 2000MHz moet laten zakken. Immers met dat 2250MHz profiel is de limiet overduidelijk hoeveel ampère nodig is voor clock speed met die specifieke applicatie. Clock speed verlagen zou ampere vereisten en dus benodigd vermogen ook moeten verlagen. Dat zou ik eens moeten testen. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

Pagina: 1 ... 15 ... 24 Laatste

Let op:
Levertijden en prijzen bespreken we in: [AMD Radeon RX7000 series] Levertijden & Prijzen