Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Hopelijk niet qua kwaliteit van de drivers :P

Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

rapture schreef op donderdag 9 januari 2025 @ 11:04:
[...]

Voor 2023 was het overschrijden van 8GB VRAM geen factor en 8GB VRAM kon je al in 2017 op een RX 580 voor 229 dollar MSRP krijgen.

Negende generatie gameconsoles werden in 2020 uitgebracht en de game developers zagen 16GB unified geheugen als "We kunnen de lat van minimumvereisten van de zwakste gaming PC op 12, 13, 14,... GB VRAM in gebruik leggen.". 3 jaren later was de plaag van bijna alle releases gaan over 8GB VRAM goed begonnen.

Nu is 16GB VRAM de nieuwe 8GB. PS5 Pro is een mid life update van de huidige gameconsole generatie en in 3 á 4 jaren wordt de volgende generatie gameconsole met grensverleggende hoeveelheid geheugen uitgebracht. Tegen dat de game developers ook grensverleggende VRAM vereisten naar PC gaming brengen, zitten we al in 2030.
Voor 2023 waren er ook al games die makkelijk door de 8GB aan VRAM gingen. Het werd toen nog veel meer opgevangen met dynamic texture scaling. Het werd dus gewoon blur. Voorbeeld is Halo Infinite. Maar vanaf 2023 ging het gewoon los omdat game developers botweg weigerde om dit nog te doen of het niet meer konden doen zonder dat het dramatisch kwaliteitsproblemen gaf. Bijvoorbeeld Hogwarts Legacy heeft dit alsnog gekregen, en het ziet er niet uit. Alsof je opeens naar een game van rond 2000 zit te kijken voor een paar seconden. :P


Maar nu is het gewoon 16GB. De RX9070 lijkt dat ook te krijgen. Daarnaast geven ze nu gewoon eindelijk eens toe dat ze gewacht hebben op Nvidia en willen reageren. :z

Ook kijken ze naar FSR4 voor RDNA3 en andere hardware. Ze beloven niks, maar als ze het zo communiceren, dan is het zelfs voor AMD standaarden heel dom als het niet komt.
https://videocardz.com/ne...x-7800-xt-and-rx-7900-gre

Verder:
-We mogen een beetje raster, veel RT en heel veel AI compute verbetering verwachten met RDNA4.
-Natuurlijk zeggen ze dat RT nu pas wat volwassener aan het worden is en relevant. En wordt Turing ook even afgebrand als zinloze RT hardware. Op zich terecht, maar ook weer typerend. :P
-De AI hardware is natuurlijk voor FSR4 en FSR3 blijft voor alles werken.
-Ze hopen de prijzen dit keer niet te verprutsen. :z
-De performance leaks zouden verkeerd en te laag zijn geweest.
-Geen prut stekker. :Y)
-Nadat ze ze RDNA3 naamgeving totaal verprutst hebben, kregen ze hier wat feedback over. En toen hebben ze Nvidia hun naamgeving maar gekopieerd. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
DaniëlWW2 schreef op zaterdag 11 januari 2025 @ 11:56:
[...]


Voor 2023 waren er ook al games die makkelijk door de 8GB aan VRAM gingen. Het werd toen nog veel meer opgevangen met dynamic texture scaling. Het werd dus gewoon blur. Voorbeeld is Halo Infinite. Maar vanaf 2023 ging het gewoon los omdat game developers botweg weigerde om dit nog te doen of het niet meer konden doen zonder dat het dramatisch kwaliteitsproblemen gaf. Bijvoorbeeld Hogwarts Legacy heeft dit alsnog gekregen, en het ziet er niet uit. Alsof je opeens naar een game van rond 2000 zit te kijken voor een paar seconden. :P


Maar nu is het gewoon 16GB. De RX9070 lijkt dat ook te krijgen. Daarnaast geven ze nu gewoon eindelijk eens toe dat ze gewacht hebben op Nvidia en willen reageren. :z

Ook kijken ze naar FSR4 voor RDNA3 en andere hardware. Ze beloven niks, maar als ze het zo communiceren, dan is het zelfs voor AMD standaarden heel dom als het niet komt.
https://videocardz.com/ne...x-7800-xt-and-rx-7900-gre

Verder:
-We mogen een beetje raster, veel RT en heel veel AI compute verbetering verwachten met RDNA4.
-Natuurlijk zeggen ze dat RT nu pas wat volwassener aan het worden is en relevant. En wordt Turing ook even afgebrand als zinloze RT hardware. Op zich terecht, maar ook weer typerend. :P
-De AI hardware is natuurlijk voor FSR4 en FSR3 blijft voor alles werken.
-Ze hopen de prijzen dit keer niet te verprutsen. :z
-De performance leaks zouden verkeerd en te laag zijn geweest.
-Geen prut stekker. :Y)
-Nadat ze ze RDNA3 naamgeving totaal verprutst hebben, kregen ze hier wat feedback over. En toen hebben ze Nvidia hun naamgeving maar gekopieerd. :z

[YouTube: AMD Explains The Plan For Radeon & Z2 Series]
Kijk met zo'n interview kunnen we wat!

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op zaterdag 11 januari 2025 @ 11:56:
[...]


Voor 2023 waren er ook al games die makkelijk door de 8GB aan VRAM gingen. Het werd toen nog veel meer opgevangen met dynamic texture scaling. Het werd dus gewoon blur. Voorbeeld is Halo Infinite. Maar vanaf 2023 ging het gewoon los omdat game developers botweg weigerde om dit nog te doen of het niet meer konden doen zonder dat het dramatisch kwaliteitsproblemen gaf. Bijvoorbeeld Hogwarts Legacy heeft dit alsnog gekregen, en het ziet er niet uit. Alsof je opeens naar een game van rond 2000 zit te kijken voor een paar seconden. :P


Maar nu is het gewoon 16GB. De RX9070 lijkt dat ook te krijgen. Daarnaast geven ze nu gewoon eindelijk eens toe dat ze gewacht hebben op Nvidia en willen reageren. :z

Ook kijken ze naar FSR4 voor RDNA3 en andere hardware. Ze beloven niks, maar als ze het zo communiceren, dan is het zelfs voor AMD standaarden heel dom als het niet komt.
https://videocardz.com/ne...x-7800-xt-and-rx-7900-gre

Verder:
-We mogen een beetje raster, veel RT en heel veel AI compute verbetering verwachten met RDNA4.
-Natuurlijk zeggen ze dat RT nu pas wat volwassener aan het worden is en relevant. En wordt Turing ook even afgebrand als zinloze RT hardware. Op zich terecht, maar ook weer typerend. :P
-De AI hardware is natuurlijk voor FSR4 en FSR3 blijft voor alles werken.
-Ze hopen de prijzen dit keer niet te verprutsen. :z
-De performance leaks zouden verkeerd en te laag zijn geweest.
-Geen prut stekker. :Y)
-Nadat ze ze RDNA3 naamgeving totaal verprutst hebben, kregen ze hier wat feedback over. En toen hebben ze Nvidia hun naamgeving maar gekopieerd. :z

[YouTube: AMD Explains The Plan For Radeon & Z2 Series]
Heeft AMD ook een antwoord op multi frame generation? De RTX 50 videokaarten kunnen potentieel heel hoge framerates halen met DLSS 4, ik heb niet echt het idee dat FSR 4 hetzelfde resultaat zal behalen.

March of the Eagles


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op zaterdag 11 januari 2025 @ 12:37:
[...]


Heeft AMD ook een antwoord op multi frame generation? De RTX 50 videokaarten kunnen potentieel heel hoge framerates halen met DLSS 4, ik heb niet echt het idee dat FSR 4 hetzelfde resultaat zal behalen.
Waarom zou je dat willen? Je hebt nog steeds de input latency van echt gerenderde frames. Leuk dat je nu 240fps op je scherm ziet. Als een frame maar echt gerenderd is, dan is dat input latency van 60fps. Het hele punt van 144hz, 165hz, 240hz of nog meer, is volgens mij juist ook lagere input latency naast een vloeiender beeld.

Verder wanneer ga je dit nu gebruiken? Volgens Nvidia in combinatie met zware RT. Laten we dan meteen maar doorgaan naar de totaal niet afgekochte DF video die bij elke nieuwe generatie verschijnt, totaal niet dient als marketing voor Nvidia en die natuurlijk geen latency laat zien, of fps...


Iedereen ziet dat dit voor geen meter draait zonder frame generation. En dat is wel je input latency. Natuurlijk hebben ze het daar niet over. Ze hebben het over frame rate latency. Dat is wat je ziet op je scherm en daar zie je ook al dat het hoger is met meer frame generation.

Frame generation heeft echt wel meerwaarde, maar beperkt tot niet voor first person en al helemaal niet als compensatie voor Nvidia hun RTX blob waar ze zonder enige optimalisatie maar rays casten. Waarom betaal je precies fors extra voor iets dat niet kan leveren? Er zijn nota bene allang mods die Nvidia hun waarden fors verlaagden met vrijwel nul grafische impact. Verbetert niet alleen de performance op oudere Nvidia videokaarten, maar nog veel meer voor AMD. :z

Waar frame generation wel lekker werkt zijn langzamere 3th person games, als je al een hoge basis fps haalt, zeg tegen de 100, of bijvoorbeeld strategiespellen. Maar daar krijg je vaak geen DLSS en kan je RT ook wel vergeten. Het zou ook handig zijn voor mensen met een echt oudere videokaart. Die krijgen alleen ook geen DLSS FG. Gelukkig heb je wel AFMF in drivers waardoor je het meestal kan gebruiken, als je een Radeon koopt. Ben er erg blij mee. ;)

[ Voor 9% gewijzigd door DaniëlWW2 op 11-01-2025 13:15 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 14:51
DaniëlWW2 schreef op zaterdag 11 januari 2025 @ 13:06:
[...]
Waarom zou je dat willen? Je hebt nog steeds de input latency van echt gerenderde frames. Leuk dat je nu 240fps op je scherm ziet. Als een frame maar echt gerenderd is, dan is dat input latency van 60fps. Het hele punt van 144hz, 165hz, 240hz of nog meer, is volgens mij juist ook lagere input latency naast een vloeiender beeld.
Stel je kan van 80 naar 240 of van 120 naar 480. Dan blijven snel bewegende objecten een stuk scherper. En de latency penalty van meerdere frames genereren in plaats van 1 is vrij laag.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

haarbal schreef op zondag 12 januari 2025 @ 10:23:
[...]

Stel je kan van 80 naar 240 of van 120 naar 480. Dan blijven snel bewegende objecten een stuk scherper. En de latency penalty van meerdere frames genereren in plaats van 1 is vrij laag.
En dat zeg ik later volgens mij ook.
Maar dat ga je dus niet halen met zware RTX blob van Nvidia. Dat zie je gewoon in die gesponsorde DF video. Ze halen daar echt geen 30fps met een RTX5080 zonder frame generation. Maar zo verkopen ze wel steeds frame generation. Ze maken er bij Nvidia vrij systematisch een oplossing van hun probleem dat ze inadequate RT hardware leveren voor hun inadequate RTX software stack.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Techkeizer
  • Registratie: Januari 2023
  • Laatst online: 18-09 01:46

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Stuivertje wisselen met de RTX 4070 Ti, dat komt in elk geval overeen met wat AMD eerder gedeeld had:

Afbeeldingslocatie: https://tweakers.net/i/AoBEKWFHups133yWgvyb-tdYe04=/1280x/filters:strip_exif()/i/2007165090.png?f=imagegallery

March of the Eagles


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 13:32
Vooral in Cyberpunk (NV tech demo) zou dat wel een prestatie zijn.

Als hij in Raster dan ook nog daadwerkelijk in de buurt van een 4080 komt is het een meer dan prima kaart, mits de prijs redelijk is.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
En de drivers zijn toch nog steeds niet final?

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
XWB schreef op zondag 12 januari 2025 @ 12:09:
Stuivertje wisselen met de RTX 4070 Ti, dat komt in elk geval overeen met wat AMD eerder gedeeld had:

[Afbeelding]
Wel apart dat ze hun 7900 XT gelijk stellen aan de 4070 Ti, terwijl deze meer vergelijkbaar presteert met een 4070 Ti Super. Misschien wegen ze (nu wel) ray tracing mee.

https://www.techpowerup.c...4070-ti-super-tuf/31.html

De prijs van de 9070XT zou $479 worden, laat het bij ons €599 worden *fingers crossed*.

De goedkoopste 7900XT is momenteel €699, de 4070 Ti Super €859. Als de achterstand met ray tracing en DLSS is ingehaald, dan zou de 9070XT wel eens een mooie koop kunnen zijn.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
DaniëlWW2 schreef op zaterdag 11 januari 2025 @ 13:06:
[...]


Waarom zou je dat willen? Je hebt nog steeds de input latency van echt gerenderde frames. Leuk dat je nu 240fps op je scherm ziet. Als een frame maar echt gerenderd is, dan is dat input latency van 60fps. Het hele punt van 144hz, 165hz, 240hz of nog meer, is volgens mij juist ook lagere input latency naast een vloeiender beeld.

Verder wanneer ga je dit nu gebruiken? Volgens Nvidia in combinatie met zware RT. Laten we dan meteen maar doorgaan naar de totaal niet afgekochte DF video die bij elke nieuwe generatie verschijnt, totaal niet dient als marketing voor Nvidia en die natuurlijk geen latency laat zien, of fps...
Ik denk direct al aan de marketing mogelijkheden bijvoorbeeld. Je wil natuurlijk niet dat straks in bepaalde reviews jouw kaarten met grote cijfers verslagen worden in games met DLSS4 implementaties, terwijl de mogelijke nadelen van die implementaties mogelijk niet veel aan het bod komen. Ik zou zoiets veel minder vanuit het 'Tweaker' oogpunt bekijken, maar meer vanuit de algehele markt en wat het doet voor de mindshare van beide merken in de markt als je bepaalde features wel of niet hebt.

Als AMD echt een marketshare push wil maken, gaat dat lukken op een gezonde manier dat je er ook nog wat aan verdiend, terwijl het er op lijkt dat je straks wederom mogelijk verder achterloopt qua software in plaats van dat je stappen zet om in te lopen.

Ik hoop nog steeds, zeker voor de consument, dat ze met een mooi product komen. Maar als aandeelhouder ben ik niet direct heel erg gecharmeerd van hoe ze het de laatste week hebben aangepakt, ook al hebben ze misschien straks toch een leuk product, het straalt gewoon zoveel zwakte uit op deze manier.

[ Voor 10% gewijzigd door Dennism op 13-01-2025 00:10 ]


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
haarbal schreef op zondag 12 januari 2025 @ 10:23:
[...]

Stel je kan van 80 naar 240 of van 120 naar 480. Dan blijven snel bewegende objecten een stuk scherper. En de latency penalty van meerdere frames genereren in plaats van 1 is vrij laag.
Maar dat is nog steeds niet hoe Nvidia het positioneert.

Zij geven telkens het voorbeeld waar je een shit framerate (zoals de 27 FPS in CP op hun pagina) met DLSS wat opkrikt; doorgaans 50%, dus die 27 wordt dan pakweg 40 - dat is al 25ms input lag puur door de lage framerate. En dan FG er overheen.

Probeer het zelf eens en kijk dan of dat prettig speelt. Zelfs in games waar input lag niet meteen een probleem is, speelt dat bijzonder onprettig. En in een game als Cyberpunk, waar er sowieso al een gare input lag is, is dat nóg onprettiger. Reflex lost dat niet op.

Sommigen zullen dat niet als probleem zien, maar ik kon het niet uit staan met m'n 3080. En het zou allemaal niet zo'n probleem zijn, als het niet langzaamaan de norm begint te worden en sommige devs het als "oplossing" gebruiken voor slechte performance. 1 stap voorwaarts, 3 stappen terug.

[ Voor 3% gewijzigd door Werelds op 13-01-2025 09:13 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
Werelds schreef op maandag 13 januari 2025 @ 09:12:
[...]


Probeer het zelf eens en kijk dan of dat prettig speelt. Zelfs in games waar input lag niet meteen een probleem is, speelt dat bijzonder onprettig. En in een game als Cyberpunk, waar er sowieso al een gare input lag is, is dat nóg onprettiger. Reflex lost dat niet op.
Moet zeggen dat ik het zelf nog nooit gebruikt hebt, ook geen upscalers e.d. Maar eigenlijk dam wel opvallend dat juist veel van de CES content die ik gezien hebt, de techpress juist aangeeft dat het allemaal vrij smooth is, alleen opvalt wanneer je er op let, en dat reflex(2) (ik meende dat 2 gedemo'd werd) juist wel veel voor de latency zou doen.

Zouden die dan allemaal glashard lopen te liegen?

Want is ook wel een beetje iets waar ik 'bang' voor ben bij AMD. Dat ze het, juist doordat Nvidia features als dit heeft, het weer gaan afleggen in content pieces die zich meer focussen op de software stack dan alleen op 'ruwe raster' en dat is content die je steeds meer ziet.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Dennism schreef op maandag 13 januari 2025 @ 10:09:
Moet zeggen dat ik het zelf nog nooit gebruikt hebt, ook geen upscalers e.d. Maar eigenlijk dam wel opvallend dat juist veel van de CES content die ik gezien hebt, de techpress juist aangeeft dat het allemaal vrij smooth is, alleen opvalt wanneer je er op let, en dat reflex(2) (ik meende dat 2 gedemo'd werd) juist wel veel voor de latency zou doen.

Zouden die dan allemaal glashard lopen te liegen?
Geen idee, ik kan enkel vanuit m'n eigen ervaring spreken. Het ziet er soepel uit, maar voelt gewoon niet lekker. Nu ben ik daar sowieso wel gevoelig voor, microstuttering merk ik ook meteen en er zijn talloze games waar mouse smoothing en/of acceleration niet uit kunnen en ik me daar dood aan erger. Gevolg van fast-paced FPS in de jaren '90 denk ik dan maar ;)

Acties:
  • 0 Henk 'm!

  • Acteonis
  • Registratie: November 2018
  • Laatst online: 16-09 00:05
Werelds schreef op maandag 13 januari 2025 @ 10:19:
[...]

Geen idee, ik kan enkel vanuit m'n eigen ervaring spreken. Het ziet er soepel uit, maar voelt gewoon niet lekker. Nu ben ik daar sowieso wel gevoelig voor, microstuttering merk ik ook meteen en er zijn talloze games waar mouse smoothing en/of acceleration niet uit kunnen en ik me daar dood aan erger. Gevolg van fast-paced FPS in de jaren '90 denk ik dan maar ;)
Was jij op de CES?

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^^
Er is ook een nieuwe reflex variant: Reflex 2. Wellicht maak dat nog uit.

Daarnaast, die nvidia framerate foefjes werken vaak pas lekker als je al redelijk hoge framerate hebt. Bijv. boven de 60fps.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Help!!!! schreef op maandag 13 januari 2025 @ 12:25:
^^
Er is ook een nieuwe reflex variant: Reflex 2. Wellicht maak dat nog uit.

Daarnaast, die nvidia framerate foefjes werken vaak pas lekker als je al redelijk hoge framerate hebt. Bijv. boven de 60fps.
Van wat ik begrijp van Reflex 2, zonder mij er echt in verdiept te hebben: Is het vergelijkbaar als wat VR headsets gebruiken om latency te verminderen. Waarbij helemaal aan het einde van de render pipeline, de laatste positie van in dit geval de muis wordt gebruikt om nog wat bij te draaien. Dat helpt, maar bijvoorbeeld latency tussen wanneer jij je muis in drukt, en wanneer je je ingame wapen ziet vuren, veranderd niks erdoor.

En ze zullen gebruik maken van diepte informatie en dat je wapen in het midden van het scherm blijft, maar dan moet hij nog wel aan het einde wat pixels erbij bedenken die toch net nog tevoorschijn zijn gekomen.

Acties:
  • +5 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
Nee, moet dat om m'n ervaring met FG uit te leggen? Input lag is input lag.
Help!!!! schreef op maandag 13 januari 2025 @ 12:25:
Daarnaast, die nvidia framerate foefjes werken vaak pas lekker als je al redelijk hoge framerate hebt. Bijv. boven de 60fps.
Dat is juist mijn punt. De baseline is de render framerate en beter dan dat kan het niet worden, enkel slechter - op z'n best gelijk. Zonder VRR is het ook nog erger. Optie 1 is VSync aanzetten, met alle gevolgen van dien - mogelijk 1 of 2 extra refreshes input lag als de baseline niet mooi op je refreshrate aansluit. Laat je dat uit, ga je uiteraard tearing krijgen, net als altijd. En als je fakerate flink hoger dan de refreshrate is, krijg je meerdere tears, wat de input lag nog vreemder aan doet voelen.

Doordat de gegenereerde frames wel input en motion vectors hebben, krijg je een soort van halve input update, wat niet altijd goed gaat. Als je wat sneller beweegt, krijg je nog steeds microstutters op je input.
Sissors schreef op maandag 13 januari 2025 @ 12:30:
[...]

Van wat ik begrijp van Reflex 2, zonder mij er echt in verdiept te hebben: Is het vergelijkbaar als wat VR headsets gebruiken om latency te verminderen. Waarbij helemaal aan het einde van de render pipeline, de laatste positie van in dit geval de muis wordt gebruikt om nog wat bij te draaien. Dat helpt, maar bijvoorbeeld latency tussen wanneer jij je muis in drukt, en wanneer je je ingame wapen ziet vuren, veranderd niks erdoor.

En ze zullen gebruik maken van diepte informatie en dat je wapen in het midden van het scherm blijft, maar dan moet hij nog wel aan het einde wat pixels erbij bedenken die toch net nog tevoorschijn zijn gekomen.
Dit. Timewarp/reprojection/spacewarp. En er zijn mensen die die technieken ook niet irritant vinden, maar veruit de meesten vinden dit in VR wél vervelend. Voor degenen die last van bewegingsziekte hebben, zijn dit doorgaans ook echt dealbreakers, dan worden ze meteen misselijk. ASW 2.0 gebruikte inderdaad depth buffers om de impact te verminderen ten opzichte van ASW 1.0, voor FG is dat ook een input.

Voor diegenen die overigens denken dat Nvidia en Jensen "magiërs" zijn: bedank meneer Carmack maar. Dit komt allemaal uit zijn hoge hoed. De pixel interpolatie met hulp een neuraal netwerk komt oorspronkelijk van een stel Chinese studenten. Nvidia's implementatie, maar niet de eerste en niet hun idee.

Acties:
  • +2 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
https://www.pcgameshardwa...6-GB-VRAM-Radeon-1462969/

PCGH heeft zeer uitgebreid getest met 8gb vram kaarten (versus meer vram).
Hier kan men nu ook eens lezen en zien wat voor effecten een tekort aan vram allemaal heeft.
Behalve de prestaties dus even goed opletten voordat men "ja maar ik heb nergens last van met 8gb" (ook niet op 1080p) roept.

En "16gb op een 7600XT heb je helemaal niets aan want die kaart is niet snel genoeg" hebben we ook voorbij zien komen (famous last words).

[ Voor 17% gewijzigd door HugoBoss1985 op 14-01-2025 10:57 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
Sissors schreef op maandag 13 januari 2025 @ 12:30:
[...]

Van wat ik begrijp van Reflex 2, zonder mij er echt in verdiept te hebben: Is het vergelijkbaar als wat VR headsets gebruiken om latency te verminderen. Waarbij helemaal aan het einde van de render pipeline, de laatste positie van in dit geval de muis wordt gebruikt om nog wat bij te draaien. Dat helpt, maar bijvoorbeeld latency tussen wanneer jij je muis in drukt, en wanneer je je ingame wapen ziet vuren, veranderd niks erdoor.

En ze zullen gebruik maken van diepte informatie en dat je wapen in het midden van het scherm blijft, maar dan moet hij nog wel aan het einde wat pixels erbij bedenken die toch net nog tevoorschijn zijn gekomen.
Valt me vooral op dat Valorant een 'launch partner' lijkt te zijn voor Reflex 2, ik had eigenlijk niet verwacht dat in een competitieve shooter dit soort technieken zo snel toegestaan zouden zijn.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
HugoBoss1985 schreef op dinsdag 14 januari 2025 @ 10:51:
https://www.pcgameshardwa...6-GB-VRAM-Radeon-1462969/

PCGH heeft zeer uitgebreid getest met 8gb vram kaarten (versus meer vram).
Hier kan men nu ook eens lezen en zien wat voor effecten een tekort aan vram allemaal heeft.
Behalve de prestaties dus even goed opletten voordat men "ja maar ik heb nergens last van met 8gb" (ook niet op 1080p) roept.

En "16gb op een 7600XT heb je helemaal niets aan want die kaart is niet snel genoeg" hebben we ook voorbij zien komen (famous last words).
Leuke test, maar eigenlijk laat het imho zien dat beide kaarten gewoon prut zijn voor de geteste settings, en dan de 8GB versie wat meer dan de 16GB versie. Maar in een groot gedeelte van de games laten beide kaarten geen speelbare framerates zien, zelfs niet op 1080P (waarbij ik <60 FPS als niet speelbaar zie). En ja, er zijn situaties waar je mogelijk een steady 30 FPS ook als 'prima' kan zien, maar daar zou ik geen videokaarten op aanraden die nog even mee moeten gaan.

Bij de raster benchmarks halen beide GPU's in 14 van de 20 games geen 60 FPS, in de 6 andere games halen beide GPU's de 60 avg FPS. Kijk ik naar de 1% lows, zijn van die 6 games waar ze beide 60 avg aantikken er 2 waarbij de 7600 onder de 60 fps 1% lows duikt en de 7600XT (weel vrij minimaal met 54 FPS en 58 FPS), 3 games waarbij ze beide boven de 60 FPS 1% low zitten en 1 game waarbij de beide naar 34/35 FPS 1% inzakken.

Bij de RT benchmarks is er geen enkele game, op beide kaarten, die ik als 'speelbaar' zie op de gekozen settings.

Als nu de 7600XT constant ruim boven de 60FPS zou zitten en de 7600 niet, dan zou ik zeggen, ja aanrader die 7600XT, ook al is er een fors prijsverschil.

Nu lijkt het meer op een test met zo hoog mogelijke settings zodat het 8GB / 16GB 'probleem' uitvergroot wordt, zonder dat ze kiezen voor settings die ten miste op een van beide kaarten speelbaar maakt.

Waardoor ik het dan eigenlijk wel vind dat de 16GB op deze kaart er bij deze settings over het algemeen niet toe doet, maar bij 2 games zorgt het er voor dat de game in 1% lows boven de 60FPS blijft, terwijl de 8GB kaart eronder duikt.

Ik denk dat het veel representatiever zou zijn om deze test met andere settings te doen, zodat in ieder geval 1 van beide kaarten in de gekozen workload speelbare FPS laat zien, en dan bekijken hoe ver de andere kaart er vanaf zit.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Dennism schreef op dinsdag 14 januari 2025 @ 12:18:
[...]


Leuke test, maar eigenlijk laat het imho zien dat beide kaarten gewoon prut zijn voor de geteste settings, en dan de 8GB versie wat meer dan de 16GB versie. Maar in een groot gedeelte van de games laten beide kaarten geen speelbare framerates zien, zelfs niet op 1080P (waarbij ik <60 FPS als niet speelbaar zie). En ja, er zijn situaties waar je mogelijk een steady 30 FPS ook als 'prima' kan zien, maar daar zou ik geen videokaarten op aanraden die nog even mee moeten gaan.

Bij de raster benchmarks halen beide GPU's in 14 van de 20 games geen 60 FPS, in de 6 andere games halen beide GPU's de 60 avg FPS. Kijk ik naar de 1% lows, zijn van die 6 games waar ze beide 60 avg aantikken er 2 waarbij de 7600 onder de 60 fps 1% lows duikt en de 7600XT (weel vrij minimaal met 54 FPS en 58 FPS), 3 games waarbij ze beide boven de 60 FPS 1% low zitten en 1 game waarbij de beide naar 34/35 FPS 1% inzakken.

Bij de RT benchmarks is er geen enkele game, op beide kaarten, die ik als 'speelbaar' zie op de gekozen settings.

Als nu de 7600XT constant ruim boven de 60FPS zou zitten en de 7600 niet, dan zou ik zeggen, ja aanrader die 7600XT, ook al is er een fors prijsverschil.

Nu lijkt het meer op een test met zo hoog mogelijke settings zodat het 8GB / 16GB 'probleem' uitvergroot wordt, zonder dat ze kiezen voor settings die ten miste op een van beide kaarten speelbaar maakt.

Waardoor ik het dan eigenlijk wel vind dat de 16GB op deze kaart er bij deze settings over het algemeen niet toe doet, maar bij 2 games zorgt het er voor dat de game in 1% lows boven de 60FPS blijft, terwijl de 8GB kaart eronder duikt.

Ik denk dat het veel representatiever zou zijn om deze test met andere settings te doen, zodat in ieder geval 1 van beide kaarten in de gekozen workload speelbare FPS laat zien, en dan bekijken hoe ver de andere kaart er vanaf zit.
Let ook op de verschillen in de details (textures) e.d. en artifacts.
Het gaat niet alleen over fps.

Eens met 60 fps ondergrens.
Met de 7600XT heb je dus in ieder geval nog ruim meer vram om FG aan te zetten, wat wel/meer (speelbare) FPS oplevert.

Dit is allemaal met native FSR / taa getest en niemand gaat de extreme gevallen van de games dus spelen met deze detail settings zonder enige FSR en zonder enige Framegen met die kaartjes.
Het was interessant geweest om juist die settings te zien m.b.t. VRAM.

Maar zoals getest zit er in sommige games zo'n 50% verschil... dat is fors.
Horizon Zero West is speelbaar versus niet speelbaar (afijn minder dan 60 fps).

Ik game met mijn 6800 XT op 4k, terwijl je die op native FSR / taa "prut" zou kunnen noemen en voor die resolutie gaat het behoorlijk goed met FSR upscaling en framegen ;)

[ Voor 10% gewijzigd door HugoBoss1985 op 14-01-2025 13:49 ]


Acties:
  • +2 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
HugoBoss1985 schreef op dinsdag 14 januari 2025 @ 13:38:
[...]


Let ook op de verschillen in de details (textures) e.d. en artifacts.
Het gaat niet alleen over fps.
Maar dat is nu net juist mijn punt, dat soort zaken vind ik in ieder geval niet interessant wanneer de game an sich al niet speelbaar is binnen de kaders van wat ik speelbaar acht.

Leuk dat een 16GB kaart 35 FPS haalt en de 8GB kaart 25 met artifacts of mindere texture kwaliteit, maar beide zijn voor mij simpelweg niet interessant op zo'n moment. En dat de 8GB kaart dan slechter is dan de 16GB maakt voor mij dan weinig uit. Beide kaarten zul je immers niet overwegen.

Dat zou anders zijn wanneer er settings gebruikt worden waarbij de 7600XT altijd 60+ fps haalt, geen artifacts laat ziet, maar de 7600 bijvoorbeeld maar 40 FPS haalt en nog steeds artefacts heeft. Maar er zijn in deze test maar weinig tests waar ik het 7600XT resultaat wel goed genoeg vind ik om deze potentieel te overwegen en de 7600 niet (al zou ik die nooit overwegen), in veruit de meeste van de geteste scenario's zou ik beide kaarten simpelweg niet overwegen, omdat ze beide niet voldoen aan mijn minimale standaard.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Ben het helemaal met je eens dat ze bij PCGH de plank volledig misslaan door kaarten te testen waarmee je met zowel de 8 als 16GB versie geen speelbare framerate haalt. Echt een heel.slecht artikel.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Format-C schreef op dinsdag 14 januari 2025 @ 14:48:
Ben het helemaal met je eens dat ze bij PCGH de plank volledig misslaan door kaarten te testen waarmee je met zowel de 8 als 16GB versie geen speelbare framerate haalt. Echt een heel.slecht artikel.
Waardeloos artikel over videokaart die toch niemand koopt.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

HugoBoss1985 schreef op dinsdag 14 januari 2025 @ 14:49:
[...]


Waardeloos artikel over videokaart die toch niemand koopt.
Weet niet of niemand die kaarten koopt... (Je kan er misschien prima oudere games op spelen) Maar als je met beide kaarten geen 30fps haalt in recente games, maakt het helemaal geen F uit of die kaarten dan 8 of 16Gab hebben. Het immers gewoon onspeelbaar.

Ik snap dan ook niet dat ze die kaarten hebben gebruikt voor zo'n "review". Ze hadden beter een 6800 kaart van AMD kunnen pakken.

Of 2 andere, veel snellere kaarten dan die ze nu gebruikt hebben.

[ Voor 25% gewijzigd door Format-C op 14-01-2025 14:53 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • +3 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Format-C schreef op dinsdag 14 januari 2025 @ 14:51:
[...]

Weet niet of niemand die kasten koopt... Maar als je met beide kaarten geen 30fps haalt in games, maakt het helemaal geen F uit of die kaarten dan 8 of 16Gab hebben. Het immers gewoon onspeelbaar.
Dat was dus sarcasme.

Het artikel biedt inzicht over 8 vs 16gb vram en dat vrij duidelijk.
Daar moeten dan weer allemaal mitsen en maren bij gesteld worden omdat dit niet bij een bepaalde usecase past (waar deze kaarten niet voor bedoeld zijn).
Het lijkt nu alsof de test totaal nutteloos is, voor een deel is dat zo omdat upscaling en framegen niet meegenomen lijkt maar het zegt wel een hele hoop.
Laten we daar vooral niet voorbij kijken want daar gaat het juist over.

Deze kaartjes zijn voor een bepaald budget: 3060, 4060, B580, 7600, 7600XT (€280 - €340).
Met een wat mindere cpu en 12gb vram als minimum eis blijven de 3060 12gb en de 7600XT 16gb dan bruikbaar (speelbaar) met een budget.
Waarbij je concessies moet doen en zeer waarschijnljk ook framegen gaat aanzetten, tenminste als je op maximale details wilt gamen.

[ Voor 18% gewijzigd door HugoBoss1985 op 14-01-2025 14:59 ]


Acties:
  • +1 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
HugoBoss1985 schreef op dinsdag 14 januari 2025 @ 14:53:
[...]


Dat was dus sarcasme.

Het artikel biedt inzicht over 8 vs 16gb vram en dat vrij duidelijk.
Daar moeten dan weer allemaal mitsen en maren bij gesteld worden omdat dit niet bij een bepaalde usecase past (waar deze kaarten niet voor bedoeld zijn).
Maar je test dus een use case met kaarten die niet bedoelt zijn voor die use case? Wat ben je dan aan het testen?

Oké granted ik snap het wat, omdat je twee bijna identieke kaarten hebt met verschillende hoeveelheden VRAM. Het probleem is wat imo nog weleens wordt vergeten: De hoeveelheid benodigde VRAM is erg afhankelijk van hoe snel de kaart is. Je hebt niks aan 16GB VRAM als je toch niet de processing capaciteit hebt om fatsoenlijke FPS neer te zetten, wat je dus precies in deze test ziet. Wat je hier dus eigenlijk ziet is dat 8GB VRAM best een fatsoenlijke keuze kan zijn, voor kaarten in dit segment. De vraag is dan vanaf welk segment is 12GB nodig, en vanaf welk segment is 16GB nodig. Daar blijf je natuurlijk een grijs gebied houden, maar het zou imo interessant zijn geweest wanneer het artikel daar op ingegaan was.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Sissors schreef op dinsdag 14 januari 2025 @ 14:57:
[...]

Maar je test dus een use case met kaarten die niet bedoelt zijn voor die use case? Wat ben je dan aan het testen?

Oké granted ik snap het wat, omdat je twee bijna identieke kaarten hebt met verschillende hoeveelheden VRAM. Het probleem is wat imo nog weleens wordt vergeten: De hoeveelheid benodigde VRAM is erg afhankelijk van hoe snel de kaart is. Je hebt niks aan 16GB VRAM als je toch niet de processing capaciteit hebt om fatsoenlijke FPS neer te zetten, wat je dus precies in deze test ziet. Wat je hier dus eigenlijk ziet is dat 8GB VRAM best een fatsoenlijke keuze kan zijn, voor kaarten in dit segment. De vraag is dan vanaf welk segment is 12GB nodig, en vanaf welk segment is 16GB nodig. Daar blijf je natuurlijk een grijs gebied houden, maar het zou imo interessant zijn geweest wanneer het artikel daar op ingegaan was.
Ik laat het hier verder bij.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

HugoBoss1985 schreef op dinsdag 14 januari 2025 @ 14:53:
[...]


Dat was dus sarcasme.

Het artikel biedt inzicht over 8 vs 16gb vram en dat vrij duidelijk.
Daar moeten dan weer allemaal mitsen en maren bij gesteld worden omdat dit niet bij een bepaalde usecase past (waar deze kaarten niet voor bedoeld zijn).
Het lijkt nu alsof de test totaal nutteloos is, voor een deel is dat zo omdat upscaling en framegen niet meegenomen lijkt maar het zegt wel een hele hoop.
Laten we daar vooral niet voorbij kijken want daar gaat het juist over.

Deze kaartjes zijn voor een bepaald budget: 3060, 4060, B580, 7600, 7600XT (€280 - €340).
Met een wat mindere cpu en 12gb vram als minimum eis blijven de 3060 12gb en de 7600XT 16gb dan bruikbaar (speelbaar) met een budget.
Waarbij je concessies moet doen en zeer waarschijnljk ook framegen gaat aanzetten, tenminset als je op maximale details wilt gamen.
Snap wel wat je bedoelt hoor, maar ik snap niet dat ze zulke flut kaarten pakken om zo'n test te draaien en daar conclusies aan te verbinden.

Je kan idd zien dat de 7600 kaart met 8GB nog veel slechter draait dan de kaart met 16GB, maar beide kaarten presteren zo slecht dat ze beide te slecht zijn om games te draaien op 1080p.

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • +2 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
Format-C schreef op dinsdag 14 januari 2025 @ 14:59:
[...]

Snap wel wat je bedoelt hoor, maar ik snap niet dat ze zulke flut kaarten pakken om zo'n test te draaien en daar conclusies aan te verbinden.

Je kan idd zien dat een kaart met 8GB nog veel slechter draait dan een kaart met 16GB, maar beide kaarten presteren zo slecht dat ze beide te slecht zijn om games te draaien op 1080p.
Wel met de kanttekening van de gebruikte settings, mogelijk dat een van beide, of misschien zelfs beide kaarten op lagere settings wel afdoende presteren voor 1080P, maar de vraag is dan weer in hoeverre de verhoudingen in prestaties tussen 8 en 16GB hetzelfde zijn als dat nu getest is, of dat dit weer gaat verschuiven.

En juist dat maakt zo'n test als deze, met deze kaarten zo weinig logisch voor mij. Want resultaten op niet speelbare settings hoeven zich niet direct te verhouden tot resultaten op settings gangbaar voor deze kaarten.

Test wat mij betreft dus met settings waarbij minimaal 1 van beide kaarten de game probleemloos kan draaien en kijk dan hoe dat zich verhoud met de andere kaart op dezelfde settings.

Op deze manier is het meer een showcase van 'hoe kunnen een zo worst case mogelijk scenario opzetten om de impact van 8 en 16GB laten zien'. wat natuurlijk op zich interessant is. Maar dan zou ik er geen aanbevelingen voor videokaarten te kopen aan hangen.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
Volgens mij heb ik die gemist destijds, ook eens even checken!

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Dennism schreef op dinsdag 14 januari 2025 @ 15:12:
[...]


Wel met de kanttekening van de gebruikte settings, mogelijk dat een van beide, of misschien zelfs beide kaarten op lagere settings wel afdoende presteren voor 1080P, maar de vraag is dan weer in hoeverre de verhoudingen in prestaties tussen 8 en 16GB hetzelfde zijn als dat nu getest is, of dat dit weer gaat verschuiven.

En juist dat maakt zo'n test als deze, met deze kaarten zo weinig logisch voor mij. Want resultaten op niet speelbare settings hoeven zich niet direct te verhouden tot resultaten op settings gangbaar voor deze kaarten.

Test wat mij betreft dus met settings waarbij minimaal 1 van beide kaarten de game probleemloos kan draaien en kijk dan hoe dat zich verhoud met de andere kaart op dezelfde settings.

Op deze manier is het meer een showcase van 'hoe kunnen een zo worst case mogelijk scenario opzetten om de impact van 8 en 16GB laten zien'. wat natuurlijk op zich interessant is. Maar dan zou ik er geen aanbevelingen voor videokaarten te kopen aan hangen.
Zo werken de meeste videokaarten reviews en cpu reviews.

-CPU reviews vaak op de laagste resolutie (sommige sites testen alle gangbare resoluties) met de dikste videokaarten.
Ook totaal onrealistisch.
Op 4k max details merk je het verschil niet meer (ik druk me overdreven uit... om een punt te maken) tussen een Ryzen 3600 en een Ryzen 9800X3D.

En videokaarten reviews allemaal met de dikste cpu.
Met de Intel B580 hebben we gezien hoe "realistisch" dat is en wat dat oplevert.

Eigenlijk is een cpu op zo'n manier testen een onzin test die ze net zo goed achterwege kunnen laten (ook weer sarcasme ;))
Dat bedoel ik dus met dat er overal mitsen en maren bij gesteld moeten worden omdat iets niet bij een usecase van een bepaalde gebruiker past.
In plaats van gewoon de resultaten van de review/test te accepteren.
De B580 reviews zijn wel een punt van aandacht/wake up call voor reviewers.

Wat ze met het PCGH artikel hadden mogen doen is dus Framegeneration testen omdat dit (ik val in herhaling) wél iets speelbaars op kan leveren mét maximale details (zoals getest) én omdat dit juist meer vram vraagt.
Met de 7600XT 16gb heb je die mogelijkheid (ademruimte) dus in ieder geval zonder maximale details omlaag te zetten.
Wat ik een heel belangrijk punt vind voor de geteste usecase en waaruit je zelf kan concluderen dat 16gb dan zeker meerwaarde heeft, buiten/bovenop wat er geconcludeerd is.

8GB vram is gewoon te weinig in 2025 voor nieuwe grafische kaarten (aanschaffen). Punt. Uit.
Daar zit voor mij verder geen meerwaarde in een "de aarde is plat" discussie.

Ik ben het dus eens dat in ieder geval Framegeneration meegenomen had mogen worden in deze vergelijking.
En de recente B580 reviews hebben als verbeter puntje dat er met videokaarten ook een (realistischere) andere manier van testen, met oudere cpu's, gedaan mag worden.
Want er waren daar, achteraf, ook met de RX 7600 forse verschillen te zien volgens HWunboxed.

[ Voor 17% gewijzigd door HugoBoss1985 op 14-01-2025 15:38 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
HugoBoss1985 schreef op dinsdag 14 januari 2025 @ 15:23:
[...]


Zo werken de meeste videokaarten reviews en cpu reviews.

-Videokaarten reviews vaak op de laagste resolutie (sommige sites testen alle gangbare resoluties) met de dikste cpu.
Ook totaal onrealistisch.
Op 4k max details merk je het verschil niet meer (ik druk me overdreven uit) tussen een Ryzen 3600 en een Ryzen 9800X3D.

-CPU reviews met de dikste videokaarten om daar zo min mogelijk bottleneck te hebben.
Wat in dat opzicht is dat echter logisch, omdat je wil laten zien wat de potentie is zonder bottlenecks. Maar dat is nu juist niet wat ze hier doen, hier gooien ze er een enorme bottleneck in, door een GPU te kiezen die enorm beperkt is qua performance in de gekozen settings, en dus mogelijk al dan niet de resultaten een bepaalde kant op stuurt, zoals ik al zei, dit lijkt meer op een worst case showcase, wat prima is, want interessant, alleen moeten ze dan die aanbeveling op het einde niet doen, want ook de 16GB kaart is gewoon super slecht in wat ze getest hebben.
8GB vram is gewoon te weinig in 2025. Punt. Uit.
Daar zit voor mij verder geen meerwaarde in een discussie.
Maar dat is imho dan ook geen discussie :P Maar dat was het ook niet voor dit artikel. Iemand die zich gamer wil noemen moet al tijden geen 8GB kaart kopen. Toch doen velen het, en ik vermoed dat een artikel als dit daar ook geen verandering in gaat brengen zolang er 8GB kaarten op de markt zijn.

Die 8GB kaarten zijn instappers, en je kan erover discussiëren waarom die kaarten nog op de markt komen (en zolang mensen ze blijven kopen, vind ik het dan weer niet onlogisch vanuit de fabrikanten gezien dat ze nog steeds naar de markt gebracht worden). Ik zie die 8GB kaarten eigenlijk enkel nog als instappen voor mensen die niet / incidenteel gamen, maar wel een dGPU willen hebben om wat voor reden dan ook (misschien meerdere video de / encoders, hobby renderwerk ofzo, wie het weet mag het zeggen), maar niet voor gamers die zelf hun eigen systeem bouwen en een kaart kiezen. Voor die mensen had je vroeger het xx30 / xx50 segment, maar dat is er al even niet meer (xx30 voor het laatst in de 1000 serie uit mijn hoofd, xx50 voor de desktop voor het laatst in de 30 serie).

[ Voor 4% gewijzigd door Dennism op 14-01-2025 15:42 ]


Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Dennism schreef op dinsdag 14 januari 2025 @ 15:38:
[...]


Wat in dat opzicht is dat echter logisch, omdat je wil laten zien wat de potentie is zonder bottlenecks. Maar dat is nu juist niet wat ze hier doen, hier gooien ze er een enorme bottleneck in, door een GPU te kiezen die enorm beperkt is qua performance in de gekozen settings, en dus mogelijk al dan niet de resultaten een bepaalde kant op stuurt, zoals ik al zei, dit lijkt meer op een worst case showcase, wat prima is, want interessant, alleen moeten ze dan die aanbeveling op het einde niet doen, want ook de 16GB kaart is gewoon super slecht in wat ze getest hebben.


[...]


Maar dat is imho dan ook geen discussie :P Maar dat was het ook niet voor dit artikel. Iemand die zich gamer wil noemen moet al tijden geen 8GB kaart kopen. Toch doen velen het, en ik vermoed dat een artikel als dit daar ook geen verandering in gaat brengen zolang er 8GB kaarten op de markt zijn.

Die 8GB kaarten zijn instappers, en je kan erover discussiëren waarom die kaarten nog op de markt komen (en zolang mensen ze blijven kopen, vind ik het dan weer niet onlogisch vanuit de fabrikanten gezien dat ze nog steeds naar de markt gebracht worden). Ik zie die 8GB kaarten eigenlijk enkel nog als instappen voor mensen die niet / incidenteel gamen, maar wel een dGPU willen hebben om wat voor reden dan ook (misschien meerdere video de / encoders, hobby renderwerk ofzo, wie het weet mag het zeggen), maar niet voor gamers die zelf hun eigen systeem bouwen en een kaart kiezen. Voor die mensen had je vroeger het xx30 / xx50 segment, maar dat is er al even niet meer (xx30 voor het laatst in de 1000 serie uit mijn hoofd, xx50 voor de desktop voor het laatst in de 30 serie).
Ik begrijp je denk ik toch niet echt goed.
Jij reageerde in eerste instatie (zo las ik het) zo dat de test niet bij een gebruiksscenario past wat voor jou bruikbaar is.
Jij vind het een onzin test omdat er in een aantal games geen speelbare framerates behaald worden.
Goed er zijn een aantal games bij die ook op 1080p niet meer speelbaar zijn met de geteste settings (ver onder de 60 fps, 30 fps).
Maar die settings en die games laten wel een 50% of meer fps verschil zien tussen 8gb vs 16gb.
Terwijl het prijsverschil tussen de kaarten veel minder is.
Doe er framegeneration bij en je hebt iets wat wellicht wél speelbaar is.
Met de 7600 8gb gaat dat niet lukken als je zonder upscaling en zonder framegen al vram tekort komt.
Dat is iets wat je er ook uit kan concluderen als je gaat onderzoeken (elders dan PCGH) hoeveel fps framegeneration oplevert.
Met upscaling zal de framerate stijgen maar dan doe je dus concessies op de maximale details.
En ja, met framegeneration krijg je input lag maar je hebt dan de optie om speelbaar op 1080p max details 60fps (+?) te spelen ómdat je vram ruimte over hebt.

Goed dan kan je nog wel discussiëren over het feit dat AMD de 60 fps baseline als minimum houdt voor framegeneration.
Ik gebruik het zelf vaak ook als ik minder dan 60 fps haal en heb er dan behoorlijk plezier van.
Voor een couch gaming ervaring met een controller prima.

Ik vind het juist mooi dat ze twee instapkaartjes hebben getest voor 1080p test.
Met dezelfde gpu maar verschillende vram configuratie.
En ik vind het niet zo vreemd dat men verwacht/denkt/gaat hiermee op 1080p max settings mee te kunnen gamen.
Maar verwacht dan ook upscaling en/of framegeneration te gebruiken.

Of je moet texture settings omlaag zetten.
Niet omdat dit persé aan de prestaties van je videokaart ligt maar omdat je een vram bottleneck hebt.

Welke twee andere kaarten zijn er die 1:1 te vergelijken zijn en verschillen qua vram (alhoewel de 7600 XT iets hoger geklokt is)?
De 4060ti ook niet want die heeft een clamshell config.

Ik zou wel een topkaart zoals een 5080 16gb gemod en getest willen zien met verschillende vram configuraties.
Wellicht iets voor wat Braziliaanse modders die wat vram kunnen omsolderen.

Als ik een 4090 review van TechPowerup bekijk wordt er ook een Cyberpunk in 4k getest van een 6800 tot dus de 4090.
De 6800 haalt een 31.4 fps terwijl de 4090 zo'n 75 fps haalt.
Voor de 6800 is dat dan eigenlijk ook niet realistisch/onspeelbaar terwijl je daar prima Cyberpunk mee kan spelen op 4k mits je wat upscaling en framegeneration gebruikt.
En 75 fps met een 4090 is voor sommigen ook geen bruikbaar/realistische usecase.
Terwijl die ook zonder upscaling en zonder framegen getest wordt.

Deze is ook mooi 7600 vs 7600 XT: meerder resoluties én medium vs ultra settings.

https://www.tomshardware....-worth-it-in-a-budget-gpu

Op 1080p medium dus weinig verschillen.
Dus als je een vram verschil wilt aantonen met dit soort kaartjes zul je dus meer zoals PCGH moeten gaan testen.

[ Voor 16% gewijzigd door HugoBoss1985 op 14-01-2025 16:19 ]


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
@HugoBoss1985

Ik denk dat je wat door elkaar haalt, ik heb het nergens een onzin test genoemd. Ik vind de test juist wel interessant (wat ik al aangaf), alleen hun conclusie deel ik niet dat op basis van deze review de 7600XT een 'aanrader' zou zijn.

Immers beide geteste kaarten presteren ronduit ondermaats in iets van 90% van de tests

Daarnaast denk ik dat het niet heel representatief is, omdat er voor een zo negatief mogelijk scenario is gekozen. Ik vind de gedane test dus niet positief voor de 8GB kaart, verre van, maar ook niet voor de 16GB kaart. Beide zou ik op basis van deze test nooit kopen en / of aanraden aan anderen.

En ik had het dus anders gedaan, door voor een test scenario te kiezen waarbij de 16GB kaart altijd minimaal 60FPS zou halen (het liefst 1% lows), en om dan te kijken hoeveel slechter de 8GB kaart op dat moment is en of die nog kan meekomen op zelfde settings, of dat die veel eerder onspeelbaar is. En mogelijk dat op basis daarvan de 16GB kaart wel een aanrader zou kunnen zijn.

Dat die 16GB kaart er mogelijk met andere settings zoals FG er beter uit komt kan (en is te verwachten), maar dat wordt niet getest en kunnen we dus ook niet concluderen uit deze test.
Voor de 6800 is dat dan eigenlijk ook niet realistisch/onspeelbaar volgens jou (?) terwijl je daar prima Cyberpunk mee kan spelen mits je wat upscaling en framegeneration gebruikt.
Op die settings zou Cyberpunk inderdaad voor mij onspeelbaar zijn, upscaling zou dat kunnen veranderen, maar dat is dan weer een test op zich, immers dit resultaat bewijst niet dat een 6800 met upscaling (FG zou ik zelf denk ik niet snel gebruiken) speelbaar is qua FPS (maar ook artifacts moet je dan meenemen, en dat maakt het vaak weer erg persoonlijk). Maar zo'n test laat mij wel ziet dat ik nooit een 6800 zou kopen om Cyberpunk te spelen op 4K zonder upscaling.

Ik ben wat dat betreft meer een 'native' gamer zolang het nog kan :P en gebruik FSR en Fluid Frames eigenlijk nooit tot nu toe op de 6900XT, maar ik heb dan ook wel het geluk niet heel erg vaak voor de AAA games te gaan.

[ Voor 5% gewijzigd door Dennism op 14-01-2025 16:40 ]


Acties:
  • +2 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Dennism schreef op dinsdag 14 januari 2025 @ 15:38:

[...]


Maar dat is imho dan ook geen discussie :P Maar dat was het ook niet voor dit artikel. Iemand die zich gamer wil noemen moet al tijden geen 8GB kaart kopen.
Nofi, maar dit komt nogal elitistisch over. Is 8GB nu een beperking? Ja. Maar je kan nog heel veel prima spelen op 8GB. Dus afhankelijk van je budget kan je nog prima de keuze maken een 8GB kaart te kopen imo.

Zeker als je wat oudere spellen speelt, die er net zo goed uit zien als een nieuw spel wat wel veel meer VRAM gebruikt... Als we klagen erop dat door Nvidia developers lui worden en met upscaling alles oplossen, kunnen we dan ook klagen dat door AMD developers lui worden en alles oplossen door meer VRAM te vragen?

[ Voor 13% gewijzigd door Sissors op 14-01-2025 16:39 ]


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
HugoBoss1985 schreef op dinsdag 14 januari 2025 @ 15:57:
[...]
Op 1080p medium dus weinig verschillen.
Dus als je een vram verschil wilt aantonen met dit soort kaartjes zul je dus meer zoals PCGH moeten gaan testen.
En dat is dus het hele punt: Is het doel om aan te tonen dat VRAM impact kan hebben (no shit sherlock imo, maar goed), dan moet je dit doen inderdaad. Maar wil je aantonen dat meer VRAM essentieel is in die klasse kaarten, dan zegt deze test helemaal niks.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
Sissors schreef op dinsdag 14 januari 2025 @ 16:39:
[...]

Nofi, maar dit komt nogal elitistisch over. Is 8GB nu een beperking? Ja. Maar je kan nog heel veel prima spelen op 8GB. Dus afhankelijk van je budget kan je nog prima de keuze maken een 8GB kaart te kopen imo.
Het eerste, misschien een beetje :P Maar we zijn dan ook PCMASTERRACE gebruikers en geen console gamers ;) Maar de meesten, zeker diegenen op een tight budget kopen een kaart vaak om deze ook enige tijd te gebruiken, en terwijl 8GB nu soms, zeker bij oudere games nog Ok kan zijn, ziet de toekomst er toch wel erg bleek uit.

Al druk ik me wel een beetje verkeerd uit, en kopen had kiezen moeten zijn. Het kan immers ook voorkomen dat er door budget niet echt wat te kiezen was.

Dat mensen op een budget de keuze voor 8GB moeten maken (in ieder geval tot voor kort) klopt, maar dat betekent mijn inziens niet dat het een verstandige keuze is, eerder een moetje want ze konden niet anders. Ik persoonlijk zou dus echt geen 8GB kaarten meer aanraden, en even door sparen adviseren wanneer er geen dringende reden is (defect ofzo) om nu een budget GPU te kopen.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Dennism schreef op dinsdag 14 januari 2025 @ 16:49:
[...]


Het eerste, misschien een beetje :P Maar we zijn dan ook PCMASTERRACE gebruikers en geen console gamers ;) Maar de meesten, zeker diegenen op een tight budget kopen een kaart vaak om deze ook enige tijd te gebruiken, en terwijl 8GB nu soms, zeker bij oudere games nog Ok kan zijn, ziet de toekomst er toch wel erg bleek uit.

Al druk ik me wel een beetje verkeerd uit, en kopen had kiezen moeten zijn. Het kan immers ook voorkomen dat er door budget niet echt wat te kiezen was.

Dat mensen op een budget de keuze voor 8GB moeten maken (in ieder geval tot voor kort) klopt, maar dat betekent mijn inziens niet dat het een verstandige keuze is, eerder een moetje want ze konden niet anders. Ik persoonlijk zou dus echt geen 8GB kaarten meer aanraden, en even door sparen adviseren wanneer er geen dringende reden is (defect ofzo) om nu een budget GPU te kopen.
@Sissors

En om hoeveel prijs verschil hebben we het nou eigenlijk?
Het is toch verwaarloosbaar.

Eigenlijk is het verschil van 8gb tussen de 7600 en de 7600 XT idioot/overdreven te noemen (voor dit soort kaartjes)!
Een 6700 10gb en 6700 XT 12gb vond ik meer in balans.
Net als nu de Intel B570 en B580.

PC gaming is (vind ik) toch wel ernstig duur geworden.
Want dus ook met dit soort instap kaartjes ben je al gauw €280 kwijt.
Daarom gaf ik ook aan dat mensen het dan (denk ik?) niet gek vinden dat ze daar flink de details mee omhoog kunnen gooien op 1080p.
Het zijn toch al aardige bedragen, zeker als je het vergelijkt met een console (waar ook AMD hardware in zit).

De stap naar een volgende kaart is toch wel snel gemaakt, tenzij je echt heel strak op je budget let (respect daarvoor).
Voor iets meer heb je vaak flink beter.
Ik zou op zijn minst de stap van 8gb naar iets meer (liefst 12gb) wél zetten.

Ik speel echt nog voornamelijk met een XBOX controller.
De reden dat ik nog op de pc game is veel pc exclusive games en gratis games (mods) zoals Stalker GAMMA.
Die speel ik dan weer met een Steam controller.
En ik gebruik het gewoon zo relatief veel dat ik het nog wel kan verantwoorden, alhoewel ik nog meer hobbies heb.
Uitgaan en naar de kroeg gaan doe ik niet dus ik bespaar daar centjes en mijn gezondheid op.
Met keyboard + mouse competitive gaming overigens ook, ik merkte dat ik daar vaak meer stress van kreeg dan dat het ontspannend werkte.
Omdat het frusterend wordt, vooral doordat er zoveel gecheat wordt.
Ik speel dan liever coop en/of singleplayer.
Dan mag het op 4k wel met wat minder fps zijn ómdat ik met een controller game.

[ Voor 7% gewijzigd door HugoBoss1985 op 14-01-2025 17:04 ]


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
HugoBoss1985 schreef op dinsdag 14 januari 2025 @ 17:00:
[...]


@Sissors

En om hoeveel prijs verschil hebben we het nou eigenlijk?
Het is toch verwaarloosbaar.

Eigenlijk is het verschil van 8gb tussen de 7600 en de 7600 XT idioot/overdreven te noemen (voor dit soort kaartjes)!
Een 6700 10gb en 6700 XT 12gb vond ik meer in balans.
Net als nu de Intel B570 en B580.

PC gaming is (vind ik) toch wel ernstig duur geworden.
Want dus ook met dit soort instap kaartjes ben je al gauw €280 kwijt.
De echt goedkope kaartjes zijn er niet meer, ik denk primair omdat de IGPs gewoon beter zijn geworden. En als je toch een game PC wil, dan kan een paar honderd Euro voor een GPU ook al wel snel voor de meeste.

Maar ik weet niet wat jij ernstig duur noemt, maar het wordt natuurlijk wel duurder als je bijvoorbeeld minimaal 16GB VRAM gaat eisen. Je kan voor €1000 een prima game PC nu hebben, maar je moet wel keuzes maken. Ik vraag me nog af of ik mijn RTX3070 ga vervangen of niet deze cyclus, en ik kan prima een nieuwe kaart betalen, tegelijk doet hij bij hetgeen wat ik speel het eigenlijk heel prima. Redelijk wat spellen die niet het nieuwste zijn, maar een Hogwarts deed hij prima, ja ondanks zijn VRAM. En als nieuwste nu een Helldivers loopt ook prima.

En misschien schrijf ik dit wel geheel zodat iemand mijn kaart straks nog tweedehands wil kopen :P . Maar voor de juiste prijs denk ik dat het echt nog een prima kaart is voor iemand op een budget. Ja het VRAM is een nadeel, absoluut! Maar veruit de meeste spellen kan je prima op acceptabele kwaliteit er nog steeds op draaien. (Als ik zo snel kijk in V&A mag er nog wel €100 af, maar goed, ik vind al heel lang GPU prijzen in V&A erg hoog).
Dan mag het op 4k wel met wat minder fps zijn ómdat ik met een controller game.
En dat is dus een persoonlijk iets ook. En dat bedoel ik op geen enkele manier negatief! Maar jij speelt op hoge resolutie, en vind FPS niet het belangrijkste. Ik speel op lagere resolutie (1440p meestal), maar ik wil mijn FPS wel redelijk hoog hebben, en anders zet ik sowieso mijn settings naarbeneden.

[ Voor 10% gewijzigd door Sissors op 14-01-2025 17:12 ]


Acties:
  • 0 Henk 'm!

  • Techkeizer
  • Registratie: Januari 2023
  • Laatst online: 18-09 01:46
Hoe komt het dat de 9070XT toch zo goed gaat scoren, terwijl ze niet voor high end gegaan zijn en ze geen ddr7 gebruiken. Toch netjes. Nu nog acceptabel prijzen en dan kunnen ze hopelijk wat market share snoepen van Nvidia.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Techkeizer schreef op dinsdag 14 januari 2025 @ 22:46:
Hoe komt het dat de 9070XT toch zo goed gaat scoren, terwijl ze niet voor high end gegaan zijn en ze geen ddr7 gebruiken. Toch netjes. Nu nog acceptabel prijzen en dan kunnen ze hopelijk wat market share snoepen van Nvidia.
Weten we hoe goed die gaat presteren? :P
Maar AMD heeft sinds RDNA2 gewoon veel minder geheugenbrandbreedte nodig omdat ze veel meer caches hebben in de GPU die ze ook veel beter ingedeeld hebben dan Nvidia. Ze hoeven gewoon niet zo vaak terug te grijpen naar VRAM. Nvidia is juist zeer afhankelijk van GB/s getallen. Dat zie je generatie na generatie met hun grotere GPU's. Ze hebben echt grote problemen om te schalen met hun cuda cores, zeker als je richting de 10.000 gaat. Laat staan als je eroverheen gaat. Daarom kreeg je een RTX4090 die 68% meer cuda cores heeft dan een RTX4080, en misschien 30% sneller is. En zie daar de 512 bit bus van de RTX5090. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 18-09 11:19
DaniëlWW2 schreef op woensdag 15 januari 2025 @ 09:56:
[...]


Weten we hoe goed die gaat presteren? :P
Maar AMD heeft sinds RDNA2 gewoon veel minder geheugenbrandbreedte nodig omdat ze veel meer caches hebben in de GPU die ze ook veel beter ingedeeld hebben dan Nvidia. Ze hoeven gewoon niet zo vaak terug te grijpen naar VRAM. Nvidia is juist zeer afhankelijk van GB/s getallen. Dat zie je generatie na generatie met hun grotere GPU's. Ze hebben echt grote problemen om te schalen met hun cuda cores, zeker als je richting de 10.000 gaat. Laat staan als je eroverheen gaat. Daarom kreeg je een RTX4090 die 68% meer cuda cores heeft dan een RTX4080, en misschien 30% sneller is. En zie daar de 512 bit bus van de RTX5090. ;)
Dan vraag ik me toch af waarom de meeste RDNA3 kaarten aanzienlijk meer geheugenbandbreedte en of cache hebben dan hun tegenpool van Nvidia. Een 7900XTX zit qua bandbreedte bijna op het niveau van een 4090 en heeft nog meer cache terwijl hij concurreert met een 4080. Dit zie je over de hele lijn en als ik even naar de 7900GRE -> 7900XT kijk dan zou ik ook niet zeggen dat die bandbreedte voor niet is. Hebben MCM kaarten gewoon meer nodig?

Ik dacht trouwens juist dat je grote caches zoveel mogelijk wou vermijden omdat het erg duur is qua oppervlakte. Als geheugen natuurlijk te traag evolueert dan moet je er natuurlijk wel gebruik van maken.

Edit: ik zie dat de 64MB L3 ongeveer 35-40 mm² is. Dat lijkt inderdaad enorm groot. Dat zou willen zeggen dat de cache alleen meer dan 10% van de chip van een 7800XT of 4080 is.

[ Voor 5% gewijzigd door napata op 15-01-2025 11:33 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
DaniëlWW2 schreef op woensdag 15 januari 2025 @ 09:56:
[...]


Weten we hoe goed die gaat presteren? :P
Maar AMD heeft sinds RDNA2 gewoon veel minder geheugenbrandbreedte nodig omdat ze veel meer caches hebben in de GPU die ze ook veel beter ingedeeld hebben dan Nvidia. Ze hoeven gewoon niet zo vaak terug te grijpen naar VRAM. Nvidia is juist zeer afhankelijk van GB/s getallen. Dat zie je generatie na generatie met hun grotere GPU's. Ze hebben echt grote problemen om te schalen met hun cuda cores, zeker als je richting de 10.000 gaat. Laat staan als je eroverheen gaat. Daarom kreeg je een RTX4090 die 68% meer cuda cores heeft dan een RTX4080, en misschien 30% sneller is. En zie daar de 512 bit bus van de RTX5090. ;)
Ook iets waarvan je eigenlijk niets meer hoort, de infinity cache. Bij RDNA2 het wondermiddel, bij RDNA3 leek het al minder belangrijk gevonden te worden, want grotere latency op het op de MCD's zat en bredere memory bus voor de top Sku's. Maar ook op de Sku's met een gelijke of kleinere memory bus werd de cache flink kleiner bij RDNA3

Bij RDNA2 was het 128MB voor de 256bit bus Sku's, 96MB voor de 192bit bus Sku's, 80MB voor de 160 bit Sku's en dan 32MB, 16MB en 8MB voor de 128/64/32 bit bus Sku's.

Bij RNDA3 is het 96MB voor de 384bit Sku, 80MB voor de 320 bit Sku, 64MB voor de 256bit Sku's, 48MB voor de 192 bit Sku, en 32 voor de 128bit Sku's

En nu bij RDNA4 hoor je er amper meer wat over, anders dan 64/48MB voor Navi 48/44 respectievelijk.

Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 14-09 12:58
napata schreef op woensdag 15 januari 2025 @ 11:23:
Dan vraag ik me toch af waarom de meeste RDNA3 kaarten aanzienlijk meer geheugenbandbreedte en of cache hebben dan hun tegenpool van Nvidia. Een 7900XTX zit qua bandbreedte bijna op het niveau van een 4090 en heeft nog meer cache terwijl hij concurreert met een 4080.
Omdat ze meer geheugen hebben. Simpel rekensommetje. Gaat niet om bandbreedte nodig hebben, maar om capaciteit willen hebben.

GDDR6(X) chips zijn te krijgen in 1 GB of 2 GB. Gebruik je de grote chips en wil je geen clamshell, dan kom je met 32 bits per chip voor de 4080 op 16 / 2 = 8 * 32 = 256 bits bus uit. AMD wilde 20 en 24 hebben; 10 en 12 chips respectievelijk, dus dan heb je 320 en 384 bits nodig. Bandbreedte is dan het product van het aantal en de snelheid van de chips.

Met Ampère en RDNA2 was het juist andersom. Een 6800/6900 heeft "slechts" 512 GB/s aan bandbreedte, omdat AMD toen al 2 GB chips gebruikte. Een 3080 10 GB had 760 GB/s aan bandbreedte; de 3090's zaten rond de TB/s.
Ik dacht trouwens juist dat je grote caches zoveel mogelijk wou vermijden omdat het erg duur is qua oppervlakte. Als geheugen natuurlijk te traag evolueert dan moet je er natuurlijk wel gebruik van maken.

Edit: ik zie dat de 64MB L3 ongeveer 35-40 mm² is. Dat lijkt inderdaad enorm groot. Dat zou willen zeggen dat de cache alleen meer dan 10% van de chip van een 7800XT of 4080 is.
SRAM is inderdaad groot en duur, schaalt ook niet lekker met nieuwe procedé's. Het is een afweging die ze moeten maken om latency en stalls op te vangen omdat er tegenwoordig meer data nodig is.

Acties:
  • +4 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 14:46
Die VRAM test bevestigt eigenlijk gewoon alles wat we al wisten, en wat bij iedere frontpagediscussie desondanks weer bediscussieerd moet worden:
1. 8GB VRAM heeft niks te zoeken op een GPU die anno 2025 nog gedacht is om moderne games op 1080p/60 te kunnen spelen
2. Budget GPU's van de afgelopen (of eigenlijk nog huidige) generatie(s) zijn eigenlijk gewoon niet krachtig genoeg om de baseline van 1080p/60 te halen bij ultra settings.

Twee conclusies die je los dient te zien. Wat in mijn optiek het grootste gat is in de PCGH test, is hoe deze kaarten zouden presteren op medium settings, maar met de hoogste texture settings en eventueel medium texture settings. In de regel heeft dat dus de grootste impact op de beeldkwaliteit, zónder dat de prestaties er werkelijk invloed op hebben.

Sowieso zijn ultra settings vooral leuk als benchmark settings om GPU's met elkaar te kunnen vergelijken, maar verder gewoon niet realistisch, omdat ze (als het goed is) ver aan de optimale range voorbij liggen, juist zodat je met een GPU van een jaar of wat nieuwer echt alles uit de kast kunt trekken.

Inmiddels lijkt het een beetje mosterd na de maaltijd.
https://www.techpowerup.c...eForce+50&sort=generation
Als je dit lijstje ziet, weliswaar voorbarig, zijn enkel de instappers nog voorzien van een 8GB framebuffer. Misschien dat een 5060 8GB DOA is vanwege deze beperking.

Interessanter is of 12 GB nog afdoende is voor een GPU in het 192bit segment.

Ik denk namelijk dat we ons qua VRAM nu gewoon op een wat ongemakkelijke positie bevinden waar je met de hogere midrange kaarten ziet dat 16GB eigenlijk het minimum zou moeten zijn, maar waar omwille van de productpositionering dit simpelweg niet mogelijk is. Je zit immers aan je 128bit/192bit/256/bit bussen vast om deze segmentering om te zetten. Een RTX 5070 met 12 GB is onderkantje karig, maar met een dergelijke bus is het of 12GB, of 24GB. 24GB is pure overkill voor games, en ondermijnt bovendien duurdere kaarten voor niet-gaming toepassingen.

Bij AMD vraag ik me vooral af of de 9070 geen zware bottleneck tegen gaat komen wat geheugenbandbreedte betreft. De 7900 GRE is hier namelijk ook wat beperkt in. Ik heb mezelf daarom ook de vraag gesteld of men niet toch eventueel nog met een XTX op de proppen gaat komen met een 20GB framebuffer en wat extra bandbreedte vooral. Je zou zeggen dat de ruimte er is en de vraag ook wel?

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

napata schreef op woensdag 15 januari 2025 @ 11:23:
[...]

Dan vraag ik me toch af waarom de meeste RDNA3 kaarten aanzienlijk meer geheugenbandbreedte en of cache hebben dan hun tegenpool van Nvidia. Een 7900XTX zit qua bandbreedte bijna op het niveau van een 4090 en heeft nog meer cache terwijl hij concurreert met een 4080. Dit zie je over de hele lijn en als ik even naar de 7900GRE -> 7900XT kijk dan zou ik ook niet zeggen dat die bandbreedte voor niet is. Hebben MCM kaarten gewoon meer nodig?

Ik dacht trouwens juist dat je grote caches zoveel mogelijk wou vermijden omdat het erg duur is qua oppervlakte. Als geheugen natuurlijk te traag evolueert dan moet je er natuurlijk wel gebruik van maken.

Edit: ik zie dat de 64MB L3 ongeveer 35-40 mm² is. Dat lijkt inderdaad enorm groot. Dat zou willen zeggen dat de cache alleen meer dan 10% van de chip van een 7800XT of 4080 is.
Omdat RDNA3 de L3 cache verplaatste naar de MCD's. Dat kwam met een latency penalty die het effect reduceerde. Neem de RX7900XT vs RX7900GRE. Dat is 84 vs. 80 CU, 20GB/800GB vs. 16GB/576GB/s en 80MB vs. 64MB L3 cache. Prestatieverschil is net geen 20%. Maar de GRE heeft maar 72% van de GB/s en 80% van de L3 cache. Dat is vrij lineaire schaling op de cache.

Bij Nvidia heb je bijvoorbeeld het enorme verschil tussen een RTX3080 en RTX3090 qua specs en iets van 15% sneller. Of RTX4080 vs. RTX4090. Of RTX2080 vs. RTX2080Ti wat iets van 20% was. Nvidia heeft steeds die grote stappen in GB/s nodig en met Ada introduceerde ze ook een forse L2 cache omdat ze minder uit VRAM gingen halen met GDDR6X. Nu moeten ze wel naar GDDR7. Dat is hoe ze voornamelijk hun prestatiewinst per generatie halen. Voor AMD is dat minder noodzakelijk omdat ze ook die L3 cache hebben. En dat is wat vermoedelijk ook de RX7700XT echt benadeeld heeft. Die mist een MCD, dus ook 1/4 van de L3 cache die de RX7800XT wel heeft. En daar gaat iets van 20% performance terwijl die maar 10% minder CU's heeft.

Geheugentoegang is gewoon zo ontiegelijk belangrijk geworden. En AMD en Nvidia doen het op heel andere manieren. AMD met veel caches en eigenlijk veel meer als een CPU. Nvidia metinmiddels een grote L2 cache en snellere VRAM.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 18-09 11:19
DaniëlWW2 schreef op woensdag 15 januari 2025 @ 12:55:
[...]


Omdat RDNA3 de L3 cache verplaatste naar de MCD's. Dat kwam met een latency penalty die het effect reduceerde. Neem de RX7900XT vs RX7900GRE. Dat is 84 vs. 80 CU, 20GB/800GB vs. 16GB/576GB/s en 80MB vs. 64MB L3 cache. Prestatieverschil is net geen 20%. Maar de GRE heeft maar 72% van de GB/s en 80% van de L3 cache. Dat is vrij lineaire schaling op de cache.

Bij Nvidia heb je bijvoorbeeld het enorme verschil tussen een RTX3080 en RTX3090 qua specs en iets van 15% sneller. Of RTX4080 vs. RTX4090. Of RTX2080 vs. RTX2080Ti wat iets van 20% was. Nvidia heeft steeds die grote stappen in GB/s nodig en met Ada introduceerde ze ook een forse L2 cache omdat ze minder uit VRAM gingen halen met GDDR6X. Nu moeten ze wel naar GDDR7. Dat is hoe ze voornamelijk hun prestatiewinst per generatie halen. Voor AMD is dat minder noodzakelijk omdat ze ook die L3 cache hebben. En dat is wat vermoedelijk ook de RX7700XT echt benadeeld heeft. Die mist een MCD, dus ook 1/4 van de L3 cache die de RX7800XT wel heeft. En daar gaat iets van 20% performance terwijl die maar 10% minder CU's heeft.

Geheugentoegang is gewoon zo ontiegelijk belangrijk geworden. En AMD en Nvidia doen het op heel andere manieren. AMD met veel caches en eigenlijk veel meer als een CPU. Nvidia metinmiddels een grote L2 cache en snellere VRAM.
Maar een L2 cache is toch ook net zoals een CPU? Er is immers uiteindelijk geen verschil tussen L1, L2 of L3 behalve dat ze het level aangeven. Vroeger had je maar 2 levels bij CPUs, net zoals Nvidia GPUs. Er zijn er ook al geweest met 4.

Nu ik de prestatie leaks heb gezien, ga ik toch wel stellen dat het probleem van de 4090 & 5090 niet in de geheugenbandbreedte lijkt te zitten. De 5090 heeft bijna dubbel zoveel bandbreedte als een 5080 en de schaling lijkt even slecht te zijn als de 4090: 100% meer cores voor max 50% prestaties. Beiden lijken me zeer inefficient tegenover de chip die eronder zit.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

napata schreef op woensdag 15 januari 2025 @ 18:50:
[...]

Maar een L2 cache is toch ook net zoals een CPU? Er is immers uiteindelijk geen verschil tussen L1, L2 of L3 behalve dat ze het level aangeven. Vroeger had je maar 2 levels bij CPUs, net zoals Nvidia GPUs. Er zijn er ook al geweest met 4.
Caches zijn niet direct vergelijkbaar. Vanaf RDNA2 heeft AMD een enorm voordeel in latency met grotere workloads. Zie:
https://chipsandcheese.co...source=publication-search

Ook geeft dit aan dat RDNA3 zeker verbeteringen over RDNA2 heeft. RDNA3 heeft een nog verfijndere cache structuur en allemaal optimalisaties. RDNA3 haar grootste probleem lijkt alleen te zijn geweest dat ze die 3GHz niet haalde in shader workloads. Puur op integer halen ze dit, maar op shaders komen ze niet veel verder dan 2,5GHz tenzij je gaat fine tunen en een goede chip hebt. Nu heb ik zowaar eens geen slechte chip. Ik kan mijn RX7900XT consistent over de 2700MHz krijgen. En met een waterblok denk ik wel tegen de 2800MHz. Maar veel kunnen dat niet. En dat doet hier pijn, want die caches zijn qua snelheid verbonden aan de clock speed. Het had dus allemaal nog veel sneller moeten zijn. En dat gaan we misschien met RDNA4 zien.

Bijvoorbeeld dit ook. Nvidia doet het goed tot 128KB omdat dit het formaat van hun sneller SM L1 cache is. Daarna zakken ze flink weg. Krijg je dus complexere berekeningen, dan gaat RDNA2/3 daar heel wat beter mee om. Dit is een beperkte single workgroup, dus deze kan alles caches pakken. Maar je ziet dat RDNA2/3 pas meer gelijk trekt met Nvidia als 4MB aan L2 cache per Shader Engine uitgeput is. Dan valt RDNA2/3 terug op L3 cache die redelijk matcht met Nvidia L2 cache. En dan is RDNA2/3 alsnog steller met VRAM dan Nvidia.
Afbeeldingslocatie: https://substackcdn.com/image/fetch/f_auto,q_auto:good,fl_progressive:steep/https%3A%2F%2Fsubstack-post-media.s3.amazonaws.com%2Fpublic%2Fimages%2F60bf8990-b688-4255-862f-d8c039a3bbd5_1234x534.png
Nu ik de prestatie leaks heb gezien, ga ik toch wel stellen dat het probleem van de 4090 & 5090 niet in de geheugenbandbreedte lijkt te zitten. De 5090 heeft dubbel zoveel bandbreedte als een 5080 en de schaling lijkt even slecht te zijn als de 4090: 100% meer cores voor max 50% prestaties. Beiden lijken me zeer inefficient tegenover de chip die eronder zit.
Dat is het denk ik juist wel. Ik zie die resultaten die Nvidia zelf naar buiten heeft gebracht nu ook pas.
Dat is slechter dan ik had gedacht. Want ik dacht 20-30% en ik pakte nog de RTX4080 Super en RTX4070Ti Super. Dit is de normale en het lijkt nauwelijks 20% te zijn.
DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144"

Vs. Extra Shaders Sneller in Nvidia benchmarks
RTX 5090 vs. RTX 4090 +33% +33%
RTX 5080 vs. RTX 4080 +11% +15%
RTX 5070 Ti vs. RTX 4070 Ti +17% +20%
RTX 5070 vs. RTX 4070 +4% +20%


-De RTX5090 pakt 33% met 33% meer shaders en 33% extra GB/s.
-De RTX5080 zakt door het ijs. Die zou namelijk ook een flinke GB/s verbetering hebben en nauwelijks meer shaders. Maar die wint ook niet veel, maar wel meer dan de extra shaders.
-RTX5070Ti heeft een 256 bit bus vs. 192 voor de RTX4070Ti. En die valt dan ook tegen. Want die haalt RTX4080 prestaties zo niet.
-RTX5070 laat zien wat extra GB/s kan doen. Nauwelijks shaders, wel ruim 30% meer GB/s en die pakt 20% erbij.

https://www.computerbase....70-ti-5070-details.91036/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 20:08
Het is mogelijk nog slechter omdat de 'leak' alleen een vergelijking laat zien met RT aan en/of DSSL aan.
Raster pakt dus mogelijk nog slechter uit?

Tja, max +30% prestatie (en verbruik?) voor +30% meerprijs :z
Ik zie ook de RTX5080 hier en daar verschijnen voor prijzen rond €1400 - €1500.
Kennelijk proberen ze het weer..

Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 13:32
Bijzonder dat ze allemaal niet veel sneller zijn met alleen RT..... hebben ze dan alleen vol ingezet op dlss/fg ?

Bandbreedte genoeg dus waar zit dan de bottleneck? Schalen die games niet (cpu beperkt?) of die kaarten niet?

Ik mag hopen op grotere verschillen in raw power (raster) want anders vraag ik me echt af wie die prijzen gaat neertellen.

Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 13:20
meljor schreef op woensdag 15 januari 2025 @ 20:21:

Ik mag hopen op grotere verschillen in raw power (raster) want anders vraag ik me echt af wie die prijzen gaat neertellen.
Veel te veel mensen ben ik bang voor en dus de volgende keer weer een schepje er bovenop

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
meljor schreef op woensdag 15 januari 2025 @ 20:21:
Bijzonder dat ze allemaal niet veel sneller zijn met alleen RT..... hebben ze dan alleen vol ingezet op dlss/fg ?

Bandbreedte genoeg dus waar zit dan de bottleneck? Schalen die games niet (cpu beperkt?) of die kaarten niet?
Behalve bij de RTX 5090 zijn er nauwelijks cuda cores toegevoegd, dus de rekenkracht is niet veel omhoog gegaan.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
Naast de geheugensnelheden is het behalve bij de 5090 is het inderdaad vooral de AI performance die omhoog gaat, niet de ruwe shader power.

Acties:
  • +2 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Wellicht toch wederom weer een moment dat AMD een goede keuze gemaakt heeft en nu niet heel veel moeite hoeft te doen om marktaandeel te winnen?
Als de prestaties een beetje naar verwachting zijn en ze de prijs niet fubar maken/blijkt (niet weer iets fubars doen).

Ik blijf er nog bij dat bij Nvidia op dit moment de 5070ti de meest interessante is, maar toch nog boven mijn budget en geen interesse in een Nvidia kaart.

[ Voor 23% gewijzigd door HugoBoss1985 op 15-01-2025 21:18 ]


Acties:
  • +5 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

HugoBoss1985 schreef op woensdag 15 januari 2025 @ 21:10:
Wellicht toch wederom weer een moment dat AMD een goede keuze gemaakt heeft en nu niet heel veel moeite hoeft te doen om marktaandeel te winnen?
Als de prestaties een beetje naar verwachting zijn en ze de prijs niet fubar maken/blijkt (niet weer iets fubars doen).

Ik blijf er nog bij dat bij Nvidia op dit moment de 5070ti de meest interessante is, maar toch nog boven mijn budget en geen interesse in een Nvidia kaart.
Perfecte gelegenheid voor ze om het totaal te verprutsen. :z
Want stel dat de RTX5070Ti echt de RTX4080 niet eens matched. Zit de RX9700XT er dadelijk dichtbij in raster, een stuk dichterbij in RT en ook een flink stuk betere upscaling. En dan vragen ze bijvoorbeeld $600-650. Want daar kan dit ook op uitdraaien. Als Nvidia faalt om een verbetering te leveren, dan hoeft AMD ook niet echt veel te doen om beter te lijken. Dit terwijl dat $300-$500 segment juist zo wanhopig iets goeds nodig heeft. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Weet iemand hier of de Powercolor kaarten (of een deel ervan) PCM gaat gebruiken?
Ik zie dat je bij Megekko op Powercolor kaarten ook 36 maanden garantie hebt.

Voor zo ver we nu weten gaat Asus het in ieder geval toepassen op twee kaarten deze generatie.
Zulen XFX en Sapphire het ook weer gaan toepassen?

[ Voor 20% gewijzigd door HugoBoss1985 op 16-01-2025 10:07 ]


Acties:
  • 0 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 14:46
DaniëlWW2 schreef op woensdag 15 januari 2025 @ 21:49:
[...]


Perfecte gelegenheid voor ze om het totaal te verprutsen. :z
Want stel dat de RTX5070Ti echt de RTX4080 niet eens matched. Zit de RX9700XT er dadelijk dichtbij in raster, een stuk dichterbij in RT en ook een flink stuk betere upscaling. En dan vragen ze bijvoorbeeld $600-650. Want daar kan dit ook op uitdraaien. Als Nvidia faalt om een verbetering te leveren, dan hoeft AMD ook niet echt veel te doen om beter te lijken. Dit terwijl dat $300-$500 segment juist zo wanhopig iets goeds nodig heeft. :/
Iets wat erg voor de hand ligt. Ik heb een klein rondje pricewatch gedaan en daar valt het volgende op:

- De 7900 XT ligt nog boven de 700 Euro en is goed verkrijgbaar
- De 7900 GRE is zo goed als uit de handel, met enkel nog een Asrock Challenger voor 600 Euro (50 teveel, bij NBB in Duitsland)
- De 7800 XT is nog beschikbaar, tussen de 500 en 500 Euro

De 9070 XT zal dus niet alleen met Nvidia's 5070 gaan concurreren, maar tevens met AMD's eigen high-end en midrange van de vorige generatie. Tenzij Nvidia hier de duimschroef aandraait zie ik niet zozeer een aanleiding voor AMD om de 9070 XT voor minder dan 650 EUR op de markt te brengen, tenzij men de 7900 XT onverkoopbaar wil maken.

550 Euro, laat staan 500 Euro, lijkt mij echt wishful thinking. Wellicht dat de reguliere 5070 (550 USD) AMD dwingt wat te zakken qua prijs. Maar ik durf er mijn hand niet voor in het vuur te steken.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 13:32
Cid Highwind schreef op donderdag 16 januari 2025 @ 16:37:
[...]

Iets wat erg voor de hand ligt. Ik heb een klein rondje pricewatch gedaan en daar valt het volgende op:

- De 7900 XT ligt nog boven de 700 Euro en is goed verkrijgbaar
- De 7900 GRE is zo goed als uit de handel, met enkel nog een Asrock Challenger voor 600 Euro (50 teveel, bij NBB in Duitsland)
- De 7800 XT is nog beschikbaar, tussen de 500 en 500 Euro

De 9070 XT zal dus niet alleen met Nvidia's 5070 gaan concurreren, maar tevens met AMD's eigen high-end en midrange van de vorige generatie. Tenzij Nvidia hier de duimschroef aandraait zie ik niet zozeer een aanleiding voor AMD om de 9070 XT voor minder dan 650 EUR op de markt te brengen, tenzij men de 7900 XT onverkoopbaar wil maken.

550 Euro, laat staan 500 Euro, lijkt mij echt wishful thinking. Wellicht dat de reguliere 5070 (550 USD) AMD dwingt wat te zakken qua prijs. Maar ik durf er mijn hand niet voor in het vuur te steken.
Lijkt mij ook. Bovendien zie je hier en daar wat "leaks" die wijzen op circa 500 dollar. Tel daar onze verplichte 21% nog bij en je zit al boven de 600... De non-xt zal natuurlijk wat goedkoper zijn maar ook niet meer dan 100 denk ik.

De 300-500 is echt een prijspunt voor langzamere kaarten.

Nvidia biedt een 15% snellere 5080 aan voor dezelfde (hoofd)prijs als de 4080. Oke,met betere upscaling...

Waarom zou Amd dan een circa 7900xt (met betere upscaling/RT) uitbrengen voor de helft van de prijs? Deze was in het begin namelijk 900 euro.

Denk dat 650 best redelijk is en goede competitie biedt tegen een 5070(ti). 700 zou me ook niet verbazen.

De 5070 kost 550 dollar dus circa 700 euro hier.
De 5070ti kost 750 dollar dus 900+ hier.

Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Er is inmiddels een prijzen & levertijden topic.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
Over die sizes gesproken, als die eerder 'pixel counted' 390mm2 die size voor Navi 48 klopt is Navi 48 inderdaad groter dan de die in de RTX5080 met 378mm2 vs 390mm2, de 5070 krijgt een 263mm2 die.

Acties:
  • 0 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 14:46
meljor schreef op donderdag 16 januari 2025 @ 16:56:
[...]


Lijkt mij ook. Bovendien zie je hier en daar wat "leaks" die wijzen op circa 500 dollar. Tel daar onze verplichte 21% nog bij en je zit al boven de 600... De non-xt zal natuurlijk wat goedkoper zijn maar ook niet meer dan 100 denk ik.

De 300-500 is echt een prijspunt voor langzamere kaarten.

Nvidia biedt een 15% snellere 5080 aan voor dezelfde (hoofd)prijs als de 4080. Oke,met betere upscaling...

Waarom zou Amd dan een circa 7900xt (met betere upscaling/RT) uitbrengen voor de helft van de prijs? Deze was in het begin namelijk 900 euro.

Denk dat 650 best redelijk is en goede competitie biedt tegen een 5070(ti). 700 zou me ook niet verbazen.

De 5070 kost 550 dollar dus circa 700 euro hier.
De 5070ti kost 750 dollar dus 900+ hier.
Ik denk, en hoop vooral dat de non-XT een erg leuke instapkaart kan gaan worden voor het betere gamingwerk. Het zal geen kaart zijn die een upgrade waard is wanneer je nu reeds (of nog) op een 6800XT of sneller / nieuwer zit, daarvoor lijkt me de performance boost wat te gering voor de verwachte prijs. De 9070 XT biedt enkel een overclock, zal dus waarschijnlijk niet bijster efficiënt zijn en qua prijs weinig indruk maken. Maar het is koffiedik kijken.

Maar heb je iets ouders of langzamers, is het het overwegen waard, zeker als je je oude GPU voor een leuk doel in kan zetten (verkopen, tweede PC).

Ik hoop dat AMD inziet dat ze hier een erg belangrijke GPU in handen hebben. Als dit de eerste GPU gaat zijn waarmee ze een antwoord weten te bieden op DLSS, valt een gigantisch koopargument in één keer weg. Framegen biedt men bij AMD sowieso al, en een betere upscaler zal daar ook de beeldkwaliteit ten goede komen.

Dan concurreer je ineens enkel nog op prijs/prestatie en drivers.

Dat laatste is nog wel een ding. Ondanks dat er over de drivers van AMD een stuk minder te klagen valt dan bij Nvidia, hebben ze hetzelfde probleem als Italiaanse auto's: Zodra het ter sprake komt is er altijd wel weer iemand die meent dat z'n ervaring uit het jaar kruik vandaag de dag nog van relevantie zou zijn. Ondertussen uit pure aankoopbevestiging de ogen sluitende voor de stand anno 2025.
AMD kan daar met deze generatie een belangrijke stap zetten door:

1. Een driver fiasco bij release zoals met de 5700 te voorkomen
2. Een aggressieve prijs te hanteren, zodat meer mensen geneigd zijn dit first-hand mee te mogen maken

Ik houd m'n hart vast.

[ Voor 3% gewijzigd door Cid Highwind op 17-01-2025 09:25 ]


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Cid Highwind schreef op vrijdag 17 januari 2025 @ 09:24:
[...]

Ik denk, en hoop vooral dat de non-XT een erg leuke instapkaart kan gaan worden voor het betere gamingwerk. Het zal geen kaart zijn die een upgrade waard is wanneer je nu reeds (of nog) op een 6800XT of sneller / nieuwer zit, daarvoor lijkt me de performance boost wat te gering voor de verwachte prijs. De 9070 XT biedt enkel een overclock, zal dus waarschijnlijk niet bijster efficiënt zijn en qua prijs weinig indruk maken. Maar het is koffiedik kijken.

Maar heb je iets ouders of langzamers, is het het overwegen waard, zeker als je je oude GPU voor een leuk doel in kan zetten (verkopen, tweede PC).

Ik hoop dat AMD inziet dat ze hier een erg belangrijke GPU in handen hebben. Als dit de eerste GPU gaat zijn waarmee ze een antwoord weten te bieden op DLSS, valt een gigantisch koopargument in één keer weg. Framegen biedt men bij AMD sowieso al, en een betere upscaler zal daar ook de beeldkwaliteit ten goede komen.

Dan concurreer je ineens enkel nog op prijs/prestatie en drivers.

Dat laatste is nog wel een ding. Ondanks dat er over de drivers van AMD een stuk minder te klagen valt dan bij Nvidia, hebben ze hetzelfde probleem als Italiaanse auto's: Zodra het ter sprake komt is er altijd wel weer iemand die meent dat z'n ervaring uit het jaar kruik vandaag de dag nog van relevantie zou zijn. Ondertussen uit pure aankoopbevestiging de ogen sluitende voor de stand anno 2025.
AMD kan daar met deze generatie een belangrijke stap zetten door:

1. Een driver fiasco bij release zoals met de 5700 te voorkomen
2. Een aggressieve prijs te hanteren, zodat meer mensen geneigd zijn dit first-hand mee te mogen maken

Ik houd m'n hart vast.
Is het nu al zeker dat er enkel een kloksnelheid verschil zal zijn?
Ik had dit elders ook al gelezen maar het leek me zo een bizar (enkel) verschil dat ik het niet wilde geloven.

Acties:
  • 0 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 14:46
https://www.techpowerup.c...n=Navi+IV&sort=generation

Dit is doorgaans behoorlijk actueel en accuraat. Aangezien er toch al wat spec leaks geweest zijn, durf ik er wel op te vertrouwen.
Het is inderdaad wel een beetje een breuk met de vorige generaties, waar je ook nog een clustertje shaders extra kreeg. Maar het is wel goed dat je het aanstipt, het is nog altijd een aanname van mijn kant :)

Mijn theorie: Als AMD daadwerklijk, zoals boven omschreven, niet in het vaarwater van de 7800 XT en 7900 XT wil komen, is er ook gewoon vrij weinig bewegingsruimte. Bovendien, hoe meer shaders, hoe meer de 256bit bus een bottleneck zou kunnen vormen, zoals met de 7900 GRE reeds te zien was. En hoe dichter je bij de 7900 XT komt, hoe makkelijker het wordt te zeggen "zie je wel, >16 GB is nergens voor nodig, AMD biedt het nu ook niet op z'n 7900 XT vervanger".

Beiden lijken me onwenselijk.

Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Cid Highwind schreef op vrijdag 17 januari 2025 @ 10:03:
https://www.techpowerup.c...n=Navi+IV&sort=generation

Dit is doorgaans behoorlijk actueel en accuraat. Aangezien er toch al wat spec leaks geweest zijn, durf ik er wel op te vertrouwen.
Het is inderdaad wel een beetje een breuk met de vorige generaties, waar je ook nog een clustertje shaders extra kreeg. Maar het is wel goed dat je het aanstipt, het is nog altijd een aanname van mijn kant :)

Mijn theorie: Als AMD daadwerklijk, zoals boven omschreven, niet in het vaarwater van de 7800 XT en 7900 XT wil komen, is er ook gewoon vrij weinig bewegingsruimte. Bovendien, hoe meer shaders, hoe meer de 256bit bus een bottleneck zou kunnen vormen, zoals met de 7900 GRE reeds te zien was. En hoe dichter je bij de 7900 XT komt, hoe makkelijker het wordt te zeggen "zie je wel, >16 GB is nergens voor nodig, AMD biedt het nu ook niet op z'n 7900 XT vervanger".

Beiden lijken me onwenselijk.
Niet geloven en niet willen geloven zijn ook twee verschillende zaken.
Ik zei niet dat je ongelijk had.

Ik vind je theoriëen goed.
Bijkomend potentieel voordeel is dat je een 9070 met goede binning wellicht aardig dichtbij een 9070 XT kan krijgen met overklokken :P
Daar krijg ik ook weer retro gevoelens van (Radeon 9000 AGP kaartjes).

Ik vind het bij AMD en Nvidia dit keer wel weer bijzondere releases qua VRAM.
Maar ik moet niet vergeten dat het bij AMD geen hoogste segment release is.

https://videocardz.com/ne...mc-n3e-node-claims-leaker
Hier nog een interessante leak over UDNA, wellicht tweede kwartaal volgend jaar al (gerucht).

Ik las ook dat er in de UK schijnbaar al 9070 op voorraad in de retail liggen.

Ik had overigens PowerColor een e-mail gestuurd met de vraag of dat ze thermal paste, pcm of liquid metal gaan toepassen op hun RX9000 series.
Daar kreeg ik geen (duidelijk) antwoord op.

"Dear User,

Thanks for your asking the really appreciate your interests to PowerColor.


For your information, our default setting of fan / PCB along with thermal mediums are the optimal combination for heat transfer.


We also recommend to check the PC case air flow, adjust the fan curve by Radeon software.

Make sure there’s enough cold air flow through graphic card.


Thanks for your inquiry from PowerColor website."


De Red Devil valt voor mij toch wellicht af omdat ik nu weet dat hun flow-through koeling voor een groot deel geblokkeerd wordt door een Red Devil logo...
Looks before functionality.

[ Voor 19% gewijzigd door HugoBoss1985 op 17-01-2025 10:47 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
Cid Highwind schreef op vrijdag 17 januari 2025 @ 09:24:
[...]


Ik hoop dat AMD inziet dat ze hier een erg belangrijke GPU in handen hebben. Als dit de eerste GPU gaat zijn waarmee ze een antwoord weten te bieden op DLSS, valt een gigantisch koopargument in één keer weg. Framegen biedt men bij AMD sowieso al, en een betere upscaler zal daar ook de beeldkwaliteit ten goede komen.

Dan concurreer je ineens enkel nog op prijs/prestatie en drivers.
Dit is natuurlijk wel een 'big if', kan FSR4 immers inderdaad het gat dichten met DLSS4 en hebben ze inderdaad feature parity en is de kwaliteit nagenoeg gelijk is dat natuurlijk een enorme stap vooruit, of ga je zien dat AMD straks nog steeds wederom een volledige generatie achter loopt omdat ze +- gelijk komen met DLSS3 in features en kwaliteit, maar loopt Nvidia weer voorop met de zaken die ze nu introduceren.

Of je enkel op drivers / prijs concurreert weet ik dan ook nog net niet, ik ben echt benieuwd of AMD alle (marketing) checkboxes kan aantikken die je eigenlijk wel nodig hebt om echt het Nvidia mindshare aan te pakken. Je gaat immers maar een deel van de markt aanvallen, en het is ook juist het segment waar in mijn ervaring de meeste 'onervaren' kopers zitten en waar Nvidia dus ook best 'entrenched' is in de mindshare.

Acties:
  • 0 Henk 'm!

  • Matti7950
  • Registratie: Januari 2022
  • Laatst online: 16-09 20:34
DaniëlWW2 schreef op woensdag 15 januari 2025 @ 12:55:
[...]


Geheugentoegang is gewoon zo ontiegelijk belangrijk geworden. En AMD en Nvidia doen het op heel andere manieren. AMD met veel caches en eigenlijk veel meer als een CPU. Nvidia metinmiddels een grote L2 cache en snellere VRAM.
Vraag me af in hoevere 9070XT sneller kan zijn met trager geheugen (vooral via grotere 384 bit bus), dan 7900xt(x). Je zag al dat 7900 GRE (met zeer grote hoeveelheid cores, bijna zelfde als 7900xt), toch pak trager was, vooral door geheugen. Ik denk dat alleen in counter strike achtige games (houden van hoge gpu core snelheid), de 9070xt sneller zal zijn, in andere gevallen trager. Raster dan. Of infinity cache (terug rechtstreeks op die las ik) moet gigantisch verschil maken?

Acties:
  • +1 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 14:46
HugoBoss1985 schreef op vrijdag 17 januari 2025 @ 10:40:
[...]


Niet geloven en niet willen geloven zijn ook twee verschillende zaken.
Ik zei niet dat je ongelijk had.

Ik vind je theoriëen goed.
Bijkomend potentieel voordeel is dat je een 9070 met goede binning wellicht aardig dichtbij een 9070 XT kan krijgen met overklokken :P
Daar krijg ik ook weer retro gevoelens van (Radeon 9000 AGP kaartjes).

Ik vind het bij AMD en Nvidia dit keer wel weer bijzondere releases qua VRAM.
Maar ik moet niet vergeten dat het bij AMD geen hoogste segment release is.

https://videocardz.com/ne...mc-n3e-node-claims-leaker
Hier nog een interessante leak over UDNA, wellicht tweede kwartaal volgend jaar al (gerucht).

Ik las ook dat er in de UK schijnbaar al 9070 op voorraad in de retail liggen.

Ik had overigens PowerColor een e-mail gestuurd met de vraag of dat ze thermal paste, pcm of liquid metal gaan toepassen op hun RX9000 series.
Daar kreeg ik geen (duidelijk) antwoord op.

"Dear User,

Thanks for your asking the really appreciate your interests to PowerColor.


For your information, our default setting of fan / PCB along with thermal mediums are the optimal combination for heat transfer.


We also recommend to check the PC case air flow, adjust the fan curve by Radeon software.

Make sure there’s enough cold air flow through graphic card.


Thanks for your inquiry from PowerColor website."


De Red Devil valt voor mij toch wellicht af omdat ik nu weet dat hun flow-through koeling voor een groot deel geblokkeerd wordt door een Red Devil logo...
Looks before functionality.
Ik vind de Hellhoud range van hen overigens fraaier :)

Wat betreft dat overklokken, jij zegt het, ik dacht het. Het zal me echter niet verbazen als daar een softwarematige beperking op zit, zoals je bij de GRE in eerste instantie ook zag. Maar daar is deze later verdwenen, dus wie weet herleven oude tijden >:)

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Cid Highwind schreef op vrijdag 17 januari 2025 @ 11:28:
[...]

Ik vind de Hellhoud range van hen overigens fraaier :)

Wat betreft dat overklokken, jij zegt het, ik dacht het. Het zal me echter niet verbazen als daar een softwarematige beperking op zit, zoals je bij de GRE in eerste instantie ook zag. Maar daar is deze later verdwenen, dus wie weet herleven oude tijden >:)
De RX6000 (De 6800XT in ieder geval, ook de AIB's) had dit ook.
Ik weet alleen niet of dat dit software- of hardware matig is.
Dus het zou mij ook niet verbazen.
Afijn daar kon je met MorePowerTool wel wat knutselen (dan denk ik softwarematig).

Dan wellicht maar kijken naar een model met dual bios })
Als het software matig is wordt er vast wel iets op verzonnen :P

Maar de prestatie verschillen tussen de twee kaarten zullen dan toch niet zo enorm zijn?
Ik ben benieuwd wat dit gaat opleveren en benieuwd naar het prijsverschil.

Ik neig nu m.b.t. PowerColor door de vage reactie in het gebrekkige Engels en de het logo wat de koeling blokkeert toch weer naar een Asus (TUF).
Wie weet zijn hun nieuwe Hellhounds ook het overwegen waard!

[ Voor 33% gewijzigd door HugoBoss1985 op 17-01-2025 11:39 ]


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Matti7950 schreef op vrijdag 17 januari 2025 @ 11:25:
[...]


Vraag me af in hoevere 9070XT sneller kan zijn met trager geheugen (vooral via grotere 384 bit bus), dan 7900xt(x). Je zag al dat 7900 GRE (met zeer grote hoeveelheid cores, bijna zelfde als 7900xt), toch pak trager was, vooral door geheugen. Ik denk dat alleen in counter strike achtige games (houden van hoge gpu core snelheid), de 9070xt sneller zal zijn, in andere gevallen trager. Raster dan. Of infinity cache (terug rechtstreeks op die las ik) moet gigantisch verschil maken?
Clock speed en caches. :)
We weten dat Navi 48 monolithisch is. Dat betekent dat de L3 cache terug op dezelfde chip komt zoals met RDNA2 was. Maar met RDNA3 is er al flink wat verbeterd in de latency van L3 cache, wat vermoedelijk niet helemaal tot haar recht kwam omdat het op die aparte MCD chiplets zat. Hierom kon Navi 31 alsnog met 96MB af waar Navi 21 nog 128MB had. Dan heeft de RX7900XT maar 80MB (5 i.p.v. 6 MCD's) en bijvoorbeeld de RX6800XT heeft de volle 128MB.

Daarnaast zorgt een hogere clock speed ervoor dat al die caches ook sneller zullen werken en dus een hogere transferrate van data. Zo kan je ook bijvoorbeeld het fenomeen voorkomen dat je chip bijvoorbeeld 200MHz snellere clock speeds haalt, maar nauwelijks sneller presteert omdat er meer rekeneenheden zitten te wachten op data en niks doen.

Het punt met elke GPU is uiteindelijk dat ze nooit 100% belast zijn. Je hebt het over occupency, het percentage van de rekenunits, de ALU's, dus bij Nvidia Cuda Cores en bij AMD Streaming Processors, die tijdens een klokslag, een berekening uitvoeren. Dat is waar AMD zo goed in is en elke generatie weer wat verbeterd. En een van de manieren hoe ze dat doen, is ervoor zorgen dat al die ALU's snel bij data kunnen komen. Een andere manier is de sequentie aan berekeningen zo organiseren dat alles als een soort quasi tetris puzzel in elkaar valt, inclusief ervoor zorgen dat als een latere berekening nog een stukje data van een eerdere berekening nodig heeft, deze data opgeslagen staat in bijvoorbeeld L2 of L3 cache en relatief snel opgehaald kan worden.


Maar we moeten uiteindelijk nog zien wat RDNA4 nu precies gaat brengen. Ik heb het niet bijzonder gevolgd en ik heb ook de indruk dat AMD ditmaal weer erg goed is geweest om veel dingen niet te laten lekken. Misschien volgt er nog een verrassing. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 21:43

rapture

Zelfs daar netwerken?

Cid Highwind schreef op vrijdag 17 januari 2025 @ 09:24:
Dan concurreer je ineens enkel nog op prijs/prestatie en drivers.

Dat laatste is nog wel een ding. Ondanks dat er over de drivers van AMD een stuk minder te klagen valt dan bij Nvidia, hebben ze hetzelfde probleem als Italiaanse auto's: Zodra het ter sprake komt is er altijd wel weer iemand die meent dat z'n ervaring uit het jaar kruik vandaag de dag nog van relevantie zou zijn. Ondertussen uit pure aankoopbevestiging de ogen sluitende voor de stand anno 2025.
AMD kan daar met deze generatie een belangrijke stap zetten door:

1. Een driver fiasco bij release zoals met de 5700 te voorkomen
2. Een aggressieve prijs te hanteren, zodat meer mensen geneigd zijn dit first-hand mee te mogen maken

Ik houd m'n hart vast.
Drivers voor mijn 6800 XT blijft aan de Italiaanse auto stereotype vasthouden. Eenmaal een goede driverversie gevonden afblijven, anders kan je DDU'en en drivers upgraden en downgraden totdat ik een bruikbare compromis gevonden heb. Het lijkt wel op polderen of Belgische federale regeringsformatie met de driverversies.

De huidige ronde driver-polderen/formatie was begonnen met Windows 10 toont geen password textbox na resume from hibernate en Fortnite geeft melding om naar 24.12.1 up te graden. In de changelog staat dat iets voor Fortnite fixed zou zijn, maar Adrenalin software loopt graag vast en driver timeout crash meldingen.

Wat ook niet helpt is dan mijn Dell u2312hm oud genoeg is om te sneuvelen en dat geeft nog beeldartifacts vlak voor de driver timeout crash meldingen alsof dat de VRAM kapot aan het gaan is.

Eens kijken naar welke driverversies dat er in mijn downloads folder staat. Is 24.7.1 bruikbaar? 24.5.1? 24.3.1? 24.2.1? 24.8.1?

Ik heb ondertussen een goede bron gevonden voor het kiezen van driverversies.
Pete Dimitrov's Blog
Environment Artist at Rebellion. Writing about 3D art & games. He/Him
https://petedimitrovart.com/p/amd-drivers-broken-lumen-ue5/
Een game dev die niets anders dan UE5 en Fortnite icm AMD drivers doet. Hij lijst goed op welke driverversies te vreten is en welke geven "voedselvergiftiging".

Acties:
  • +2 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
@rapture driver versie's blijft natuurlijk ook wel een beetje workload afhankelijk. Ik herken bijvoorbeeld al deze problemen niet echt, op een onstabiele release driver na (wat ervoor zorgde dat o.a. 3DMark crashte), heb ik eigenlijk sindsdien geen echte driver issues meer ervaren met de 6900XT. Maar ik speel dan bijv. geen Fortnite, maar ook zijn er bijvoorbeeld mensen die aangeven dat op hun systeem de AMD driver telkens timeouts geeft, en laat ik nu net wel vrij veel wow spelen (en ook nog eens zowel retail als classic) en ik zie nooit timeouts en ik installeer eigenlijk altijd iedere nieuwe driver wel. Ik ben wat dat betreft eigenlijk zeer tevreden over AMD's huidige driver stabiliteit in ieder geval in mijn (gaming) workloads. Iets wat in HD7xxx tijd wel anders was, toen heeft AMD een jaar+ lang een bug in hun drivers gehad die in WoW een volledige hardlock veroorzaakte, soms na 10 minuten, dan weer na 2 uur. Toen stond ik echt op het punt per direct terug te gaan naar Nvidia, tot ze het ineens oploste. Want toen speelde ik nog redelijk competitief WoW en die crashes waren zeer vervelend.

Ik vraag me echter ook wel af dat soort problemen die mensen nu ervaren wel altijd daadwerkelijk problemen zijn met de driver, of dat er bijv. wat anders aan de hand is op de systemen die dit hebben. Een andere hard of software incompatibiliteit bijvoorbeeld. Daarnaast heb ik in het begin toen ik mijn 5800X3D net had ervaren dat je driver timeouts ook kan 'uitlokken' met te hoge ram overclocks op in ieder geval Ryzen cpu's (Intel heb ik niet getest). Ik hou het dus ook zeker voor mogelijk dat mensen die timeouts ervaring misschien wel een memory OC hebben (kan al iets simpel zijn als EXO / XMP aanzetten op een cpu met een matige i/o die bin) die simpelweg niet 100% stabiel is.

[ Voor 16% gewijzigd door Dennism op 17-01-2025 12:46 ]


Acties:
  • +4 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 13:32
Dennism schreef op vrijdag 17 januari 2025 @ 12:35:
@rapture driver versie's blijft natuurlijk ook wel een beetje workload afhankelijk. Ik herken bijvoorbeeld al deze problemen niet echt, op een onstabiele release driver na (wat ervoor zorgde dat o.a. 3DMark crashte), heb ik eigenlijk sindsdien geen echte driver issues meer ervaren met de 6900XT. Maar ik speel dan bijv. geen Fortnite, maar ook zijn er bijvoorbeeld mensen die aangeven dat op hun systeem de AMD driver telkens timeouts geeft, en laat ik nu net wel vrij veel wow spelen (en ook nog eens zowel retail als classic) en ik zie nooit timeouts en ik installeer eigenlijk altijd iedere nieuwe driver wel. Ik ben wat dat betreft eigenlijk zeer tevreden over AMD's huidige driver stabiliteit in ieder geval in mijn (gaming) workloads. Iets wat in HD7xxx tijd wel anders was, toen heeft AMD een jaar+ lang een bug in hun drivers gehad die in WoW een volledige hardlock veroorzaakte, soms na 10 minuten, dan weer na 2 uur. Toen stond ik echt op het punt terug te gaan naar Nvidia, tot ze het ineens oploste. Want toen speelde ik nog redelijk competitief WoW en die crashes waren zeer vervelend.

Ik vraag me echter ook wel af dat soort problemen die mensen nu ervaren wel altijd daadwerkelijk problemen zijn met de driver, of dat er bijv. wat anders aan de hand is op de systemen die dit hebben. Een andere hard of software incompatibiliteit bijvoorbeeld. Daarnaast heb ik in het begin toen ik mijn 5800X3D net had ervaren dat je driver timeouts ook kan 'uitlokken' met te hoge ram overclocks op in ieder geval Ryzen cpu's (Intel heb ik niet getest). Ik hou het dus ook zeker voor mogelijk dat mensen die timeouts ervaring misschien wel een memory OC hebben (kan al iets simpel zijn als EXO / XMP aanzetten op een cpu met een matige i/o die bin) die simpelweg niet 100% stabiel is.
Ik heb dat ook wel eens gezegd. Het lijkt er een beetje op dat Amd kaarten gevoeliger zijn voor net-niet stabiele systemen. De nvidia driver lijkt wat robuuster, met als intel platform die iets minder picky zijn qua ram tov Ryzen.

Is je systeem stabiel (getest en gestress test) dan zijn er weinig driver problemen met Amd.

Acties:
  • +3 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
meljor schreef op vrijdag 17 januari 2025 @ 12:44:
[...]


Ik heb dat ook wel eens gezegd. Het lijkt er een beetje op dat Amd kaarten gevoeliger zijn voor net-niet stabiele systemen. De nvidia driver lijkt wat robuuster, met als intel platform die iets minder picky zijn qua ram tov Ryzen.

Is je systeem stabiel (getest en gestress test) dan zijn er weinig driver problemen met Amd.
Het is ook iets wat men standaard roept en wat nog hardnekkig aanwezig is in de gedachte bij mensen
(AMD = kut drivers en software).
Ik heb nooit Adrenaline resets en/of crashes o.i.d

Eigenlijk is het een zegen van AMD software omdat je zo relatief met zekerheid en simpel kunt vaststellen dat er ergens iets niet tof is en niet persé de videokaart.

De laatste keer dat ik hiervoor AMD had was met Vega 56, toen had ik wel veel problemen maar dat kwam dus door de i7 9700k overklok.
En ik had een matige kwaliteit voeding en dus black screen issues door die voeding.

Het is hetzelfde als wanneer het eten/de service slecht is in een restaurant, de ober krijgt vaak het gezeik over zich heen terwijl het probleem elders ligt :P
En dan vergeet men meestal ook niet meer hoe slecht het restaurant was.

[ Voor 15% gewijzigd door HugoBoss1985 op 17-01-2025 13:07 ]


Acties:
  • +2 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 20:08
DaniëlWW2 schreef op vrijdag 17 januari 2025 @ 11:43:
Maar we moeten uiteindelijk nog zien wat RDNA4 nu precies gaat brengen. Ik heb het niet bijzonder gevolgd en ik heb ook de indruk dat AMD ditmaal weer erg goed is geweest om veel dingen niet te laten lekken. Misschien volgt er nog een verrassing. :)
Zonder MSI is het wel een stuk makkelijker ^^.
Ik hou nog een slag onder de arm dat AMD toch nog een konijn uit de hoed tovert (met de RT prestatie).
We zullen het over een week wel zien.
Het zou al heel wat zijn als zo dadelijk blijkt dat een RX9700XT RX9070XT qua RT een match is met de RTX4080super, voor hopelijk een prijskaartje van €650 of lager en mogelijk FRS4 supersaus erbij.

[ Voor 3% gewijzigd door CMT op 17-01-2025 15:42 ]


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 17-09 18:48

Mars Warrior

Earth, the final frontier

CMT schreef op vrijdag 17 januari 2025 @ 14:59:
[...]
Zonder MSI is het wel een stuk makkelijker ^^.
Ik hou nog een slag onder de arm dat AMD toch nog een konijn uit de hoed tovert (met de RT prestatie).
We zullen het over een week wel zien.
Het zou al heel wat zijn als zo dadelijk blijkt dat een RX9700XT qua RT een match is met de RTX4080super, voor hopelijk een prijskaartje van €650 of lager en mogelijk FRS4 supersaus erbij.
Het blijft maar lastig hè, RX9(swap(7,0))0XT 8)

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 20:08
meljor schreef op vrijdag 17 januari 2025 @ 12:44:
[...]


Ik heb dat ook wel eens gezegd. Het lijkt er een beetje op dat Amd kaarten gevoeliger zijn voor net-niet stabiele systemen. De nvidia driver lijkt wat robuuster, met als intel platform die iets minder picky zijn qua ram tov Ryzen.

Is je systeem stabiel (getest en gestress test) dan zijn er weinig driver problemen met Amd.
Dat is ook mijn ervaring. Het zou wel fijner zijn als dit een optie was om aan/uit te zetten.
Of dat er naderhand een waarschuwing komt, met de vraag of voorgaande instellingen hersteld moeten worden. Dat zou al veel ergernis besparen.

In 2021 was ik nog argwanend t.o.v. AMD vanwege de slechte drivers retoriek.
Toen toch de gok gewaagd en een RX6900XT aangeschaft.
Nu bijna 4 jaar later blijkt dit een van mijn beste aankopen te zijn geweest (naast de MSI 1080Ti).

Van begin af aan geen driver stabiliteit problemen ondervonden.
Wel andere kleine irritatie dingen zoals custom tuning instellingen die niet goed overgenomen werden (tenzij je eerst op enter drukte en dan pas op ok :z ).
En Windows dat irritant liep te doen met het ongevraagd vervangen van de driver voor een generieke variant, maar dat is een Microsoft probleem.
Met de 7900XTX ook geen problemen (behalve bij de launch, wat naar verluid destijds een probleem leek te zijn met de beveiligingslaag en eruit is gehaald?). AMD had er beter aan gedaan om de launch gewoon uit te stellen imho. Het zorgt toch weer voor een "zie je wel" golf.

De driver timeouts die ik ervaren heb, waren terug te leiden tot onstabiele UV of een Fclock dat te scherp was afgesteld.
Wat velen denk ik niet beseffen is dat het met een AMD systeem ook invloed heeft op de PCIe bus & chipset (en alles wat verder daarop aangesloten is). Sommige moederborden worden ook ronduit onstabiel met de ASPM functie (wat eigenlijk niet zo mag zijn). Kom er maar eens achter dat de PCIe bus onstabiel is en daardoor andere hardware crashed..

De drivers zijn in ieder geval wel volwassen genoeg geworden om het als non argument te beschouwen.
Er zullen heus wel probleem gevallen zijn en mogelijk meer dan bij Nvidia, maar vaak is het ook deels een probleem van de game developer (neem bijvoorbeeld Destiny 2 dat op alle hardware beroerd draait of Diablo 4 dat een jaar & tig patches nodig had om de problemen & crashes te verhelpen).

Maar qua multi monitor support is of was het wel een stuk beter dan Nvidia.
Een freesync + non freesync scherm tegelijk proberen aan te sturen zorgt (of zorgde) met de 4090FE voor bluescreens en de freesync ondersteuning in het algemeen is bij Nvidia gewoon beroerd (VA helderheids flikkeringen komen meer tot uiting tot ronduit flitsen).

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 20:08
Mars Warrior schreef op vrijdag 17 januari 2025 @ 15:02:
[...]

Het blijft maar lastig hè, RX9(swap(7,0))0XT 8)
Touché, haha ;)

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

meljor schreef op vrijdag 17 januari 2025 @ 12:44:
[...]


Ik heb dat ook wel eens gezegd. Het lijkt er een beetje op dat Amd kaarten gevoeliger zijn voor net-niet stabiele systemen. De nvidia driver lijkt wat robuuster, met als intel platform die iets minder picky zijn qua ram tov Ryzen.

Is je systeem stabiel (getest en gestress test) dan zijn er weinig driver problemen met Amd.
Dat vermoeden gaat al jaren rond. :)
Het is echt opvallend ook hoe vaak AMD driver instabiliteit, herleid lijkt te worden naar RAM instabiliteit, meestal zoiets als XMP aanzetten en er volledig vanuit gaan dat dit ook stabiel is. Ik heb het zo vaak gezien op zoveel verschillende plekken. Idem voor CPU overclocking. En ik heb het zelf ook ervaren. Toen ik een tweede setje 16GB RAM erbij deed en dit overclockte, leek alles stabiel. Maar toch af en toe een crash in Witcher 3 met de gebruikelijke AMD radeon driver reset melding. Nu is Witcher 3 op zichzelf al opvallend gevoelige game die weinig tolerantie heeft voor CPU, RAM of GPU instabiliteit. Die game crasht vrijwel altijd binnen 15 minuten als er iets is. En die kan al eerder gaan haperen. Echt een briljante stress test is die game gebleken, naast gewoon een exceptioneel goede game.

Maar met de RAM heb toen de hele nacht memtest gedraaid en geen problemen. Toch de RAM OC wat verlaagd en problemen waren weg. Als ik nu dingen aanpas, tja ik gebruik al snel Witcher 3 als stress test. Maar eigenlijk doe ik niet zoveel meer. Je hebt ook niet zoveel custom tuning nodig als je een X3D CPU hebt, ook niet voor RAM. Mijn RX7900XT had wel werk nodig en die blijft met wat verbazen hoeveel ik eruit kreeg.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 13:32
Is er nu al een duidelijke datum voor nda/reviews en verkoop?

Heb nog nooit zon vage launch gezien.

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
HugoBoss1985 schreef op vrijdag 17 januari 2025 @ 13:03:
[...]


Het is ook iets wat men standaard roept en wat nog hardnekkig aanwezig is in de gedachte bij mensen
(AMD = kut drivers en software).
Ik heb nooit Adrenaline resets en/of crashes o.i.d

Eigenlijk is het een zegen van AMD software omdat je zo relatief met zekerheid en simpel kunt vaststellen dat er ergens iets niet tof is en niet persé de videokaart.
Ik vraag me af in hoeverre VRAM limieten bij Nvidia echt een VRAM issue zijn, of gewoon devs niet niet fatsoenlijk optimaliseren. Tegelijk maakt dat als gebruiker weinig uit, het resultaat is hetzelfde, mindere gebruikservaring dan van de concurrent met meer VRAM.

En dit is hetzelfde: Misschien komt het probleem wel ergens anders door, maar onder de streep werkt het dan niet betrouwbaar met AMD, maar wel met de concurrent. En dat is wat je uitmaakt als gebruiker.

Als hij nu duidelijk aangaf ook waar het probleem lag, dan is het één ding. Maar onverklaarbare crashende drivers en freezes zou ik niet als een 'zegen' om schrijven.

Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 13:32
Sissors schreef op zaterdag 18 januari 2025 @ 13:38:
[...]

Ik vraag me af in hoeverre VRAM limieten bij Nvidia echt een VRAM issue zijn, of gewoon devs niet niet fatsoenlijk optimaliseren. Tegelijk maakt dat als gebruiker weinig uit, het resultaat is hetzelfde, mindere gebruikservaring dan van de concurrent met meer VRAM.

En dit is hetzelfde: Misschien komt het probleem wel ergens anders door, maar onder de streep werkt het dan niet betrouwbaar met AMD, maar wel met de concurrent. En dat is wat je uitmaakt als gebruiker.

Als hij nu duidelijk aangaf ook waar het probleem lag, dan is het één ding. Maar onverklaarbare crashende drivers en freezes zou ik niet als een 'zegen' om schrijven.
Veel mensen vinden het niet "erg" of "normaal" als een game soms eens een keer vastloopt, of als Windows niet wil afsluiten of heel soms ineens opnieuw opstart. Want "meestal gaat het wel goed". In dat soort gevallen is een Amd driver heel gevoelig.

Net als dat Ryzen platforms gevoeliger zijn met RAM. Intel en Nvidia lijkt iets robuuster in die zin dat het vaker goed lijkt te werken (grotendeels).

Op een echt goed geconfigureerd stabiel platform is er niks aan de hand.

Veel problemen komen hier op het forum toch ook langs? "Gek dat de nieuwe kaart problemen geeft" .... Met een 10 jaar oude b-merk voeding die de nieuwe spikes niet aan kan. "Maar met Nvidia had ik nooit problemen!"

Of "voorheen liep hij zelden vast, misschien 2x per week hooguit" en nu doet hij niks.

Etc. Etc.

Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Sissors schreef op zaterdag 18 januari 2025 @ 13:38:
[...]

Ik vraag me af in hoeverre VRAM limieten bij Nvidia echt een VRAM issue zijn, of gewoon devs niet niet fatsoenlijk optimaliseren. Tegelijk maakt dat als gebruiker weinig uit, het resultaat is hetzelfde, mindere gebruikservaring dan van de concurrent met meer VRAM.

En dit is hetzelfde: Misschien komt het probleem wel ergens anders door, maar onder de streep werkt het dan niet betrouwbaar met AMD, maar wel met de concurrent. En dat is wat je uitmaakt als gebruiker.

Als hij nu duidelijk aangaf ook waar het probleem lag, dan is het één ding. Maar onverklaarbare crashende drivers en freezes zou ik niet als een 'zegen' om schrijven.
Ik denk dat ik de VRAM discussie met jou (tussen Nvidia en AMD) voor nu even laat voor wat het is.
Als jij geen issue ziet, des te beter en hou dat vol.
Wellicht eens je 3070 8gb upgraden en AMD kopen, misschien wordt je dan positief verrast en kun je ook je eigen ervaring m.b.t. een AMD kaart hier delen.

Wat jij vind over de gebruikservaring van Nvidia vs AMD is jouw mening, geen feit.
Ik vind de gebruikservaring bij AMD en Nvidia allebei prima.
Wat ik met mijn laaste Nvidia kaart, waar ik veel ervaring mee had, (2070 8gb) wél minder vond is dat ik aparte software nodig had om een undervolt en fancurve toe te passen (MSI Afterburner).
Geen idee hoe dat nu is bij Nvidia maar ik heb voor mijn AMD kaart voor fancontrol, undervolt en overklok alleen nog maar de software van AMD nodig.

Jij mag natuurlijk vinden dat devs niet goed optimaliseren.
Dat kan en dat zal best wel zo zijn.
Je kan daarover klagen bij de game developer(s).
Je kan dan natuurlijk ook gewoon besluiten om die games niet (meer) te spelen.
Of je kan je hardware aanpassen (upgraden) en/of settings tweaken.
Brakke UE5 games zijn nou eenmaal de realiteit.

Hierbij nog even zo duidelijk mogelijk (hopelijk duidelijk genoeg) w.b.t. AMD Adrenaline software, resets, crashes en blackscreens:

Ik had dus, met mijn ervaring en mijn toenmalige systeem, op een gegeven moment alleen nog issues met AMD Adrenaline driver instellingen resets na een reboot van mijn systeem.
Mijn problemen met crashes en zwarte schermen kwamen door een instabiele Intel cpu overklok en een slechte voeding... wat heeft dat dan met (het functioneren van) mijn AMD kaart te maken als die videokaart niet de oorzaak was?

Ik had het, volgens mij, niet over onverklaarbare crashes en freezes.
En wat is "onverklaarbaar"?
Als je computers bouwt, tweaker/overklokken bent dan zul je toch enige kennis mogen hebben van hoe je crashes en freezes kan verklaren en terugvinden waar het probleem zit.
Onverklaarbare crashes en freezes zijn natuurlijk niet leuk maar ik vind overklaarbaar dus vrij overdreven want het komt altijd ergens door.
Als de crashes voor iemand onverklaarbaar zijn dan moeten ze een help topic aanmaken op het forum of hun computer wegbrengen naar iemand die er wel verstand van heeft en die oorzaak kan achterhalen.

Het is een zegen dat je enkel met Adrenaline Resets (en dus geen crashes en freezes), na een reboot kunt constateren dat er ergens iets niet tof zit in je computer/je ram/je overklok.
Dat hoeft dus helemaal niet aan een AMD Radeon videokaart te liggen.
Dat kan wél, als je GPU niet stabiel is (door eigen toedoen en/of defect) en/of er iets met je VRAM is.

Maar volgens mij gaat een Nvidia videokaart dan ook (ander) raar gedrag vertonen. ;)

Gelukkig heb ik met mijn volledige AMD build nergens last van sinds ik dit heb:
Zeer stabiel Asrock B650 bordje met regelmatige bios updates.
7500F -20mv.
32GB DDR5 op 6000 mhz met buildzoid timings en primaire timings zelfs nog een stap lager, zonder voltage te verhogen.
En een 6800XT met PCM en thermal pad mod die lekker op 2550 mhz loop met het standaard stroomverbruik @ 1025mv.
Bijna 7900GRE prestaties.
Ik ben zo blij dat ik toen geen 3070 8gb heb gekocht, sterker nog, ik had 1 dag een 3080 10gb en die ging de volgende dag retour webshop.
Mijn 6800XT was uiteindelijk zelfs een paar 100 Euro goedkoper dan die 3080 10gb.
Granted dat ik de 6800XT wel een stuk later heb gekocht.

[ Voor 27% gewijzigd door HugoBoss1985 op 18-01-2025 14:38 ]


Acties:
  • 0 Henk 'm!

  • Tadream
  • Registratie: Augustus 2002
  • Laatst online: 15-09 20:20
meljor schreef op zaterdag 18 januari 2025 @ 13:28:
Is er nu al een duidelijke datum voor nda/reviews en verkoop?

Heb nog nooit zon vage launch gezien.
Ja dat zou ik ook wel willen weten.
Ben echt zeer benieuwd hoe de performance (en dan met name RT) is.
Ik ben toe aan een nieuwe PC (nu een 8700K/1080Ti combi die het overigens prima uitgehouden heeft al die jaren).
Ik zie dat de Powercolor Hellhound AMD Radeon RX 7900 XT nu euro 679,- is en voor mij gaat het echt tussen die en de nieuwe 9070 XT. Wat is wijsheid. Welke is interessanter. Uiteraard wacht ik nog even op de reviews/benchmarks.

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
HugoBoss1985 schreef op zaterdag 18 januari 2025 @ 14:10:
[...]


Ik denk dat ik de VRAM discussie met jou (tussen Nvidia en AMD) voor nu even laat voor wat het is.
Als jij geen issue ziet, des te beter en hou dat vol.
Dat is letterlijk het omgekeerde van wat ik hier schreef...
Wellicht eens je 3070 8gb upgraden en AMD kopen, misschien wordt je dan positief verrast en kun je ook je eigen ervaring m.b.t. een AMD kaart hier delen.
Ik kan mijn ervaringen met een 5700XT delen? Echt merendeel van mijn kaarten zijn altijd AMD geweest. Niet iedereen zit vast aan één fabrikant...
Wat jij vind over de gebruikservaring van Nvidia vs AMD is jouw mening, geen feit.
Ik reageer op wat andere hier stellen. Ik heb op geen moment in die post mijn ervaringen genoemd.

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
meljor schreef op zaterdag 18 januari 2025 @ 14:08:
[...]


Veel mensen vinden het niet "erg" of "normaal" als een game soms eens een keer vastloopt, of als Windows niet wil afsluiten of heel soms ineens opnieuw opstart. Want "meestal gaat het wel goed". In dat soort gevallen is een Amd driver heel gevoelig.
Dat mogen mensen vinden, maar ik zou dat niet als een zegen zien dus. Maar goed, andere wel, en dat mag :)

Acties:
  • +1 Henk 'm!

  • Techkeizer
  • Registratie: Januari 2023
  • Laatst online: 18-09 01:46
YouTube: Nvidia RTX 5090 & 5080 Supply Leak | RX 9070 XT Benchmarks | AMD FSR...

Zeer sterke prestaties van de 9070 and 9070XT.
Als ze deze kunnen aanbieden voor rond de 600 euro dan is dat geweldig.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Sissors schreef op zaterdag 18 januari 2025 @ 16:07:
[...]

Dat is letterlijk het omgekeerde van wat ik hier schreef...


[...]

Ik kan mijn ervaringen met een 5700XT delen? Echt merendeel van mijn kaarten zijn altijd AMD geweest. Niet iedereen zit vast aan één fabrikant...


[...]

Ik reageer op wat andere hier stellen. Ik heb op geen moment in die post mijn ervaringen genoemd.
Mea Culpa, ik heb inderdaad je eerste alinea niet goed gelezen/niet goed begrepen en wat verwisseld!

Het komt ook een beetje door het feit dat jij zelf niet echt lijkt in te zien/niet wilt in zien dat je 3070 een beperking heeft met 8gb vram (dat is gewoon een feit).
Ik meen ook dat ik je dat herhaaldelijk heb zien posten.
Vandaar dus dat ik reageerde op het feit dat het, voor mij, zo lijkt alsof jij bij Nvidia niet echt issues met VRAM ziet.
Wellicht zie jij het ook echt niet zo/heb jij "nergens last van" met jouw 3070 8gb, daarom zei ik... hou dat vol.
Scheelt weer een zorg.
Als je tevreden bent met je hardware dan is dat alleen maar fijn.

Gaan we dus toch weer een stukje in VRAM discussie...
Het is al heel lang in de geschienis van de games en videokaarten zo dat Nvidia kaarten vaak minder VRAM hebben en daar (op termijn) op gebottlenecked worden.
Met de 3000 series van Nvidia vond ik dat persoonlijk heel duidelijk aanwezig, versus AMD.
En nu in 2025 is dat vrij duidelijk aanwezig tussen een 3070 8gb/3080 10gb en een 6800/XT/6900/XT 16gb
Geoptimaliseerde games of niet...

Dit is ook al lang met meerdere games, reviews en benchmarks aangetoond.
Iets anders zeggen is dan voor mij hetzelfde als zeggen dat de aarde plat is... terwijl daarvoor geen bewijs is (het tegenovergestelde is aangetoond).

Ik heb hiervoor dus een RTX 2070 8gb gehad aantal jaren en altijd wisselend AMD en Nvidia gehad.
Dus hier ook ruime ervaring met beide merken.
Nu is het alleen zo dat ik sterk Anti-Nvidia geworden sinds de 3000 series.

Jij zei hier:
Sissors schreef op zaterdag 18 januari 2025 @ 13:38:
[...]
En dit is hetzelfde: Misschien komt het probleem wel ergens anders door, maar onder de streep werkt het dan niet betrouwbaar met AMD, maar wel met de concurrent. En dat is wat je uitmaakt als gebruiker.
Maar we hebben het hier over videokaarten, terwijl dit soort issues bij "AMD" (jij scheert alles van AMD over één kam, dus alle hardware, of begrijp ik het niet goed?) vaak niét met een AMD videokaart te maken hebben.
Als je zoiets post dan vind jij toch iets over een gebruikservaring van "AMD"... ik zei niet dat het over jouw gebruikservaring ging.
Je presenteerde het alsof het een feit is.
Anders (als jij alleen AMD videokaarten bedoeld) kun je niet zeggen dat het "niet betrouwbaar werkt met een AMD videokaart" als het niet aan de videokaart ligt.

Ik vind het een zegen dat ik bij enige instabiliteit geen crashes heb en dat het enige gevolg is dat mijn Adrenaline settings dan resetten met een reboot... waarvan ik dan netjes een melding krijg.
Zodat ik daarna kan kijken waar het probleem zit.
Ik kan me niet voorstellen dat mensen die bijvoorbeeld instabiliteit hebben door RAM/settings (met potentiële gevolgen) dat niet zo makkelijk op een bord gepresenteerd willen krijgen.
Het zijn m.b.t. de AMD Adrenaline Software géén driver issues: het zijn issues met de rest van de hardware.
Of de grafische kaart is defect/te hoog geklokt/etc.

Het probleem is dus dat veel gebruikers dit niet weten en die wijzen gelijk naar de AMD Adrenaline software.
En dan blijft er dus een negatief sentiment achter over de Adrenaline Software.
Je kan eigenlijk zeggen dat dit slechte reclame is voor AMD.

Stel je gebruikt in hetzelfde systeem een Nvidia kaart: dan krijg je dus niet na elke reboot de melding dat de driver settings gereset zijn door een (hardware)error.
Dan weet je dus op dat moment niet dat er iets met je hardware niet tof is, terwijl dat wel zo is.
Sommigen zien dat dan wellicht weer als een zegen totdat ze down the line ineens bestandscorruptie o.i.d. krijgen of de boel crashed midden in een game.
Onwetendheid is dan een zegen?
We lezen het hier regelmatig en herhaaldelijk terug in nieuwe topics.
Lijkt mij allemaal vervelender dan alleen een driver settings reset, maar ieder zijn ding natuurlijk.

Maargoed wellicht met een combi van een Nvidia videokaart + overige hardware van AMD dat je wél beide software suites installeert (moet installeren?) en dan heb je wellicht nog hetzelfde met de AMD software.

Kortom: Nvidia of AMD grafische kaart: als je dit allemaal niet wilt: draai relevante stresstesten voor je hardware na assemblage van je systeem, na bios updates, na tweaken, overklokken, etc.
En fix dan wat er is met je pc dan heb je bij Nvidia en/of AMD nergens last van.

Maar ik heb hier dus sinds VEGA 56 geen last meer van gehad, met mijn 6800XT en niet met de 7900XT die ik een jaar heb gehad.
Waarschijnlijk omdat mijn cpu+mobo+ram heerlijk stabiel samen werken en mijn videokaart stabiel is.

[ Voor 23% gewijzigd door HugoBoss1985 op 18-01-2025 18:10 ]


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dus in Oekraine hebben ze zelfs al RX9700 series videokaarten op voorraad, klaar voor verkoop. Maar we horen niks van AMD. :P

Afbeeldingslocatie: https://cdn.videocardz.com/1/2025/01/AMD-RADEON-9070XT-TUF-UNBOXING-1200x624.jpg
https://videocardz.com/ne...ing-video-ahead-of-launch

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:06
DaniëlWW2 schreef op zaterdag 18 januari 2025 @ 22:26:
Dus in Oekraine hebben ze zelfs al RX9700 series videokaarten op voorraad, klaar voor verkoop. Maar we horen niks van AMD. :P

[Afbeelding]
https://videocardz.com/ne...ing-video-ahead-of-launch
Die komen de laatste dagen al uit meerdere landen langs :P Denemarken zag ik ook al op reddit, net als Israel.

AMD zal wel druk zijn hun eigen event hals over kop te organiseren :+

Acties:
  • +2 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 17-09 18:48

Mars Warrior

Earth, the final frontier

DaniëlWW2 schreef op zaterdag 18 januari 2025 @ 22:26:
Dus in Oekraine hebben ze zelfs al RX9700 series videokaarten op voorraad, klaar voor verkoop. Maar we horen niks van AMD. :P

[Afbeelding]
https://videocardz.com/ne...ing-video-ahead-of-launch
Dat wordt strafregels schrijven:

9070 9070 9070 9070 9070 9070 9070 9070 _/-\o_

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • +1 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
HugoBoss1985 schreef op zaterdag 18 januari 2025 @ 17:44:
[...]

Maar we hebben het hier over videokaarten, terwijl dit soort issues bij "AMD" (jij scheert alles van AMD over één kam, dus alle hardware, of begrijp ik het niet goed?) vaak niét met een AMD videokaart te maken hebben.
Om het iets korter te houden ;) . Mijn punt was als jouw systeem stabiel is met Nvidia kaart, en instabiel met AMD kaart, dan is dat imo gewoon een voordeel van Nvidia. Ook al is het probleem niet bij de GPU, maar bij het RAM bijvoorbeeld. Als zoals jij zegt het enige effect is dat Adrenaline settings resetten is dat minder erg dan volledige crashes, al herinner ik mij van mijn 5700XT dat ik ook wel daar genoeg van kreeg na loop van tijd :) .

(En eerlijk is eerlijk, de 5700XT was zo'n drama dat mijn volgende een Nvidia ging worden, maar mijn AMD kaarten daarvoor heb ik nooit echt problemen mee gehad. Ik update overigens ook alleen drivers als er een reden toe is, als het goed werkt blijf ik er liever vanaf).

En voor deze generatie overweeg ik wel wat AMD vanwege het VRAM ;) . Maar ik zit niet te wachten op een straalkachel: 250W vind ik wel genoeg. Dus of een 5070ti die geknepen wordt, of een 5070 ondanks 12GB VRAM, of mogelijk iets van AMD, maar ligt dus ook maar aan de prijs/prestaties/verbruik.

Ik zou overigens toch ook denken als die kaarten er zijn, er toch wel ergens een beginnende reviewer is die zijn kans op bekendheid ziet met een vriend bij de winkel, en die zo'n kaart eens door een reeks games haalt.

[ Voor 7% gewijzigd door Sissors op 18-01-2025 23:11 ]


Acties:
  • 0 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 21:43

rapture

Zelfs daar netwerken?

Dennism schreef op vrijdag 17 januari 2025 @ 12:35:
@rapture driver versie's blijft natuurlijk ook wel een beetje workload afhankelijk. Ik herken bijvoorbeeld al deze problemen niet echt, op een onstabiele release driver na (wat ervoor zorgde dat o.a. 3DMark crashte), heb ik eigenlijk sindsdien geen echte driver issues meer ervaren met de 6900XT. Maar ik speel dan bijv. geen Fortnite, maar ook zijn er bijvoorbeeld mensen die aangeven dat op hun systeem de AMD driver telkens timeouts geeft, en laat ik nu net wel vrij veel wow spelen (en ook nog eens zowel retail als classic) en ik zie nooit timeouts en ik installeer eigenlijk altijd iedere nieuwe driver wel. Ik ben wat dat betreft eigenlijk zeer tevreden over AMD's huidige driver stabiliteit in ieder geval in mijn (gaming) workloads. Iets wat in HD7xxx tijd wel anders was, toen heeft AMD een jaar+ lang een bug in hun drivers gehad die in WoW een volledige hardlock veroorzaakte, soms na 10 minuten, dan weer na 2 uur. Toen stond ik echt op het punt per direct terug te gaan naar Nvidia, tot ze het ineens oploste. Want toen speelde ik nog redelijk competitief WoW en die crashes waren zeer vervelend.
Fortnite is uniek als in de Unreal Engine showcase gaat laten zien wat de laatste nieuwe versie van de engine kan doen. Ik speel met een 2 maand jonge game-engine zoals wat de game developers op hun PC installeren om games te maken dat in de toekomst uitgebracht worden.

Aangezien Fortnite recent gepiekt op 13,4 miljoen spelers waren tegelijkertijd op hetzelfde moment aan het spelen, dan is het hoge prioriteit voor alle vendors om hun producten, software, drivers, firmware,... UE 5.5 compatibel te maken.

Niet raar dat mijn huidige Radeon drivers ervaring het inverse van mijn EVE Online jaren met een HD 4830 in de grote fleet battles. Vroeger niet moeten klooien met drivers. EVE bleef ook lang aan een oude game engine vasthouden, want uiteindelijk gaat het om de rekenkracht van de server node of je muisklik een kwartier later verwerkt wordt of niet. Als de server node crashte, dan was het aan meerdere kanten honderden tot duizenden spelers die om te eerste opnieuw inloggen om een zonnestelsel te domineren.

Deze keer is niet alleen Fortnite gevoelig voor de driverversies, The Finals (ook UE5 game) crasht ook graag tijdens het opstarten.

Ik heb voor de driverversie met de kortste en positieve omschrijving gekozen:
AMD Drivers 24.8.1

I went further up, now to driver version 24.8.1. This video showcases my tests both in UE5 Editor and in Fortnite.

No issues seen neither in UE5 nor in Fortnite above.
De games starten weer zonder UE5 crashes en ik heb tot nu toe geen driver timeout crashes gezien.

Ik kan bevestigen wat ze op Reddit over 24.12.1 zeggen. Het is inderdaad crashende zooi dat je moet vermijden.
https://www.reddit.com/r/..._install_adrenalin_24121/
https://www.reddit.com/r/...drenalin_24121_is_so_bad/
https://community.amd.com...m-p/731491/highlight/true

Multi-monitor kan ook nog een factor zijn. https://www.reddit.com/r/..._and_amd_radeon_graphics/

Wat ik met de nieuwste driver ook nog kan bevestigen, is dat de cijfers voor mijn GPU af en toe niet meer in MSI Afterburner getoond werd.

Klagen op Reddit heeft ook zin, daar zit AMD-personeel te reageren, testen op hun eigen PC en maken tickets voor de issues aan.

Ik zie met 24.8.1 niet meer de "WARNING: Known issues with graphics driver" melding voor het upgraden naar 24.12.1. De vorige melding/advies was voor wie 24.9.1 of 24.10.1 heeft, downgraden tot 24.8.1 als de last known good driver version.

Team green heeft recent ook last van slechte driver-versies voor UE5 games: https://www.reddit.com/r/...on_pc_the_past_few_weeks/
Ik vraag me echter ook wel af dat soort problemen die mensen nu ervaren wel altijd daadwerkelijk problemen zijn met de driver, of dat er bijv. wat anders aan de hand is op de systemen die dit hebben. Een andere hard of software incompatibiliteit bijvoorbeeld. Daarnaast heb ik in het begin toen ik mijn 5800X3D net had ervaren dat je driver timeouts ook kan 'uitlokken' met te hoge ram overclocks op in ieder geval Ryzen cpu's (Intel heb ik niet getest). Ik hou het dus ook zeker voor mogelijk dat mensen die timeouts ervaring misschien wel een memory OC hebben (kan al iets simpel zijn als EXO / XMP aanzetten op een cpu met een matige i/o die bin) die simpelweg niet 100% stabiel is.
Wet van Murphy kan zich goed timen op wanneer ik door de verboden vrucht laat verleiden.

Een tweede monitor van meer dan 10 jaren geleden was aan het dood gaan zonder dat het opvalt. Het gaf vage klachten. De stekker van de monitor eens uitgetrokken om een soldeerbout aan te sluiten, daarna de stekker terug ingestoken en de monitor stopt definitief met werken.

Ik had voor het troubleshooten de curve optimizer van alle cores op -30 naar -20 verlaagt. Het heeft niet geholpen. Ik had alle cores op -30 getest met meerdere 16 uren lange testen (nacht + werkdag) met prime95, corecycler, OCCT,... Het kan terug naar alle cores op -30.

Ik ga 24.8.1 nog wat langer testen om zeker te kunnen zijn dat er geen driver timeouts na resume from hibernate zijn, Adrenalin software doet weer wat het moet doen (zonder hangen of ander raar gedrag) en de games crashen niet meer tijdens het opstarten of wanneer een potje begint.

Ik geeft 24.12.1 de rating "voedselvergiftiging", iets dat je de vijand toewenst om z'n PC minstens een week aan moreel verlagende sabotage te laten ondergaan. Good old EVE metagaming (de strijd buiten het spel voorzetten zoals bij een vijandelijke alliantieleider in de tuin graven om een PC zonder Internet en zonder stroom te zetten, Goonfleet care package ging naar Duitsland waar een vijandelijke alliantieleider net uit het ziekenhuis kwam (zie FanFast 2007 presentatie),...)

Acties:
  • +2 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
https://videocardz.com/ne...rice-pressure-from-nvidia

Een mogelijke verklaring voor de "hobbelige" 9070 (XT) launch.
Schijnbaar waren de AMD kaarten te hoog geprijsd in (verhouding tot Nvidia).

Wellicht krijgen we er dadelijk allemaal weer een refund en 3 games bij. :+
Jensen was pissig dat AMD de Nvidia benaming van de kaarten had gejat dus Jensen heeft de 5070 en 5070ti goedkoper uitgebracht :+

Wat een puinhoop als dit waar is.

[ Voor 31% gewijzigd door HugoBoss1985 op 19-01-2025 15:58 ]


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Het zou iig betekenen dat we niet uit hoeven te gaan van scherpe prijzen van AMD. Maar ik zou het apart vinden. Ja voor genoeg mensen waren de Nvidia prijzen meevallers. Tegelijk ook voor genoeg is de prestatie toename deze generatie een tegenvaller. Dus de prijs/prestatie is een beetje zoals verwacht zou ik zeggen, en dat had AMD dan niet geanticipeerd? Dachten ze dat de 50 serie nul verbeteringen in prijs/prestatie zou opleveren?

Enige wat ik kan bedenken is dat de 9070XT eigenlijk meer in de buurt komt van de 5080, maar ze met hun naamgeving wel moeten vergelijken nu met de 5070Ti. Maar dat lijkt me meer wishful thinking van mij uit.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
Werelds schreef op dinsdag 14 januari 2025 @ 10:35:
[...]

Nee, moet dat om m'n ervaring met FG uit te leggen? Input lag is input lag.


[...]

Dat is juist mijn punt. De baseline is de render framerate en beter dan dat kan het niet worden, enkel slechter - op z'n best gelijk. Zonder VRR is het ook nog erger. Optie 1 is VSync aanzetten, met alle gevolgen van dien - mogelijk 1 of 2 extra refreshes input lag als de baseline niet mooi op je refreshrate aansluit. Laat je dat uit, ga je uiteraard tearing krijgen, net als altijd. En als je fakerate flink hoger dan de refreshrate is, krijg je meerdere tears, wat de input lag nog vreemder aan doet voelen.

Doordat de gegenereerde frames wel input en motion vectors hebben, krijg je een soort van halve input update, wat niet altijd goed gaat. Als je wat sneller beweegt, krijg je nog steeds microstutters op je input.


[...]

Dit. Timewarp/reprojection/spacewarp. En er zijn mensen die die technieken ook niet irritant vinden, maar veruit de meesten vinden dit in VR wél vervelend. Voor degenen die last van bewegingsziekte hebben, zijn dit doorgaans ook echt dealbreakers, dan worden ze meteen misselijk. ASW 2.0 gebruikte inderdaad depth buffers om de impact te verminderen ten opzichte van ASW 1.0, voor FG is dat ook een input.

Voor diegenen die overigens denken dat Nvidia en Jensen "magiërs" zijn: bedank meneer Carmack maar. Dit komt allemaal uit zijn hoge hoed. De pixel interpolatie met hulp een neuraal netwerk komt oorspronkelijk van een stel Chinese studenten. Nvidia's implementatie, maar niet de eerste en niet hun idee.
Ik heb FSR 3.x met framegen even aangezet op Cyberpunk 2077, het was een microstutter hell met als bonus input lag (terwijl ik VRR aanheb staan). Misschien dat sommige mensen hier niet gevoelig voor zijn maar het voelt voor mij echt niet smooth aan.Naast de constante flickering die je door FSR sowieso al krijgt heb ik besloten dit de komende paar jaar niet meer te gaan gebruiken :+ .
Gewoon alle RT uit en beetje de optimized settings van HU en ik zit ruim boven wat ik minimaal stel als framerate (100fps).

Kleine kantekening is dat ik op Linux zit, maar gezien het zonder FSR wel allemaal soepel draait met VRR lijkt het mij daar niet aan te liggen.

Heb wel eens lezingen van Carmack gezien, erg interessant!
rapture schreef op vrijdag 17 januari 2025 @ 12:08:
[...]

Drivers voor mijn 6800 XT blijft aan de Italiaanse auto stereotype vasthouden. Eenmaal een goede driverversie gevonden afblijven, anders kan je DDU'en en drivers upgraden en downgraden totdat ik een bruikbare compromis gevonden heb. Het lijkt wel op polderen of Belgische federale regeringsformatie met de driverversies.

De huidige ronde driver-polderen/formatie was begonnen met Windows 10 toont geen password textbox na resume from hibernate en Fortnite geeft melding om naar 24.12.1 up te graden. In de changelog staat dat iets voor Fortnite fixed zou zijn, maar Adrenalin software loopt graag vast en driver timeout crash meldingen.

Wat ook niet helpt is dan mijn Dell u2312hm oud genoeg is om te sneuvelen en dat geeft nog beeldartifacts vlak voor de driver timeout crash meldingen alsof dat de VRAM kapot aan het gaan is.

Eens kijken naar welke driverversies dat er in mijn downloads folder staat. Is 24.7.1 bruikbaar? 24.5.1? 24.3.1? 24.2.1? 24.8.1?

Ik heb ondertussen een goede bron gevonden voor het kiezen van driverversies.


[...]

Een game dev die niets anders dan UE5 en Fortnite icm AMD drivers doet. Hij lijst goed op welke driverversies te vreten is en welke geven "voedselvergiftiging".
Is dat op Windows nog steeds zo'n probleem dan? Ik update iets van 2x per maand en zit dus eigenlijk altijd op de allerlaatste kernel en drivers op Linux en ik ervaar eigenlijk nooit problemen met spellen.
Sissors schreef op zaterdag 18 januari 2025 @ 16:07:
[...]

Dat is letterlijk het omgekeerde van wat ik hier schreef...


[...]

Ik kan mijn ervaringen met een 5700XT delen? Echt merendeel van mijn kaarten zijn altijd AMD geweest. Niet iedereen zit vast aan één fabrikant...


[...]

Ik reageer op wat andere hier stellen. Ik heb op geen moment in die post mijn ervaringen genoemd.
Ik heb echt zo'n zwaar vermoeden dat de eerste batch RX 5700 een probleem hadden en dit was niet software. Die van mij heeft nooit stabiel gelopen, maar ik kon het niet vastpinnen wat het precies was tot ik een 6900 XT in hetzelfde systeem deed en ineens alles stabiel was. Mijn 7900 XTX draait ook altijd stabiel, enige probleem dat ik heb ondervonden dat de drivers nog niet beschikbaar waren op Linux direct na launch :P.
Mijn 5700 XT heb ik aan mijn broertje gegeven en daar was hij ook niet stabiel....
Pagina: 1 ... 98 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.