Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Astennu schreef op donderdag 19 november 2020 @ 13:00:
[...]


Fair enough. Grote van het koelblok zegt inderdaad maar weinig.

Als de 5700XT nu bevalt zou ik denk ik wachten. De RDNA3 architectuur zal het ongetwijfeld een heel stuk beter gaan doen qua RT. Er gaan ook al geruchten de ronde dat die veel beter wordt qua geometry performance.
RDNA2 was meer de inhaal race net als Zen2. Kan me voorstellen dat RDNA3 dan net als Zen3 dan een mooie performance optimalisatie krijgt. Maar mogelkijk ook op 5nm dus dan heb je of een kleinere chip of ruimte voor nog meer CU's. (wellicht dat chipletts nog een ding gaan zijn? volgens geruchten gaat nVidia met hopper ook op die tour).
Weet je, ik ga nu al dagen, elke dag heen en weer. :P
Ik denk dat ik gewoon Cyberpunk even moet zien. Als dat goed draait zonder DXR en met DXR slecht of het voegt niet veel toe, tja. Dan komt nog the Witcher 3 enhanced met DXR en dan is het misschien alsnog verloren.

Maar ergens wil ik het ook uitrekken tot RDNA3 over een jaar. 5nm is inmiddels bevestigd en de vaak zeer betrouwbare leakers hebben het al over chiplets zoals Zen 2/3. Ik denk ook wel dat ze I/O en de display engine gaan afsplitsen. Immers is het nu minder cruciaal geworden om de geheugencontroller dichtbij de ALU's te houden omdat er toch een hele hoop L3 cache tussen zit. Laat SRAM nu juist het beste schalen met kleinere nodes. Je kan nu al uitrekenen dat RDNA3 waarschijnlijk meer L3 cache krijgt en ze dan waarschijnlijk een tweede chiplet op 7nm doen.

Ik heb het allang in mijn hoofd dat wachten op RDNA3 waarschijnlijk beter is. Ik verkoop mijn videokaarten eigenlijk ook niet waardoor het een duur grapje zou worden, but shiny Big Navi. :9

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Snowdog
  • Registratie: Maart 2001
  • Nu online
Psyonara schreef op donderdag 19 november 2020 @ 12:57:
Gister wel heel dicht bij de verleding geweest om 1 te bestellen, net voor de benchmarks uitkwamen. Nvidia's zegt dat rond maart alles beter leverbaar zal worden. Of dat ook geld voor AMD durf ik niet te zeggen en eerlijk gezegt blijf ik skeptisch.

Zolang Covid een issue blijft zal ik zeggen dat het nog wel een stuk langer knudde blijft.
Heeft Covid er iets mee te maken dan?

Acties:
  • +2 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Tja, die snelle stappen maken wel dat je huiverig wordt voor grotere 'investeringen' (hoewel de ROI niet in geld is uit te drukken voor mij). De huidige generatie biedt voor beide kampen een enorme toename in prestaties, maar tegen een tamelijk hoge prijs. Chiplets zouden de prijs kunnen drukken, maar zien is geloven, en dan moet ik dus minimaal een jaar wachten. Voor VR heb ik dit voorjaar sowieso een nieuwe GPU nodig. Misschien moet ik maar een 2[sup]e[/suo]-hands GPU kopen om dan een jaar te wachten op RDNA3. Lastig, lastig.

[ Voor 5% gewijzigd door ocf81 op 19-11-2020 13:37 ]

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • +1 Henk 'm!

  • Snowdog
  • Registratie: Maart 2001
  • Nu online
ocf81 schreef op donderdag 19 november 2020 @ 13:36:
Tja, die snelle stappen maken wel dat je huiverig wordt voor grotere 'investeringen' (hoewel de ROI niet in geld is uit te drukken voor mij). De huidige generatie biedt voor beide kampen een enorme toename in prestaties, maar tegen een tamelijk hoge prijs. Chiplets zouden de prijs kunnen drukken, maar zien is geloven, en dan moet ik dus minimaal een jaar wachten. Voor VR heb ik dit voorjaar sowieso een nieuwe GPU nodig. Misschien moet ik maar een 2[sup]e[/suo]-hands GPU kopen om dan een jaar te wachten op RDNA3. Lastig, lastig.
Ik gok dat je volgende generatie hetzelfde probleem hebt though (volgende generatie weer enorme stap, etc.). Denk ook niet dat het veel goedkoper zal gaan worden, eventuele besparingen zullen gok ik zo vooral in de zakken van nVidia/AMD verdwijnen dus daar zou ik het niet voor doen als je nu een gfx card nodig hebt. Maar duur is het idd wel. Een fatsoenlijke gfx card kost gewoon net zoveel als de rest van de PC bij elkaar these days...

Acties:
  • +1 Henk 'm!

  • Psyonara
  • Registratie: September 2007
  • Laatst online: 12:05
Snowdog schreef op donderdag 19 november 2020 @ 13:29:
[...]


Heeft Covid er iets mee te maken dan?
Zeker wel meer mensen thuis die willen iets doen tegen hun verveling. Last gen console release en vorige GPU/CPU releases hebben lang nooit zo'n hoog demand gehad.

  • deregtx
  • Registratie: Juli 2002
  • Laatst online: 01-08 17:57
DaniëlWW2 schreef op donderdag 19 november 2020 @ 13:25:
[...]


Weet je, ik ga nu al dagen, elke dag heen en weer. :P
Ik denk dat ik gewoon Cyberpunk even moet zien. Als dat goed draait zonder DXR en met DXR slecht of het voegt niet veel toe, tja. Dan komt nog the Witcher 3 enhanced met DXR en dan is het misschien alsnog verloren.

Maar ergens wil ik het ook uitrekken tot RDNA3 over een jaar. 5nm is inmiddels bevestigd en de vaak zeer betrouwbare leakers hebben het al over chiplets zoals Zen 2/3. Ik denk ook wel dat ze I/O en de display engine gaan afsplitsen. Immers is het nu minder cruciaal geworden om de geheugencontroller dichtbij de ALU's te houden omdat er toch een hele hoop L3 cache tussen zit. Laat SRAM nu juist het beste schalen met kleinere nodes. Je kan nu al uitrekenen dat RDNA3 waarschijnlijk meer L3 cache krijgt en ze dan waarschijnlijk een tweede chiplet op 7nm doen.

Ik heb het allang in mijn hoofd dat wachten op RDNA3 waarschijnlijk beter is. Ik verkoop mijn videokaarten eigenlijk ook niet waardoor het een duur grapje zou worden, but shiny Big Navi. :9
Ik dacht dat AMD eerst naar 6nm ging, want volgens geruchten komt er een 6nm Rembrandt APU aan.
Misschien is dat ook wel slimmer want Apple heeft erg veel 5nm chips nodig voor hun x86 naar ARM migratie.

[ Voor 30% gewijzigd door deregtx op 19-11-2020 13:48 ]


Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
DaniëlWW2 schreef op donderdag 19 november 2020 @ 13:25:
[...]


Weet je, ik ga nu al dagen, elke dag heen en weer. :P
Ik denk dat ik gewoon Cyberpunk even moet zien. Als dat goed draait zonder DXR en met DXR slecht of het voegt niet veel toe, tja. Dan komt nog the Witcher 3 enhanced met DXR en dan is het misschien alsnog verloren.

Maar ergens wil ik het ook uitrekken tot RDNA3 over een jaar. 5nm is inmiddels bevestigd en de vaak zeer betrouwbare leakers hebben het al over chiplets zoals Zen 2/3. Ik denk ook wel dat ze I/O en de display engine gaan afsplitsen. Immers is het nu minder cruciaal geworden om de geheugencontroller dichtbij de ALU's te houden omdat er toch een hele hoop L3 cache tussen zit. Laat SRAM nu juist het beste schalen met kleinere nodes. Je kan nu al uitrekenen dat RDNA3 waarschijnlijk meer L3 cache krijgt en ze dan waarschijnlijk een tweede chiplet op 7nm doen.

Ik heb het allang in mijn hoofd dat wachten op RDNA3 waarschijnlijk beter is. Ik verkoop mijn videokaarten eigenlijk ook niet waardoor het een duur grapje zou worden, but shiny Big Navi. :9
Ik weet niet ik heb nog geen een spel gezien waarbij ik het de drop in FPS waard vond voor de IQ die je er voor terug krijgt. Ik heb het idee dat we nog 1-2 generaties nodig hebben voor de prestaties goed genoeg zijn.

Ik heb de kaart vooral op rasterisation prestties gekocht want dat is wat ik nu veel gebruik en nog niet genoeg van heb. Want ik wil juist richting die 144fps ipv 80-90 waar ik nu wel eens hang @ 3440x1440.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • Snowdog
  • Registratie: Maart 2001
  • Nu online
Psyonara schreef op donderdag 19 november 2020 @ 13:43:
[...]


Zeker wel meer mensen thuis die willen iets doen tegen hun verveling. Last gen console release en vorige GPU/CPU releases hebben lang nooit zo'n hoog demand gehad.
Ah, op die manier. Ja, dat scheelt idd wel wat qua vraag. Ik denk dat het ook niet meehelpt dat er op dit moment gewoon een aantal (populaire) producten tegelijkertijd worden uitgebracht (waaronder ook de consoles) die allemaal van dezelfde beperkte productiecapaciteit gebruik moeten maken (afaik?).

Acties:
  • +1 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Snowdog schreef op donderdag 19 november 2020 @ 13:42:
[...]


Ik gok dat je volgende generatie hetzelfde probleem hebt though (volgende generatie weer enorme stap, etc.). Denk ook niet dat het veel goedkoper zal gaan worden, eventuele besparingen zullen gok ik zo vooral in de zakken van nVidia/AMD verdwijnen dus daar zou ik het niet voor doen als je nu een gfx card nodig hebt. Maar duur is het idd wel. Een fatsoenlijke gfx card kost gewoon net zoveel als de rest van de PC bij elkaar these days...
Voor komt nog een complicerende factor bij. Het is voor mij namelijk zo dat een redelijk aantal spellen dat ik speel CPU bound is, waardoor het nut van een betere GPU an sich is lichtelijk beperkt is. In Arma 3 en DCS ga ik bijv geen structureel hogere framerates krijgen door enkel een GPU upgrade. Wat een GPU upgrade wel voor elkaar kan krijgen is dat ik de resoutie en eye candy kan opschroeven zonder een drop in framerate. Echter zit ik nu op TR4 en is het zo dat een upgrade naar AM4 maar beperkt toekomstperspectief biedt. Het is voor mij beter (denk ik) om de resterende tijd te overbruggen en van platform te wisselen als ik naar DDR5 over kan stappen. De kosten van een Ampere of Navi2 GPU worden dan in verhouding best hoog. Echter is eye candy is op zich wel leuk voor de immersie. Dat maakt het zo lastig.

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Astennu schreef op donderdag 19 november 2020 @ 13:48:
[...]


Ik weet niet ik heb nog geen een spel gezien waarbij ik het de drop in FPS waard vond voor de IQ die je er voor terug krijgt. Ik heb het idee dat we nog 1-2 generaties nodig hebben voor de prestaties goed genoeg zijn.

Ik heb de kaart vooral op rasterisation prestties gekocht want dat is wat ik nu veel gebruik en nog niet genoeg van heb. Want ik wil juist richting die 144fps ipv 80-90 waar ik nu wel eens hang @ 3440x1440.
Inderdaad. RT zie ik voorlopig echt vooral als nice to have en heb GPU gekocht vanwege precies dezelfde reden: traditionele ratesterization performance winst.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Help!!!! schreef op donderdag 19 november 2020 @ 14:00:
[...]

Inderdaad. RT zie ik voorlopig echt vooral als nice to have en heb GPU gekocht vanwege precies dezelfde reden: traditionele ratesterization performance winst.
Ja inderdaad. Zolang de framerates niet boven de 144 kunnen blijven en bv 20% omlaag gaan is het mij het gewoon niet waard.
Je kan met traditionele methodes opzich nog een OK resultaat bereiken maar met een veel hogere framerate.

Eventueel slim upscalen zoals met DLSS is wel een uitkomt maar als je ziet dat de performance in bv Minecraft nog steeds ruk is ondanks DLSS heb ik wel zo iets van tja is dat het dan waard?

Misschien moeten ze ook met RT quality sliders of zo gaan werken dat je het detail niveau zelf wat kan aanpassen zodat je de prestaties iets kan opkrikken?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +2 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

Help!!!! schreef op donderdag 19 november 2020 @ 14:00:
[...]

Inderdaad. RT zie ik voorlopig echt vooral als nice to have en heb GPU gekocht vanwege precies dezelfde reden: traditionele ratesterization performance winst.
Tja, mijn mening over de toegevoegde waarde van RT en hoe lang die er niet zal zijn is denk ik inmiddels wel bekend. (zoek anders even terug)
Ik vraag me af hoe lang ze deze wortel gaan voorhouden voordat het publiek het zat wordt om zo weinig verbetering te zien. De toename in prestaties in het begin van de 3D-acceleratoren was best aanzienlijk te noemen. Ik vraag me af of het realistisch is om een vergelijkbare toename in prestaties te zien voor RT zonder een paradigmaverschuiving in de aanpak van RT rendering.
Mijn vermoeden is dat we over een paar generaties vooral de vruchten zullen plukken in de vorm van afgeleide zaken zoals global lighting etc, maar dat pure RT-gebaseerde rendering nog een hele lange tijd op zich laat wachten.
Misschien is het beter om eerst VR meer te gaan pushen en ondertussen op de achtergrond te blijven werken aan de versnelling van RT-based rendering. Of er moet een nieuwe 3dfx opstaan die de boel wakker schud.

[ Voor 9% gewijzigd door ocf81 op 19-11-2020 14:07 ]

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

deregtx schreef op donderdag 19 november 2020 @ 13:47:
[...]

Ik dacht dat AMD eerst naar 6nm ging, want volgens geruchten komt er een 6nm Rembrandt APU aan.
Misschien is dat ook wel slimmer want Apple heeft erg veel 5nm chips nodig voor hun x86 naar ARM migratie.
Dat gaan ze waarschijnlijk wel doen voor de APU's. Immers is N6/6nm design compatible met N7 waar RDNA2 op geproduceerd word. N6 is eigenlijk N7 met EUV.

Er zijn twee enorme voordelen om het zo te doen. Ten eerste kunnen ze nu zo grote delen van Zen 3 en RDNA2 pakken en direct transplanteren op de Rembrandt APU. Ze zullen wat moeten aanpassen, maar de grote bouwblokken blijven behouden. Dat zal die APU productie gereed maken, een stuk simpeler en goedkoper maken. Tweede voordeel is dat ze de APU's, wat zeer hoog volume en relatief lage marge producten zijn, nu op een oudere node zetten waar veel meer capaciteit is. Ze lijken nu Renoir namelijk nauwelijks aan te kunnen slepen terwijl alle grote spelers op N7 zitten. Dit is ook waarom het zo lang duurt voordat RDNA graphics naar de APU komt. Immers is er een Vega op N7 wat het waarschijnlijk een stuk makkelijker maakte om die als basis voor Renoir of Cezanne graphics.

En zo komen Zen 4 en RDNA3 vrij voor de veel duurdere en waarschijnlijk schaarse N5 wafers. Dat zijn ook de echte high end producten die beter gebruik maken van zulke dure wafers. De grote bulkproducten voor laptops, tja N6 is waarschijnlijk goed genoeg. :)
Astennu schreef op donderdag 19 november 2020 @ 13:48:
[...]


Ik weet niet ik heb nog geen een spel gezien waarbij ik het de drop in FPS waard vond voor de IQ die je er voor terug krijgt. Ik heb het idee dat we nog 1-2 generaties nodig hebben voor de prestaties goed genoeg zijn.

Ik heb de kaart vooral op rasterisation prestties gekocht want dat is wat ik nu veel gebruik en nog niet genoeg van heb. Want ik wil juist richting die 144fps ipv 80-90 waar ik nu wel eens hang @ 3440x1440.
Ik ook niet en ik weet het allemaal, but shiny. :9
Ergens hoop ik dat DXR prestaties of effecten in Cyberpunk wat tegenvallen. Dan heb ik namelijk geen excuus meer voor mezelf en dan doe ik het verstandige, namelijk wachten totdat de RX5700XT wat verouderd raakt.

[ Voor 4% gewijzigd door DaniëlWW2 op 19-11-2020 14:13 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

ocf81 schreef op donderdag 19 november 2020 @ 14:05:
[...]

Tja, mijn mening over de toegevoegde waarde van RT en hoe lang die er niet zal zijn is denk ik inmiddels wel bekend. (zoek anders even terug)
Ik vraag me af hoe lang ze deze wortel gaan voorhouden voordat het publiek het zat wordt om zo weinig verbetering te zien. De toename in prestaties in het begin van de 3D-acceleratoren was best aanzienlijk te noemen. Ik vraag me af of het realistisch is om een vergelijkbare toename in prestaties te zien voor RT zonder een paradigmaverschuiving in de aanpak van RT rendering.
Mijn vermoeden is dat we over een paar generaties vooral de vruchten zullen plukken in de vorm van afgeleide zaken zoals global lighting etc, maar dat pure RT-gebaseerde rendering nog een hele lange tijd op zich laat wachten.
Misschien is het beter om eerst VR meer te gaan pushen en ondertussen op de achtergrond te blijven werken aan de versnelling van RT-based rendering. Of er moet een nieuwe 3dfx opstaan die de boel wakker schud.
Inderdaad. De tradeoff tussen IQ verbetering en prestaties is (veel) te ongunstig.

Op zich zou DLSS e.d. wel kunnen helpen maar ben niet zo'n fan van dat soort zaken maar misschien verander ik van mening als ik het heb kunnen proberen.

Verder speel ik vooral veel games waar vaart in zit, (online) shooters, GTA V e.d. en dan is de performance drop gewoon moeilijk te verantwoorden. Als je vooral wat langzamere games speelt waarbij FPS wat minder telt is het misschien anders.

Ik denk dat je makkelijk 2 generaties verder bent voordat dit echt wat wordt.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
DaniëlWW2 schreef op donderdag 19 november 2020 @ 14:09:

Ik ook niet en ik weet het allemaal, but shiny. :9
Ergens hoop ik dat DXR prestaties of effecten in Cyberpunk wat tegenvallen. Dan heb ik namelijk geen excuus meer voor mezelf en dan doe ik het verstandige, namelijk wachten totdat de RX5700XT wat verouderd raakt.
Probleem is waarschijnlijk dat je FPS met een 6900XT en DXR on lager zal zijn dan dat van een 5700XT zonder. En dan moet je je af vragen zijn die paar effecten dan dat geld waard ^^
Maar ik snap het wel hoor.Als de framerates niet zo erg zouden droppen zou ik het ook aan zetten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

🤔
Afbeeldingslocatie: https://tweakers.net/i/L7NJwwM8kGhBmwOMhoVB8ctXSGM=/800x/filters:strip_exif()/f/image/vGxZzMKXdlhArksO6FtlMekv.png?f=fotoalbum_large

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
2150 is duidelijk niet stabiel gezien de grote FPS drops.
Ze hadden beter 2050 en 2100 kunnen testen en bv 1800 zodat je zeker weer dat het stabiel is.

[ Voor 3% gewijzigd door Astennu op 19-11-2020 15:18 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Astennu schreef op donderdag 19 november 2020 @ 15:18:
[...]


2150 is duidelijk niet stabiel gezien de grote FPS drops.
Ze hadden beter 2050 en 2100 kunnen testen en bv 1800 zodat je zeker weer dat het stabiel is.
Maar dit is het GDDR6 geheugen, toch niet de infinity cache / core clock, right?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
sunsmountain schreef op donderdag 19 november 2020 @ 15:20:
[...]

Maar dit is het GDDR6 geheugen, toch niet de infinity cache / core clock, right?
Zo ver ik zo kan zien wel.
Ik vraag me af of je die clocks uberhaubt kan verhouden.

Het zou kunnen dat die met een multiplier linked zijn aan de core of geheugen maar kan ook een los clock domein zijn. Ik denk een beetje het laatste gezien clock scaling en wat coreteks maar dat is nog niet zeker.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Astennu schreef op donderdag 19 november 2020 @ 15:22:
[...]


Zo ver ik zo kan zien wel.
Ik vraag me af of je die clocks uberhaubt kan verhouden.

Het zou kunnen dat die met een multiplier linked zijn aan de core of geheugen maar kan ook een los clock domein zijn. Ik denk een beetje het laatste gezien clock scaling en wat coreteks maar dat is nog niet zeker.
GDDR6 heeft als ik me niet vergis een max JEDEC spec van 2,1 GHz, dus ik weet niet hoeveel er uit GDDR6 te halen is, maar dat lijkt me beperkt.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
sunsmountain schreef op donderdag 19 november 2020 @ 15:27:
[...]

GDDR6 heeft als ik me niet vergis een max JEDEC spec van 2,1 GHz, dus ik weet niet hoeveel er uit GDDR6 te halen is, maar dat lijkt me beperkt.
Sommig geheugen is best goed te overclocken
Geen idee hoe dat voor GDDR6 is bij nVidia kaarten.

Mijn RX5700XT vind mem oc totaal niet leuk wil niet eens 1800MHz halen. Waar sommige wel de 1900MHz konden halen.

Op deze nieuwe kaarten zit 16gbps mem er is ook 18gbps.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Astennu schreef op donderdag 19 november 2020 @ 14:33:
[...]


Probleem is waarschijnlijk dat je FPS met een 6900XT en DXR on lager zal zijn dan dat van een 5700XT zonder. En dan moet je je af vragen zijn die paar effecten dan dat geld waard ^^
Maar ik snap het wel hoor.Als de framerates niet zo erg zouden droppen zou ik het ook aan zetten.
Ik speel eigenlijk niet veel games waar framerate echt belangrijk is. Beeldkwaliteit hecht ik meer aan, maar het moet wel wat toevoegen. Ik speel alleen niks waar ik echt een betere videokaart voor nodig heb. Maar op het moment zit ik al heel wat uren op de RX5700XT nog een jaar houden en los gaan met Navi 31. Het gaat denk ik de goede kant op. Verder kan ik zo doorgaan met wachten op Big Navi. Daar ben ik immers best goed in geworden de afgelopen jaren. :Y)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Razkin
  • Registratie: Oktober 1999
  • Laatst online: 08:38
@sunsmountain JEDEC voor DDR4 is ook komisch traag ten opzichte wat mogelijk is met goede chips, waarom zou dat voor GDDR6 anders zijn?

iRacing Profiel


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Razkin schreef op donderdag 19 november 2020 @ 15:39:
@sunsmountain JEDEC voor DDR4 is ook komisch traag ten opzichte wat mogelijk is met goede chips, waarom zou dat voor GDDR6 anders zijn?
Oh, ik associeer graphics onboard memory modules niet met Corsair level timings. Dus ik verwacht niet veel meer dan de base spec. Ik betwijfel of AMD bereid zou zijn daarvoor de meerprijs te betalen, als ze bewust kiezen voor 256-bit en 16 Gbps.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
sunsmountain schreef op donderdag 19 november 2020 @ 15:46:
[...]

Oh, ik associeer graphics onboard memory modules niet met Corsair level timings. Dus ik verwacht niet veel meer dan de base spec. Ik betwijfel of AMD bereid zou zijn daarvoor de meerprijs te betalen, als ze bewust kiezen voor 256-bit en 16 Gbps.
Zal wel een overweging zijn tussen prijs/performance en beschikbaarheid.
Dat laatste is ook belangrijk als je er veel van wilt maken. Weet ook niet of er meer vendors zijn met 18gbps.
met 16 kan je bv ook hynix memory gebruiken zit je niet alleen vast aan samsung.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Afbeeldingslocatie: https://tweakers.net/i/a788Dva5Tkuu-8cVfcsqN2286jg=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/Meu8Oc7HsEsxfkiz3sAGO3d1.png?f=user_large

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Verschil tussen de 6800 en XT met SAM is dan wel apart de XT maakt een veel grotere sprong. Hebben ze hier wel 3 passes gedaan om te zien of het niet toevallig een beter resultaat was?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Astennu schreef op donderdag 19 november 2020 @ 15:57:
[...]


Zal wel een overweging zijn tussen prijs/performance en beschikbaarheid.
Dat laatste is ook belangrijk als je er veel van wilt maken. Weet ook niet of er meer vendors zijn met 18gbps.
met 16 kan je bv ook hynix memory gebruiken zit je niet alleen vast aan samsung.
Ja, maar ga je ver boven de 16 Gbps uit komen? Dat denk ik bij videokaarten niet. Tenzij je de modules extra koelt of zo.

DDR4 wat je zelf los koopt, kijk dat is een ander verhaal, er zijn al kits die 4000 MHz doen, kan je je infinity fabric op 2000 MHz zetten en 1:1 draaien (en 4 ranks is daarbij beter dan 2 ranks).

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +13 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Ze hadden RAGE mode eigenlijk Serious mode moeten noemen. Dan had je Serious SAM kunnen hebben, ik droom nog even verder.

  • Razkin
  • Registratie: Oktober 1999
  • Laatst online: 08:38
@sunsmountain De fysieke eigenschappen van een chip kunnen altijd beter uitvallen dan de specs waarvoor ze ontwikkelt zijn(en waarvoor ze verkocht worden). Dat is meer wat ik probeer aan te geven dat een "JEDEC"spec niets hoeft te zeggen op wat daadwerkelijk mogelijk is.

Het HBM van Vega kon ook duidelijk boven spec lopen, ik heb niets met GDDR6 erop gehad en heb er zelf nooit verder naar gezocht of overclocken boven spec een ding is bij GDDR6.

iRacing Profiel


  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
sunsmountain schreef op donderdag 19 november 2020 @ 16:04:
[...]

Ja, maar ga je ver boven de 16 Gbps uit komen? Dat denk ik bij videokaarten niet. Tenzij je de modules extra koelt of zo.

DDR4 wat je zelf los koopt, kijk dat is een ander verhaal, er zijn al kits die 4000 MHz doen, kan je je infinity fabric op 2000 MHz zetten en 1:1 draaien (en 4 ranks is daarbij beter dan 2 ranks).
Modules extra coolen en hogere voltages kan helpen.

Met DDR4 heb je isane overclocking headroom tov de specs
wordt vooral gedaan door hogere voltages en heel goed binnen van memory modules op die manier maken ze die 4000+ kits de beste overclockende chips worden bij elkaar gezet.

En over de ranks met 4 Ranks (dus 4x Dual rank modules) betwijfel ik of je 2000MHz Fclock en dram gaat halen.Ik denk dat jij 4x Single rank modules bedoelt vs 2x Single.
want 4x single is even snel als 2x Dual rank modules. (bv een 4x8GB single rank config VS een 2x16GB Dual rank opstelling)

Ik heb een keer met 3 ranks getest dus 2x8GB en 2x16GB ik haalde net bijna zo'n hoge scores op 3200XMP als de 2x16GB op 3600 Max tweaked. Echter was het niet lekker stabiel alles boven de 3200 wilde niet booten. En ik vraag me af of ik memtest wel door was gekomen met XMP aan. Heb alleen even een snelle bensh gedraaid.

Ram copy performance was lager.
En mijn 2x16GB kit kan ook 3733MHz halen. Dus overall was 2x16GB toch zeker de betere keuze.
Nu kan het ook zijn dat 4x16GB wel een stuk beter werkt dan mijn rare mix en match maar dat had ik hier niet liggen.

Heb ook nog met 4X8GB getest maar dat is even snel als de 2x16GB kits.
Wat jij denk ik bedoelt is

Maar dit is een beetje offtopic.

Anyway sommige memory controllers en PCB designs laten gewoon hogere memory clocks toe. Dat zag je ook bij AMD Reference 5700 die meer moeite hadden met 950MHz dan de AIB versies. (al hadden die geloof ik vaak hynix ipv Samsung).

[ Voor 7% gewijzigd door Astennu op 19-11-2020 16:12 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

@Astennu Ja er is nog geen peil op te trekken, behalve dat het in (1?) enkele games echt goed werkt. Azor overigens hintte erop dat ze SAM nog verder aan het uitwerken zijn. Ik vind het desondanks nu al indrukwekkend.
Afbeeldingslocatie: https://tweakers.net/i/cdfk5K5VyNgWd0EawIwv8iQ2t8k=/232x232/filters:strip_exif()/f/image/douCulveAkGvnpYlnzf87xyJ.png?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/kj9NEUkvYRZWC2Lod-jgLSG1wqY=/232x232/filters:strip_exif()/f/image/v2q5MjWK3Rk3KaCqePrNjS1S.png?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/AF2AEoDHyKY5g4z79BvkpSyKWXA=/232x232/filters:strip_exif()/f/image/bX4QiQm07LmjGYWfnVHeFSfp.png?f=fotoalbum_tile
Afbeeldingslocatie: https://tweakers.net/i/in9ZbnNST2ZbLiMe2kOkpL1rd3g=/232x232/filters:strip_exif()/f/image/o6TTDpF9pxHs4eFgBwd5CxPL.png?f=fotoalbum_tile

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Astennu schreef op donderdag 19 november 2020 @ 16:11:
[...]


Modules extra coolen en hogere voltages kan helpen.

Met DDR4 heb je isane overclocking headroom tov de specs
wordt vooral gedaan door hogere voltages en heel goed binnen van memory modules op die manier maken ze die 4000+ kits de beste overclockende chips worden bij elkaar gezet.

En over de ranks met 4 Ranks (dus 4x Dual rank modules) betwijfel ik of je 2000MHz Fclock en dram gaat halen.Ik denk dat jij 4x Single rank modules bedoelt vs 2x Single.
want 4x single is even snel als 2x Dual rank modules. (bv een 4x8GB single rank config VS een 2x16GB Dual rank opstelling)

Ik heb een keer met 3 ranks getest dus 2x8GB en 2x16GB ik haalde net bijna zo'n hoge scores op 3200XMP als de 2x16GB op 3600 Max tweaked. Echter was het niet lekker stabiel alles boven de 3200 wilde niet booten. En ik vraag me af of ik memtest wel door was gekomen met XMP aan. Heb alleen even een snelle bensh gedraaid.

Ram copy performance was lager.
En mijn 2x16GB kit kan ook 3733MHz halen. Dus overall was 2x16GB toch zeker de betere keuze.
Nu kan het ook zijn dat 4x16GB wel een stuk beter werkt dan mijn rare mix en match maar dat had ik hier niet liggen.

Heb ook nog met 4X8GB getest maar dat is even snel als de 2x16GB kits.
Wat jij denk ik bedoelt is

Maar dit is een beetje offtopic.

Anyway sommige memory controllers en PCB designs laten gewoon hogere memory clocks toe. Dat zag je ook bij AMD Reference 5700 die meer moeite hadden met 950MHz dan de AIB versies. (al hadden die geloof ik vaak hynix ipv Samsung).
Ja ik bedoelde met 4 ranks 4x single rank ja. Voor Zen 3, maar ook voor Intel trouwens, is 4 ranks beter dan 2. Hardware Unboxed heeft al getest dat meer dan 3600 MHz niet veel meer oplevert, met goede timings (CL16).

Terug on topic, zeker kan VRAM soms goed te overclocken zijn: ik ga daar echter niet van uit.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Jumpiefox
  • Registratie: November 2001
  • Laatst online: 05-10 23:51

Jumpiefox

Hoi ?

Weet iemand of er al meer info naar buiten is gebracht mbt de 6900xt en AIB versies?

The first casualty in war is always the truth...


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Jumpiefox schreef op donderdag 19 november 2020 @ 16:22:
Weet iemand of er al meer info naar buiten is gebracht mbt de 6900xt en AIB versies?
Helemaal niks, maar ik heb wel een hint.
https://www.techpowerup.c...800-only-until-early-2021

Begin volgend jaar zou AMD dus staken met hun eigen ontwerp produceren. Wat moet er dan met de RX6900XT gebeurden voor de rest van het jaar. Lage productieaantallen of AIB modellen. Ik denk dat ze wel gaan komen. :)

[ Voor 6% gewijzigd door DaniëlWW2 op 19-11-2020 16:27 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

6900XT custom is vooralsnog een 'misschien'. Maar de geruchten worden wel steeds sterker. Wanneer? Na 8 december in elk geval.

_______


Techdemo!

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Verwijderd

@Astennu Oeps... :F

[ Voor 146% gewijzigd door Verwijderd op 19-11-2020 16:38 ]


Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Xadeon schreef op donderdag 19 november 2020 @ 16:18:
@Astennu Ja er is nog geen peil op te trekken, behalve dat het in (1?) enkele games echt goed werkt. Azor overigens hintte erop dat ze SAM nog verder aan het uitwerken zijn. Ik vind het desondanks nu al indrukwekkend.
[Afbeelding][Afbeelding][Afbeelding]
[Afbeelding]
Kan me voorstellen dat als je games er voor gaat optimaliseren je nog meer winst gaat zien.
En dat ze het verder uitwerken alleen maar mooi. Maar vrees dat ze ook met support voor oudere CPU's moeten gaan komen als nVidia het ook op intel en AMD mogelijk gaat maken.

Dan moet AMD eigenlijk ook gaan zorgen dat een simpelere versie op oudere versies en intel ook gaat werken.
Dat het met een Ryzen 5000 en 500 serie chipset dan beter werkt dan wat nVidia kan bieden is prima. (mits dat verschil er dan wel is. ben benieuwd wat voor een gains nVidia straks laat zien.
Verwijderd schreef op donderdag 19 november 2020 @ 16:32:
5800X @ Megekko:
Artikelnr: 294823
Artikel: Processor AMD Ryzen 7 5800X
Jouw positie: 48 van de 295
Verkeerde topic? :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

:XAfbeeldingslocatie: https://tweakers.net/i/NuhMT4OBHtww8oJX628z2ffde7k=/800x/filters:strip_icc():strip_exif()/f/image/4ofBLC8qZ9OPyuJpSND394mX.jpg?f=fotoalbum_large

[ Voor 20% gewijzigd door Xadeon op 19-11-2020 17:00 ]

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


  • Potenscia
  • Registratie: Oktober 2019
  • Laatst online: 09-09 09:51
Xadeon schreef op donderdag 19 november 2020 @ 16:18:
@Astennu Ja er is nog geen peil op te trekken, behalve dat het in (1?) enkele games echt goed werkt. Azor overigens hintte erop dat ze SAM nog verder aan het uitwerken zijn. Ik vind het desondanks nu al indrukwekkend.
[Afbeelding][Afbeelding][Afbeelding]
[Afbeelding]
Is dit sarcasme? Want de getoonde afbeeldingen laten juist eigenlijk geen hogere performance zien. Terwijl SAM juist vaak wel richting de 3-5% gaat.

  • RobinNL
  • Registratie: December 2009
  • Laatst online: 12:26
Xadeon schreef op donderdag 19 november 2020 @ 16:27:
6900XT custom is vooralsnog een 'misschien'. Maar de geruchten worden wel steeds sterker. Wanneer? Na 8 december in elk geval.
Volgens mij dacht ik gelezen te hebben dat het 2021 zou worden.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

@Potenscia Nee, geen sarcasme. Ik bedoelde op de minimale framerate(zie RDR2 sheet, bovenaan).

@RobinNL Ja, zoals @DaniëlWW2 al aangaf dat dit goed mogelijk is aangezien de productie van ref. versie tot in Q1 loopt.

[ Voor 41% gewijzigd door Xadeon op 19-11-2020 17:07 ]

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Xadeon schreef op donderdag 19 november 2020 @ 17:04:
@Potenscia Nee, geen sarcasme. Ik bedoelde op de minimale framerate(zie RDR2 sheet, bovenaan).
De grafiek is een 6800XT en de disclaimer zegt 6900XT.... :?

En verder is 6800XT vs "6800XT"+SAM min. FPS wel heel veel hoger terwijl 6800 vs 6800SAM als verwacht is.

[ Voor 24% gewijzigd door Help!!!! op 19-11-2020 17:25 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

  • Potenscia
  • Registratie: Oktober 2019
  • Laatst online: 09-09 09:51
Xadeon schreef op donderdag 19 november 2020 @ 17:04:
@Potenscia Nee, geen sarcasme. Ik bedoelde op de minimale framerate(zie RDR2 sheet, bovenaan).
Ja, daar is inderdaad een redelijk verschil te zien, maar als dat in deze 4 titles niet is, is dat gemiddeld nog geen hoogstandje.

De techdemo ziet er trouwens ook wel cool uit met reflections en global illumination, maar het zegt niet heel veel, want dat er RT ondersteuning is wisten we natuurlijk gewoon en van FidelityFX heb ik weinig kunnen waarnemen (misschien juist positief? >:) ).

  • Yamotek
  • Registratie: Oktober 2011
  • Laatst online: 05-10 18:04
Hmn... alles wat ik over het geheugen lees en vooral dat het de 'bottleneck' is op hoge resoluties, heb ik het idee dat AMD volgend jaar met een refresh gaat komen tegelijk met het uitbrengen van de kleinere chips.

Dus dezelfde chip, maar dan met een hogere bandbreedte voor het geheugen om zo met minimale inspanning een 'beter' product te hebben. Is trouwens GDDR6X een Nvidia only product of is het meer dat er gewoon weinig van deze chips beschikbaar zijn?

Acties:
  • +1 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Help!!!! schreef op donderdag 19 november 2020 @ 17:20:
[...]

De grafiek is een 6800XT en de disclaimer zegt 6900XT.... :?

En verder is 6800XT vs "6800XT"+SAM min. FPS wel heel veel hoger terwijl 6800 vs 6800SAM als verwacht is.
De disclaimer is van de techdemo. ;) Wat betreft SAM, in 1440p heeft de 6800 die 'SAM bump' wel. Maakt me overigens wel nieuwsgieriger naar de 6900XT.

Afbeeldingslocatie: https://tweakers.net/i/RED8kAgz6Gh-ki6TyZ4LbOqsE-I=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/u9zMmmUrYMolxsnxqArILOkC.png?f=user_large

@Yamotek GDDR6X is geen 'Nvidia only'. Maar ik betwijfel of AMD het gaat gebruiken.

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


  • Santee
  • Registratie: Maart 2010
  • Laatst online: 06-10 21:44
DaniëlWW2 schreef op woensdag 18 november 2020 @ 21:59:
[...]


Dat gebeurde ook al met Watch Dogs: Legion.
[Afbeelding]

Het probleem blijft gewoon dat alle voorgaande DXR titels rond Turing zijn ontwikkeld en er geen weet geweest zal zijn waar AMD mee kwam. Als meteen de eerste game, nota bene Nvidia sponsored, dan al vrijwel gelijk trekt, dan lijkt het gewoon niet slecht te zijn qua RT prestaties.

Ik mis nog heel erg de white paper, maar het lijkt er ook sterk op dat AMD dit bereikt met een geringe uitgave van kostbaar transistorbudget. Er zijn geen aparte RT cores met hun eigen logic. Dat is allemaal ingebouwd in de texture mapping die de logic lijkt te delen. Er zijn al helemaal geen tensor cores die heel wat transistoren innemen. Denoising doen de ALU's waarschijnlijk met hun verbeterde low precision functionaliteit.


@Astennu , heb je nu een RX6800 of RX6800XT besteld? :)
Ik snap dit soort staaftabellen met 3 nét verschillende tinten blauw nooit. Maak het dan goed verschillende kleuren :+

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Santee schreef op donderdag 19 november 2020 @ 20:19:
[...]

Ik snap dit soort staaftabellen met 3 nét verschillende tinten blauw nooit. Maak het dan goed verschillende kleuren :+
Dat is een mysterie waar waarschijnlijk nooit een antwoord op zal komen. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Saekerhett
  • Registratie: Juni 2001
  • Laatst online: 09:29
Santee schreef op donderdag 19 november 2020 @ 20:19:
[...]

Ik snap dit soort staaftabellen met 3 nét verschillende tinten blauw nooit. Maak het dan goed verschillende kleuren :+
Ja, of duidelijke rode tinten voor het AMD-kamp en groen voor NVIDIA :P

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:50
Astennu schreef op woensdag 18 november 2020 @ 20:51:
In de video van J2C
YouTube: I owe AMD an apology...

Zie je trouwens dat met 4K 144Hz de memory clock wel 2000MHz is :/
Vraag me dus af of high refresh rate idle power draw dan wel helemaal gefixt is. Ik vrees toch van niet als ik dit zie want ook hier weer 4K 144Hz op de windows desktop is toch niet zo zwaar lijkt mij?
Je ziet ook een verbruik van 37-41watt.

Geen idee wat nVidia kaarten daar doen qua verbruik?
Het is ook niet altijd feest bij groen hoor. Met 3x 4K/120hz en 1x 1440p/60hz zit ik rond de 70W idle. Op het totale idle verbruik (4 schermen tikt hard aan) nog bijna verwaarloosbaar overigens. -O-

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:50
Thrawni schreef op woensdag 18 november 2020 @ 21:59:
[...]
16gb vs 10gb (vind 10gb erg eng, denk dat het over 2 jaar wel eens te weinig kan zijn)
Ik vind het wel interessant dat mensen 10GB eng vinden en ik met 3 4K schermen er geen enkele angst (of problemen) ervaar.

[ Voor 3% gewijzigd door Paprika op 20-11-2020 10:34 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Paprika schreef op vrijdag 20 november 2020 @ 10:28:
[...]

Het is ook niet altijd feest bij groen hoor. Met 3x 4K/120hz en 1x 1440p/60hz zit ik rond de 70W idle. Op het totale idle verbruik (4 schermen tikt hard aan) nog bijna verwaarloosbaar overigens. -O-
Ah ja. Er zal altijd wel een limiet zijn wanneer je toch moet opschalen qua clocks. Maar bij AMD was dat in ieder geval voor Navi 21 te vroeg.

Mijn 34" scherm is best wel zuinig die verbruikt iets van 35watt @ 120cdm2

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Cidious
  • Registratie: Mei 2005
  • Laatst online: 12:20

Cidious

The Bloody Gent

Paprika schreef op vrijdag 20 november 2020 @ 10:32:
[...]

Ik vind het wel interessant dat mensen 10GB eng vinden en ik met 3 4K schermen er geen enkele angst (of problemen) ervaar.
Nog niet omdat 8GB de norm was en developers daarvoor optimaliseerden. Nu gaat meer dan 16GB voor high-end (EN consoles) de norm zijn. Developers zullen dus grotere textures kunnen laden nu en dat zeker ook doen voor max settings. En daar sta je dan in je ondergoed met een 10gb kaar die een nier en 2 hartkleppen kostte omdat je niet geduldig konden wachten...

Sorry maar 10gb gaat echt te weinig zijn en snel ook. De discussie betreft 16gb en 32gb ram ging ook op een half jaar geleden waar velen moord en brand schreeuwden dat 16GB genoeg is voorlopig.. Ik top makkelijk 16GB inmiddels een half jaar later.. Heb dan ook in elke machine nu 32GB of meer zitten nu.

10GB verdedigen is alleen zinvol als je zelf diegene bent die daar zijn geld op heeft stukgegooid.

R7 9800X3D + ASUS ROG STRIX X870E-E + RTX 4090 FE + 48GB TG Xtreem 8200 CL38


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:50
Cidious schreef op vrijdag 20 november 2020 @ 11:12:
[...]


Nog niet omdat 8GB de norm was en developers daarvoor optimaliseerden. Nu gaat meer dan 16GB voor high-end (EN consoles) de norm zijn. Developers zullen dus grotere textures kunnen laden nu en dat zeker ook doen voor max settings. En daar sta je dan in je ondergoed met een 10gb kaar die een nier en 2 hartkleppen kostte omdat je niet geduldig konden wachten...

Sorry maar 10gb gaat echt te weinig zijn en snel ook. Die discussen betreft 16gb en 32gb ram ging ook op een half jaar geleden waar velen moord en brand schreeuwden dat 16GB genoeg is voorlopig.. Ik top makkelijk 16GB inmiddels een half jaar later.. Heb dan ook in elke machine nu 32GB of meer zitten.

10GB verdedigen is alleen zinvol als je zelf diegene bent die daar zijn geld op heeft stukgegooid.
Zelfs als ik de meningen eruit filter dan staat hier nog veel misinformatie. We zullen het wel zien denk ik, maar gezien de Xbox ook 'maar' 10GB aan snel geheugen heeft en ook nog eens een OS, video sharing etc moet draaien zullen we wel zien waar het strand.

Ik weet in ieder geval nu wel waar je voorkeur ligt. :+

Acties:
  • 0 Henk 'm!

  • Cidious
  • Registratie: Mei 2005
  • Laatst online: 12:20

Cidious

The Bloody Gent

Paprika schreef op vrijdag 20 november 2020 @ 11:15:
[...]

Zelfs als ik de meningen eruit filter dan staat hier nog veel misinformatie. We zullen het wel zien denk ik, maar gezien de Xbox ook 'maar' 10GB aan snel geheugen heeft en ook nog eens een OS, video sharing etc moet draaien zullen we wel zien waar het strand.

Ik weet in ieder geval nu wel waar je voorkeur ligt. :+
Mijn voorkeur ligt bij waar krijgen voor mijn geld. Nvidia heeft daar helaas in gefaald deze generatie anders had ik ze met alle liefde mijn poen willen overhandigen. Nvidia heeft fout na fout na fout gemaakt met deze line-up en mensen die niet konden wachten zullen daar vanzelf last van hebben. Boontje komt om zijn loontje..

Meningen? 16GB is nu mainstream high-end. dankzij AMD...als het aan nvidia en intel ligt zouden we nu nog op 4-cores en een Turing refresh draaien voor de hoofdprijs... Competitie... Helaas is nvidia momenteel met een slechte node en te weinig geheugen en absoluut geen voorraad voor weken op rij niet echt competitief...

R7 9800X3D + ASUS ROG STRIX X870E-E + RTX 4090 FE + 48GB TG Xtreem 8200 CL38


Acties:
  • 0 Henk 'm!

  • Psyonara
  • Registratie: September 2007
  • Laatst online: 12:05
AMD moet ook nog dingen optimaliseren, en ook nog even afwachten wat voor kinks in de kabel er nog te voorschijn komen. Maar ze hebben wel het initiatief genomen om met hogere Vram te komen. En denk ook dat in en anders over 2 jaar opkomende games meer dan 8 GB VRam komen misschien niet gelijk de maximale 16.

Maar Nvidia's line up met Vram is wel vaag en extreem. alles van Low tot mid heeft 8 en dan hun zo genaamde flagship 3080 krijgt 10 en dan de 3090 24.

Een van de redenen dat ik nog even wil wachten met een nieuwe GPU.
Maar vind het zo lastig in te schatten gezien Rood en Groen zoveel verschillende dingen doen.
Dat ik nu ineens neig voor een PS5 te gaan en over een jaar misschien een nieuwe GPU.
Baal wel gezien ik Cyberpunk graag met een nieuwe GPU wou inwerken.

Keuzes keuzes :(

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nieuws dan.
-De beschikbaarheid is dramatisch, schok ik weet het. :P
-De AIB launch op de 25ste lijkt dat ook niet op te gaan lossen, maar hier word het interessant. Het lijkt er namelijk op dat de AMD exclusieve partners, een veel grotere allocatie hebben gekregen dan de niet exclusieve partners. Wat je dus gaat zien zijn eerst de Sapphire, XFX, Powercolor en ASRock kaarten en het kan nog weken duren voordat een ASUS, MSI of Gigabyte verschijnt.
-Oh en Frank Azor krijgt ook nog even een schop.


I say, good news everyone. :*)
Kunnen ze nog even goed kijken of ze ditmaal wel thermal paste normaal kunnen aanbrengen, thermal pads van afdoende formaat gebruiken, controleren of ze wel contact tussen VRAM en hitteblok hebben, checken of het hitteblok wel contact maakt met de VRM's, kijken of de ventilatoren niet op een achterlijke snelheid draaien omdat het hele ontwerp niet deugt of controleren of het hitteblok er niet half af hangt omdat de juiste schroeven gebruiken, toch lastig blijkt te zijn. Ik noem verder geen namen. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 12:32
Cidious schreef op vrijdag 20 november 2020 @ 11:20:
[...]


Mijn voorkeur ligt bij waar krijgen voor mijn geld. Nvidia heeft daar helaas in gefaald deze generatie anders had ik ze met alle liefde mijn poen willen overhandigen. Nvidia heeft fout na fout na fout gemaakt met deze line-up en mensen die niet konden wachten zullen daar vanzelf last van hebben. Boontje komt om zijn loontje..

Meningen? 16GB is nu mainstream high-end. dankzij AMD...als het aan nvidia en intel ligt zouden we nu nog op 4-cores en een Turing refresh draaien voor de hoofdprijs... Competitie... Helaas is nvidia momenteel met een slechte node en te weinig geheugen en absoluut geen voorraad voor weken op rij niet echt competitief...
Ondertussen gebruiken de meeste games nog niet eens 6gb vram. Leuk dus die 16 maar besef je dat games worden geoptimaliseerd voor mid range kaarten omdat dat het overgrote deel is. 8gb word komende jaren pas langzaam mainstream en dus zullen games daar rekening mee houden.

Die 10gb op de 3080 is dus prima. Ook de enorme snelheid zal helpen.
4k is leuk maar is en blijft een niche van een niche voorlopig. Gaming monitoren op 4k zijn gewoon veel te duur voor velen net als een kaart waar je de benodigde fps mee haalt. De meeste zitten nog op 1080p of lager en zelfs 1440p is niet echt gemeengoed.

Acties:
  • 0 Henk 'm!

  • Snowdog
  • Registratie: Maart 2001
  • Nu online
DaniëlWW2 schreef op vrijdag 20 november 2020 @ 11:34:
Nieuws dan.
-De beschikbaarheid is dramatisch, schok ik weet het. :P
-De AIB launch op de 25ste lijkt dat ook niet op te gaan lossen, maar hier word het interessant. Het lijkt er namelijk op dat de AMD exclusieve partners, een veel grotere allocatie hebben gekregen dan de niet exclusieve partners. Eat je dus gaat zien zijn Sapphire, XFX, Powercolor en ASRock kaarten en het kan nog weken duren voordat een ASUS, MSI of Gigabyte verschijnt.
-Oh en Frank Azor krijgt ook nog even een schop.
[YouTube: AMD RX 6800 XT Availability Update, No GeForce Stock, Zen 3 B450 BIOSes | News Corner]

I say, good news everyone. :*)
Kunnen ze nog even goed kijken of ze ditmaal wel thermal paste normaal kunnen aanbrengen, thermal pads van afdoende formaat gebruiken, controleren of ze wel contact tussen VRAM en hitteblok hebben, checken of het hitteblok wel contact maakt met de VRM's, kijken of de ventilatoren niet op een achterlijke snelheid draaien omdat het hele ontwerp niet deugt of controleren of het hitteblok er niet half af hangt omdat de juiste schroeven gebruiken, toch lastig blijkt te zijn. Ik noem verder geen namen. :z
Hmm, qua leverbaarheid lijkt het hier (China) nog wel mee te vallen. Kon de 6800xt (6800 niet) vanmiddag iig nog tegen een normale prijs bestellen met een leverdatum van maandag (da's wat trager dan normaal maar niet schokkend). Bovenstaande als de gegevens op de betreffende website betrouwbaar zijn iig, maar da's normaal gesproken wel het geval, heb eigenlijk nog nooit vertragingen gehad met bestellingen daar.

Ik denk echter dat ik toch maar even de custom modellen afwacht, hopen dat de leverbaarheid hetzelfde blijft, dan maak ik dan wel een keuze op basis van prijs wat het gaat worden.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:50
computerjunky schreef op vrijdag 20 november 2020 @ 11:35:
[...]

Die 10gb op de 3080 is dus prima. Ook de enorme snelheid zal helpen.
4k is leuk maar is en blijft een niche van een niche voorlopig. Gaming monitoren op 4k zijn gewoon veel te duur voor velen net als een kaart waar je de benodigde fps mee haalt. De meeste zitten nog op 1080p of lager en zelfs 1440p is niet echt gemeengoed.
Juist op 1440p en 1080p wil je AMD nemen.

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 12:32
Paprika schreef op vrijdag 20 november 2020 @ 11:40:
[...]

Juist op 1440p en 1080p wil je AMD nemen.
Als alle nvidia features je niet boeien dan lijken amd kaarten idd beter te presteren op de meer standaard resoluties.
Dat was de grootste reden om niet een 3080 te bestellen. De lagere resolutie prestatie viel behoorlijk tegen helaas.

Dlss rtx en reflex kunnen in de toekomst echter wel of niet breed geïmplementeerd worden en dan is er nog rtx voice en dat blijf ik boeiende features vinden. Zit tegenwoordig namelijk de gehele dag met een headset op...

Maar mijn punt was dat het hele te weinig geheugen verhaal denk ik wel mee gaat vallen. Ik denk dat developers niet zullen gaan optimaliseren voor meer als 8 gb wetende dat 85% van de gamers dan problemen gaan hebben omdat die max 8gb hebben.
Al hebben game developers wel vaker vreemde keuzes gemaakt :+

[ Voor 13% gewijzigd door computerjunky op 20-11-2020 11:46 ]


Acties:
  • 0 Henk 'm!

  • Thrawni
  • Registratie: Januari 2016
  • Laatst online: 06-10 21:10
computerjunky schreef op vrijdag 20 november 2020 @ 11:44:
[...]


Als alle nvidia features je niet boeien dan lijken amd kaarten idd beter te presteren op de meer standaard resoluties.
Dat was de grootste reden om niet een 3080 te bestellen. De lagere resolutie prestatie viel behoorlijk tegen helaas.

Dlss rtx voice en reflex kunnen in de toekomst echter wel of niet breed geïmplementeerd worden en dat blijf ik boeiende features vinden.

Maar mijn punt was dat het hele te weinig geheugen verhaal denk ik wel mee gaat vallen. Ik denk dat developers niet zullen gaan optimaliseren voor meer als 8 gb wetende dat 85% van de gamers dan problemen gaan hebben omdat die max 8gb hebben.
Al hebben game developers wel vaker vreemde keuzes gemaakt :+
Nvidia features= RT & DLSS?

Geld dit ook op 1440p UW?

Acties:
  • +1 Henk 'm!

  • Snowdog
  • Registratie: Maart 2001
  • Nu online
Paprika schreef op vrijdag 20 november 2020 @ 11:40:
[...]

Juist op 1440p en 1080p wil je AMD nemen.
Denk dat veel mensen ook 1440p ultrawide hebben though, dan is het verschil alweer kleiner. En dan zijn de kleine extra's die nVidia heeft toch wel mooi meegenomen. Ik zou die kleine extra's op dit moment liever hebben dan die extra 6GB aan video memory. Maar goed, wellicht dat ik die woorden over een jaartje of 2 intrek, kan me persoonlijk echter ook niet voorstellen dat 10 GB anytime soon echt te weinig gaat zijn.

Acties:
  • 0 Henk 'm!

  • Psyonara
  • Registratie: September 2007
  • Laatst online: 12:05
computerjunky schreef op vrijdag 20 november 2020 @ 11:44:
[...]


Als alle nvidia features je niet boeien dan lijken amd kaarten idd beter te presteren op de meer standaard resoluties.
Dat was de grootste reden om niet een 3080 te bestellen. De lagere resolutie prestatie viel behoorlijk tegen helaas.

Dlss rtx en reflex kunnen in de toekomst echter wel of niet breed geïmplementeerd worden en dan is er nog rtx voice en dat blijf ik boeiende features vinden. Zit tegenwoordig namelijk de gehele dag met een headset op...

Maar mijn punt was dat het hele te weinig geheugen verhaal denk ik wel mee gaat vallen. Ik denk dat developers niet zullen gaan optimaliseren voor meer als 8 gb wetende dat 85% van de gamers dan problemen gaan hebben omdat die max 8gb hebben.
Al hebben game developers wel vaker vreemde keuzes gemaakt :+
Verkijk je er niet op er is nu ook een nieuwe Console generatie, en er zullen vast nog wel wat benchmark games worden aan gekondigt die weer een nieuwe standaard van pracht en praal proberen neer te zetten.

Toen ik voor het eerst een GPU kocht met 1 GB Vram heb ik daar op zijn max ook maar iets van 2 plus jaar mogen genieten en daarna was ik te blut om te upgraden. Als ik een 2gb Vram gpu had was het wel een stuk minder erg geweest.

wil op zijn minst 3/4 plus jaar mee met een GPU.

Acties:
  • +2 Henk 'm!

  • Thrawni
  • Registratie: Januari 2016
  • Laatst online: 06-10 21:10
Tja ik weet het niet. De een roept wel dat 10gb genoeg moet zijn, over twee/drie/vier jaar, de ander zegt dat je wel minimaal 16gb aan vram moet hebben. Zit behoorlijk in een tweestrijd en ga niet een GPU kopen die ik over twee jaar kan verkopen voor een nieuwere generatie, wil het eigenlijk gewoon gelijk goed doen.

NVidia heeft RT, DLSS, Stabiele drivers, Geforce Experience, Shadowplay en weet ik het.

AMD heeft 16gb, misschien stabiele drivers, misschien een goede 'counterpart' voor DLSS (super resolution), misschien het RT later in zijn voordeel gezien de consoles het ook hebbeen.
Dat is hoe ik het nu een beetje zie.

Game ook op een 1440p UW, en weet dat er niet zóveel verschil zitten met een 'normaal' 1440p scherm, maar alsnog. Dan denk ik dat AMD en Nvidia wel weer dichter bij elkaar zitten qua performance ( zonder RT, SAM, DLSS mee te rekenen).

[ Voor 15% gewijzigd door Thrawni op 20-11-2020 11:52 ]


Acties:
  • +1 Henk 'm!

  • PigletCNC
  • Registratie: Oktober 2020
  • Laatst online: 24-10-2024
Thrawni schreef op vrijdag 20 november 2020 @ 11:49:
Tja ik weet het niet. De een roept wel dat 10gb genoeg moet zijn, over twee/drie/vier jaar, de ander zegt dat je wel minimaal 16gb aan vram moet hebben. Zit behoorlijk in een tweestrijd en ga niet een GPU kopen die ik over twee jaar kan verkopen voor een nieuwere generatie, wil het eigenlijk gewoon gelijk goed doen.

NVidia heeft RT, DLSS, Stabiele drivers, Geforce Experience, Shadowplay en weet ik het.

AMD heeft 16gb, misschien stabiele drivers, misschien een goede 'counterpart' voor DLSS (super resolution), misschien het RT later in zijn voordeel gezien de consoles het ook hebbeen.
Dat is hoe ik het nu een beetje zie.
Dat is wel een goede samenvatting. Eigenlijk hang ik daarom nu ook meer en meer naar het uitstellen van kopen. Misschien komt er nog een goede TI van Nvidia als antwoord of iets anders van AMD wat we nu nog niet weten. Misschien zorgt ocncurrentie voor lagere prijzen over een paar maanden of laat de volgende generatie minder lang op zich wachten. Ik denk dat ik wacht met iets kopen tot Q2 of Q3 van 2021...

Acties:
  • +1 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 03-10 12:52
Cidious schreef op vrijdag 20 november 2020 @ 11:20:
[...]


Mijn voorkeur ligt bij waar krijgen voor mijn geld. Nvidia heeft daar helaas in gefaald deze generatie anders had ik ze met alle liefde mijn poen willen overhandigen. Nvidia heeft fout na fout na fout gemaakt met deze line-up en mensen die niet konden wachten zullen daar vanzelf last van hebben. Boontje komt om zijn loontje..

Meningen? 16GB is nu mainstream high-end. dankzij AMD...als het aan nvidia en intel ligt zouden we nu nog op 4-cores en een Turing refresh draaien voor de hoofdprijs... Competitie... Helaas is nvidia momenteel met een slechte node en te weinig geheugen en absoluut geen voorraad voor weken op rij niet echt competitief...
Ik snap die hele angst en bezorgdheid over geheugen nooit. Ikzelf heb 16GB ram en heb hier nergens last van. Ik zie eigenlijk nooit m'n RAM gebruik boven de 12GB gaan. Natuurlijk als je 32GB hebt dan gebruikt Windows gewoon een pak meer.

Als je 10GB vergelijkt met wat de nieuwe consoles hebben dan moet je toch beseffen dat het lange tijd meer dan voldoende gaat zijn. De XSS heeft maar 10GB in totaal voor alles en de andere 2 hebben minder dan het dubbel. Tot 1 a 2 jaar geleden was 4GB nog meer dan voldoende voor zelfs max textures in 99% van games en dit was exact de helft van de vorige generatie die 8GB totaal hadden.

Ik zou eerder bezorgd zijn over het feit dat de 3080/6800xt nu niet echt spectaculair veel sneller zijn dan de consoles dus ik vermoed dat ze binnen 2 jaar sowieso niet al te best meer gaan presteren als je op 1440p of hoger zit.

Ik ben er zelf nog niet helemaal uit over welke kaart ik nu in de toekomst ga kopen maar op dit moment lijkt me RT prestaties toch belangrijker dan VRAM. Hier heb je vanaf dag 1 iets aan terwijl de VRAM mogelijks ooit kan helpen met dat ik textures op ultra kan laten staan ipv high.

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 12:32
Thrawni schreef op vrijdag 20 november 2020 @ 11:46:
[...]


Nvidia features= RT & DLSS?

Geld dit ook op 1440p UW?
Snap niet goed wat je probeert te zeggen of vragen.

Er zijn overigens nog meer features denk bij bijvoorbeeld aan hairworks. Al weet ik niet hoe vaak dit soort features gebruikt worden en hoe de opengl alternatieven er uit zien. Maar er zijn voorbeelden geaeest waar hairworks er prima uit zag en de opengl versie belachelijk gedateerd waren op amd. Dat vergt verder onderzoek.
Maar daar hebben we nog genoeg tijd voor gezien de beschikbaarheid...
Psyonara schreef op vrijdag 20 november 2020 @ 11:49:
[...]


Verkijk je er niet op er is nu ook een nieuwe Console generatie, en er zullen vast nog wel wat benchmark games worden aan gekondigt die weer een nieuwe standaard van pracht en praal proberen neer te zetten.

Toen ik voor het eerst een GPU kocht met 1 GB Vram heb ik daar op zijn max ook maar iets van 2 plus jaar mogen genieten en daarna was ik te blut om te upgraden. Als ik een 2gb Vram gpu had was het wel een stuk minder erg geweest.

wil op zijn minst 3/4 plus jaar mee met een GPU.
Die nieuwe consoles hebben ook beperkter geheugen dan 16gb en dat is ook nog eens gedeeld over het hele systeem. Dus het werkt ook als ram en het os gebruikt een deel. Efficiënt is er dus minder beschikbaar dan wat er aanwezig is.

Daarnaast zijn consoles een geval apart en worden die totaal anders geoptimaliseerd dan pc games en worden er allerlei trucjes uitgehaald om meer prestaties te halen vaak ten koste van graphics. En laat render resolutie en textures daar nou vaak de compromis zijn.

[ Voor 46% gewijzigd door computerjunky op 20-11-2020 11:57 ]


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

computerjunky schreef op vrijdag 20 november 2020 @ 11:44:
[...]


Als alle nvidia features je niet boeien dan lijken amd kaarten idd beter te presteren op de meer standaard resoluties.
Dat was de grootste reden om niet een 3080 te bestellen. De lagere resolutie prestatie viel behoorlijk tegen helaas.

Dlss rtx en reflex kunnen in de toekomst echter wel of niet breed geïmplementeerd worden en dan is er nog rtx voice en dat blijf ik boeiende features vinden. Zit tegenwoordig namelijk de gehele dag met een headset op...

Maar mijn punt was dat het hele te weinig geheugen verhaal denk ik wel mee gaat vallen. Ik denk dat developers niet zullen gaan optimaliseren voor meer als 8 gb wetende dat 85% van de gamers dan problemen gaan hebben omdat die max 8gb hebben.
Al hebben game developers wel vaker vreemde keuzes gemaakt :+
Met als grote kanttekening dat natuurlijk alle "raytracing" games tot nu toe, gespitst zijn op Nvidia. Simpelweg omdat ze de enige met raytracing tech waren in verkrijgbare producten.

Dat gaat per volgend jaar heel anders. Of zouden developers werkelijk nog de moeite nemen om voor Nvidia te optimaliseren, terwijl ze al een raytracing flow voor beide consoles hebben?

Ik denk dat vooral voor de multiplatform titels het geld niet bij de PC ligt, maar bij de consoles. En die draaien nu AMD.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:50
napata schreef op vrijdag 20 november 2020 @ 11:53:
[...]

Ik snap die hele angst en bezorgdheid over geheugen nooit. Ikzelf heb 16GB ram en heb hier nergens last van. Ik zie eigenlijk nooit m'n RAM gebruik boven de 12GB gaan. Natuurlijk als je 32GB hebt dan gebruikt Windows gewoon een pak meer.
En met 64GB kan ik je verklappen dat zelfs alleen Chromium Edge al voldoende is voorbij de 32GB te raken :+.
Snowdog schreef op vrijdag 20 november 2020 @ 11:47:
[...]


Denk dat veel mensen ook 1440p ultrawide hebben though, dan is het verschil alweer kleiner. En dan zijn de kleine extra's die nVidia heeft toch wel mooi meegenomen. Ik zou die kleine extra's op dit moment liever hebben dan die extra 6GB aan video memory. Maar goed, wellicht dat ik die woorden over een jaartje of 2 intrek, kan me persoonlijk echter ook niet voorstellen dat 10 GB anytime soon echt te weinig gaat zijn.
Zelfs 1440p UW en 2160p scheelt nog best veel overigens. 8294400 vs 4953600 pixels.

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 10:54
Cidious schreef op vrijdag 20 november 2020 @ 11:12:
[...]


Nog niet omdat 8GB de norm was en developers daarvoor optimaliseerden. Nu gaat meer dan 16GB voor high-end (EN consoles) de norm zijn. Developers zullen dus grotere textures kunnen laden nu en dat zeker ook doen voor max settings. En daar sta je dan in je ondergoed met een 10gb kaar die een nier en 2 hartkleppen kostte omdat je niet geduldig konden wachten...
Waarom was 8GB dan de norm dan en sinds wanneer was dat? Je zegt het in de verleden tijd, maar ik ben toch heel benieuwd wanneer die was ingegaan. Ik kon tot voor kort prima gamen op een GTX970 met 4GB. De limiterende factor op die chip werd eerder rauwe kracht dan de hoeveelheid geheugen ooit in de weg zat. Op 4K of ultra settings is de chip zelf niet snel genoeg meer en dus ook het videogeheugen. Ik kon dus prima memory issues creëren, maar de bottleneck zat eerder in de GPU dan het GDDR zelf.

Let daarbij ook nog even op met je uitspraak bij de consoles en 16GB. Daar is het 16GB TOTAAL. Dus cpu en GPU samen maken gebruik van die stack. In een gemiddelde pc zit je met 16GB werkgeheugen + 8 tot 16GB videogeheugen. De gemiddelde PC met 8GB videogeheugen zal ivm consoles dus nooit echt tekort schieten op gelijk niveau.
Sorry maar 10gb gaat echt te weinig zijn en snel ook. Die discussen betreft 16gb en 32gb ram ging ook op een half jaar geleden waar velen moord en brand schreeuwden dat 16GB genoeg is voorlopig.. Ik top makkelijk 16GB inmiddels een half jaar later.. Heb dan ook in elke machine nu 32GB of meer zitten.

10GB verdedigen is alleen zinvol als je zelf diegene bent die daar zijn geld op heeft stukgegooid.
Onderbouw dit statement eens? Je claim (eerder een rant) klinkt als een pr uitspraak van de 16GB club.

Lang niet iedereen zit op 1440p of hoger en juist op 4K zie je dat je profijt hebt van veel videogeheugen. Ik maak me echt geen zorgen om 10, 11, 12GB geheugen voor de komende 3 jaar voor mensen op 1440p en zelfs niet op 4K. Na die periode kunnen kaarten met deze hoeveelheid geheugen toch al geen ultra settings meer draaien omdat de chip tekort schiet en dan neemt de hoeveelheid geheugen gebruik toch al af op high/very high. Dat zal ook het geval zijn bij kaarten die je nu koopt met 16GB. Je kunt dan wel assets alloceren, maar je GPU zal te traag zijn om max settings te kunnen verwerken. Geheugen is namelijk niet de belangrijkste of allesbepalende sleutel tot prestaties.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:50
napata schreef op vrijdag 20 november 2020 @ 11:53:
[...]

Ik snap die hele angst en bezorgdheid over geheugen nooit. Ikzelf heb 16GB ram en heb hier nergens last van. Ik zie eigenlijk nooit m'n RAM gebruik boven de 12GB gaan. Natuurlijk als je 32GB hebt dan gebruikt Windows gewoon een pak meer.
En met 64GB kan ik je verklappen dat zelfs alleen Chromium Edge al voldoende is om voorbij de 32GB te raken :+.
Snowdog schreef op vrijdag 20 november 2020 @ 11:47:
[...]


Denk dat veel mensen ook 1440p ultrawide hebben though, dan is het verschil alweer kleiner. En dan zijn de kleine extra's die nVidia heeft toch wel mooi meegenomen. Ik zou die kleine extra's op dit moment liever hebben dan die extra 6GB aan video memory. Maar goed, wellicht dat ik die woorden over een jaartje of 2 intrek, kan me persoonlijk echter ook niet voorstellen dat 10 GB anytime soon echt te weinig gaat zijn.
Zelfs 1440p UW en 2160p scheelt nog best veel overigens. 8294400 vs 4953600 pixels.
napata schreef op vrijdag 20 november 2020 @ 11:53:
[...]
Ik zou eerder bezorgd zijn over het feit dat de 3080/6800xt nu niet echt spectaculair veel sneller zijn dan de consoles dus ik vermoed dat ze binnen 2 jaar sowieso niet al te best meer gaan presteren als je op 1440p of hoger zit.
De consoles hebben nog nooit zo dicht op de beschikbare desktop hardware gezet wat betreft performance, maar als je ziet dat in Devil May Cry 5 & Watch Dogs Legion een RTX 2060 al hetzelfde presteert als de nieuwe consoles, zal het wel meevallen. Ja, als je met een 3080/6800XT verwacht 4K 144Hz te draaien, terwijl consoles met 30Hz wegkomen, dan wordt het wel lastig ja :P (*kuch* DLSS enz).
Jeroenneman schreef op vrijdag 20 november 2020 @ 11:57:
[...]


Met als grote kanttekening dat natuurlijk alle "raytracing" games tot nu toe, gespitst zijn op Nvidia. Simpelweg omdat ze de enige met raytracing tech waren in verkrijgbare producten.

Dat gaat per volgend jaar heel anders. Of zouden developers werkelijk nog de moeite nemen om voor Nvidia te optimaliseren, terwijl ze al een raytracing flow voor beide consoles hebben?

Ik denk dat vooral voor de multiplatform titels het geld niet bij de PC ligt, maar bij de consoles. En die draaien nu AMD.
De dusver uitgekomen titels op de consoles lijken anders niet het verschil te maken. In die zin is dusver de (zeer beperkte) trend niet anders dan het hele PS4/Xbox One tijdperk.

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 12:32
Jeroenneman schreef op vrijdag 20 november 2020 @ 11:57:
[...]


Met als grote kanttekening dat natuurlijk alle "raytracing" games tot nu toe, gespitst zijn op Nvidia. Simpelweg omdat ze de enige met raytracing tech waren in verkrijgbare producten.

Dat gaat per volgend jaar heel anders. Of zouden developers werkelijk nog de moeite nemen om voor Nvidia te optimaliseren, terwijl ze al een raytracing flow voor beide consoles hebben?

Ik denk dat vooral voor de multiplatform titels het geld niet bij de PC ligt, maar bij de consoles. En die draaien nu AMD.
Heel ray tracing is nog groot vraagteken. Het kan alle kanten op en alle implementatie tot nu toe lijken gehaaste toevoegingen. Echte implementatie van de start moet nog komen en hopelijk is alles dan meer in balans.
Ik zie liever ray tracing die gewoon werkt met een max 25% fps tax dan een ray tracing implementatie waar je fps gewoon halveert.
Feit blijft dan wel dat nvidia de betere kaarten in handen heeft en er misschien geen fps penalty is waar amd wel een duidelijke fps hit neemt. Hun architectuur is duidelijk gewoon 25% trager.

Dlss is niet veel anders. Ik vind het echt een gave feature en het kan gewoon een enorme boost in fos geven voor minimale visuele kosten of zelfs betere graphics. Maar het moet wel breed geïmplementeerd worden anders is het gebakken lucht. Ik zie dan ook graag dat amd een open optie op de markt brengt die hetzelfde effect heeft in alle aspecten maar op driver level werkt. Maar dat is hopen en speculeren. Vooralsnog weten we wat dlss kan en dat is ronduit indrukwekkend en amd upscaling is meh op zijn best.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
computerjunky schreef op vrijdag 20 november 2020 @ 11:44:
[...]


Als alle nvidia features je niet boeien dan lijken amd kaarten idd beter te presteren op de meer standaard resoluties.
Dat was de grootste reden om niet een 3080 te bestellen. De lagere resolutie prestatie viel behoorlijk tegen helaas.

Dlss rtx en reflex kunnen in de toekomst echter wel of niet breed geïmplementeerd worden en dan is er nog rtx voice en dat blijf ik boeiende features vinden. Zit tegenwoordig namelijk de gehele dag met een headset op...

Maar mijn punt was dat het hele te weinig geheugen verhaal denk ik wel mee gaat vallen. Ik denk dat developers niet zullen gaan optimaliseren voor meer als 8 gb wetende dat 85% van de gamers dan problemen gaan hebben omdat die max 8gb hebben.
Al hebben game developers wel vaker vreemde keuzes gemaakt :+
Over het algemeen optimaliseren developers vooral voor Consoles. En dan krijg je wel een PC port maar dat loopt in verhouding lang niet zo goed en dan moet je het brute forcen.
Dus het is nog maar de vraag hoe snel je issues gaat krijgen met de 10GB. En natuurlijk is het relatief. Je kan altijd de quality settings wat lager zetten zodat je minder Vram nodig hebt.

Ik zie het een beetje zo:
AMD is nu de betere keuze voor rasterisation en meer future proof in dat opzicht.
nVidia is beter voor RT nu en in de toekomst maar komt wat te kort qua vram. Wat niet echt een issue is met RT aangezien je daar toch niet native 4K wilt renderen want dat is te zwaar en daar komt DLSS dan om de hoek kijken.

Ze hebben beide hun voor en nadelen.
Paprika schreef op vrijdag 20 november 2020 @ 12:01:
[...]

De consoles hebben nog nooit zo dicht op de beschikbare desktop hardware gezet wat betreft performance, maar als je ziet dat in Devil May Cry 5 & Watch Dogs Legion een RTX 2060 al hetzelfde presteert als de nieuwe consoles, zal het wel meevallen. Ja, als je met een 3080/6800XT verwacht 4K 144Hz te draaien, terwijl consoles met 30Hz wegkomen, dan wordt het wel lastig ja :P (*kuch* DLSS enz).
Is volgens mij niet helemaal waar. De Xbox1 had een GPU die qua tech richting de Geforce 3 ging en toe was toen geloof ik nog niet uit.
De Xbox 360 en PS3 hadden hele krachtige CPU's en de 360 had ook een best indrukwekkende GPU qua technologie. (eerste met een unified shader moddel en bepaalde DX10 features). Die GPU's kwamen ook later pas op de markt.

In dat opzicht vielen de PS4 en Xbox One nogal tegen.
Deze generatie zit inderdaad weer een heel stuk dichterbij. En vooral qua prijs zijn ze heel goed tov wat PC hardware kost met die rekenkracht.

[ Voor 24% gewijzigd door Astennu op 20-11-2020 12:28 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +3 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

computerjunky schreef op vrijdag 20 november 2020 @ 12:05:
[...]


Heel ray tracing is nog groot vraagteken. Het kan alle kanten op en alle implementatie tot nu toe lijken gehaaste toevoegingen. Echte implementatie van de start moet nog komen en hopelijk is alles dan meer in balans.
Ik zie liever ray tracing die gewoon werkt met een max 25% fps tax dan een ray tracing implementatie waar je fps gewoon halveert.
Feit blijft dan wel dat nvidia de betere kaarten in handen heeft en er misschien geen fps penalty is waar amd wel een duidelijke fps hit neemt. Hun architectuur is duidelijk gewoon 25% trager.

Dlss is niet veel anders. Ik vind het echt een gave feature en het kan gewoon een enorme boost in fos geven voor minimale visuele kosten of zelfs betere graphics. Maar het moet wel breed geïmplementeerd worden anders is het gebakken lucht. Ik zie dan ook graag dat amd een open optie op de markt brengt die hetzelfde effect heeft in alle aspecten maar op driver level werkt. Maar dat is hopen en speculeren. Vooralsnog weten we wat dlss kan en dat is ronduit indrukwekkend en amd upscaling is meh op zijn best.
Er zijn inderdaad nog voldoende vraagtekens. Feit blijft wel dat de architectuur van de RX6800 ook in de twee grote consoles zit. Het kan bijna niet anders dan dat dat op de lange termijn gaat leiden tot meer games die makkelijker op de AMD kaarten draaien, omdat ze al zijn geoptimaliseerd voor die architectuur.

Nvidia ontwikkelt leuke features zoals RTX, maar niet in het belang van de gamer. Exodus bijvoorbeeld, daar had allang een fatsoenlijk alternatief voor RTX in kunnen zitten met traditionele technieken. 80% van het plaatje, voor 50% van de kosten qua framerate. Maar dat wil Nvidia helemaal niet. Die wil zorgen dat er steeds zwaardere technieken nodig zijn, zodat je toch weer meer uitgeeft voor de kaart die strak 60fps draait.

Bij games met een fatsoenlijke alternatieve implementatie van GI, schaduwen of reflectie is het verschil in kwaliteit tussen RTX en "normaal" opeens een stuk kleiner. Nvidia doet graag alsof je moet kiezen tussen een fiets, of een Ferrari. Dat er ook nog zoiets bestaat als een normale auto, dan laten ze liever buiten beschouwing.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:50
Astennu schreef op vrijdag 20 november 2020 @ 12:25:
[...]

Is volgens mij niet helemaal waar. De Xbox1 had een GPU die qua tech richting de Geforce 3 ging en toe was toen geloof ik nog niet uit.
De Xbox 360 en PS3 hadden hele krachtige CPU's en de 360 had ook een best indrukwekkende GPU qua technologie. (eerste met een unified shader moddel en bepaalde DX10 features). Die GPU's kwamen ook later pas op de markt.

In dat opzicht vielen de PS4 en Xbox One nogal tegen.
Deze generatie zit inderdaad weer een heel stuk dichterbij. En vooral qua prijs zijn ze heel goed tov wat PC hardware kost met die rekenkracht.
Ah sorry, ik zat wat recenter met mijn gedachten. Qua tech was het sowieso altijd aardig, maar de originele Xbox had inderdaad ook echt een flinke GPU voor zijn tijd.

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 12:32
Jeroenneman schreef op vrijdag 20 november 2020 @ 12:25:
[...]

Er zijn inderdaad nog voldoende vraagtekens. Feit blijft wel dat de architectuur van de RX6800 ook in de twee grote consoles zit. Het kan bijna niet anders dan dat dat op de lange termijn gaat leiden tot meer games die makkelijker op de AMD kaarten draaien, omdat ze al zijn geoptimaliseerd voor die architectuur.

Nvidia ontwikkelt leuke features zoals RTX, maar niet in het belang van de gamer. Exodus bijvoorbeeld, daar had allang een fatsoenlijk alternatief voor RTX in kunnen zitten met traditionele technieken. 80% van het plaatje, voor 50% van de kosten qua framerate. Maar dat wil Nvidia helemaal niet. Die wil zorgen dat er steeds zwaardere technieken nodig zijn, zodat je toch weer meer uitgeeft voor de kaart die strak 60fps draait.

Bij games met een fatsoenlijke alternatieve implementatie van GI, schaduwen of reflectie is het verschil in kwaliteit tussen RTX en "normaal" opeens een stuk kleiner. Nvidia doet graag alsof je moet kiezen tussen een fiets, of een Ferrari. Dat er ook nog zoiets bestaat als een normale auto, dan laten ze liever buiten beschouwing.
Ach de vorige consoles hadden ook amd architectuur. Wat heeft dat ze opgeleverd?

En metro heeft een prima alternatief voor ray tracing. Ik heb de game immers zonder gespeeld. Er is geen alternatief die dezelfde graphics geeft als ray tracing dat is immers het hele punt van ray tracing. Het doet dingen die met andere technieken niet mogelijk zijn.
En eerlijk is eerlijk ik vind rtx er niet altijd beter uit zien. Hetzelfde geld voor hdr. De verschillen tussen licht en donker zijn vaak kunstmatig groot en daardoor onrealistisch. Neem control waar je naar het einde van een gang kijkt en het 1 grote witte vlek is omdat daar zonlicht is. Als mijn ogen dit in het echt zouden doen zou ik me serieus zorgen maken over mijn gezondheid. Wat dat betreft hebben ze nog een hoop te leren en verbeteren.

En nvidia doet het wel degelijk voor gamers. Denk je echt dat ze miljarden uitgeven aan deze features als ze ook gewoon snellere kaarten kunnen maken met die silicon ruimte. Nvidia heeft meer features naar gamers gebracht dan amd. Dat amd ze anders implementeert zorgt vaak wel voor brede acceptatie maar ook voor compromissen.
Je kan zeggen wat je wil maar veel nvidia implementaties zijn gewoon beter. Dat je daar vors voor betaald tja...
En amd is ook niet heilig. Kijk maar naar de prijzen nu ze eindelijk competitief zijn. Er is geen haar op mijn hoofd die niet overtuigd is dat ald deze prijzen hand gehanteerd als nvidia 999 voor de 3080 had gevraagd. Het blijven bedrijven met maar 1 doel. En de druk van aandeelhouders bij amd is door de koers hoger dan ooit en dat zien we in de prijzen.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Cidious schreef op vrijdag 20 november 2020 @ 11:12:
[...]


Nog niet omdat 8GB de norm was en developers daarvoor optimaliseerden. Nu gaat meer dan 16GB voor high-end (EN consoles) de norm zijn. Developers zullen dus grotere textures kunnen laden nu en dat zeker ook doen voor max settings. En daar sta je dan in je ondergoed met een 10gb kaar die een nier en 2 hartkleppen kostte omdat je niet geduldig konden wachten...

Sorry maar 10gb gaat echt te weinig zijn en snel ook. De discussie betreft 16gb en 32gb ram ging ook op een half jaar geleden waar velen moord en brand schreeuwden dat 16GB genoeg is voorlopig.. Ik top makkelijk 16GB inmiddels een half jaar later.. Heb dan ook in elke machine nu 32GB of meer zitten nu.

10GB verdedigen is alleen zinvol als je zelf diegene bent die daar zijn geld op heeft stukgegooid.
De nieuwe consoles hebben helemaal geen 16GB geheugen. Verder kan je het geheugengebruik tussen AMD en Nvidia niet zomaar met elkaar vergelijken omdat er andere compressietechnieken toegepast worden.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Astennu schreef op vrijdag 20 november 2020 @ 12:25:
[...]

Deze generatie zit inderdaad weer een heel stuk dichterbij. En vooral qua prijs zijn ze heel goed tov wat PC hardware kost met die rekenkracht.
Is natuurlijk ook maar tijdelijk, in elk geval wat performance betreft. Over dik een jaar kan je een PC samenstellen met Zen 4 en RDNA3.

March of the Eagles


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Kunnen we gewoon concluderen dat Nvidia meestal zuinig is met VRAM en AMD meestal genereus?
Er zijn voorbeelden te geven waar Nvidia eigenlijk te weinig had binnen de realistische levensduur van het product. GA104/GTX680 bijvoorbeeld was krap, maar die is om wel meer redenen volledig ingestort ten opzichte van Tahiti dan alleen VRAM. Een ander is de GTX1060 3GB die ook altijd wat twijfelachtig was. Maar meestal weet Nvidia heel goed hoeveel VRAM de videokaart nodig heeft in de verwachte levensduur. Meer krijg je ook niet. Wat de RTX3080 precies gaat doen is afwachten. Royaal is het in ieder geval niet, daar kunnen we het hopelijk wel over eens zijn.

Voor GCN speelde ook nog eens mee dat ze zo weinig cache hadden dat ze eerder naar VRAM moesten. Tja, dan kan je niet de bus gedeeltelijk ongebruikt laten en dan krijg je al snel meer VRAM. Er zijn ook voorbeelden te geven van GCN chips zoals de R3 390 of RX580 die waarschijnlijk ook maar 6GB nodig hadden qua VRAM, maar 8GB kregen om een 256 of 512bit bus te hebben. Die hadden ze harder nodig dan 2GB aan extra VRAM.

Komt ook nog eens bij dat ironisch genoeg, VRAM capaciteit wel eens minder belangrijk kan zijn voor Navi 21 dan GA102. Immers gebruikt Navi 21 die 128MB aan L3 cache voor data fetchback en lijkt VRAM voornamelijk een framebuffer te zijn. GA102 zal VRAM veel meer moeten gebruiken als data fetchback en heeft daarom een veel bredere bus en sneller geheugen. Dat betekent ook meer wegschrijven naar VRAM. De rollen zijn volledig omgedraaid met RDNA2 vs. Ampere, ten opzichte van "Paxwell" vs. GCN.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • M-spec
  • Registratie: September 2004
  • Niet online
Paprika schreef op vrijdag 20 november 2020 @ 11:57:


[...]

Zelfs 1440p UW en 2160p scheelt nog best veel overigens. 8294400 vs 4953600 pixels.
Klopt. Nog wel met de toevoeging dat er voor 3440x1440 op 100-144Hz ook een flinke GPU nodig is. Ik reken zelf voor het gemak een 25% uplift in FPS ten opzichte van 4K en dan is 144FPS nog steeds lastig op max detail. Zo zit ik ook nog rond te kijken en moet daarvoor al minstens het dubbele aan performance hebben als zie wat de Vega56 nog kan doen. Ik verwacht zelf niet dat 10GB VRAM snel een probleem gaat zijn op deze resolutie. Optimalisaties liggen ook vooral bij de consoles.

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


Acties:
  • 0 Henk 'm!

  • Cidious
  • Registratie: Mei 2005
  • Laatst online: 12:20

Cidious

The Bloody Gent

Dit kan vriendelijker.

[ Voor 98% gewijzigd door Blaat op 20-11-2020 23:25 ]

R7 9800X3D + ASUS ROG STRIX X870E-E + RTX 4090 FE + 48GB TG Xtreem 8200 CL38


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Thrawni schreef op vrijdag 20 november 2020 @ 11:49:
Tja ik weet het niet. De een roept wel dat 10gb genoeg moet zijn, over twee/drie/vier jaar, de ander zegt dat je wel minimaal 16gb aan vram moet hebben. Zit behoorlijk in een tweestrijd en ga niet een GPU kopen die ik over twee jaar kan verkopen voor een nieuwere generatie, wil het eigenlijk gewoon gelijk goed doen.

NVidia heeft RT, DLSS, Stabiele drivers, Geforce Experience, Shadowplay en weet ik het.

AMD heeft 16gb, misschien stabiele drivers, misschien een goede 'counterpart' voor DLSS (super resolution), misschien het RT later in zijn voordeel gezien de consoles het ook hebbeen.
Dat is hoe ik het nu een beetje zie.

Game ook op een 1440p UW, en weet dat er niet zóveel verschil zitten met een 'normaal' 1440p scherm, maar alsnog. Dan denk ik dat AMD en Nvidia wel weer dichter bij elkaar zitten qua performance ( zonder RT, SAM, DLSS mee te rekenen).
GFE als een pluspunt? Daarnaast heeft AMD al een hele tijd een Shadowplay equivalent. De enige features die Nvidia meer heeft dan AMD die interessant zijn is DLSS en de betere RT performance in sommige spellen. Gezien dat de consoles de AMD versie van RT hebben zal dit misschien nog iets bijtrekken.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
computerjunky schreef op vrijdag 20 november 2020 @ 11:53:
[...]


Snap niet goed wat je probeert te zeggen of vragen.

Er zijn overigens nog meer features denk bij bijvoorbeeld aan hairworks. Al weet ik niet hoe vaak dit soort features gebruikt worden en hoe de opengl alternatieven er uit zien. Maar er zijn voorbeelden geaeest waar hairworks er prima uit zag en de opengl versie belachelijk gedateerd waren op amd.
Het haar van de Tomb Raider games ziet er beter uit dan wat je in de Witcher 3 hebt (dat is tenminste mijn mening). Dat in de Tomb Raider spellen is de AMD variant. Hairworks is iets waarmee Nvidia kwam toen AMD al bezig was met haar. Het heeft sowieso niks met OpenGL te maken. Het is OpenCL of DirectCompute voor de AMD feature waar Nvidia het doet met Tesselation (ook iets wat AMD al veel langer heeft dan Nvidia).
Dat vergt verder onderzoek.
Maar daar hebben we nog genoeg tijd voor gezien de beschikbaarheid...
Lijkt me inderdaad een goed idee dat je je hier iets meer in gaat inlezen (of anders een van Werelds zijn posts pakt die deze technieken uitleggen).

Acties:
  • +9 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 10:54
Cidious schreef op vrijdag 20 november 2020 @ 14:06:
[...]


Wat een dramatische post om te zeggen dat 970 met 4GB voldoende was... het gaat hier om de 3080 10GB FLAGGENSCHIP kaart van nVidia zoals zij deze zelf hebben benoemd... dit is een kaart die je koopt voor 4K en maximale settings... niet voor gamen op pauper settings.. Het is echt verdrietig hoe jij de werkelijkheid verdraaid. We hebben het hier niet over midrange. we hebben het hier over high-end. Kaarten die je koopt om maximale kwaliteit en hoge resoluties te draaien! anders koop je een midrange kaart. Sorry maar je raakt echt kant not wal met je verhaal.
Heb je ook nog een beetje fatsoen in je om een normale post te schrijven of is dit het hoogste niveau wat we van je mogen verwachten?

Om dat even in te gaan op je verhaal. Ik haalde de GTX970 aan om even een punt te maken mbt de toename van geheugenverbruik over de tijd ter illustratie. Deze kaart kwam in 2014 uit en kan anno 2020 nog steeds gebruikt worden in moderne titels (uiteraard niet meer op max settings/resoluties). Het is daarbij niet de hoeveelheid geheugen die deze kaart nekt als deze niet het niet trekt op hogere settings, maar de rauwe throughput van de GPU zelf die niet meer kan leveren, dat blijft defacto bottleneck nummer 1 bij elke videokaart. Het zou daarbij ook echt geen verschil gaan maken of deze bv 8GB zou hebben. Dat is goed, want uiteindelijk draait het om balans en design keuzes die de fabrikant maakt. Er zijn tal van low end gpu's door de jaren uitgebracht met zinloze hoeveelheid geheugen. Mensen kochten deze omdat meer == beter. Praktijk was echter dat er geheugen op de kaart zat die de gpu het gewoon niet kon benutten om dit nuttig te maken. Ofwel money wasted.

Als we nu claimen dat in 2 jaar tijd de lat van 8GB gelijk groeit naar 16GB ga je teleurgesteld zijn. De grootste ram vreters zijn hogere resoluties en grote textures. 4K gebruiken we al een tijdje en dan is 8GB vaak al zat op dit moment. Games als AC Valhalla bv doet maxed out 6,5GB Vram op 4k.
Afbeeldingslocatie: https://www.guru3d.com/index.php?ct=articles&action=file&id=66409

Betekent dat dat er niet meer verbruikt gaat worden? Nee. De kans is echter wel heeeeeeeeeelll klein dat we grenzen van 10GB in de nabij toekomst voorbij gaan. Vrijwel niemand kan het draaien en dat weten developers ook. Games optimaliseren voor 16GB is voor nu zinloos tot er genoeg videokaarten zijn die er gebruik van kunnen maken. Dat percentage is nu <1%
En daarbij zeg ik weer, als dat moment er wel is zal de GPU het al niet meer bij kunnen benen en maakt dat geheugen ook niet meer uit in de praktijk. Nvidia schiet er echt geen niks mee op om dure kaarten te verschepen die het niet waar kunnen maken. Het aandeel nvidia is dan ook weer te groot voor ontwikkelaars om geen rekening mee te houden, laat staan de rest van de giga load aan kaarten die minder hebben.

Het hele geheugen gezever is iets wat sinds 3d acceleratie een ding is geworden een twistpunt is geweest. ik heb nog nooit een kaart gehad die memory starved was en ik zie dat ook hier niet vaak gebeuren in de praktijk bij generatie vergelijkingen. De argumenten van kopers zijn door de jaren heen zijn nooit veranderd. Mensen kiezen obv onderbuik vaak toch voor meer en claimen het nut, maar lang niet altijd levert dat iets op of maakt dat significant verschil in real life. Ik kan maar 3 recente voorbeelden bedenken van kaarten die te weinig geheugen hadden op papier, de Geforce GTX1060/780 serie 3GB en de Radeon Fury X met 4GB. De 1060 kwam op een moment dat 4GB gangbaar werd en games geen rekening hielden met die 1GB minder. De Fury X kwam uit als uber High end kaart, maar had een geheugengrootte van een mid/highend kaart in dezelfde generatie. 6GB had hier kunnen helpen.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
computerjunky schreef op vrijdag 20 november 2020 @ 12:35:
[...]


Ach de vorige consoles hadden ook amd architectuur. Wat heeft dat ze opgeleverd?

En metro heeft een prima alternatief voor ray tracing. Ik heb de game immers zonder gespeeld. Er is geen alternatief die dezelfde graphics geeft als ray tracing dat is immers het hele punt van ray tracing. Het doet dingen die met andere technieken niet mogelijk zijn.
Metro had een prima alternatief, namelijk geen alternatief. De developers hebben gewoon niet eens de moeite genomen om een fatsoenlijke fallback te in programmeren want GI is prima zonder RT te doen. Het kost meer werk en is niet zo accuraat.
Screenspace reflections en cubemaps kunnen een gedeelte faken maar zien er meestal een stuk minder uit.

Wat je zegt over dat RT er soms niet uit ziet; daar heb je helemaal gelijk in. Dat zie je vaak met elke nieuwe techniek, het wordt zo overduidelijk in gezet dat alles effecten bumpmaps, bloom, HDR en nu dus RT worden opgeblazen zodat het er niet uit ziet.

Acties:
  • 0 Henk 'm!

  • Razkin
  • Registratie: Oktober 1999
  • Laatst online: 08:38
@Cidious Wat mij vooral opviel is hoe belabbberd(relatief) de nieuwste games draaien op 1080p of 1440p op een 3080/6800 en hoger. Ik denk dat 10GB wel goed gaat komen effectief gezien, dat het een beetje mager is voor high end dat is zeker zo.

iRacing Profiel


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
XWB schreef op vrijdag 20 november 2020 @ 12:45:
[...]


De nieuwe consoles hebben helemaal geen 16GB geheugen. Verder kan je het geheugengebruik tussen AMD en Nvidia niet zomaar met elkaar vergelijken omdat er andere compressietechnieken toegepast worden.
Niet VRAM , maar wel totaal RAM. Als je nou een hele luie PC port hebt, kan het minder efficiënt zijn op 8 of 10GB. Maar je merkt het denk ik pas bij grote textures.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Razkin schreef op vrijdag 20 november 2020 @ 17:04:
@Cidious Wat mij vooral opviel is hoe belabbberd(relatief) de nieuwste games draaien op 1080p of 1440p op een 3080/6800 en hoger. Ik denk dat 10GB wel goed gaat komen effectief gezien, dat het een beetje mager is voor high end dat is zeker zo.
De bandbreedte is belangrijker dan de buffergrootte, en in 4k lijkt nVidia dan ook sterker dan AMD. Maar we moeten de 6900XT nog zien.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Luxicon
  • Registratie: Oktober 2010
  • Laatst online: 18-07-2021
sjekneck schreef op vrijdag 20 november 2020 @ 11:59:
[...]


Waarom was 8GB dan de norm dan en sinds wanneer was dat? Je zegt het in de verleden tijd, maar ik ben toch heel benieuwd wanneer die was ingegaan. Ik kon tot voor kort prima gamen op een GTX970 met 4GB. De limiterende factor op die chip werd eerder rauwe kracht dan de hoeveelheid geheugen ooit in de weg zat. Op 4K of ultra settings is de chip zelf niet snel genoeg meer en dus ook het videogeheugen. Ik kon dus prima memory issues creëren, maar de bottleneck zat eerder in de GPU dan het GDDR zelf.

Let daarbij ook nog even op met je uitspraak bij de consoles en 16GB. Daar is het 16GB TOTAAL. Dus cpu en GPU samen maken gebruik van die stack. In een gemiddelde pc zit je met 16GB werkgeheugen + 8 tot 16GB videogeheugen. De gemiddelde PC met 8GB videogeheugen zal ivm consoles dus nooit echt tekort schieten op gelijk niveau.

PS. betreft de 4K prestaties, komt dat door de 256-bit memory, ten opzichte van 320-bit die de 3080 / 3090 gebruiken? Want een dergelijk verschil bestaat ook tussen de 3070 en 3080 / 3090.

[...]

Onderbouw dit statement eens? Je claim (eerder een rant) klinkt als een pr uitspraak van de 16GB club.

Lang niet iedereen zit op 1440p of hoger en juist op 4K zie je dat je profijt hebt van veel videogeheugen. Ik maak me echt geen zorgen om 10, 11, 12GB geheugen voor de komende 3 jaar voor mensen op 1440p en zelfs niet op 4K. Na die periode kunnen kaarten met deze hoeveelheid geheugen toch al geen ultra settings meer draaien omdat de chip tekort schiet en dan neemt de hoeveelheid geheugen gebruik toch al af op high/very high. Dat zal ook het geval zijn bij kaarten die je nu koopt met 16GB. Je kunt dan wel assets alloceren, maar je GPU zal te traag zijn om max settings te kunnen verwerken. Geheugen is namelijk niet de belangrijkste of allesbepalende sleutel tot prestaties.
8GB is al sinds de 1xxx als het om Nvidia gaat. AMD had met de 390X al een (goed betaalbare) kaart met 8GB. Vind 10GB ook aan de lage kant hoor. De modellen die nog gaan komen hebben meer VRAM. Als het goed is een 3060Ti met 12GB VRAM. Ik kan me ook ergens voorstellen dat meer VRAM leidt tot een hogere 0.1 en 1% low.

PS. komt het verschil in 4K prestaties, puur door de 256-bit vs 320-bit?

[ Voor 6% gewijzigd door Luxicon op 20-11-2020 17:29 ]

...


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Luxicon schreef op vrijdag 20 november 2020 @ 17:23:
[...]


8GB is al sinds de 1xxx als het om Nvidia gaat. AMD had met de 390X al een (goed betaalbare) kaart met 8GB. Vind 10GB ook aan de lage kant hoor. De modellen die nog gaan komen hebben meer VRAM. Als het goed is een 3060Ti met 12GB VRAM. Ik kan me ook ergens voorstellen dat meer VRAM leidt tot een hogere 0.1 en 1% low.

PS. komt het verschil in 4K prestaties, puur door de 256-bit vs 320-bit?
Het komt door zo ongeveer alles behalve de geheugenbus. ;)
RDNA lijkt in zoveel aspecten een minder latency gevoelige architectuur te zijn die beter schaalt met hogere clock speeds en beter schaalt met meer frames per seconde op lagere resoluties. Verder is RDNA simpelweg efficiënter met haar beduidend minder aantal rekeneenheden ALU's dus. Een RTX3080 heeft nota bene bijna het dubbele aan ALU's dan een RX6800XT en dan zijn er ook nog de tensor cores.

Ampere heeft een resolutie zoals 4K nodig om daadwerkelijk het gigantische voordeel in rekeneenheden te benutten en een beetje uit te lopen, maar zelfs daar is het niet overtuigend. Het is vaak net iets beter, maar niet veel.

De geheugenbus is waarschijnlijk veel belangrijker voor Ampere om data tussen VRAM en uiteindelijk ALU's te delen. RDNA2 heeft 128MB aan L3 cache die grotendeels die functie overneemt en daarom is een 256bit bus met langzamer geheugen, afdoende.

[ Voor 3% gewijzigd door DaniëlWW2 op 20-11-2020 17:38 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Razkin
  • Registratie: Oktober 1999
  • Laatst online: 08:38
Luxicon schreef op vrijdag 20 november 2020 @ 17:23:
[...]


8GB is al sinds de 1xxx als het om Nvidia gaat. AMD had met de 390X al een (goed betaalbare) kaart met 8GB. Vind 10GB ook aan de lage kant hoor. De modellen die nog gaan komen hebben meer VRAM. Als het goed is een 3060Ti met 12GB VRAM. Ik kan me ook ergens voorstellen dat meer VRAM leidt tot een hogere 0.1 en 1% low.

PS. komt het verschil in 4K prestaties, puur door de 256-bit vs 320-bit?
Zolang je niet de fysieke hoeveelheid overschrijdt heb ik nog nooit gezien dat het ook maar enig invloed op de fps heeft.

PS een GTX970 telt niet :P

iRacing Profiel


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Razkin schreef op vrijdag 20 november 2020 @ 17:41:
[...]

Zolang je niet de fysieke hoeveelheid overschrijdt heb ik nog nooit gezien dat het ook maar enig invloed op de fps heeft.

PS een GTX970 telt niet :P
Google de RX5700 en RX5600XT eens. ;)
Dezelfde chip en het verschil zit in de geheugen bus. Scheelt toch iets van 8% terwijl deze RX5600XT hier iets van 40MHz hoger clockt.
https://www.techpowerup.c...-rx-5600-xt-pulse/27.html
https://www.techpowerup.c...md-radeon-rx-5700/34.html

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Razkin
  • Registratie: Oktober 1999
  • Laatst online: 08:38
@DaniëlWW2 Jij hebt over de geheugen bus, niet over een X VRAM op een kaart zelf.

iRacing Profiel


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Razkin schreef op vrijdag 20 november 2020 @ 18:19:
@DaniëlWW2 Jij hebt over de geheugen bus, niet over een X VRAM op een kaart zelf.
Op het einde vraagt @Luxicon om de geheugenbus, vandaar. :)
Verder kan ik je wel een game geven als voorbeeld. Doom Eternal vraagt om meer dan 8GB op 4K met alle settings maximaal. Dat is een beetje uitgelicht omdat Nvidia die game gebruikte voor de vergelijking met de RTX2080. Dat was ook echt een eerlijke vergelijking van Nvidia omdat de RTX2080 tegen een echte VRAM limiet aanliep. Niet allocatie, nee echt te weinig VRAM. Een ander van heel wat jaren geleden is natuurlijk Crysis die meer dan de 256MB van de 8800 GT nodig had en beter draaide op de 512MB versie.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Razkin
  • Registratie: Oktober 1999
  • Laatst online: 08:38
@DaniëlWW2 Nou weet ik niet of hij de databus opmerking er stiekem bij geedit heeft, maar hoe dan ook erboven denkt/vermoedt hij dat de 0,1 en 1% low beter kunnen worden met meer VRAM(chip niet bus :+) Dat heb ik nog nooit eerder gezien.

Verder ben ik het geheel eens met wat je zegt, maar daar ging mijn opmerking niet over ;)

iRacing Profiel


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 10:50
https://www.anandtech.com/show/2626

4870 512MB vs 1GB ;)

Een extreem scenario:
Afbeeldingslocatie: https://tweakers.net/i/xH-0zR5PR6mj5AJQMXc_dBIHWms=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/yn0gaz7a7kZZXSOscKBPKwCA.png?f=user_large

[ Voor 86% gewijzigd door Paprika op 20-11-2020 18:41 ]


Acties:
  • 0 Henk 'm!

  • Razkin
  • Registratie: Oktober 1999
  • Laatst online: 08:38
@Paprika Het staat nergens, maar ik vermoed dat dit precies laat zien dat de 512MB buffer te klein is op die resoluties. Er staan ook benches waar er nul verschil is.

Afbeeldingslocatie: https://images.anandtech.com/reviews/video/ati/1gb4870/oblivion.jpg

iRacing Profiel


Acties:
  • 0 Henk 'm!

  • Tincahunter
  • Registratie: September 2020
  • Laatst online: 07-04-2022
Jeroenneman schreef op vrijdag 20 november 2020 @ 12:25:
[...]

Er zijn inderdaad nog voldoende vraagtekens. Feit blijft wel dat de architectuur van de RX6800 ook in de twee grote consoles zit. Het kan bijna niet anders dan dat dat op de lange termijn gaat leiden tot meer games die makkelijker op de AMD kaarten draaien, omdat ze al zijn geoptimaliseerd voor die architectuur.

Nvidia ontwikkelt leuke features zoals RTX, maar niet in het belang van de gamer. Exodus bijvoorbeeld, daar had allang een fatsoenlijk alternatief voor RTX in kunnen zitten met traditionele technieken. 80% van het plaatje, voor 50% van de kosten qua framerate. Maar dat wil Nvidia helemaal niet. Die wil zorgen dat er steeds zwaardere technieken nodig zijn, zodat je toch weer meer uitgeeft voor de kaart die strak 60fps draait.

Bij games met een fatsoenlijke alternatieve implementatie van GI, schaduwen of reflectie is het verschil in kwaliteit tussen RTX en "normaal" opeens een stuk kleiner. Nvidia doet graag alsof je moet kiezen tussen een fiets, of een Ferrari. Dat er ook nog zoiets bestaat als een normale auto, dan laten ze liever buiten beschouwing.
Is dat Nvidia die dat doet of de gameontwikkelaar die te lui is. Nvidia krijgt nog al makkelijk zo de schuld zonder dat er bewijs voor is als het over Metro Exodus gaat.

AMD had overigens ook met de PS4 en XBOX One AMD hardware. Dus dat verhaal over betere optimalisaties voor AMD heb ik mijn twijfels bij. Ik denk dat optimalisaties voor AMD Nvidia en Intel wel aardig gelijk blijft gezien de oude gen. Dit verhaal hoor ik iedere keer weer als er nieuwe Consoles uit komen.

Acties:
  • +1 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 10:54
Zo zijn er ook extremen waarin de versie met minder geheugen beter presteert. Again het is niet zo simpel als meer = beter
Het is wel heel populair om te roepen dat zodra er meer is alles eronder niet meer voldoet.
Pagina: 1 ... 47 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.