Vraag


Acties:
  • 0 Henk 'm!

  • Thrawni
  • Registratie: Januari 2016
  • Laatst online: 25-04 09:55
Mijn vraag
Zie topic titel

Ik vraag mij dit af, omdat ik deze week een asus 3080 TUF OC binnen krijg en wil besluiten of ik het behoud of dan toch maar een 6800 XT ga jagen. Ik ben benieuwd of de nieuwere, aankomende games die enkel voor de XSX/PS5 worden ontwikkeld meer dan 10gb aan vram zullen gebruiken of dat dat een reeële verwachting is. Ik heb over dit onderwerp wel wat pagina's afgestruimd en eigenlijk lees ik alleen maar verschillende meningen hierover. De één zegt dat 10gb voor games op 4k nooit genoeg kan zijn en de ander zegt dat dat wel prima is. Dat nvidia achter de schermen bezig is om op korte termijn kaarten uit te brengen met meer dan 10gb aan vram, helpt niet om buyers remorse te voorkomen. Ja ja, ze zijn altijd bezig met de volgende nieuwere kaarten, maar het lijkt nu wel alsof dat heel snel gaat gebeuren.

Ik hoop dat ik een goede, terechte vraag stel en hierop non-biased antwoord op kan krijgen zodat ik weet of ik toch liever voor 16gb aan vram moet gaan of dat 10gb met vertrouwde drivers & RT/DLSS wel oké is voor aankomende 4 jaar. Het blijft een dure aanschaf dus vandaar dat ik op zoek ben naar een beetje zekerheid. Ik wil geen aankoop doen nu om binnen een korte termijn de settings al om laag te doen (tenzij het settings zijn die té veel performance vragen zoals RT zonder DLSS). Bedankt voor de tijd.

Beste antwoord (via Thrawni op 07-12-2020 20:44)


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Vrijwel iedereen die pretendeert je hier echt een antwoord op te kunnen geven, heeft waarschijnlijk geen idee waar die het over heeft. Heel bot, maar zo is het wel.

Alles van wat Nvidia zegt (dat moet je in de regel helemaal niet geloven) tot het "console argument", hoe dat ook uitgelegd mag worden, slaat ook nergens op omdat een RTX3080 al krachtiger is en veel belangrijker, een heel andere architectuur betreft dan RDNA2, zeker in de consoles. Daar is de GPU maar een deel van een samengesteld pakket dat geoptimaliseerd is. De XSX en de PS5 hebben een fundamenteel ander geheugensysteem en ze toegang hebben tot heel erg snelle SSD's.

Het fundamentele probleem hier is dat je verwacht dat iets vier jaar gaat werken met waarschijnlijk steevast hoge instellingen. Dat kan niemand je garanderen en dat zou ook helemaal de inzet niet moeten zijn. Zeker nu niet meer aangezien AMD weer meedoet in GPU land en Nvidia niet langer meer van die kleine stapjes kan zetten zoals de afgelopen jaren. Bij AMD laten ze werkelijk geen enkele intentie of neiging zien wel even af te gaan remmen in hun ontwikkeling. Sterker nog, die lijken elk jaar met een nieuwe generatie te willen komen. Over ongeveer een jaar rolt RDNA3 gewoon over Ampere heen, jaar erna komt RDNA4 etc. Nvidia zal ook moeten gaan versnellen in hun ontwikkeling en zo stort de hele gedachte dat iets wel jaren bij blijft, helemaal in. We hebben dit ook gezien met Zen. Daar zou AMD ook wel afvlakken en zou het zo hard niet lopen. Ze accelereren alleen maar en hebben Intel inmiddels achter zich gelaten.

Er is waarschijnlijk geen "GTX1080Ti" die maar blijft gaan en gaan en gaan. Dat gebeurde vooral omdat de ontwikkelingen sinds 2017, simpelweg niet indrukwekkend waren.

DLSS en RT zijn ook non argumenten. DLSS zit in relatief weinig games en kan heel erg verschillen per game of het wel de moeite waard is. Over DLSS hangen ook vraagtekens over de levensduur zoals eigenlijk over elke vendor exclusieve technologie hangen. Het zou zeker niet de eerste keer zijn dat iets "geweldigs" van Nvidia, na een paar jaar een stille dood stierf. Enige zinvolle RT op 4K gaat niet gebeuren met een RTX3080 en ook niet met een RX6800XT. De hardware komt niet eens in de buurt, ondanks prachtige claims van zowel Nvidia als AMD. Het enige relevante is shader prestaties en een RTX3080 is daar vrij aardig in. ;)

Het stomme is ook dat als je nu op 1440p zat, ik je eerder zou aanraden de RX6800XT te nemen dan de RTX3080 houden. Op 1440p is de RX6800XT eigenlijk beter. Iets sneller, maar is is vooral dat de frametimes van RDNA2 simpelweg beter zijn dan Ampere. Op 4K heeft Ampere alleen soms wel een duidelijk voordeel over RDNA2 en dat komt door de 2x FP32 die alleen op 4K tot haar recht komt. Dit is alleen volstrekt het tegenovergestelde van het VRAM argument, waar ik dus echt niks mee kan. Het enige dat ik echt kan zeggen over die 10GB is dat ik het goedkoop vind van Nvidia om wat ze zelf positioneren als hun topmodel voor gamers, zo uit te kleden. Dit dilemma hebben ze ook zelf gecreëerd.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

Alle reacties


Acties:
  • 0 Henk 'm!

  • Melkaz
  • Registratie: Maart 2010
  • Laatst online: 17:41

Melkaz

Melkazar

Dit is wel een interessante read: https://www.resetera.com/...hy-10gb-is-enough.280976/ Ook al zie je wel aardig wat tegen replies in hetzelfde topic, maar de opening post is aardig onderbouwd.

Zelf heb ik ook een 3080 en maak me nergens druk over maar ik heb oo kgeen 4k scherm (1440p high refresh rate!). Mocht ik toch ooit een 4k scherm halen dan heb ik waarschijnlijk al een 5080 erin zitten :+

PSN: Melkazar | Steam: Melkaz


Acties:
  • +1 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 16:54
Men vergelijkt constant de VRAM capaciteit met die van de nieuwe consoles. Echter vergeet men dat een console 1 geheugenpoule heeft van totaal 16gb. Deze zal nooit volledig door de GPU gebruikt kunnen worden. Dat is eerder de helft tot 10gb max.

Er zijn bij het maken van een videokaart keuzes om te maken. Afhankelijk van de bus kan daar een hoeveelheid geheugen aan gekoppeld worden. Voor de 3080 is dat dus 10 of 20gb op die 320bit bus. 20gb is echt overkill, maar ik kan me voorstellen dat sommige het een rare stap vinden van de 11gb van de 2080ti. Bij AMD is het 8 of 16gb en kiezen ze bij de 6800(xt) voor 16gb.
Game developers zullen wel kijken naar wat er beschikbaar is in de praktijk. Als er een aanzienlijk deel van de markt op 16gb zit, dan pas kunnen ze dit gaan gebruiken. Dat gaat nog wel even duren voordat er genoeg markt is die dat heeft.
Daarnaast is snelheid van het geheugen ook een deel van het verhaal. Hoe sneller het geheugen en des te hoger de beschikbare bandbreedte is, kun je ook zaken afvangen. Dan heb je ook nog compressie, Nvidia kan dmv compressie meer doen met geheugen dan AMD nu doet met dezelfde poule.
.

Acties:
  • +1 Henk 'm!

  • mister_S
  • Registratie: Februari 2004
  • Laatst online: 15:49
Iedereen kan hier meningen opschrijven, maar 100% zekerheid kun je nooit krijgen. Stel dat je alles de komende 4 jaar op ultra 4K gaat spelen, leuke gedachte maar gaat natuurlijk niet lukken. Kom je VRAM tekort? Nee, de GPU chip trekt het gewoon niet. Daarnaast is het verschil tussen ultra/extreme/super textures en high textures meestal zo klein, ALS je tegen een VRAM limiet oploopt kun je gewoon de texture quality een stapje lager zetten.

Dus tot die tijd ben je waarschijnlijk al toe aan een andere GPU en geen dev studio gaat natuurlijk optimaliseren voor die kleine percentage 10+ GB kaarten. De meeste gamers lopen nog een generatie of twee achter. Daarnaast heeft 1-op-1 vergelijken met console HW nooit zin.

Acties:
  • 0 Henk 'm!

  • Seth_Chaos
  • Registratie: Oktober 2003
  • Niet online
De reden dat je alleen maar verschillende meningen leest, is dat geen van hen een glazen bol heeft.

Niemand kan je op voorhand zeggen wat de juiste keuze is. En niemand kan je garanderen dat het 4 jaar naar tevredenheid blijft werken. In tegendeel de kans is groot dat beide keuzes niet aan je verwachtingen zullen voldoen.

Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 18:26
Edit

[ Voor 96% gewijzigd door 418O2 op 07-12-2020 10:47 ]


Acties:
  • 0 Henk 'm!

  • M-spec
  • Registratie: September 2004
  • Niet online
Vooruit kijken is altijd lastig, consoles zullen met alle gameports wel invloed hebben en maken gebruik van AMD hardware. Nvidia en AMD gebruiken voor de PC ook weer verschillende Vram compressie technieken met hun eigen naamgeving. Daarmee is het totaal en werkelijk gebruik van Vram niet helemaal 1:1 vergelijkbaar. Soms zie ik games van een jaar oud zoals Division 2 die bijna 16GB toewijzen aan het geheugen op de 3090 icm Uwqhd maar dat betekend nog niet dat het daadwerkelijk in gebruik is. Een tekort aan geheugen wordt als eerste zichtbaar in de frametimes waar 10GB tot op heden geen beperking laat zien in benchmarks van reviews. Wie weet zijn games over een paar jaar op 4K Ultra toch niet meer vloeiend speelbaar en je sowieso al in settings terug moet of wilt en 10GB in die zin wel voldoende blijft. Wie zal het zeggen.

Of zoals Nvidia zelf aangeeft, 10GB uit prijs overweging. Al hadden ze er achteraf misschien iets meer van gemaakt met de 3080 om twijfels weg te nemen.
GeForce RTX 30-Series
Q: Why only 10 GB of memory for RTX 3080? How was that determined to be a sufficient number, when it is stagnant from the previous generation?

Link

We’re constantly analyzing memory requirements of the latest games and regularly review with game developers to understand their memory needs for current and upcoming games. The goal of 3080 is to give you great performance at up to 4k resolution with all the settings maxed out at the best possible price. In order to do this, you need a very powerful GPU with high speed memory and enough memory to meet the needs of the games. A few examples - if you look at Shadow of the Tomb Raider, Assassin’s Creed Odyssey, Metro Exodus, Wolfenstein Youngblood, Gears of War 5, Borderlands 3 and Red Dead Redemption 2 running on a 3080 at 4k with Max settings (including any applicable high res texture packs) and RTX On, when the game supports it, you get in the range of 60-100fps and use anywhere from 4GB to 6GB of memory. Extra memory is always nice to have but it would increase the price of the graphics card, so we need to find the right balance.

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


Acties:
  • 0 Henk 'm!

  • Hackus
  • Registratie: December 2009
  • Niet online

Hackus

Lifting Rusty Iron !

Thrawni schreef op maandag 7 december 2020 @ 09:15:
Mijn vraag
Zie topic titel

Ik vraag mij dit af, omdat ik deze week een asus 3080 TUF OC binnen krijg en wil besluiten of ik het behoud of dan toch maar een 6800 XT ga jagen. Ik ben benieuwd of de nieuwere, aankomende games die enkel voor de XSX/PS5 worden ontwikkeld meer dan 10gb aan vram zullen gebruiken of dat dat een reeële verwachting is. Ik heb over dit onderwerp wel wat pagina's afgestruimd en eigenlijk lees ik alleen maar verschillende meningen hierover. De één zegt dat 10gb voor games op 4k nooit genoeg kan zijn en de ander zegt dat dat wel prima is. Dat nvidia achter de schermen bezig is om op korte termijn kaarten uit te brengen met meer dan 10gb aan vram, helpt niet om buyers remorse te voorkomen. Ja ja, ze zijn altijd bezig met de volgende nieuwere kaarten, maar het lijkt nu wel alsof dat heel snel gaat gebeuren.

Ik hoop dat ik een goede, terechte vraag stel en hierop non-biased antwoord op kan krijgen zodat ik weet of ik toch liever voor 16gb aan vram moet gaan of dat 10gb met vertrouwde drivers & RT/DLSS wel oké is voor aankomende 4 jaar. Het blijft een dure aanschaf dus vandaar dat ik op zoek ben naar een beetje zekerheid. Ik wil geen aankoop doen nu om binnen een korte termijn de settings al om laag te doen (tenzij het settings zijn die té veel performance vragen zoals RT zonder DLSS). Bedankt voor de tijd.
Desktop v (PS5) kun je niet vergelijken met elkaar. 6800XT is in veel games minder dan RTX3080.
oa in RDR2 scheelt het 3-4fps

wil je straks meer dan E1000,- uitgeven aan GPU ?

Kiest als MTB' er voor het mulle zand en drek, ipv het naastgelegen verharde pad.


Acties:
  • +1 Henk 'm!

  • Navi
  • Registratie: Maart 2007
  • Niet online
Wat ook meestal verstandiger is, is elke 2 jaar een mid-end kaart kopen zoals de 3070, ipv 1x voor 4 jaar een veel duurder top model.

Na 2 jaar is je oude kaart nog wat waard en heb je voor weinig weer een flinke upgrade.

Acties:
  • Beste antwoord
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Vrijwel iedereen die pretendeert je hier echt een antwoord op te kunnen geven, heeft waarschijnlijk geen idee waar die het over heeft. Heel bot, maar zo is het wel.

Alles van wat Nvidia zegt (dat moet je in de regel helemaal niet geloven) tot het "console argument", hoe dat ook uitgelegd mag worden, slaat ook nergens op omdat een RTX3080 al krachtiger is en veel belangrijker, een heel andere architectuur betreft dan RDNA2, zeker in de consoles. Daar is de GPU maar een deel van een samengesteld pakket dat geoptimaliseerd is. De XSX en de PS5 hebben een fundamenteel ander geheugensysteem en ze toegang hebben tot heel erg snelle SSD's.

Het fundamentele probleem hier is dat je verwacht dat iets vier jaar gaat werken met waarschijnlijk steevast hoge instellingen. Dat kan niemand je garanderen en dat zou ook helemaal de inzet niet moeten zijn. Zeker nu niet meer aangezien AMD weer meedoet in GPU land en Nvidia niet langer meer van die kleine stapjes kan zetten zoals de afgelopen jaren. Bij AMD laten ze werkelijk geen enkele intentie of neiging zien wel even af te gaan remmen in hun ontwikkeling. Sterker nog, die lijken elk jaar met een nieuwe generatie te willen komen. Over ongeveer een jaar rolt RDNA3 gewoon over Ampere heen, jaar erna komt RDNA4 etc. Nvidia zal ook moeten gaan versnellen in hun ontwikkeling en zo stort de hele gedachte dat iets wel jaren bij blijft, helemaal in. We hebben dit ook gezien met Zen. Daar zou AMD ook wel afvlakken en zou het zo hard niet lopen. Ze accelereren alleen maar en hebben Intel inmiddels achter zich gelaten.

Er is waarschijnlijk geen "GTX1080Ti" die maar blijft gaan en gaan en gaan. Dat gebeurde vooral omdat de ontwikkelingen sinds 2017, simpelweg niet indrukwekkend waren.

DLSS en RT zijn ook non argumenten. DLSS zit in relatief weinig games en kan heel erg verschillen per game of het wel de moeite waard is. Over DLSS hangen ook vraagtekens over de levensduur zoals eigenlijk over elke vendor exclusieve technologie hangen. Het zou zeker niet de eerste keer zijn dat iets "geweldigs" van Nvidia, na een paar jaar een stille dood stierf. Enige zinvolle RT op 4K gaat niet gebeuren met een RTX3080 en ook niet met een RX6800XT. De hardware komt niet eens in de buurt, ondanks prachtige claims van zowel Nvidia als AMD. Het enige relevante is shader prestaties en een RTX3080 is daar vrij aardig in. ;)

Het stomme is ook dat als je nu op 1440p zat, ik je eerder zou aanraden de RX6800XT te nemen dan de RTX3080 houden. Op 1440p is de RX6800XT eigenlijk beter. Iets sneller, maar is is vooral dat de frametimes van RDNA2 simpelweg beter zijn dan Ampere. Op 4K heeft Ampere alleen soms wel een duidelijk voordeel over RDNA2 en dat komt door de 2x FP32 die alleen op 4K tot haar recht komt. Dit is alleen volstrekt het tegenovergestelde van het VRAM argument, waar ik dus echt niks mee kan. Het enige dat ik echt kan zeggen over die 10GB is dat ik het goedkoop vind van Nvidia om wat ze zelf positioneren als hun topmodel voor gamers, zo uit te kleden. Dit dilemma hebben ze ook zelf gecreëerd.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

Pagina: 1