[NVIDIA GeForce RTX 30XX] Ervaringen & Discussie Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 3 ... 54 Laatste
Acties:

Onderwerpen

Alle 25 producten


Acties:
  • +1 Henk 'm!
computerjunky schreef op woensdag 9 september 2020 @ 11:44:
Ben het met velen eens dat de prestaties die je krijgt van 3080 naar 3090 absoluut biet het dubbele waard zijn... 999 had al redelijker geweest want dat extra geheugen kost ook een flinke duit.

2x een xx80 is dan ook slimmer over 4 a 5 jaar en je afschrijving is dan ook minder dus je geeft in verhouding minder uit omdat je 2 kaarten heb die je door kan verkopen ipv 1.

Voor 3070 naar 3080 is dit anders. 1x 3080 zal goedkoper uit pakken als 3070+xx70. Ik qou dan eerst ook de xx70 maar denk dat onder de streep de 3080 de slimmere keuze is zelfs met extra stroomverbruik.
De 3090 is de Titan kaart. Die is altijd zo prijzig geweest. Een 3080Ti achtige kaart komt over zeg 9 maanden wel. Misschien eerder mocht AMD met iets leuks komen.

Het is echt groter dan/meer dan/... overtreffend iets dan i.p.v. als.

Acties:
  • 0 Henk 'm!

  • NotSoSteady
  • Registratie: April 2010
  • Laatst online: 00:31
computerjunky schreef op woensdag 9 september 2020 @ 11:44:
Ben het met velen eens dat de prestaties die je krijgt van 3080 naar 3090 absoluut biet het dubbele waard zijn... 999 had al redelijker geweest want dat extra geheugen kost ook een flinke duit.

2x een xx80 is dan ook slimmer over 4 a 5 jaar en je afschrijving is dan ook minder dus je geeft in verhouding minder uit omdat je 2 kaarten heb die je door kan verkopen ipv 1.

Voor 3070 naar 3080 is dit anders. 1x 3080 zal goedkoper uit pakken als 3070+xx70. Ik qou dan eerst ook de xx70 maar denk dat onder de streep de 3080 de slimmere keuze is zelfs met extra stroomverbruik.
Klopt, maar een stemmetje in mijn hoofd zegt toch dat ik de beste kaart wil. :+

Acties:
  • 0 Henk 'm!

  • Santee
  • Registratie: Maart 2010
  • Laatst online: 13-06 19:28
CerandoX.nl schreef op woensdag 9 september 2020 @ 11:44:
Als die Cryptominers weer de hele voorraad opkopen, dan ben ik er echt helemaal klaar mee en koop ik wel een Xbox of PS5.
Pff ik wilde wachten tot de 3070 en wellicht een 16/20GB versie van de 70/80, maar nu ik dit lees moet ik denk ik toch op release gelijk mijn kaart scoren. Straks zitten we weer met tekorten |:(

Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 21:12
Ethereum is volgens mij niet echt relevant meer om te minen, ik zou me daar niet al te druk over maken

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Skybullet schreef op woensdag 9 september 2020 @ 03:32:
[...]


Over een paar jaar heb ik al weer de 4080 of 5080 dus who cares ?. Ik zie het probleem niet met de 10gb op de 3080. Mijn huidige 2080 heeft er 8 en ik ben nog nooit in de buurt geweest van 8gb vol te krijgen. Het gaat daarnaast niet enkel om het absolute getal van 8 of 10 of 20 gb, maar zeker ook hoe de architectuur van de kaart omgaat met die hoeveelheid. Hoe er bepaalde dingen met welke snelheid verwerkt worden en technieken als compressie etc.
Fair enough. Let wel, als je nu gaat 4K gamen met Doom Eternal, komt op ultra settings de frame buffer nu al boven de 8GB uit, schijnt (ik heb het spel zelf niet). Ze gebruiken dan ook een 3080, niet een 3070: YouTube: DOOM Eternal | Official GeForce RTX 3080 4K Gameplay - World Premiere

Natuurlijk, architectuur en snelheid is belangrijk/helpt. Maar op een gegeven moment, vol = vol. Ik koop zelf meer voor de lange termijn (ongeveer 5 jaar per GPU, ik zit nog op de R9 290 :+ ).

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!
418O2 schreef op woensdag 9 september 2020 @ 11:52:
Ethereum is volgens mij niet echt relevant meer om te minen, ik zou me daar niet al te druk over maken
Niet met de stroomkosten hier denk ik, maar er zijn zat regio's in de wereld waar mensen nog aardige winsten weten te maken.

Acties:
  • 0 Henk 'm!

  • NotSoSteady
  • Registratie: April 2010
  • Laatst online: 00:31
418O2 schreef op woensdag 9 september 2020 @ 11:52:
Ethereum is volgens mij niet echt relevant meer om te minen, ik zou me daar niet al te druk over maken
Toevallig vorige week geprobeerd. Kwam uit op $5 per dag met een RTX 2080 Ti. Laat maar zitten. :+

Acties:
  • 0 Henk 'm!

  • Snippertje
  • Registratie: December 2004
  • Laatst online: 23:18

Snippertje

Light up your life

computerjunky schreef op woensdag 9 september 2020 @ 11:44:
Ben het met velen eens dat de prestaties die je krijgt van 3080 naar 3090 absoluut biet het dubbele waard zijn... 999 had al redelijker geweest want dat extra geheugen kost ook een flinke duit.

2x een xx80 is dan ook slimmer over 4 a 5 jaar en je afschrijving is dan ook minder dus je geeft in verhouding minder uit omdat je 2 kaarten heb die je door kan verkopen ipv 1.

Voor 3070 naar 3080 is dit anders. 1x 3080 zal goedkoper uit pakken als 3070+xx70. Ik qou dan eerst ook de xx70 maar denk dat onder de streep de 3080 de slimmere keuze is zelfs met extra stroomverbruik.
De 3080 heeft geen NV link: https://www.pcworld.com/article/3573384

Edit: ah verkeerd begrepen. Zie hieronder :)

[ Voor 3% gewijzigd door Snippertje op 09-09-2020 12:03 ]

Discord kanaal: https://discord.gg/X3CqdTKd


Acties:
  • +1 Henk 'm!
Hij bedoelt niet 2 3080s kopen, maar nu een 3080 en over X jaar een tweede (zeg 4080 of 5080) i.p.v. lang proberen te doen met 1 enkele 3090. Gemiddeld genomen heb je dan betere prestaties en het is nog goedkoper ook.

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Er is simpelweg één reden om een 3090 te kopen. Of nou ja, twee redenen:
1. Je wil het allerbeste
2. Je hebt meer VRAM nodig (of denkt meer VRAM nodig te hebben).

Daarom lijkt het mij gewoon heel onwaarschijnlijk dat over 3 maanden Nvidia met een 3080 met 20GB VRAM komt. Het kan, maar het maakt de 3090 zo goed als nutteloos. (Tenzij ze 400 euro extra vragen voor 10GB meer VRAM).

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 00:30
Paprika schreef op woensdag 9 september 2020 @ 11:46:
[...]

De 3090 is de Titan kaart. Die is altijd zo prijzig geweest. Een 3080Ti achtige kaart komt over zeg 9 maanden wel. Misschien eerder mocht AMD met iets leuks komen.

Het is echt groter dan/meer dan/... overtreffend iets dan i.p.v. als.
Dat snap ik maar financieel is het gewoon geen logische keuze. Als geld je niet boeit tja..ander verhaal.
Maar voor velen is het gewoon slimmer om 2x een xx80 te kopen. Lijkt me ook de reden dat er geen Nvlink op de 3080 zit anders was de hele 3090 nutteloos geweest.
NotSoSteady schreef op woensdag 9 september 2020 @ 11:49:
[...]


Klopt, maar een stemmetje in mijn hoofd zegt toch dat ik de beste kaart wil. :+
Dat stemmetje kan schreeuwen wat ie wil... :+

Afbeeldingslocatie: https://i.pinimg.com/originals/04/05/f3/0405f352b0c0e76adfbced77465b0f9c.jpg

[ Voor 3% gewijzigd door computerjunky op 09-09-2020 12:08 ]


Acties:
  • 0 Henk 'm!

  • bierschuit
  • Registratie: Juni 2004
  • Niet online
computerjunky schreef op woensdag 9 september 2020 @ 12:06:
[...]
Dat snap ik maar financieel is het gewoon geen logische keuze. als geld je niet boeit tja.. ander verhaal maar voor velen is het gewoon slimmer om 2x een xx80 te kopen. Lijkt me ook de reden dat er geen Nvlink is anders was de hele 3090 nutteloos geweest.

[...]

FOTO
Foto, ja zo ziet mijn portemonnee er ook altijd uit. ;)

Persoonlijk vind ik overkill goed; Het is niet nodig maar wel lekker. Nu nog even kijken welk merk het gaat worden en dan zo snel mogelijk een waterblok erop.

Acties:
  • +2 Henk 'm!
Sissors schreef op woensdag 9 september 2020 @ 12:06:
Er is simpelweg één reden om een 3090 te kopen. Of nou ja, twee redenen:
1. Je wil het allerbeste
2. Je hebt meer VRAM nodig (of denkt meer VRAM nodig te hebben).

Daarom lijkt het mij gewoon heel onwaarschijnlijk dat over 3 maanden Nvidia met een 3080 met 20GB VRAM komt. Het kan, maar het maakt de 3090 zo goed als nutteloos. (Tenzij ze 400 euro extra vragen voor 10GB meer VRAM).
Een 3090 verkoopt toch wel. De eerste Titan op Pascal was trager(!) dan een GTX 1080Ti, waardoor de prijs van het eerste model heel hard kelderde, want nu kon je meer FPS, betere koeling en een fijnere RMA ervaring kopen voor een stuk minder geld. Deze kaart kwam uit voor $1200 en was daarna nog geen $600 waard (nieuw kocht je een GTX 1080 Ti voor $675).

Afbeeldingslocatie: https://tpucdn.com/review/nvidia-geforce-gtx-1080-ti/images/perfrel_3840_2160.png

De oplossing? De 'nieuwe' Titan Pascal Xp voor weer $1200 die welgeteld 3%(!) sneller was en toch werd ook deze weer gekocht alsof het 'niets' kostte. Zo lang er een videokaart is die marginaal betere framerates geeft voor een verdubbeling van de prijs slijten ze ze wel. De kopers van een 3090 kopen in september en oktober de markt leeg (zie ook de RTX 2080 Ti release, die niet aan te slepen was). Als ze in november iets uitbrengen wat 20GB heeft dan kopen de 3090 kopers nog altijd een 3090. Zelfs al zou Nvidia het vandaag aankondigen. Mensen maken zich al zorgen wanneer de GPU misschien 1(!) dag later wordt bezorgd.

[ Voor 12% gewijzigd door Paprika op 09-09-2020 12:22 ]


Acties:
  • 0 Henk 'm!

  • daveytje
  • Registratie: Juni 2013
  • Laatst online: 05:52
Wat is eigenlijk het verschil tussen de:
MSI GeForce RTX 3080 Gaming X Trio grafische kaart
en
MSI GeForce RTX 3080 Ventus 3X 10G OC grafische kaart

Enkel het RGB en andere ventilatoren en de 50 euro in prijs?
Alle specificaties zijn verder hetzelfde namelijk.

[ Voor 29% gewijzigd door daveytje op 09-09-2020 12:25 ]


Acties:
  • 0 Henk 'm!
daveytje schreef op woensdag 9 september 2020 @ 12:25:
Enkel het RGB en andere ventilatoren en de 50 euro in prijs?
Alle specificaties zijn verder hetzelfde namelijk.
RGB, "prestige", de gebruikte ventilatoren en het koeloppervlak. Zal de Trio beter koelen? Ja. Zal het een meetbaar beter resultaat geven? Ja. Ga je het echt merken tijdens het gamen op basis van zichtbare FPS? Nee.

Toch is de Trio relatief gezien een erg goede deal. De V&A/tweedehands waarde zal hoog zijn dus die 50 euro haal je er wel weer uit.

[ Voor 13% gewijzigd door Paprika op 09-09-2020 12:28 ]


Acties:
  • 0 Henk 'm!

  • Hugo_ijslijk
  • Registratie: Oktober 2012
  • Laatst online: 15-06 10:06
Ik ben toch wel heel benieuwd hoe al de OEM koelers (en dan ook de goedkopere en RGB Gamer kaarten zoals de MSI Trio en Ventus) zich verschillen met de nieuwe Founders Edition koeler. Nog even afwachten denk ik...

Acties:
  • 0 Henk 'm!

  • daveytje
  • Registratie: Juni 2013
  • Laatst online: 05:52
Paprika schreef op woensdag 9 september 2020 @ 12:28:
[...]

RGB, "prestige", de gebruikte ventilatoren en het koeloppervlak. Zal de Trio beter koelen? Ja. Zal het een meetbaar beter resultaat geven? Ja. Ga je het echt merken tijdens het gamen op basis van zichtbare FPS? Nee.

Toch is de Trio relatief gezien een erg goede deal. De V&A/tweedehands waarde zal hoog zijn dus die 50 euro haal je er wel weer uit.
Aha, want beide hebben ook 3 ventilatoren aan de zijkant. Maar de trio heeft wel de torx fan 4 ventilatoren en de ventus heeft de torx fan 3

Acties:
  • 0 Henk 'm!

  • sacaji
  • Registratie: Januari 2009
  • Laatst online: 10-06 10:26
Anoniem: 1441478 schreef op woensdag 9 september 2020 @ 09:11:
[...]

Ik heb zelf een i7 6700K, dacht ook dat dat wel met 3070 of 3080 kon. Maar lees dat de cpu een bottleneck gaat zijn. (gebaseerd op 6700K icm 2080ti benchmarks). Dus ja ik zie ook tegen een complete mobo+ram+mem upgrade op. Dat gaat me minstens het dubbele van de videokaartupgrade kosten. Oh ja, mijn PSU is 500 watt, dat moet ook geupgraded worden. De SSD zijn vrij nieuw dus die hoeven niet.
Dacht ik bij mijn PC er ook aan, gewoon een compleet nieuwe build maar wacht nog even op de GTX benchmarks en wat Ryzen 4000 desktop gaat doen. Heb nu een i7-8700k maar als de nieuwe ryzen geruchten kloppen past deze lekker met een 3080 of 3090 :)

Acties:
  • +1 Henk 'm!
daveytje schreef op woensdag 9 september 2020 @ 12:33:
[...]

Aha, want beide hebben ook 3 ventilatoren aan de zijkant. Maar de trio heeft wel de torx fan 4 ventilatoren en de ventus heeft de torx fan 3
Ze kunnen er best allemaal fancy namen aan koppelen, maar het zijn en blijven toch echt gewoon fans met een iets andere airflow en daardoor iets ander wind geruis. De marge op de Trio ligt hoger dan op de Ventus.

[ Voor 5% gewijzigd door Paprika op 09-09-2020 12:40 ]


Acties:
  • 0 Henk 'm!
Sissors schreef op woensdag 9 september 2020 @ 12:06:

Daarom lijkt het mij gewoon heel onwaarschijnlijk dat over 3 maanden Nvidia met een 3080 met 20GB VRAM komt. Het kan, maar het maakt de 3090 zo goed als nutteloos. (Tenzij ze 400 euro extra vragen voor 10GB meer VRAM).
Ligt er helemaal aan waar AMD mee komt. Als AMD een gelijk presterende en kostende videokaart uitbrengt met 16GB videogeheugen dan is het best wel waarschijnlijk dat die er wel komt. Op het moment dat Micron 16Gb chips gereed heeft dan, want die zijn er op dit moment nog niet, dan is het best wel logisch. Dan kan een RTX 3090 met dubbel zoveel geheugen overigens ook. Men zit nu alleen vast aan 8Gb GDDR6X chips.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Maulet
  • Registratie: September 2020
  • Laatst online: 09-06 08:53
Ik ben nieuwsgierig of er grote verschillen zijn tussen 3090 en 3080 pcb's....

9950x3d+4090+64DDR


Acties:
  • 0 Henk 'm!

  • Psyonara
  • Registratie: September 2007
  • Laatst online: 21:35
-The_Mask- schreef op woensdag 9 september 2020 @ 12:44:
[...]

Ligt er helemaal aan waar AMD mee komt. Als AMD een gelijk presterende en kostende videokaart uitbrengt met 16GB videogeheugen dan is het best wel waarschijnlijk dat die er wel komt. Op het moment dat Micron 16Gb chips gereed heeft dan, want die zijn er op dit moment nog niet, dan is het best wel logisch. Dan kan een RTX 3090 met dubbel zoveel geheugen overigens ook. Men zit nu alleen vast aan 8Gb GDDR5X chips.
Ik denk dat Nvidia daar stiekum al klaar mee staat. Heel veel mensen willen al een nieuwe GPU speciaal voor Cyberpunk. En puur een Cashgrab heeft voor die Early Adopters.

De reden dat AMD met hogere Vram komt is juist om een kleine voorsprong te kunnen krijgen op Nvidia.
Dit is puur business voor Groen en Rood.

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 07:15

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Paprika schreef op woensdag 9 september 2020 @ 12:39:
[...]

Ze kunnen er best allemaal fancy namen aan koppelen, maar het zijn en blijven toch echt gewoon fans met een iets andere airflow en daardoor iets ander wind geruis. De marge op de Trio ligt hoger dan op de Ventus.
Vergeet ook niet dat bij Turing de Ventus fans kwalitatief slechtere lagers gebruikte dan fans op de Gaming (X) (Trio) kaarten.

Dan nog waren die niets slechter dan bij Gigabyte en Asus, maar goed dat is weer een heel andere discussie. :P

Dit is ook een beetje een pet peeve van mij. Ik heb al meerdere Asus kaarten in handen gehad waarvan de fans na 2 a 3 jaar gebruik gewoon vast waren gelopen of een rotherrie maakten. Ik vind dat niet meer van deze tijd. :z

Ik ben benieuwd hoe dit nu gaat zijn bij Ampere. Ik hoop dat het deze generatie wat beter gaat zijn op dit gebied.

[ Voor 6% gewijzigd door Blaat op 09-09-2020 12:50 ]

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Wat wel apart is dat op de MSI site bij de Ventus wel "Zero Frozr' staat en bij de Gaming variant hier niks over staat.

Zero Frozr = Fans staan stil bij lage load.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 1441478

@Blaat met mijn huidige 3fans van Asus nooit problemen. (STRIX GTX 1060 6GB) Nooit OCed. Fans staan stil bij lage load.

Acties:
  • 0 Henk 'm!
Psyonara schreef op woensdag 9 september 2020 @ 12:48:
[...]


Ik denk dat Nvidia daar stiekum al klaar mee staat.
Het is Micron die het moet maken en daar moet nVidia op wachten. nVidia zal niks of niks serieus hoeven aan te passen. Vooralsnog is het dus gewoon geen optie voor nVidia. https://www.micron.com/pr...tions/gddr6x/part-catalog
De reden dat AMD met hogere Vram komt is juist om een kleine voorsprong te kunnen krijgen op Nvidia.
Dit is puur business voor Groen en Rood.
Het zijn gewoon keuzes op wat beschikbaar is en wat nodig is. AMD heeft de keuze tussen HBM2(e) en GDDR6. Bij GDDR6 kun je wel 16Gb chips nemen en ook bij HBM2(e) is meer videogeheugen geen probleem.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
-The_Mask- schreef op woensdag 9 september 2020 @ 12:44:
[...]

Ligt er helemaal aan waar AMD mee komt. Als AMD een gelijk presterende en kostende videokaart uitbrengt met 16GB videogeheugen dan is het best wel waarschijnlijk dat die er wel komt. Op het moment dat Micron 16Gb chips gereed heeft dan, want die zijn er op dit moment nog niet, dan is het best wel logisch. Dan kan een RTX 3090 met dubbel zoveel geheugen overigens ook. Men zit nu alleen vast aan 8Gb GDDR6X chips.
Onzin, als de RTX 3090 die 16Gb chips niet nodig heeft om een 24GB versie te maken, dan heeft een theoretische 3080 Ti die ook niet nodig: òf ze zijn er al, òf de 3090 stapelt de 8Gb modules dubbel voor en achter.
Er is al een 3070 Ti/Super van 16GB gespot.

nVidia loopt ons weer te beknibbelen met die 8GB en 10GB versies, vergelijkbaar met de originele RTX 2070 die een TU106 was. De 2070 Super was wel een TU104. Enige verschil is dat nVidia nu wel concurrentie verwacht, vandaar dat ze de 3070 3080 versies met meer geheugen gewoon klaar hebben staan achter de coulissen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!
Is altijd wel bijzonder dat iemand onzin zegt terwijl die het zelf niet snapt. Een RTX 3090 heeft namelijk geheugenchips aan beide kanten in tegenstelling tot een RTX 3080. Gestapeld GDDR geheugen bestaat overigens nog niet. Zoals uitgelegd, het is nog even wachten voordat de 16Gb chips is massaproductie gaat. Dat zegt natuurlijk niks over een testproduct waar één of een handjevol exemplaren van zijn.

Sterker nog het wordt gewoon genoemd hier op pagina 2, derde alinea. 16Gb chips staan op de planning voor begin 2021 https://media-www.micron...._solutions_tech_brief.pdf

[ Voor 60% gewijzigd door -The_Mask- op 09-09-2020 13:15 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 15-06 19:33

flessuh

Set sail for fail!

Santos schreef op woensdag 9 september 2020 @ 12:37:
[...]


Dacht ik bij mijn PC er ook aan, gewoon een compleet nieuwe build maar wacht nog even op de GTX benchmarks en wat Ryzen 4000 desktop gaat doen. Heb nu een i7-8700k maar als de nieuwe ryzen geruchten kloppen past deze lekker met een 3080 of 3090 :)
Exact mijn plan. Ik hoop alleen dat m'n huidige nog verkoopbaar blijkt :P

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
-The_Mask- schreef op woensdag 9 september 2020 @ 13:06:
Is altijd wel bijzonder dat iemand onzin zegt terwijl die het zelf niet snapt. Een RTX 3090 heeft namelijk geheugenchips aan beide kanten in tegenstelling tot een RTX 3080. Gestapeld GDDR geheugen bestaat overigens nog niet. Zoals uitgelegd, het is nog even wachten voordat de 16Gb chips is massaproductie gaat. Dat zegt natuurlijk niks over een testproduct waar één of een handjevol exemplaren van zijn.
Met "stapelt de 8Gb modules dubbel voor en achter" bedoel ik beide kanten, dat lijkt me redelijk duidelijk. Dat kan een nieuwe versie van de 3070, 3080, nu dus ook. Er is dus geen noodzaak te wachten op 16Gb modules, tenzij je per se precies hetzelfde board ontwerp wil hergebruiken. Ik weet niet precies hoe moeilijk het is om chips aan beide kanten te plaatsen, maar het lijkt me een detail.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Bij de huidige 3090 zijn nog niet alle cudacores actief toch?

Dus wellicht houden ze nu wat chips apart die wel 100% kunnen draaien en verhogen ze zo de prestaties vd 3090 tzt nog wat meer indien nodig.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Psyonara
  • Registratie: September 2007
  • Laatst online: 21:35
-The_Mask- schreef op woensdag 9 september 2020 @ 13:03:
[...]

Het is Micron die het moet maken en daar moet nVidia op wachten. nVidia zal niks of niks serieus hoeven aan te passen. Vooralsnog is het dus gewoon geen optie voor nVidia. https://www.micron.com/pr...tions/gddr6x/part-catalog


[...]

Het zijn gewoon keuzes op wat beschikbaar is en wat nodig is. AMD heeft de keuze tussen HBM2(e) en GDDR6. Bij GDDR6 kun je wel 16Gb chips nemen en ook bij HBM2(e) is meer videogeheugen geen probleem.
Dat zegt eigenlijks niks, je weet niet waar ze mee bezig zijn achter de schermen. Plus de GPU fabrikanten proberen elkaar constant af te troeven. En Nvidia die altijd graag een snelle streek hier en daar uit haalt.
Nvidia wil AMD de GPU markt uit hebben en daar hebben ze aardig energie in gestoken door zoveel mogelijk te overlappen.

Zakelijke besluiten als dit worden echt wel vooruit geplanned.

Acties:
  • 0 Henk 'm!

  • sacaji
  • Registratie: Januari 2009
  • Laatst online: 10-06 10:26
flessuh schreef op woensdag 9 september 2020 @ 13:10:
[...]


Exact mijn plan. Ik hoop alleen dat m'n huidige nog verkoopbaar blijkt :P
Hehe great minds think a like. Ja huidige beestje is prima gewoon, heb ook een game laptop aangeschaft omdat ik niet meer vaak thuis ben en dan ook niet speel op de PC en zonde om te rotten.

Heb de presentatie live gekeken van de RTX en speel zelf op 1440P en ik wil Cyberpunk2077 toch wel op ze hoogste settings spelen :)

Acties:
  • 0 Henk 'm!
Psyonara schreef op woensdag 9 september 2020 @ 13:17:
[...]

Nvidia wil AMD de GPU markt uit hebben
Nee, helemaal geen concurrentie werkt ze juist tegen. Een zo hoog mogelijk marktaandeel? Absoluut. Klinkt als ieder ander bedrijf...

Acties:
  • 0 Henk 'm!
sunsmountain schreef op woensdag 9 september 2020 @ 13:12:
[...]

Met "stapelt de 8Gb modules dubbel voor en achter" bedoel ik beide kanten, dat lijkt me redelijk duidelijk.
Stapelen van geheugen is iets heel anders, HBM geheugen heeft bijvoorbeeld meerdere lagen gestapeld geheugen. Lijkt mij duidelijk dat als iemand praat over gestapeld geheugen diegene gestapeld geheugen bedoeld en niet iets heel anders.
Dat kan een nieuwe versie van de 3070, 3080, nu dus ook. Er is dus geen noodzaak te wachten op 16Gb modules, tenzij je per se precies hetzelfde board ontwerp wil hergebruiken. Ik weet niet precies hoe moeilijk het is om chips aan beide kanten te plaatsen, maar het lijkt me een detail.
Het is geen detail, want het vergt een veel complexer PCB en andere koeling. Je moet dus een volledig andere kaart ontwerpen. Dat gaat niet gebeuren en daarom zul je zien dat men wacht op de 16Gb chips.
Psyonara schreef op woensdag 9 september 2020 @ 13:17:
[...]
Dat zegt eigenlijks niks, je weet niet waar ze mee bezig zijn achter de schermen.
Eh jawel, 16Gb GDDR6X geheugenchips. :p
Nvidia wil AMD de GPU markt uit hebben en daar hebben ze aardig energie in gestoken door zoveel mogelijk te overlappen.
Nee dat willen ze niet. Ze willen AMD niet te groot hebben, maar weg betekend heel veel problemen met allemaal mededelingsautoriteiten door het gebrek aan concurrentie.
Zakelijke besluiten als dit worden echt wel vooruit geplanned.
Eh ja, maar niemand zegt dat er niet vooruit wordt gekeken.
Help!!!! schreef op woensdag 9 september 2020 @ 13:12:
Bij de huidige 3090 zijn nog niet alle cudacores actief toch?

Dus wellicht houden ze nu wat chips apart die wel 100% kunnen draaien en verhogen ze zo de prestaties vd 3090 tzt nog wat meer indien nodig.
Het grootste probleem is het verbruik. Je kunt dus nog wel hoger gaan, maar dan wordt het verbruik ook nog hoger. Ik denk zelf dat de klokfrequentie van de GPU echt wel hoger kan, maar dat het verbruik het niet toe laat.

[ Voor 13% gewijzigd door -The_Mask- op 09-09-2020 13:29 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
-The_Mask- schreef op woensdag 9 september 2020 @ 13:25:
[...]
Stapelen van geheugen is iets heel anders, HBM geheugen heeft bijvoorbeeld meerdere lagen gestapeld geheugen. Lijkt mij duidelijk dat als iemand praat over gestapeld geheugen diegene gestapeld geheugen bedoeld en niet iets heel anders.
[...]
Het is geen detail, want het vergt een veel complexer PCB en andere koeling. Je moet dus een volledig andere kaart ontwerpen. Dat gaat niet gebeuren en daarom zul je zien dat men wacht op de 16Gb chips.
Natuurlijk heb ik het niet over HBM, dat is stapelen binnen de modules en een veeeel grotere bit bus. Anyway, je 2e punt kan een reden zijn dat ze wachten op 16Gb chips voor de kosten. Maar het is niet nu onmogelijk, is wat ik wilde zeggen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Unknown Alien
  • Registratie: Juli 2009
  • Laatst online: 14-06 22:28
Vind het geweldig om te zien hoe er gereageerd wordt op de nieuwe Nvidia GPU.

Overal op elke tech website of social de Nvidia 3000 serie. Lijkt wel een apple hype :D

De specs en wat ze blijken aan te kunnen ziet er dan ook <3 uit. Wel een beetje zuur voor de 2080+ eigenaren.

Zelf vind ik het erg aantrekkelijk om de 3070 of 3080 te kopen, maar mijn verstand zegt...NEINNNNNN du bist krank!!!

Ik kan ook geen legitieme reden verzinnen om 500e neer te leggen. Wat zou er beter voor mij worden qua gamen en streamen?

Ik heb de
3700x = max 65gr
2070S OC max 75gr

27" predator 2K@165Hz

De nieuwe GPU zal hogere FPS halen, wat mijn monitor niet kan weergeven.

Ik moet dan ook een ander mobo kopen ivm PCIe 4.0 en een wat grotere kast ivm de warmte.


En toch blijft het kriebelen om toch te gaan kopen... 7(8)7

Acties:
  • +1 Henk 'm!
Unknown Alien schreef op woensdag 9 september 2020 @ 14:36:Wel een beetje zuur voor de 2080+ eigenaren.
Na 2 jaar wordt het wel eens tijd en dat zeg ik als 2080 eigenaar...
Unknown Alien schreef op woensdag 9 september 2020 @ 14:36:
Zelf vind ik het erg aantrekkelijk om de 3070 of 3080 te kopen, maar mijn verstand zegt...NEINNNNNN du bist krank!!!

Ik kan ook geen legitieme reden verzinnen om 500e neer te leggen. Wat zou er beter voor mij worden qua gamen en streamen?
Dan doe je het toch niet?
Unknown Alien schreef op woensdag 9 september 2020 @ 14:36:

27" predator 2K@165Hz

De nieuwe GPU zal hogere FPS halen, wat mijn monitor niet kan weergeven.
Ik ken zat spellen waarbij je een 3080 nodig zult hebben om die 165 FPS te halen op 1440p.
Unknown Alien schreef op woensdag 9 september 2020 @ 14:36:


Ik moet dan ook een ander mobo kopen ivm PCIe 4.0
Nee, een 3080 gaat een PCI-E 3.0 slot niet vullen.

[ Voor 4% gewijzigd door Paprika op 09-09-2020 14:40 ]


Acties:
  • 0 Henk 'm!

  • MelleJ
  • Registratie: Februari 2016
  • Laatst online: 06-05 10:28
Paprika schreef op woensdag 9 september 2020 @ 14:39:
Nee, een 3080 gaat een PCI-E 3.0 slot niet vullen.
Om hier nog een vraag over te stellen, het is niet mogelijk om de 30xx op een PCI-E 3.0 slot te steken? Of kan je dit ook een periode doen om bijv. dan pas over een half jaar een nieuwe motherboard te kopen? Ik snap dat je dan relatief gezien niet de performance eruit haalt die erin zit, maar ik heb niet zo'n behoefte aan een AM4 socket moederboard, wat zowat de enige zijn die een PCI-E 4.0 slot hebben geloof ik.

Acties:
  • 0 Henk 'm!

  • Pirelly
  • Registratie: Maart 2003
  • Laatst online: 09-06 00:22
Past gewoon hoor. En ik denk niet dat je veel performance verschil gaat merken.

Acties:
  • +1 Henk 'm!

  • Hugo_ijslijk
  • Registratie: Oktober 2012
  • Laatst online: 15-06 10:06
MelleJ schreef op woensdag 9 september 2020 @ 14:42:
[...]


Om hier nog een vraag over te stellen, het is niet mogelijk om de 30xx op een PCI-E 3.0 slot te steken? Of kan je dit ook een periode doen om bijv. dan pas over een half jaar een nieuwe motherboard te kopen? Ik snap dat je dan relatief gezien niet de performance eruit haalt die erin zit, maar ik heb niet zo'n behoefte aan een AM4 socket moederboard, wat zowat de enige zijn die een PCI-E 4.0 slot hebben geloof ik.
Wat volgens mij bedoeld werd was dat een 3080 niet de bandbreedte van een PCIe 3.0 boord gaat vullen. En dat er dus geen reden is om voor de 30xx serie te upgraden naar een PCIe 4.0 boord. De 30xx serie gaat gewoon werken in een PCIe 3.0 boord

Acties:
  • 0 Henk 'm!

  • mccAin
  • Registratie: April 2005
  • Laatst online: 04-06 07:41
MelleJ schreef op woensdag 9 september 2020 @ 14:42:
[...]


Om hier nog een vraag over te stellen, het is niet mogelijk om de 30xx op een PCI-E 3.0 slot te steken? Of kan je dit ook een periode doen om bijv. dan pas over een half jaar een nieuwe motherboard te kopen? Ik snap dat je dan relatief gezien niet de performance eruit haalt die erin zit, maar ik heb niet zo'n behoefte aan een AM4 socket moederboard, wat zowat de enige zijn die een PCI-E 4.0 slot hebben geloof ik.
Wat bedoeld wordt is dat een RTX 3080 niet de bandbreedte zal gebruiken boven het bereik van PCI-E 3.0
De kaart past in het slot en je zult geen verschil merken tussen het gebruik op een PCI-E 4.0 of een PCI-E 3.0 slot.

Acties:
  • 0 Henk 'm!

  • MelleJ
  • Registratie: Februari 2016
  • Laatst online: 06-05 10:28
Ah, ja dacht al zoiets. Verkeerd begrepen!

Vond het al opmerkelijk, denk heb niemand anders dit probleem horen benoemen en kan me toch niet voorstellen dat ik de enige ben op Tweakers die graag z'n Intel CPU wil houden :D

Acties:
  • +3 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 21:12
@Unknown Alien je maakt mij niet wijs dat je 2070s nu alles op 165fps doet op 1440p. Dat lukt met AAA games echt niet zonder graphics omlaag te schroeven

Acties:
  • +1 Henk 'm!
MelleJ schreef op woensdag 9 september 2020 @ 14:47:
Ah, ja dacht al zoiets. Verkeerd begrepen!

Vond het al opmerkelijk, denk heb niemand anders dit probleem horen benoemen en kan me toch niet voorstellen dat ik de enige ben op Tweakers die graag z'n Intel CPU wil houden :D
Een RTX 2080 Ti verliest zo'n 3% van z'n performance in een 3.0 x8(!) slot. Gezien je met 3.0 x16 dubbel de brandbreedte hebt zul je dan een kaart moeten hebben die ongeveer 1.95x de brandbreedte benut van een RTX 2080 Ti en dat ga je met een 3080 niet redden (en met een 3090 ook niet).

Acties:
  • 0 Henk 'm!

  • Santee
  • Registratie: Maart 2010
  • Laatst online: 13-06 19:28
Paprika schreef op woensdag 9 september 2020 @ 14:51:
[...]

Een RTX 2080 Ti verliest zo'n 3% van z'n performance in een 3.0 x8(!) slot. Gezien je met 3.0 x16 dubbel de brandbreedte hebt zul je dan een kaart moeten hebben die ongeveer 1.95x de brandbreedte benut van een RTX 2080 Ti en dat ga je met een 3080 niet redden (en met een 3090 ook niet).
Helemaal gelijk in. Hetzelfde gezeur was ook al 10 jaar geleden met pcie 2.0 naar 3.0. Toen goldt hetzelfde, je kon prima 16x pcie 2.0 gebruiken. Dat werd echt pas 4-5 jaar later een probleem. Tegen de tijd dat we pci-e 3.0 16x vullen zit je wel op de 4000 of zelfs 5000 serie.

Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 21:12
Santee schreef op woensdag 9 september 2020 @ 14:56:
[...]

Helemaal gelijk in. Hetzelfde gezeur was ook al 10 jaar geleden met pcie 2.0 naar 3.0. Toen goldt hetzelfde, je kon prima 16x pcie 2.0 gebruiken. Dat werd echt pas 4-5 jaar later een probleem. Tegen de tijd dat we pci-e 3.0 16x vullen zit je wel op de 4000 of zelfs 5000 serie.
Misschien met dual gpu, raid en 10gbit netwerk dat het vol kan lopen, maar meestal zal het wel goed gaan

Acties:
  • 0 Henk 'm!

Anoniem: 1441478

Iedereen bedankt voor de informatieve postjes achter elkaar. Ik heb er veel aan. _/-\o_ _/-\o_

[ Voor 3% gewijzigd door Anoniem: 1441478 op 09-09-2020 15:09 ]


Acties:
  • 0 Henk 'm!

  • gitaarwerk
  • Registratie: Augustus 2001
  • Niet online

gitaarwerk

Plays piano,…

Ik heb nu een evga met nvidia stock cooler. Werkt nog prima. Betreft de FE edition. Ik vind 'm er ook prachtig uit zien. En mijn kast is open voor de verandering.

Hij komt op exact juiste moment. De AMD kaarten ben ik ook benieuwd naar. Wie zal het zeggen. de rtx 3080 is wel een slurper. Toch nog even kat uit de boom kijken. :Y)

Ontwikkelaar van NPM library Gleamy


Acties:
  • +1 Henk 'm!

  • bjorntju
  • Registratie: Augustus 2007
  • Laatst online: 20:52
TL;DW

Max settings for all of these, running on the press driver for RTX 3080 reviews (456.16)

Forza Horizon 4 - 4K at 150FPS
Far Cry 5 - 4K at 100FPS
Borderlands 3 - 4K at 61FPS
Horizon Zero Dawn: 4K at 76FPS
Assassin's Creed Odyssey: 4K at 67FPS

Shadow of the Tomb Raider:
RTX with DLSS OFF - 84FPS at Native 4K
RTX with DLSS ON - 100FPS at 4K

Control:
RTX with DLSS OFF - 50-60FPS at Native 4K
RTX with DLSS ON - 100FPS at 4K

Death Stranding:
DLSS OFF - 100FPS at Native 4K
DLSS ON - 160-170FPS at 4K


and the synthetic benchmarks just for fun

3DMark Fire Strike Performance: 31919 (+25% 2080Ti, +43% 2080S )
3DMark Fire Strike Extreme: 20101 (+24% 2080Ti, +45% 2080S )
3DMark Fire Strike Ultra: 11049 (+36% 2080Ti, +64% 2080S )
3DMark Fire Strike Time Spy: 17428 (+28% 2080Ti, +49% 2080S )
3DMark Fire Strike Time Spy Extreme: 8548 (+38% 2080Ti, +59% 2080S )
3DMark Fire Strike Port Royal: 11455 (+45% 2080Ti, +64% 2080S )
toon volledige bericht
https://www.resetera.com/...chmarks-coming-in.283214/

Acties:
  • +1 Henk 'm!

  • thomassie12
  • Registratie: November 2012
  • Laatst online: 12-06 14:16
Damn, zulke framerates op 4k. Ik hoef voorlopig echt niet te upgraden als ik een 3080 heb met 1440p 165hz _/-\o_

Acties:
  • 0 Henk 'm!

  • gunghir
  • Registratie: April 2018
  • Laatst online: 20-07-2024

Acties:
  • 0 Henk 'm!

  • bjorntju
  • Registratie: Augustus 2007
  • Laatst online: 20:52
bjorntju schreef op woensdag 9 september 2020 @ 15:58:
TL;DW

Max settings for all of these, running on the press driver for RTX 3080 reviews (456.16)

Forza Horizon 4 - 4K at 150FPS
Far Cry 5 - 4K at 100FPS
Borderlands 3 - 4K at 61FPS
Horizon Zero Dawn: 4K at 76FPS
Assassin's Creed Odyssey: 4K at 67FPS

Shadow of the Tomb Raider:
RTX with DLSS OFF - 84FPS at Native 4K
RTX with DLSS ON - 100FPS at 4K

Control:
RTX with DLSS OFF - 50-60FPS at Native 4K
RTX with DLSS ON - 100FPS at 4K

Death Stranding:
DLSS OFF - 100FPS at Native 4K
DLSS ON - 160-170FPS at 4K


and the synthetic benchmarks just for fun

3DMark Fire Strike Performance: 31919 (+25% 2080Ti, +43% 2080S )
3DMark Fire Strike Extreme: 20101 (+24% 2080Ti, +45% 2080S )
3DMark Fire Strike Ultra: 11049 (+36% 2080Ti, +64% 2080S )
3DMark Fire Strike Time Spy: 17428 (+28% 2080Ti, +49% 2080S )
3DMark Fire Strike Time Spy Extreme: 8548 (+38% 2080Ti, +59% 2080S )
3DMark Fire Strike Port Royal: 11455 (+45% 2080Ti, +64% 2080S )
https://www.resetera.com/...chmarks-coming-in.283214/
toon volledige bericht
Even voor de volgende pagina :P

[ Voor 67% gewijzigd door bjorntju op 09-09-2020 16:21 ]


Acties:
  • 0 Henk 'm!

  • gunghir
  • Registratie: April 2018
  • Laatst online: 20-07-2024
Waarom is borderlands in hemelsnaam zo zwaar. Ik weet nog toen ik de 2080ti net had ik zwaar teleurgesteld was met BL3

Acties:
  • +1 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 21:12
gunghir schreef op woensdag 9 september 2020 @ 16:24:
Waarom is borderlands in hemelsnaam zo zwaar. Ik weer nog toen ik de 2080ti net had ik zwaar teleurgesteld was met BL3
Oude engine volgens mij

Acties:
  • 0 Henk 'm!

  • Unknown Alien
  • Registratie: Juli 2009
  • Laatst online: 14-06 22:28
Paprika schreef op woensdag 9 september 2020 @ 14:39:

Na 2 jaar wordt het wel eens tijd en dat zeg ik als 2080 eigenaar...

Ik ken zat spellen waarbij je een 3080 nodig zult hebben om die 165 FPS te halen op 1440p.

Nee, een 3080 gaat een PCI-E 3.0 slot niet vullen.
Alleen FN haal ik 165FPS. Ik heb alleen schadow uit staan en anti alliasing.

Als je een 3080 koopt dan wil je wel de max eruit halen en niet met een 3.0 spelen...althans ....dan ben ik dan....of je het verschil gaat merken....I doubt it, maar er zijn er zat die het verschil merken tussen 180fps en 240fps.

Maatje heeft een 3080ti 6 mnd geleden gekocht. Die vind het wel klote. Denk iedereen wel die hem 1 jaar of korter geleden gekocht heeft, die denkt hem weer te kunnen verkopen voor een degelijke prijs.

niet elke gamer koopt een kaart van 1000e+ en vind dat hij na 2 jaar wel weer vervangen mag worden. Je verwacht op zijn minst een leuke prijs ervoor terug te krijgen, wat je nu niet gaat lukken.
418O2 schreef op woensdag 9 september 2020 @ 14:47:
@Unknown Alien je maakt mij niet wijs dat je 2070s nu alles op 165fps doet op 1440p. Dat lukt met AAA games echt niet zonder graphics omlaag te schroeven
KLopt, ik was te snel met mijn post te posten moest naar voetbal training :)

FN haal ik 165FPS . Schaduw en antiliasing uit. en overige settings op epic of high. Zal dan uitkomen op med. settings?
COD doet hij max ook op 135FPS. soms hoger, snap niet warom hij soms op 160 staat, maar merk er geen kudt van.

GPU draait dan op ~2100MHz

^^ gegevens haal ik uit afterburner..

Verdere GFX waardige games speel ik niet, aangezien ik ook graag retro games speel.

Ik merk overigens geen verschil tussen 144 of 165, ik ben daar niet goed genoeg voor :+

Acties:
  • 0 Henk 'm!
Unknown Alien schreef op woensdag 9 september 2020 @ 18:59:
[...]

Als je een 3080 koopt dan wil je wel de max eruit halen en niet met een 3.0 spelen...althans ....dan ben ik dan....of je het verschil gaat merken....I doubt it, maar er zijn er zat die het verschil merken tussen 180fps en 240fps.
Zo werkt het niet. Er past gewoon meer door een 3.0 slot dan een 3080 maximaal benut, dus de prestaties gaan identiek zijn met 4.0.

Acties:
  • 0 Henk 'm!

  • Unknown Alien
  • Registratie: Juli 2009
  • Laatst online: 14-06 22:28
Paprika schreef op woensdag 9 september 2020 @ 19:05:
[...]

Zo werkt het niet. Er past gewoon meer door een 3.0 slot dan een 3080 maximaal benut, dus de prestaties gaan identiek zijn met 4.0.
oww wist ik niet. Weer wat geleerd d:)b

Acties:
  • 0 Henk 'm!

  • Bschnitz
  • Registratie: Februari 2005
  • Laatst online: 07:38
Paprika schreef op woensdag 9 september 2020 @ 19:05:
[...]

Zo werkt het niet. Er past gewoon meer door een 3.0 slot dan een 3080 maximaal benut, dus de prestaties gaan identiek zijn met 4.0.
Maar je hebt geen idee hoe zich direct io invloed heeft op het systeem en de lanes. Kan zomaar zijn dat door al die nieuwe snufjes meer bandbreedte over het héle systeem wel effect heeft.

WP: ME SUZ-SWM80VA + ERST20D-VM2D || PV: 12.000Wp || Batterij: SigenStor 12kW + 24kWh || A++++ 151m2 570m3 op water || WTW: Itho Daalderop HRU 350 ECO || Auto: Hyundai Ioniq 6 53kWh.


Acties:
  • 0 Henk 'm!
Bschnitz schreef op woensdag 9 september 2020 @ 19:08:
[...]


Maar je hebt geen idee hoe zich direct io invloed heeft op het systeem en de lanes. Kan zomaar zijn dat door al die nieuwe snufjes meer bandbreedte over het héle systeem wel effect heeft.
Dat is nou niet bepaald relevant op dag 1 gezien er wel wat meer moet gebeuren voordat dit gebruikt kan worden.

Acties:
  • 0 Henk 'm!

  • Bschnitz
  • Registratie: Februari 2005
  • Laatst online: 07:38
Paprika schreef op woensdag 9 september 2020 @ 19:09:
[...]

Dat is nou niet bepaald relevant op dag 1 gezien er wel wat meer moet gebeuren voordat dit gebruikt kan worden.
Ik ga er vanuit sinds deze functie laadtijden zeer gaat verkorten dit snel in games gaat komen. En die nieuwe SSD hebben behoorlijk wat snelheid. Alles wat ik zeg is niemand die het echt weet tot het getest is. Stel het is 5% verschil dan kan dat voldoende zijn om toch voor een andere mobo te gaan.

WP: ME SUZ-SWM80VA + ERST20D-VM2D || PV: 12.000Wp || Batterij: SigenStor 12kW + 24kWh || A++++ 151m2 570m3 op water || WTW: Itho Daalderop HRU 350 ECO || Auto: Hyundai Ioniq 6 53kWh.


Acties:
  • 0 Henk 'm!

  • DijkvanPieter
  • Registratie: Januari 2010
  • Laatst online: 14-06 18:16
Bschnitz schreef op woensdag 9 september 2020 @ 19:13:
[...]


Ik ga er vanuit sinds deze functie laadtijden zeer gaat verkorten dit snel in games gaat komen. En die nieuwe SSD hebben behoorlijk wat snelheid. Alles wat ik zeg is niemand die het echt weet tot het getest is. Stel het is 5% verschil dan kan dat voldoende zijn om toch voor een andere mobo te gaan.
Dat het een impact gaat hebben lijkt inderdaad aannemelijk. Echter gaat het nog wel even duren voordat de DirectStorage API van Microsoft überhaupt richting ontwikkelaars gaat. Lijkt me niet verstandig om nu al een dure overstap naar een PCI 4.0 moederbord te maken.

Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 21:12
Gezien het huidige beperkte aanbod van pcie4 en de nog beperktere marktpenetratie daarvan lijkt het me ondenkbaar dat het iets uit zou maken

  • Anakin_
  • Registratie: Februari 2011
  • Laatst online: 24-05-2023
Paprika schreef op woensdag 9 september 2020 @ 19:05:
[...]

Zo werkt het niet. Er past gewoon meer door een 3.0 slot dan een 3080 maximaal benut, dus de prestaties gaan identiek zijn met 4.0.
Zo ver ik begrepen heb scheelt het hooguit 3-4% performance

En zover ik heb gezien zijn er nog geen intel borden met PCI-E 4.0 ?

Dus dat wordt een waanzinig dure investering voor een minimale verbetering.

Wel iets om rekening mee te houden voor een volgende serieuze PC build/upgrade

Acties:
  • +1 Henk 'm!
Anakin_ schreef op donderdag 10 september 2020 @ 09:42:
[...]


Zo ver ik begrepen heb scheelt het hooguit 3-4% performance
Ik ben benieuwd waar jij die 3-4% vandaan haalt want er is geen enkele GPU op de markt die iets uit 4.0 weet te halen op dit moment.

Afbeeldingslocatie: https://tweakers.net/i/_5ITg_OMhejYAmChriP2ToXwz-k=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/oEAFQWqUUVMhAxl8BtlBVpuf.png?f=user_large

  • Anakin_
  • Registratie: Februari 2011
  • Laatst online: 24-05-2023
Zoals ik al zei, zo ver begrepen....Het was nog vrij onduidelijk maar ik las het terug in een aantal comments op andere site/fora

Die screenshot ziet er goed uit hoeven we ons voorlopig niet druk te maken om PCIe 4.0

  • Luukwa
  • Registratie: Maart 2013
  • Laatst online: 13-06 14:28

Luukwa

o/

Ik zit er over na te denken om een 3080 te halen. Heb nu een i7-8700 en vraag me sterk af of deze geen bottleneck gaat vormen?

Hoewel je zorg begrijpelijk is, neigt dit sterk naar aankoopadvies en dat hoort eigenlijk niet in dit topic. Als je er na wat eigen onderzoek echt niet uit komt, open dan een topic in Componenten Aankoopadvies.

[ Voor 48% gewijzigd door Blaat op 10-09-2020 12:02 ]

Soundcloud!

*knip* Dat dezelfde vraag meerdere malen langs komt is geen reden om flauw te doen. Blijf aardig en behulpzaam aub.

[ Voor 83% gewijzigd door Blaat op 10-09-2020 12:04 ]


Acties:
  • +1 Henk 'm!

  • Luukwa
  • Registratie: Maart 2013
  • Laatst online: 13-06 14:28

Luukwa

o/

Reeds gedaan, kon zo snel het juiste antwoord niet vinden. Daar is de TR knop voor.

[ Voor 39% gewijzigd door Blaat op 10-09-2020 12:06 ]

Soundcloud!

Ik zou dus vooral niet je prioriteit leggen bij het vervangen van je CPU. Dat kan altijd nog wel een keer, mocht je echt tegen problemen aalopen in iets wat echt zwaar is op de CPU.
Anoniem: 1441478 schreef op donderdag 10 september 2020 @ 12:17:
[...]

Welke zoekwoorden heb je gebruikt? Dan kunnen anderen met ongeveer dezelfde vraag zelf ook snel vinden.
8700 bottleneck 3080 :+

Anoniem: 1441478

Zo eenvoudig. _O-

Acties:
  • +2 Henk 'm!

  • Phusebox
  • Registratie: Mei 2002
  • Laatst online: 07:43
Volgende week maandag komen de reviews online... goed nieuws dus dat het voor de release is.
geek: Nvidia GeForce RTX 3080 arriveert in Tweakers-testlab

xbox live / psn / steam / nintendo id: phusebox | iRacing


  • ShellGhost
  • Registratie: Augustus 2001
  • Laatst online: 16-12-2021
https://wccftech.com/nvid...ks-game-performance-leak/

Gelekte benchmark informatie. De 3080 zou gemiddeld 30% sneller zijn dan een 2080Ti.

Acties:
  • +6 Henk 'm!

  • bjorntju
  • Registratie: Augustus 2007
  • Laatst online: 20:52
And it lights up!

Afbeeldingslocatie: https://tweakers.net/i/Zdqm6VTKlgu7-WwbDfANa91kae8=/800x/filters:strip_exif()/f/image/XuqulItSRWNNaJfZa54Xnc9P.png?f=fotoalbum_large

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 07:46

Kuusj

Ofwel varken in 't Limburgs

Wat is die 12 pins stekker toch k*t hé :D :/
Dat ga je dus echt niet mooi weggewerkt krijgen met de meegeleverde verloopstekker. Vraag mij dan ook af wat de toegevoegde waarde is.

Ik hoop dat de RTX3080 kaarten met fatsoenlijke koelers voornamelijk met 2x8pinnen gaan komen, dan doe ik een gokje en ga ik hem proberen op mijn 550W voeding :7

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


  • Q_7
  • Registratie: December 2006
  • Niet online

Q_7

Een 3dmark linkje lijkt me wel cool om met mijn 2080ti te vergelijken >:) >:) :X

AMD 9950X3D - X670E-Hero - G.Skill Royal Neo 48GB 6400 CL26 1:1 - RTX 5080 Waterforce - 9100Pro 2TB - BeQuit 1500w - LG 3440P 240Hz WOLED


  • epo
  • Registratie: November 2000
  • Laatst online: 15-06 17:16

epo

Kuusj schreef op donderdag 10 september 2020 @ 18:47:
[...]

Wat is die 12 pins stekker toch k*t hé :D :/
Dat ga je dus echt niet mooi weggewerkt krijgen met de meegeleverde verloopstekker. Vraag mij dan ook af wat de toegevoegde waarde is.

Ik hoop dat de RTX3080 kaarten met fatsoenlijke koelers voornamelijk met 2x8pinnen gaan komen, dan doe ik een gokje en ga ik hem proberen op mijn 550W voeding :7
Voor mijn Ncase M1 is dit ideaal!
Kuusj schreef op donderdag 10 september 2020 @ 18:47:
[...]

Wat is die 12 pins stekker toch k*t hé :D :/
Zie 't maar als een hint van Nvidia dat windowed cases ruk zijn ;).

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 07:46

Kuusj

Ofwel varken in 't Limburgs

epo schreef op donderdag 10 september 2020 @ 19:07:
[...]


Voor mijn Ncase M1 is dit ideaal!
Dat geloof ik ja, leuke case :)
Paprika schreef op donderdag 10 september 2020 @ 19:10:
[...]

Zie 't maar als een hint van Nvidia dat windowed cases ruk zijn ;).
Kijk mij interesseert het niet belachelijk veel hoe het zaakje uit ziet door een raampje, PC staat toch onder mijn bureau. Maar als ik zo'n foto zie denk ik niet van "goh wat een premium ervaring dit", terwijl de koeler zelf dit wel uitstraalt imho.

Performance interesseert mij eigenlijk ook niet echt meer (zal zoals ik al een keer of 4 heb betoogd een % of 30 boven de 2080Ti liggen), maar de prestaties van de stock/AIB koelers des te meer, net als het stroomverbruik. Het is voor mij redelijk essentieel om te weten of een kaart onder een gaming load 320W verbruikt of 375W. In het eerste geval kan ik mijn huidige voeding houden, in het tweede geval waarschijnlijk niet. Voor mij reden om voor een RTX3070 te shoppen in zo'n geval. Gaat anders wel een heel omslachtig grapje worden.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


  • Phusebox
  • Registratie: Mei 2002
  • Laatst online: 07:43

Toestemming nodig voor bekijken van YouTube

Op deze plek staat ingesloten content die van YouTube afkomstig is. Het tonen van deze inhoud kan ertoe leiden dat YouTube persoonlijke gegevens zoals je IP-adres verwerkt en/of cookies op jouw computer of ander apparaat zet. Hiervoor moet je eerst expliciet toestemming geven voor Sociale media.

Bekijk op YouTube
We finally have our hands on the NVIDIA RTX 3080!


Ja die 12 pin kabel is ruk. Zo snel mogelijk vervangen door een andere wanneer die er zijn wat mij betreft.

xbox live / psn / steam / nintendo id: phusebox | iRacing


Acties:
  • +11 Henk 'm!

  • bjorntju
  • Registratie: Augustus 2007
  • Laatst online: 20:52
Afbeeldingslocatie: https://tweakers.net/i/LeG4zzYta1OJh8Cft_LPgUmz8Iw=/800x/filters:strip_exif()/f/image/nSnXNWCCpxtY7hyCMy6Z4RDL.png?f=fotoalbum_large

Ben benieuwd maandag :P

[ Voor 4% gewijzigd door bjorntju op 10-09-2020 23:38 ]


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 00:30
Mijn MVME zit net boven de gpu dus ook doe word er niet blij van. De enige die baat gaat hebben van deze zuidwesten wind is de gpu.

Acties:
  • 0 Henk 'm!

  • thomassie12
  • Registratie: November 2012
  • Laatst online: 12-06 14:16
Hahaha, deze is top.

Ik moet zeggen dat ik het design er wel echt mooi uit vind zien, maar ik zou hem zelf inderdaad niet halen om deze reden!

Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 21:12
thomassie12 schreef op vrijdag 11 september 2020 @ 09:21:
[...]


Hahaha, deze is top.

Ik moet zeggen dat ik het design er wel echt mooi uit vind zien, maar ik zou hem zelf inderdaad niet halen om deze reden!
Waar zitten je outtake fans?

Die warme lucht moet er toch langs, kan het maar beter "aangedreven" worden

Acties:
  • 0 Henk 'm!

  • thomassie12
  • Registratie: November 2012
  • Laatst online: 12-06 14:16
418O2 schreef op vrijdag 11 september 2020 @ 09:29:
[...]

Waar zitten je outtake fans?

Die warme lucht moet er toch langs, kan het maar beter "aangedreven" worden
Opzich een goeie, heb er alleen 1 aan de achterkant. Mijn cpu fan is laag dus de lucht gaat daar langs denk ik.

Ach, uiteindelijk ben ik ook niet de moeilijkste. Op de 17e loop ik elke webshop te refreshen en bestel ik wat ik kan bestellen :P .

Ik hoop een MSI, daar heb ik al jaren moederborden en gpu's van.

Acties:
  • 0 Henk 'm!

  • ikt
  • Registratie: Juli 2008
  • Laatst online: 13-06 11:55

ikt

Die 3090 is niet zo héél gigantisch, toch? Mijn RTX 2070 Armor van MSI is 309mm lang, de RTX 3090 zou 313mm lang moeten zijn. En mijn kast kan officieel een kaart van 315mm aan (Meshify C Mini).

Och, ik zou het al bijna alleen doen voor de perfecte fit :P

Acties:
  • 0 Henk 'm!

  • kwdtje
  • Registratie: Februari 2012
  • Laatst online: 21:37
Nieuwe benchmarks op videocardz, vooral op hogere resoluties een verschil, TOV de 2080s rond de 30-40%.

Acties:
  • 0 Henk 'm!

  • 418O2
  • Registratie: November 2001
  • Laatst online: 21:12
kwdtje schreef op vrijdag 11 september 2020 @ 10:46:
Nieuwe benchmarks op videocardz, vooral op hogere resoluties een verschil, TOV de 2080s rond de 30-40%.
https://videocardz.com/ne...gaming-performance-leaked

je mag gewoon linken hoor

Acties:
  • 0 Henk 'm!

  • kwdtje
  • Registratie: Februari 2012
  • Laatst online: 21:37
Haha vergeten :) Volgens mij nog zonder raytracing, waardoor de verschillen wel groter gaan worden, zeker met de komst van next gen gaming, waarin raytracing gemeengoed wordt.

Acties:
  • +1 Henk 'm!

  • -Bas
  • Registratie: Juli 2011
  • Laatst online: 05-06 09:12
kwdtje schreef op vrijdag 11 september 2020 @ 11:29:
[...]


Haha vergeten :) Volgens mij nog zonder raytracing, waardoor de verschillen wel groter gaan worden, zeker met de komst van next gen gaming, waarin raytracing gemeengoed wordt.
"We can confirm that the driver used in this test (456.16) is the press driver for GeForce RTX 3080 reviews"

Misschien nog wat driver winst te behalen, bij de 2070 op 4k ging het riching de 8% winst op 4k sinds de release.

In het verleden behaalde resultaten bieden geen garantie voor de toekomst

[ Voor 9% gewijzigd door -Bas op 11-09-2020 11:38 ]


Acties:
  • 0 Henk 'm!

  • jimh307
  • Registratie: Februari 2014
  • Niet online
Of de CPU een bottleneck is hangt van veel factoren af.

>Game engine. Een slecht geoptimaliseerd spel kan er zelfs voor zorgen dat een Core i9 9900K nog moeite heeft om een gtx1080 bij te benen bij wijze van spreken

>CPU. Dan kijken we naar de titel van de game op zich. De i7 8700 kan de rtx3080 de baas zijn of hij gaat hard ten onder.

>RAM is een hele belangrijke in deze. Met 2666 MT RAM kan een i7 8700 de rtx3080 echt niet bijbenen.

>Resolutie. Ga je snel gamen op 1080p dan is een Core i9 9900K al een flinke vette bottleneck. Ga je 4K gamen dan zijn ze meer in par.

Voorbeelden/casus:
Ik heb een rtx2080 in mijn systeem hangen icm een Core i7 9700KF en 32 GB 2666MT RAM. Waar zit dan de bottleneck?
>>Assassins Creed serie. Deze serie leunt zeer sterk op RAM timings. Met mijn RAM krijg ik het spel niet hoger dan 45 fps vloeiend. Zou ik 3600 MT RAM hebben dan is dit spel een eitje voor mijn PC. Hier is het RAM de bottleneck.
>>The Witcher 3. Er is geen bottleneck en hier kan de kaart voluit.
>>Red dead redemption 2. Er is geen bottleneck en hier kan de kaart voluit.

Dus:
Of de CPU een bottleneck is, het RAM of de PCI-E bus ligt per game totaal verschillend. Wel is het zo dat de rtx3080 al snel een bottleneck kan gaan vormen als er oudere componenten worden gebruikt. Het is voornaam om een systeem goed in balans te krijgen en met alleen de aandacht naar een rtx3080 gaat dat het niet worden. Oftewel vereist het zeer snel RAM en een vlotte CPU. Vooral op 1080p moet je wel heel rap geheugen en een hele rappe CPU hebben, maar op 4K is dit weer van minder belang. De rtx3080 is wel zo'n rekenbeest dat alles in de kast aandacht verdient! Van airflow, voeding tot aan het geheugen.

Zelf ben ik nog heel content met mijn 'armzalige' rtx2080 want die ramt er nog genoeg data uit om mijn 27 inch 1440p144 met G-Sync van genoeg data te voorzien. Als ik zou mogen kiezen tussen de combinatie rtx3080 met een 4Kp60 scherm of een rtx2080 met een 1440p144 scherm dan zou ik dit laatste kiezen wat ik dus ook gedaan heb.

*wel in het achterhoofd dat een latere upgrade de prestaties flink goed zal doen, maar dan mag jimh307 ook kijken naar een geheel nieuw systeem.

Acties:
  • +1 Henk 'm!

  • -Bas
  • Registratie: Juli 2011
  • Laatst online: 05-06 09:12
jimh307 schreef op vrijdag 11 september 2020 @ 16:45:
Of de CPU een bottleneck is hangt van veel factoren af.

>Game engine. Een slecht geoptimaliseerd spel kan er zelfs voor zorgen dat een Core i9 9900K nog moeite heeft om een gtx1080 bij te benen bij wijze van spreken

>CPU. Dan kijken we naar de titel van de game op zich. De i7 8700 kan de rtx3080 de baas zijn of hij gaat hard ten onder.

>RAM is een hele belangrijke in deze. Met 2666 MT RAM kan een i7 8700 de rtx3080 echt niet bijbenen.

>Resolutie. Ga je snel gamen op 1080p dan is een Core i9 9900K al een flinke vette bottleneck. Ga je 4K gamen dan zijn ze meer in par.

Voorbeelden/casus:
Ik heb een rtx2080 in mijn systeem hangen icm een Core i7 9700KF en 32 GB 2666MT RAM. Waar zit dan de bottleneck?
>>Assassins Creed serie. Deze serie leunt zeer sterk op RAM timings. Met mijn RAM krijg ik het spel niet hoger dan 45 fps vloeiend. Zou ik 3600 MT RAM hebben dan is dit spel een eitje voor mijn PC. Hier is het RAM de bottleneck.
>>The Witcher 3. Er is geen bottleneck en hier kan de kaart voluit.
>>Red dead redemption 2. Er is geen bottleneck en hier kan de kaart voluit.

Dus:
Of de CPU een bottleneck is, het RAM of de PCI-E bus ligt per game totaal verschillend. Wel is het zo dat de rtx3080 al snel een bottleneck kan gaan vormen als er oudere componenten worden gebruikt. Het is voornaam om een systeem goed in balans te krijgen en met alleen de aandacht naar een rtx3080 gaat dat het niet worden. Oftewel vereist het zeer snel RAM en een vlotte CPU. Vooral op 1080p moet je wel heel rap geheugen en een hele rappe CPU hebben, maar op 4K is dit weer van minder belang. De rtx3080 is wel zo'n rekenbeest dat alles in de kast aandacht verdient! Van airflow, voeding tot aan het geheugen.

Zelf ben ik nog heel content met mijn 'armzalige' rtx2080 want die ramt er nog genoeg data uit om mijn 27 inch 1440p144 met G-Sync van genoeg data te voorzien. Als ik zou mogen kiezen tussen de combinatie rtx3080 met een 4Kp60 scherm of een rtx2080 met een 1440p144 scherm dan zou ik dit laatste kiezen wat ik dus ook gedaan heb.

*wel in het achterhoofd dat een latere upgrade de prestaties flink goed zal doen, maar dan mag jimh307 ook kijken naar een geheel nieuw systeem.
toon volledige bericht
Dat je op 1080p gebottlenecked wordt door je CPU is redelijk logisch te noemen. Het verhaal van je RAM kan ik niet helemaal volgen. Volgens mij gaat dat niet helemaal op. Misschien bij AMD, maar bij Intel is het verschil nihil. Zie ook: YouTube: Assassin's Creed Odyssey 2133MHz vs. 2400MHz vs. 2666MHz vs. 2800MHz...

Acties:
  • 0 Henk 'm!

  • jimh307
  • Registratie: Februari 2014
  • Niet online
Dank je voor het antwoord, maar het strijkt wel tegen dit topic van mij in.
https://nl.hardware.info/...12989/page-2#post-2759751

Waar moet ik dit verschil wel zoeken?
Toch bedankt voor jouw reactie :)

Acties:
  • 0 Henk 'm!

  • -Bas
  • Registratie: Juli 2011
  • Laatst online: 05-06 09:12
jimh307 schreef op vrijdag 11 september 2020 @ 17:57:
Dank je voor het antwoord, maar het strijkt wel tegen dit topic van mij in.
https://nl.hardware.info/...12989/page-2#post-2759751

Waar moet ik dit verschil wel zoeken?
Toch bedankt voor jouw reactie :)
Tja lastig, zeker wanneer n=1.

Niet helemaal voor in dit topic, maar genoeg andere zaken die invloed kunnen hebben. (Driver/Patch/Virusscanner/Throttle of gewoon het spel zelf)

Acties:
  • 0 Henk 'm!

  • spartacusNLD
  • Registratie: Februari 2011
  • Laatst online: 13-06 09:23

spartacusNLD

This is Sparta!!

nog meer kolen voor de hypetrain:
YouTube: GeForce RTX 30 GAMING TRIO Series Product | Graphics Card | MSI

Hopelijk kunnen ze hun marketing waar maken :)

PC: Be quiet! Pure Base 500DX | MSI B450 Gaming Pro Carbon AC | AMD Ryzen 7 5700X3D | Be quiet! Dark Rock 4 | Gigabyte Aorus RTX 3080 Master | Crucial Ballistix RGB 32GB | Samsung 970 Evo Plus 1TB | Be quiet! Straight Power 11 750W


Acties:
  • +1 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 00:30
-Bas schreef op vrijdag 11 september 2020 @ 17:05:
[...]


Dat je op 1080p gebottlenecked wordt door je CPU is redelijk logisch te noemen. Het verhaal van je RAM kan ik niet helemaal volgen. Volgens mij gaat dat niet helemaal op. Misschien bij AMD, maar bij Intel is het verschil nihil. Zie ook: YouTube: Assassin's Creed Odyssey 2133MHz vs. 2400MHz vs. 2666MHz vs. 2800MHz...
Tja het beste geheugen in deze test is dan ook behoorlijk ruk 3000 cl16? Voor cl16 moet je toch minimaal 3600 hebben en ik draai zelf 4000 cl16.
ook die hardnekkige intel claim moet nu eindelijk eens stoppen want het is gewoon klinkklare onzin. Beide intel en amd hebben even veel baat bij sneller geheugen met strakkere timing punt uit.


Verder vind de een 2-5% geen bottle necken de andere weer wel. persoonlijk denk ik dat als je en ram speeds en cpu speeds bij elkaar op telt je daar soms een behoorlijk verschil uit kan halen (in sommige games wel 25%)

YouTube: Is Fast RAM A Waste? Unleashing the Core i9-9900K with DDR4-4000

als je dan ook een video pakt met fatsoenlijk ram ipv stikjes uit de grabbelbak zie je een heel ander verhaal en zit er gewoon meer als 20% verschuil tussen 2400 en 4400.
Al is het boven de 4000 duidelijk aflopend dus de grootste winst zit tussen 2400 en 3800.

YouTube: 4400MHz RAM vs 2400MHz Test in 5 Games

En dat is met een 2080 dus niet eens een 3080 waar dat dus nog oploopt. Ram is rete belangrijk ondanks dat mensen nog steeds eerder naar het aantal gigabytes kijken dan naar de echte specs.
Pagina: 1 ... 3 ... 54 Laatste

Let op:
Dit topic is ervaringen over de nieuwe nVidia RTX 3xxx kaarten uit te wisselen en om de kaarten zelf te bediscussieren. Dit topic is niet bedoeld voor aankoopadvies zoals:

• Is mijn voeding krachtig genoeg voor de nieuwe kaarten?
• Is mijn processor snel genoeg voor de nieuwe kaarten?
en ook niet voor levertijden en prijzen!

Als je er niet uit komt, maak dan een topic aan in Componenten Aankoopadvies.