NVIDIA GeForce RTX 20XX en GTX 16XX - Ervaringen

Pagina: 1 2 ... 9 Laatste
Acties:

Acties:
  • +5 Henk 'm!
Afbeeldingslocatie: https://i.imgur.com/VFW9kU0.png

Welkom in het NVIDIA RTX 20XX en GTX 20XX Ervaringentopic, het topic volledig toegewijd aan de gebruikerservaringen en alle belangrijke specificaties uit de GeForce 20 series familie van NVIDIA. Lees, om het hier gezellig te houden, wel even onderstaande regels door voordat je in het topic post. :)

Vragen of speculaties over prijzen en leverbaarheid of op zoek naar de algemene informatie? Kijk hier!
Afbeeldingslocatie: https://i.imgur.com/pdYHgCz.png
Afbeeldingslocatie: https://i.imgur.com/LcdDYXe.png

Net als alle andere discussietopics gelden hier ook een aantal regels. In dit topic dienen alleen ervaringen besproken te worden, info & nieuws of prijzendiscussies dienen in andere topics gevoerd te worden.

Heb je problemen met je videokaart? Gebruik dan eerst de search-functie van het forum. Bestaat er nog geen onderwerp over... Neem even een kijkje op Google, speur even de officiële GeForce forums af of open dan een nieuw topic. Post je probleem dus niet hier! Dit is namelijk niet het "Grote nVidia GeForce Problemen Topic"!

Ook voor advies over de aankoop van een nieuwe videokaart kun je hier niet terecht. Lees daarvoor:
*Algemeen Advies* Welke videokaart moet ik kopen?

Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. Het gaat hier dus enkel en alleen om en over ervaringen.

Wat is absoluut NOT DONE in dit topic?
  • Flamen & Trollen
  • Basic questions. In dit topic gaan we er van uit dat je een beetje self-research hebt gepleegd dmv de search-functie.
  • Gezeur over leverbaarheid, levertijden, prijzen en dergelijke.
  • Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk, en ik heb geen zin in klaagmailtjes van topiclezers in in mijn mailbox. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod!
  • Offtopic gaan. Dit topic is zo goed als uitsluitend bedoelt om elkaar op de hoogte te houden van onze ervaringen met nVidia kaarten uit de GeForce 10 reeks. Dus proobeer dan ook niet even snel een basic vraagje ertussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen AMD/RTG topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een AMD/RTG kaart is. Na 1x weten we het wel.
Afbeeldingslocatie: https://i.imgur.com/pdYHgCz.png
Afbeeldingslocatie: https://i.imgur.com/2D3LAHZ.png

Afbeeldingslocatie: https://i.imgur.com/DXQDZmU.png

NVIDIA GeForce RTX 2080 Ti


Afbeeldingslocatie: https://i.imgur.com/zhTirGn.png

RTX 2080 Ti FOUNDERS EDITIONRTX 2080 Ti REFERENCE
Code naamTU102-300TU102-300
Fab (nm)1212
Transistors (miljard)18.618.6
Die size (mm2)754754
Bus interfacePCIe 3.0 x16PCI-E 3.0 x16
NVIDIA CUDA® CORES43524352
Texture units272272
ROPs8888
RT Cores6868
Tensor Cores544544
SM Count6868
L2 Cache (MB)66
RTX-OPS78T76T
Giga Rays/s1010
Boostclock (MHz)16351545
Baseclock (MHz)13501350
Geheugensnelheid14 Gbps14 Gbps
Standaard geheugenconfiguratie11 GB GDDR611 GB GDDR6
Breedte geheugeninterface352-bit352-bit
Geheugenbrandbreedte616 GB/s616 GB/s
Maximale resolutie7680x43207680x4320
BeeldschermconnectorsDisplayPort, HDMI, USB Type-CN/A
Multi Monitor44
HDCP2.22.2
Hoogte4.556” (115.7mm)N/A
Lengte10.5” (266.74mm)N/A
Breedte2-SlotN/A
Maximale GPU-temperatuur89C89C
Vermogen grafischekaart260W260W
Aanbevolen systeemvermogen650W650W
Stroomconnectors8pin + 8pinN/A
MSRP ($)1199999


Model
ASUS GeForce RTX 2080 Ti 11GB DUAL (DUAL-RTX2080TI-11G)
ASUS GeForce RTX 2080 Ti 11GB DUAL Advanced (DUAL-RTX2080TI-A11G)
ASUS GeForce RTX 2080 Ti 11GB DUAL OC (DUAL-RTX2080TI-O11G)
ASUS GeForce RTX 2080 Ti 11GB STRIX GAMING (ROG-STRIX-RTX2080TI-11G-GAMING)
ASUS GeForce RTX 2080 Ti 11GB STRIX GAMING Advanced (ROG-STRIX-RTX2080TI-A11G-GAMING)
ASUS GeForce RTX 2080 Ti 11GB STRIX GAMING OC (ROG-STRIX-RTX2080TI-O11G-GAMING)
ASUS GeForce RTX 2080 Ti 11GB TURBO (TURBO-RTX2080TI-11G)
COLORFUL GeForce RTX 2080 Ti 11GB iGame Advanced
COLORFUL GeForce RTX 2080 Ti 11GB iGame Advanced OC
COLORFUL GeForce RTX 2080 Ti 11GB iGame Vulcan
EMTEK GeForce RTX 2080 Ti 11GB Black Edition
EVGA GeForce RTX 2080 Ti 11GB Black (11G-P4-2381-KR)
EVGA GeForce RTX 2080 Ti 11GB Blower (11G-P4-2380-KR)
EVGA GeForce RTX 2080 Ti 11GB FTW3 (11G-P4-2483-KR)
EVGA GeForce RTX 2080 Ti 11GB FTW3 ULTRA (11G-P4-2487-KR)
EVGA GeForce RTX 2080 Ti 11GB HYBRID FTW3
EVGA GeForce RTX 2080 Ti 11GB HYBRID XC
EVGA GeForce RTX 2080 Ti 11GB HYDRO COPPER FTW3
EVGA GeForce RTX 2080 Ti 11GB HYDRO COPPER XC
EVGA GeForce RTX 2080 Ti 11GB XC (11G-P4-2382-KR)
EVGA GeForce RTX 2080 Ti 11GB XC ULTRA (11G-P4-2383-KR)
EVGA GeForce RTX 2080 Ti 11GB XC2 (11G-P4-2385-KR)
EVGA GeForce RTX 2080 Ti 11GB XC2 ULTRA (11G-P4-2387-KR)
GAINWARD GeForce RTX 2080 Ti 11GB Glare OC
GAINWARD GeForce RTX 2080 Ti 11GB Phoenix (426018336-4115)
GAINWARD GeForce RTX 2080 Ti 11GB Phoenix GS (426018336-4122)
GALAX GeForce RTX 2080 Ti 11GB (28IULBUCT1BW)
GALAX GeForce RTX 2080 Ti 11GB General
GALAX GeForce RTX 2080 Ti 11GB HOF Limited Edition
GALAX GeForce RTX 2080 Ti 11GB OC (28IULBUCT4OC)
GALAX GeForce RTX 2080 Ti 11GB OC White (28IULBUCT3WO)
GALAX GeForce RTX 2080 Ti 11GB SG Edition (28IULBUCT2GC)
GIGABYTE GeForce RTX 2080 Ti 11GB Gaming OC (GV-N208TGAMING OC-11GC)
GIGABYTE GeForce RTX 2080 Ti 11GB WindForce OC (GV-N208TWF3OC-11GC)
INNO3D GeForce RTX 2080 Ti 11GB iChill Black (C208TB-11D6X-11500004)
INNO3D GeForce RTX 2080 Ti 11GB X2 GAMING OC (N208T2-08D6-1150633)
INNO3D GeForce RTX 2080 Ti 11GB X3 GAMING OC (N208T3-08D6X-1150633)
KFA2 GeForce RTX 2080 Ti 11GB (28IULBUCT1BK)
KFA2 GeForce RTX 2080 Ti 11GB OC (28IULBUCT4OK)
KFA2 GeForce RTX 2080 Ti 11GB OC White (28IULBUCT3WK)
KFA2 GeForce RTX 2080 Ti 11GB SG Edition (28IULBUCT2GK)
MSI GeForce RTX 2080 Ti 11GB DUKE
MSI GeForce RTX 2080 Ti 11GB DUKE OC
MSI GeForce RTX 2080 Ti 11GB GAMING X TRIO
PALIT GeForce RTX 2080 Ti 11GB GamingPro (NE6208T020LC-150A)
PALIT GeForce RTX 2080 Ti 11GB GamingPro OC (NE6208TS20LC-150A)
PNY GeForce RTX 2080Ti 11GB XLR8 Gaming OC (VCG2080T11TFMPB-O)
ZOTAC GeForce RTX 2080 Ti 11GB AMP Edition (ZT-T20810D-10P)
ZOTAC GeForce RTX 2080 Ti 11GB Triple Fan (ZT-T20810F-10P)
ZOTAC GeForce RTX 2080 Ti 11GB X-GAMING OC


NVIDIA GeForce RTX 2080


Afbeeldingslocatie: https://i.imgur.com/DigDra9.png

RTX 2080 FOUNDERS EDITIONRTX 2080 REFERENCE
Code naamTU104-400TU104-400
Fab (nm)1212
Transistors (miljard)13.613.6
Die size (mm2)545545
Bus interfacePCIe 3.0 x16PCI-E 3.0 x16
NVIDIA CUDA® CORES29442944
Texture units184184
ROPs6464
RT Cores4646
Tensor Cores368368
SM Count4646
L2 Cache (MB)44
RTX-OPS60T57T
Giga Rays/s88
Boostclock (MHz)18001710
Baseclock (MHz)15151515
Geheugensnelheid14 Gbps14 Gbps
Standaard geheugenconfiguratie8 GB GDDR68 GB GDDR6
Breedte geheugeninterface256-bit256-bit
Geheugenbrandbreedte448 GB/s448 GB/s
Maximale resolutie7680x43207680x4320
BeeldschermconnectorsDisplayPort, HDMI, USB Type-CN/A
Multi Monitor44
HDCP2.22.2
Hoogte4.556” (115.7mm)N/A
Lengte10.5” (266.74mm)N/A
Breedte2-SlotN/A
Maximale GPU-temperatuur88C88C
Vermogen grafischekaart225W215W
Aanbevolen systeemvermogen650W650W
Stroomconnectors6pin + 8pinN/A
MSRP ($)799699


Model
ASUS GeForce RTX 2080 8GB DUAL (DUAL-RTX2080-8G)
ASUS GeForce RTX 2080 8GB DUAL Advanced (DUAL-RTX2080-A8G)
ASUS GeForce RTX 2080 8GB DUAL OC (DUAL-RTX2080-O8G)
ASUS GeForce RTX 2080 8GB ROG STRIX GAMING (ROG-STRIX-RTX2080-8G-GAMING)
ASUS GeForce RTX 2080 8GB ROG STRIX GAMING Advanced (ROG-STRIX-RTX2080-A8G-GAMING)
ASUS GeForce RTX 2080 8GB ROG STRIX GAMING OC (ROG-STRIX-RTX2080-O8G-GAMING)
ASUS GeForce RTX 2080 8GB TURBO (TURBO-RTX2080-8G)
COLORFUL GeForce RTX 2080 8GB iGame Advanced
COLORFUL GeForce RTX 2080 8GB iGame Advanced OC
ELSA GeForce RTX 2080 8GB SAC
EMTEK GeForce RTX 2080 8GB Black Edition
EVGA GeForce RTX 2080 8GB (08G-P4-2180-KR)
EVGA GeForce RTX 2080 8GB Black (08G-P4-2181-KR)
EVGA GeForce RTX 2080 8GB FTW3 (08G-P4-2283-KR)
EVGA GeForce RTX 2080 8GB FTW3 ULTRA (08G-P4-2287-KR)
EVGA GeForce RTX 2080 8GB HYBRID FTW3
EVGA GeForce RTX 2080 8GB HYBRID XC
EVGA GeForce RTX 2080 8GB HYDRO COPPER FTW3
EVGA GeForce RTX 2080 8GB HYDRO COPPER XC
EVGA GeForce RTX 2080 8GB XC (08G-P4-2182-KR)
EVGA GeForce RTX 2080 8GB XC ULTRA (08G-P4-2183-KR)
EVGA GeForce RTX 2080 8GB XC2 (08G-P4-2185-KR)
EVGA GeForce RTX 2080 8GB XC2 ULTRA (08G-P4-2187-KR)
GAINWARD GeForce RTX 2080 8GB GameSoul
GAINWARD GeForce RTX 2080 8GB Glare OC
GAINWARD GeForce RTX 2080 8GB Phoenix (426018336-4139)
GAINWARD GeForce RTX 2080 8GB Phoenix GS (426018336-4146)
GALAX GeForce RTX 2080 8GB (28NSL6UCT5BW)
GALAX GeForce RTX 2080 8GB GAMER
GALAX GeForce RTX 2080 8GB General
GALAX GeForce RTX 2080 8GB OC (28NSL6UCT7OC)
GALAX GeForce RTX 2080 8GB OC White (28NSL6UCT6WO)
GIGABYTE GeForce RTX 2080 8GB Gaming OC (GV-N2080GAMING OC-8GC)
GIGABYTE GeForce RTX 2080 8GB WindForce OC (GV-N2080WF3OC-8GC)
INNO3D GeForce RTX 2080 8GB JET Edition (N20801-08D6-1180633)
INNO3D GeForce RTX 2080 8GB X2 GAMING OC (N20802-08D6-1180633)
INNO3D GeForce RTX 2080 8GB X3 GAMING OC (N20803-08D6X-1180VA24)
KFA2 GeForce RTX 2080 8GB (28NSL6UCT5BK)
KFA2 GeForce RTX 2080 8GB OC (28NSL6UCT7OK)
KFA2 GeForce RTX 2080 8GB OC White (28NSL6UCT6WK)
MSI GeForce RTX 2080 8GB AERO
MSI GeForce RTX 2080 8GB DUKE
MSI GeForce RTX 2080 8GB GAMING X TRIO
MSI GeForce RTX 2080 8GB Sea Hawk
MSI GeForce RTX 2080 8GB VENTUS
PALIT GeForce RTX 2080 8GB GamingPro (NE62080020P2-180A)
PALIT GeForce RTX 2080 8GB GamingPro OC (NE62080S20P2-180A)
PNY GeForce RTX 2080 8GB XLR8 Gaming
PNY GeForce RTX 2080 8GB XLR8 Gaming OC (VCG20808TFPPB-O)
ZOTAC GeForce RTX 2080 8GB AI
ZOTAC GeForce RTX 2080 8GB AMP Edition (ZT-T20800D-10P)
ZOTAC GeForce RTX 2080 8GB Blower (ZT-T20800A-10P)
ZOTAC GeForce RTX 2080 8GB Triple Fan
ZOTAC GeForce RTX 2080 8GB X-GAMING OC


NVIDIA GeForce RTX 2070


Afbeeldingslocatie: https://i.imgur.com/S5Yh3oj.png

RTX 2070 FOUNDERS EDITIONRTX 2070 REFERENCE
Code naamTU106TU106
Fab (nm)1212
Transistors (miljard)10.810.8
Die size (mm2)445445
Bus interfacePCIe 3.0 x16PCI-E 3.0 x16
NVIDIA CUDA® CORES23042304
Texture units144144
ROPs6464
RT Cores3636
Tensor Cores288288
SM Count3636
L2 Cache (MB)44
RTX-OPS45T42T
Giga Rays/s66
Boostclock (MHz)17101620
Baseclock (MHz)14101410
Geheugensnelheid14 Gbps14 Gbps
Standaard geheugenconfiguratie8 GB GDDR68 GB GDDR6
Breedte geheugeninterface256-bit256-bit
Geheugenbrandbreedte448 GB/s448 GB/s
Maximale resolutie7680x43207680x4320
BeeldschermconnectorsDisplayPort, HDMI, USB Type-CN/A
Multi Monitor44
HDCP2.22.2
Hoogte4.435” (112.6mm)N/A
Lengte9.0” (228.60mm)N/A
Breedte2-SlotN/A
Maximale GPU-temperatuur89C89C
Vermogen grafischekaart185W175W
Aanbevolen systeemvermogen550W550W
Stroomconnectors8pinN/A
MSRP ($)599499


Model
ASUS GeForce RTX 2070 8GB DUAL (DUAL-RTX2070-8G)
ASUS GeForce RTX 2070 8GB DUAL Advanced (DUAL-RTX2070-A8G)
ASUS GeForce RTX 2070 8GB DUAL OC (DUAL-RTX2070-O8G)
ASUS GeForce RTX 2070 8GB ROG STRIX GAMING (ROG-STRIX-RTX2070-8G-GAMING)
ASUS GeForce RTX 2070 8GB ROG STRIX GAMING Advanced (ROG-STRIX-RTX2070-A8G-GAMING)
ASUS GeForce RTX 2070 8GB ROG STRIX GAMING OC (ROG-STRIX-RTX2070-O8G-GAMING)
ASUS GeForce RTX 2070 8GB TURBO (DUAL-RTX2070-8G)
COLORFUL GeForce RTX 2070 8GB iGame Vulcan
GIGABYTE GeForce RTX 2070 8GB GAMING OC (GV-N2070GAMING OC-8GC)


NVIDIA NVLINK


Afbeeldingslocatie: https://i.imgur.com/ju6dbD6.png
Al sinds lange tijd - sinds de GeForce 6800 om precies te zijn - kun je twee (of meer) GeForce kaarten combineren om zo de prestaties te verbeteren. Op een hele enkele uitzondering na werken de kaarten dan in zogenaamde AFR modus, ofwel Alternate Frame Rendering. Dat betekent dat twee videokaarten om en om frames uitrekenen, de één doet frame X, de andere X+1, de één weer X+2, en zo verder. Aangezien de monitor slechts op één van beide kaarten wordt aangesloten moeten de door de tweede kaart berekende beelden doorgestuurd worden naar de frame buffer van de primaire kaart. Om de PCI-Express bus die al gebruikt wordt om data tussen CPU en gpu uit te wisselen daar niet mee te belasten wordt daar al sinds jaar en dag de zogenaamde SLI-brug voor gebruikt.

Die SLI-brug heeft echter z'n beste tijd gehad. Was het voor de gangbare resolutie van een paar jaar terug nog prima, toen 4K-schermen langzaam gemeengoed werden was de bottleneck bereikt. Bij de Pascal-generatie introduceerde Nvidia al een high-bandwidth SLI-brug die snel genoeg was voor 4K in 60 Hz. Maar, hoe hoger de resolutie, hoe hoger de verversingsfrequenties en hoe hoger de kleurdiepte, hoe meer data er van de ene naar de andere kaart verstuurd moet worden. Hierdoor is de circa 5 GB/s van HB-SLI al snel niet meer toereikend. Om die reden introduceert Nvidia bij de Turing generatie NVLink.

NVLink is niet nieuw: het is een technologie die Nvidia al een paar jaar gebruikt bij haar professionele Tesla-kaarten om meerdere gpu's met elkaar te verbinden. Het is een eigen protocol, waarvan de nieuwste versie (NVLink 2.0) een zeer hoge bandbreedte biedt: 25 GB/s bidirectioneel, dus 50 GB/s tussen twee gpu's.

De RTX 2080 beschikt over één NVLink verbiding en dat is snel genoeg voor een 8K scherm op 60 Hz, een 5K scherm op 75 Hz en voor drie 4K schermen op 144 Hz. De RTX 2080 Ti biedt zelfs twee NVLink verbindingen (100 GB/s) waarmee zelfs 8K surround (ofwel drie 8K schermen) mogelijk is!

Het maakt dus wel dat er een nieuwe type brug nodig is, de NVLink Bridge. Nvidia biedt deze zelf aan met drie en vier slots tussenruimte. Twee GeForce kaarten direct onder elkaar plaatsen met twee slots tussenruimte wordt niet meer aangeraden en dus niet meer ondersteund. De NVLink bruggen gaan $ 79 kosten en vermoedelijk ruwweg hetzelfde in euro's.

Het zal de oplettende lezer zijn opgevallen dat de RTX 2070 in dit verhaal niet meer voorkomt. Op deze kaart is NVLink uitgeschakeld en SLI dus niet beschikbaar.

Overigens is maar de vraag of NVLink het fenomeen SLI daadwerkelijk nieuw leven in kan blazen. Het probleem op dit moment is niet alleen dat de communicatiesnelheid via de SLI-brug te beperkt is, maar vooral dat de AFR-methode bij moderne DirectX 12 games niet meer zo goed werkt. Moderne API's als DirectX 12 en Vulkan bieden game-developers de mogelijkheid om zelf op slimmere manieren het werk over twee of meer gpu's te verdelen, maar die moeten wel de zin en tijd hebben om dat te goed implementeren in hun code. Zeker gezien het feit dat steeds minder mensen twee videokaarten hebben, maakt dat steeds minder game developers genegen zijn hier veel kostbare ontwikkeltijd in te steken. SLI is evenals AMD's Crossfire duidelijk op zijn retour en wij verwachten niet dat NVLink daar veel aan kan veranderen.

Bron voor deze tekst: hardware.info

Overklokken

Afbeeldingslocatie: https://i.imgur.com/c4E3927.png


Nvidia heeft voor ontwikkelaars van overkloksoftware zoals EVGA Precision en MSI Afterburner een nieuwe api beschikbaar gesteld getiteld Nvidia Scanner. Via deze techniek kan de software de videokaart geheel automatisch optimale overklokinstellingen laten bepalen. Hiervoor gaat de gpu gedurende een proces dat een kleine half uurtje kan duren stap voor steeds hogere frequentie-voltage-curves uitproberen, die telkens direct via een ingebouwde workload worden getest, totdat er een instelling is die niet stabiel is. Het enige wat je als gebruiker hoeft te doen is een keuze te maken voor maximaal stroomverbruik en/of maximale temperatuur en daarna een half uurtje geduld hebben.

Bron voor deze tekst: hardware.info

Powerlimit BIOS



Nieuwe NVFlash build (geleaked door Palit dus toen is ie officieel vrijgegeven):
https://www.techpowerup.com/download/nvidia-nvflash/

GPU-Z versie pre-release (met bios-dump feature voor Turing GPUs):
https://www.techpowerup.c...chments/gpu-z-exe.107772/

EVGA reference PCB 130% power target biossen:
https://drive.google.com/...2YcPPllRcBM3t?usp=sharing

Afbeeldingslocatie: https://i.imgur.com/0paA281.png
Afbeeldingslocatie: https://media.giphy.com/media/xWYWLu3MFOyBYyP4DD/giphy.gif

De nieuwe GeForce RTX kaarten zijn gebaseerd op een nieuwe generatie gpu's luisterend naar de naam Turing. De Turing-chips zijn qua opbouw en architectuur drastisch anders dan de Pascal-generatie chips zoals we die kennen van de GeForce GTX 10-serie kaarten. Nvidia spreekt zelf over de "grootste verandering sinds de komst van de volledig programmeerbare Cuda-cores in 2006".

Waar gpu's de afgelopen jaren bestonden uit honderden en bij high-end exemplaren zelfs duizenden shader cores aangevuld met wat periferie als geheugen- en displaycontrollers, vinden we in de Turing-chips naast conventionele shader-cores ook twee nieuwe type cores: RT-cores voor het versnellen van raytracing en Tensor-cores voor het versnellen van machine learning c.q. kunstmatige intelligentie algoritmes. En alsof dat allemaal nog niet genoeg is, bevat de gpu ook nog technologie voor verschillende nieuwe rendertechnieken als mesh rendering (voor scènes met extreem veel detail) en variable rate shading (om beelden niet op het hele scherm in dezelfde resolutie te renderen). Zoals gezegd noemt Nvidia de eigen (software) technologieën om gebruik te maken van de nieuwe mogelijkheden van RT- en Tensor-cores RTX.

Bron voor deze tekst: hardware.info

Real-time raytracing


Afbeeldingslocatie: https://media.giphy.com/media/1vZ8uVX1DXrTIaKqKn/giphy.gif

Eerst en vooral: games volledig via raytracing berekenen ligt nog jaren in de toekomst. Zo'n tien jaar geleden deed Intel al een poging, maar destijds haalde men met de snelste desktop-processors nog maar 17 beelden per seconde op een resolutie van 256x256 pixels in de toen al antieke game Quake 4. Je zou zeggen dat het nu na tien jaar ontwikkeling veel sneller zou moeten gaan, maar tegelijkertijd willen we ook games met graphics die veel complexer zijn dan die van Quake 4, met veel meer lichtbronnen. Hoewel we tien jaar geleden in al ons enthousiasme nog schreven dat volledig ray-traced games in het verschiet lagen, zijn we daar nu een stuk voorzichtiger over.

Wellicht is een game volledig ray-tracen ook wel een doel dat op dit moment helemaal niet zo nuttig is om na te streven. Voor de meeste zaken is rasterization immers een prima en veel efficiëntere methode. Het is uitstekend mogelijk om beide technieken hybride toe te passen, bijvoorbeeld door een 3D-scène in de basis via rasterization te renderen en daarna bepaalde onderdelen, zoals bijvoorbeeld de shaduwen en/of reflecties, door middel van raytracing toe te passen. Dat is wat Nvidia met de RTX-kaarten mogelijk maakt.

Daarvoor zijn de twee nieuwe onderdelen in de chips aanwezig. De RT-cores versnellen het proces van het doorrekenen van de lichtstralen. Er is ook werk voor de zogenaamde Tensor-cores. Zelfs de GeForce RTX 2080 zal in de regel niet snel genoeg zijn om bepaalde effecten volledig (lees: alle rays volledig doorgerekend) af te werken. In de praktijk zullen de RT-cores een beperkt tijdbudget per scène krijgen (lees: een paar milliseconden) en daarin zoveel mogelijk rays doorrekenen. Dan kan het zijn dat resultaten onvolledig c.q. een beetje korrelig zijn. De Tensor-cores kunnen op basis van AI-algoritmes dat echter weer corrigeren. Dit is een techniek die men denoising noemt. Zo wordt games renderen anno 2018 dus een samenwerking van shader-cores, RT-cores én Tensor-cores.

Werking van de RT-cores
De RT-cores die het ray-tracen versnellen hebben in de praktijk slechts één simpele taak, namelijk het volgen van lichtstralen en berekenen waar die een object raken. Alle overige taken binnen het raytracing principe (zoals het berekenen van reflecties) worden niet door de RT-cores gedaan, maar door de shader cores. Ofwel, aan enkel en alleen RT-cores heb je eigenlijk niet. Het doorrekenen van de stralen en bepalen van de punten waar deze objecten raken is wel verreweg het meeste en zwaarste werk binnen het hele raytracing algoritme.

Hoe weet Nvidia dit nu te versnellen? Door een algoritme dat luistert naar de naar Bouding Volume Hierarchy ofwel BVH. Zonder dit algoritme toe te passen zou je bij het traceren van een lichtstraal alle driehoeken van alle objecten moeten nalopen om te berekenen welke driehoek en dus welk object als eerste wordt bereikt door de straal en waar deze dus eindigt. Voor het BVH-algoritme worden alle objecten in een 3D-scène allereerst opgedeeld in een beperkt aantal vrij grote blokken of kubussen. De objecten in elk van die blokken worden weer verder opgedeeld in een aantal kleinere blokken. Elk van die kleinere blokken word op hun beurt weer opgedeeld in nog kleinere blokken en zo verder, totdat je uiteindelijk blokken met een overzichtelijk aantal objecten erin overhoudt.

Zodra een straal wordt gevolgd, hoeft in eerste instantie alleen maar bepaald te worden in welk hoofdblok deze eindigt. Daarna wordt binnen dat hoofdblok bepaald in welk subblok de straal eindigt en zo gaan het algoritme recursief verder totdat het uiteindelijke object gevonden is. Op die manier is er telkens maar een beperkte dataset benodigd en kan dus relatief snel het eindpunt van lichtstralen bepaald worden. Is dat eindpunt bepaald, dan wordt het werk doorgeschoven naar de conventionele shader cores om reflecties en kleuren te berekenen.

Eindpunten voor lichtstralen berekenen volgens dit BVH-trucje kan ook prima met conventionele cores, maar de speciale RT-cores die puur en alleen voor dit doel gemaakt zijn kunnen het veel sneller. Om dat in perspectief te zetten: de shader cores van de de GeForce GTX 1080 Ti (tot vandaag de snelste videokaart voor consumenten) kunnen volgens Nvidia 1,2 gigarays per seconde verwerken, ofwel 1,2 miljard lichtstralen per seconde doorrekenen. De RT-cores in de GeForce RTX 2080 Ti doen 10,9 gigarays per seconde ofwel 10,9 miljard lichtstralen per seconde, bijna een factor 10 meer. Plus: de shader cores blijven beschikbaar voor andere taken!

Bron voor deze tekst: hardware.info

DLSS: AI-powered anti-aliasing

Afbeeldingslocatie: https://i.imgur.com/dUxSebT.png


Al sinds jaar en dag bieden videokaarten allerhande anti-aliasing methodes om dit tegen te gaan en de beeldkwaliteit te verbeteren. De meest conventionele vorm is multi sample anti-aliasing (MSAA), waarbij de game in een hogere resolutie wordt gerenderd en daarna wordt teruggeschaald. Bij 4x MSAA worden dus 4x zoveel pixels berekend (3840x2160 bij een full hd-resolutie) wat de facto ook betekent dat voor veel onderdelen binnen de 3D-pipeline de werkdruk vier keer zo hoog is (met alle gevolg van dien voor de prestaties). Omdat conventionele MSAA ondanks de uitstekende resultaten wel erg veel prestaties kost, zijn er de afgelopen jaren allerhande andere technologieën bedacht, zoals bijvoorbeeld FXAA (Fast Approximate Anti-Aliasing, dat randen van objecten herkent en afvlakt) en TAA (Temporal Anti-Aliasing, dat data van opeenvolgende frames gebruikt om de beeldkwaliteit te verbeteren). Bij de GeForce RTX 20-serie krijgen we er een optie bij, DLSS, wat staat voor Deep Learning Super Sampling.

Wat er bij DLSS in principe gebeurt is dat game developers via machine learning een algoritme opbouwen om beelden zo goed mogelijk in resolutie te verhogen. Daartoe voeden ze het lerend systeem met zoveel mogelijk beelden die zowel in lage als hoge resolutie zijn gerenderd. Het systeem leert zichzelf hoe de beelden van de betreffende game het beste kunnen worden opgewaardeerd. Het leer-gedeelte gebeurt offline door de game-ontwikkelaar op super-computers van Nvidia. Het uiteindelijke algoritme wordt gebruikt in de game.

DLSS kan op twee manieren gebruikt worden. Als alternatief voor AA kan DLSS beelden opschalen en daarna terugschalen, waarmee je een soort MSAA krijgt, maar dan met veel minder werkdruk voor de shader cores. Maar DLSS kan ook gebruikt worden wanneer je videokaart bijvoorbeeld niet krachtig genoeg is voor de resolutie van je monitor; zo kan een game native gerenderd worden in Full HD en daarna via DLSS zo goed mogelijk worden opgewaardeerd naar 4K.

Bron voor deze tekst: hardware.info

[ Voor 255% gewijzigd door Paprika op 30-09-2018 18:01 ]


Acties:
  • +1 Henk 'm!

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 04-05 13:17
wanneer kunnen we voor 't eerst ervaringen delen van de MSI GTX 2080?
MetalSonic schreef op donderdag 20 september 2018 @ 20:27:
wanneer kunnen we voor 't eerst ervaringen delen van de MSI GTX 2080?
Wanneer iemand er eentje in zijn of haar bezit heeft? :+

  • MetalSonic
  • Registratie: Mei 2013
  • Laatst online: 04-05 13:17
Paprika schreef op donderdag 20 september 2018 @ 20:40:
[...]

Wanneer iemand er eentje in zijn of haar bezit heeft? :+
:+ Het is dan ook een verkapte: wanneer-komen-de-aftermarketgpus uit-en-ik-ben- te-moe/lui- voor google
The Source in "[nVidia GeForce RTX 20xx] Levertijden en Beschikbaarheid" en voor levertijden hebben we dus een ander draadje...

[ Voor 3% gewijzigd door Paprika op 20-09-2018 20:45 ]


Acties:
  • 0 Henk 'm!

  • Abom
  • Registratie: September 2000
  • Laatst online: 05-05 10:24
Ik ben ook in de markt voor een nieuwe graka en het wordt een 2080. Ik ben alleen een tijdje uit de hardware markt. Waarom zijn er zulke grote verschillen tussen de verschillende 2080 kaarten? Er zijn ASUS kaarten (non-TI) die 1100 euro kosten en er zijn Inno3D kaarten die 800 kosten... Zit dat voornamelijk in de RGB LEDs en de fans? Ik bedoel de GPU is hetzelfde (mogelijk iets hoger geklokt) en het videogeheugen, daar zit toch ook niet veel verschil in?

Acties:
  • 0 Henk 'm!
Abom schreef op vrijdag 21 september 2018 @ 10:22:
Ik ben ook in de markt voor een nieuwe graka en het wordt een 2080. Ik ben alleen een tijdje uit de hardware markt. Waarom zijn er zulke grote verschillen tussen de verschillende 2080 kaarten? Er zijn ASUS kaarten (non-TI) die 1100 euro kosten en er zijn Inno3D kaarten die 800 kosten... Zit dat voornamelijk in de RGB LEDs en de fans? Ik bedoel de GPU is hetzelfde (mogelijk iets hoger geklokt) en het videogeheugen, daar zit toch ook niet veel verschil in?
Het is een gevolg van (maar niet beperkt tot):
  • Grote en complexity van de koeler. De MSI Trio koeler is zeker een van de betere die nu beschikbaar is en komt zelfs als een van de weinige met een custom PCB i.p.v. het referentie ontwerp van NVIDIA.
  • Standaard overgeklokte varianten zijn altijd duurder (al haal je die overklok zelf ook, zeker met de nieuwe auto-overclcoking kan iedereen het)
  • Merken als ASUS, MSI, EVGA etc besteden heel veel geld aan community events en marketing. Deze kosten moeten worden terugverdiend.
  • De populaire merken krijgen price-gauging bij de release, omdat ze toch wel verkopen. De truc is om ze zo duur mogelijk te plaatsen dat ze nog net verkopen. Zeker met de huidige beperkte voorraden verkopen ze aan de enkeling die de prijs niet uitmaakt en zal de rest moeten wachten of uitwijken naar een ander merk.
De iChill 2080Ti van Inno3D kost zo'n 1800 euro op 't moment. :+

[ Voor 8% gewijzigd door Paprika op 21-09-2018 10:28 ]


Acties:
  • 0 Henk 'm!

  • Grotbewoner
  • Registratie: Maart 2015
  • Laatst online: 01:05
Waarom zou je een dure 2080 kopen VS een goedkopere 1080ti? 5% performance verschil als ik het goed heb.

Daarnaast: voor de handvol spellen die binnen 6 maanden ray tracing ondersteunt, kan je deze spellen ook net een framerate van boven de 60 op 4K met ray tracing aan spelen? Of moet je de ineens downgraden naar 1080p?

[ Voor 3% gewijzigd door Grotbewoner op 21-09-2018 10:41 ]


Acties:
  • +3 Henk 'm!
Grotbewoner schreef op vrijdag 21 september 2018 @ 10:40:
Waarom zou je een dure 2080 kopen VS een goedkopere 1080ti? 5% performance verschil als ik het goed heb.
Betere Vulkan support, verbeterde NVENC voor recorden en streamen, verbeterde async compute support , DLSS is voor mij zeer interessant, afhankelijk van het model verschillen de prijzen niet eens zo heel veel. Verder zit Pascal praktisch al aan z'n max terwijl niet alle nieuwe features van de 20 series al worden benut, dus daar gaat nog wel een paar procent aan winst bij gaan komen. Voor de mensen die nu een 1080Ti hebben zou ik zeggen sla deze reeks over (of haal een 2080Ti als je de performance nodig hebt, of gewoon graag het nieuwste van 't nieuwste bezit). Voor mij persoonlijk geldt dat de nieuwe tech op de 2080 interessanter is dan 't beperkte verschil in prijs tussen de 1080Ti en 2080. Ik bezit op 't moment een 3-slot vullende 1080 en mijn nieuwe case vereist een 2-slot koeler dus ik heb sowieso een nieuwe kaart nodig.
Grotbewoner schreef op vrijdag 21 september 2018 @ 10:40:
Daarnaast: voor de handvol spellen die binnen 6 maanden ray tracing ondersteunt, kan je deze spellen ook net een framerate van boven de 60 op 4K met ray tracing aan spelen? Of moet je de ineens downgraden naar 1080p?
Gevalletje glazenbol ben ik bang. Dit zal ook afhankelijk zijn van de implementatie. De hoeveelheid effecten beinvloeden de benodigde hoeveelheid rays.

[ Voor 36% gewijzigd door Paprika op 21-09-2018 10:54 ]


Acties:
  • +1 Henk 'm!

  • Denzo
  • Registratie: Augustus 2007
  • Laatst online: 27-04 22:23
Gisteren de mijne mogen ontvangen (2080 FE), tot nu toe zeer tevreden. O.a. in de Forza Horizon 4 demo benchmark met de Ultra-preset 106fps average op 3440x1440. Overigens is de 'ultra' preset nog niet de max, via de advanced settings kun je vervolgens nog wat dingen op extreme zetten, dan zit ik op 90fps average.

Ik kom van een GTX 970 af waar ik naar 2560x1080 op medium moest om de 60 regelmatig aan te kunnen tikken, dus ik ben tot nu toe zeer tevreden. Andere games die ik heb geprobeerd (Hitman Sniper Assassin, F1 2018, Final Fantasy XIV) draaiden ook allemaal butter smooth op de maximale instellingen op 3440x1440), al hadden die eerste twee in het begin even een paar stutters (lijkt me game engine / I/O gerelateerd, want daarna was het soepeltjes).

Natuurlijk zijn dit geen professionele benchmarks, dat laat ik wel aan de reviewers over :).

Als ik iets kan testen voor iemand, laat het me maar weten!

Ter info, de volledige specs;

Windows 10 Pro x64 (laatste updates, verse installatie)
NVIDIA GeForce 411.63 WHQL drivers
i7 6700 (non-K)
Gigabyte Z170X Gaming 3
NVIDIA RTX 2080 Founder's Edition
32GB DDR4 3200MHz (4x8GB)
Samsung 850 EVO 500GB
Corsair RM650x (2018)

Acties:
  • 0 Henk 'm!
Denzo schreef op vrijdag 21 september 2018 @ 11:13:
Als ik iets kan testen voor iemand, laat het me maar weten!
Usage pictures! :+

Acties:
  • 0 Henk 'm!

  • Abom
  • Registratie: September 2000
  • Laatst online: 05-05 10:24
Grotbewoner schreef op vrijdag 21 september 2018 @ 10:40:
Waarom zou je een dure 2080 kopen VS een goedkopere 1080ti? 5% performance verschil als ik het goed heb.

Daarnaast: voor de handvol spellen die binnen 6 maanden ray tracing ondersteunt, kan je deze spellen ook net een framerate van boven de 60 op 4K met ray tracing aan spelen? Of moet je de ineens downgraden naar 1080p?
Ik begrijp wat je zegt, maar ik heb een 290x en al 5 jaar niet geupgrade. Ik had 2 jaar geleden een 1080TI moeten kopen, dan had ik nu niet geupgrade. Maar ik moet nu upgraden, dan ga ik naar de meest recente tech. Daarbij is de 2080 net uit en de kans is groot dat men meer power uit de 2080 haalt dan uit de 1080TI doormiddel van driver updates e.d..

Acties:
  • +1 Henk 'm!

  • Denzo
  • Registratie: Augustus 2007
  • Laatst online: 27-04 22:23
GPU Usage percentages of gewoon plaatjes van de kaart die in gebruik is? :+

In het laatste geval:

Afbeeldingslocatie: https://i.imgur.com/ZbvUW5p.jpg

:P

Acties:
  • +1 Henk 'm!
Die zocht ik inderdaad ;). Hoe is 't geluid?

[ Voor 25% gewijzigd door Paprika op 21-09-2018 11:43 ]


Acties:
  • +1 Henk 'm!

  • Denzo
  • Registratie: Augustus 2007
  • Laatst online: 27-04 22:23
Paprika schreef op vrijdag 21 september 2018 @ 11:43:
Die zocht ik inderdaad ;). Hoe is 't geluid?
Ik hoor helemaal niks, maar das ook grotendeels te danken aan de Fractal Design Define S zonder window (dus geluidsdemping aan beide zijden) en alle moduvents dicht :P

Geen Windows en RGB voor mij :P

Acties:
  • +1 Henk 'm!
Denzo schreef op vrijdag 21 september 2018 @ 12:35:
[...]
Geen Windows en RGB voor mij :P
_/-\o_ Same, alleen heb ik wel RGB onderdelen die ik dus niet zie. :+ Soms ontkom je er helaas niet aan tegenwoordig. :-(

Heb je al gekeken naar de overklokmogelijkheden?

Acties:
  • 0 Henk 'm!

  • Denzo
  • Registratie: Augustus 2007
  • Laatst online: 27-04 22:23
Paprika schreef op vrijdag 21 september 2018 @ 12:38:
[...]

_/-\o_ Same, alleen heb ik wel RGB onderdelen die ik dus niet zie. :+ Soms ontkom je er helaas niet aan tegenwoordig. :-(

Heb je al gekeken naar de overklokmogelijkheden?
Nog niet, want pas toen ik sliep is EVGA Precision X1 uitgekomen met ondersteuning voor NVIDIA Scanner. Ik denk dat ik die draai en het er gewoon bij laat verder. Sinds het werkende leven is begonnen ben ik in mijn vrije uurtjes liever bezig met daadwerkelijk gamen in plaats van de hele avond bezig te zijn om een stabiele klok te zoeken :P dus vandaar ook de non-K processor.

Acties:
  • 0 Henk 'm!
Denzo schreef op vrijdag 21 september 2018 @ 12:45:
[...]
Nog niet, want pas toen ik sliep is EVGA Precision X1 uitgekomen met ondersteuning voor NVIDIA Scanner. Ik denk dat ik die draai en het er gewoon bij laat verder. Sinds het werkende leven is begonnen ben ik in mijn vrije uurtjes liever bezig met daadwerkelijk gamen in plaats van de hele avond bezig te zijn om een stabiele klok te zoeken :P dus vandaar ook de non-K processor.
Ik was ook meer benieuwd naar die resultaten dan wat je er uit met de hand uit zou halen, want dat is veel te kaart specifiek. Deel dus vooral je resultaten en ervaring met de nieuwe OC scanner functionaliteit wanneer je deze hebt gedraaid.

Acties:
  • 0 Henk 'm!

  • Denzo
  • Registratie: Augustus 2007
  • Laatst online: 27-04 22:23
Paprika schreef op vrijdag 21 september 2018 @ 12:49:
[...]

Ik was ook meer benieuwd naar die resultaten dan wat je er uit met de hand uit zou halen, want dat is veel te kaart specifiek. Deel dus vooral je resultaten en ervaring met de nieuwe OC scanner functionaliteit wanneer je deze hebt gedraaid.
Dat zal ik zeker doen vanavond :)

Acties:
  • 0 Henk 'm!

  • roberto250b
  • Registratie: December 2012
  • Laatst online: 26-04 23:46
Gisteren ook mijn RTX2080 ontvangen maar wacht nog steeds op mijn nieuwe case. (silent base 601 staat nog steeds op nalevering). heb hem daarom even voor de leuk in mijn oude pc gedrukt in combinatie met een i7-950 en ben nu de enige met een score op deze gpu-cpu combi op 3dMark :)

https://www.3dmark.com/spy/4450425
https://www.3dmark.com/spy/4449662

Ik wil de OCscanner ook nog gaan proberen, hoop dat hij net zo goed is als nvidea beweert, heb totaal geen ervaring met overklokken namelijk

[ Voor 24% gewijzigd door roberto250b op 21-09-2018 13:48 ]


Acties:
  • 0 Henk 'm!

  • Abom
  • Registratie: September 2000
  • Laatst online: 05-05 10:24
Over cases gesproken... Hoe zit het eigenlijk met afmetingen van de gemiddelde 2080 kaart? Mij staat bij dat mijn huidige 290x maar net in mijn case past. Zijn de 2080s nog langer?

Acties:
  • 0 Henk 'm!
@Abom, de lengte van de Founders Edition staat in de topicstart (een kleine 267mm). Gezien de meeste kaarten die je nu kunt kopen van dezelfde PCB gebruikmaken, zullen de meeste ook evenlang zijn. De 290X is dus langer (275-315mm afhankelijk van de variant).

De specificaties kun je sowieso gewoon bij de fabrikant opvragen. Hier een klein lijstje met voorbeelden van de geavanceerdere AIB modellen:
  • MSI GeForce RTX 2080 Gaming X Trio, 327 x 140 x 55.6 mm (dus erg lang met z'n 327mm)
  • ASUS ROG STRIX GeForce® RTX 2080 Overclocked, 11.8 " x 5.13 " x 2.13 " Inch / 29.97 x 13.04 x5.41 Centimeter (dus bijna 30cm)
  • EVGA GeForce RTX 2080 XC ULTRA GAMING, Height: 4.5in - 114.3mm Length: 10.6in - 269.2mm (net ietsje langer dan de Founders Edition met 269mm door de uitstekende plastic shroud)
  • GIGABYTE GeForce® RTX 2080 GAMING OC 8G, 286.5*114.5*50.2 (een kleine 27 cm)

[ Voor 59% gewijzigd door Paprika op 21-09-2018 14:28 ]


Acties:
  • +2 Henk 'm!
roberto250b schreef op vrijdag 21 september 2018 @ 13:41:
Ik wil de OCscanner ook nog gaan proberen, hoop dat hij net zo goed is als nvidea beweert, heb totaal geen ervaring met overklokken namelijk
Ervaring van een ontwikkelaar (MSI Afterburner):
https://forums.guru3d.com...2822/page-67#post-5582977

Dezelfde ontwikkelaar maar dan als gebruiker:
https://forums.guru3d.com...2822/page-68#post-5585936
Dear forum visitors,

I shared my impressions about NVIDIA Scanner technology from software developers’s point of view. Now I’d like to post the impressions from end user and overclocker POV.
I was never a real fan of automated overclocking because the reliability was always the weakest spot of overclocking process automation. NVIDIA Scanner is not a revolution like many newsmakers are calling it simply because different forms of automatic overclocking already existed in both NVIDIA and AMD drivers for couple decades, if not more (for example NVIDIA had it inside since CoolBits era, AMD had it in Overdrive). However, it was more like a toy and marketing thing, ignored by serious overclockers because everybody used to the fact that traditionally it crashed much more than it actually worked. Different third party tools also tried to implement their own solutions for automating the process of overclocking (the best of them is excellent ATITool by my old good friend w1zzard), but reliability of result was also the key problem.

So I was skeptical about new NVIDIA Scanner too and had serious doubts on including it into MSI Afterburner. However, I changed my mind after trying it in action on my own system with MSI RTX 2080 Ventus card. Yes, it is not a revolution but it is an evolution of this technology for sure. During approximately 2 weeks of development, I run a few hundreds of automatic overclocking detection sessions. None of them resulted in a system crash during overclocking detection. None of them resulted in wrongly detecting abnormally high clocks as stable ones. The worst thing I could observe during automatic overclocking detection was GPU hang recovered during scanning process, and the scanner was always able to continue scanning after recovering GPU at software level and lower the clocks until finding stable result. In all cases it detected repeatable approximately +170MHz GPU overclocking of my system, resulting in GPU clock floating in 2050-2100MHz range during 3D applications runtime after applying such overclocking. Even for the worst case (i.e. potential system crash during overclocking detection) Scanner API contains the recovery mechanisms, meaning that you may simply click “Scan” one more time after rebooting the system and it will continue scanning from the point before crash. But I simply couldn’t even make it crash to test such case and emulated it by killing OC scanner process during automatic overclocking detection. So embedded NVIDIA workload and test algorithms used inside the Scanner API look really promising for me. And it will be interesting to read impressions of the rest overclockers and RTX 2080 card owners who try NVIDIA Scanner in action in nearest days/weeks.

Stay tuned!
toon volledige bericht
Afbeeldingslocatie: https://i.imgur.com/pwnVYMZ.png

(psst: oeps, dubbel)

Acties:
  • +1 Henk 'm!

  • roberto250b
  • Registratie: December 2012
  • Laatst online: 26-04 23:46
Denzo schreef op vrijdag 21 september 2018 @ 11:36:
[...]


GPU Usage percentages of gewoon plaatjes van de kaart die in gebruik is? :+

In het laatste geval:

[Afbeelding]

:P
Waarom zit je voedingsfan naar binnen? ik dacht dat je die altijd naar buiten deed

Acties:
  • +1 Henk 'm!

  • Grotbewoner
  • Registratie: Maart 2015
  • Laatst online: 01:05
Abom schreef op vrijdag 21 september 2018 @ 11:33:
[...]

Ik begrijp wat je zegt, maar ik heb een 290x en al 5 jaar niet geupgrade. Ik had 2 jaar geleden een 1080TI moeten kopen, dan had ik nu niet geupgrade. Maar ik moet nu upgraden, dan ga ik naar de meest recente tech. Daarbij is de 2080 net uit en de kans is groot dat men meer power uit de 2080 haalt dan uit de 1080TI doormiddel van driver updates e.d..
Waarom zou je gokken op driver updates en dan niet gewoon een 1080TI kopen? Vooral tweedehands is het gewoon prima te doen als je bereid bent die enorme berg geld uit te geven. Van alle argumenten voor de 2080 snap ik helemaal niks. Veel duurder dan 1080TI voor nauwelijks performance. Behalve misschien het streamergedoe, maar daar zou ik zelf niks mee doen. Als je dan al een krankzinnige berg geld uitgeeft, kan je dan niet beter de 2080TI kopen?

Acties:
  • 0 Henk 'm!

  • Denzo
  • Registratie: Augustus 2007
  • Laatst online: 27-04 22:23
roberto250b schreef op vrijdag 21 september 2018 @ 17:47:
[...]


Waarom zit je voedingsfan naar binnen? ik dacht dat je die altijd naar buiten deed
Dat hoort zo bij deze, de enige andere manier Is dat ie naar beneden wijst :P maar er zit ook nog een rooster aan de achterkant bij de powerplug, alleen weet ik niet of de fan push of pulled :P

Acties:
  • +2 Henk 'm!
Denzo schreef op vrijdag 21 september 2018 @ 18:51:
[...]


Dat hoort zo bij deze, de enige andere manier Is dat ie naar beneden wijst :P maar er zit ook nog een rooster aan de achterkant bij de powerplug, alleen weet ik niet of de fan push of pulled :P
PSU fans staan in pull configuratie, dus van onderen erin en dan aan de achterkant eruit.

Acties:
  • +2 Henk 'm!
Mocht iemand nog leuke RTX test suggesties of vragen hebben, schiet (met tag svp). De komende weken de nodige knutseltijd met RTX in de planning (verwacht er nog de nodige), maar als je ergens benieuwd naar bent vraag maar.

Acties:
  • +1 Henk 'm!

  • elbowlessgoat
  • Registratie: Juli 2015
  • Laatst online: 23-08-2024
@Foritain 3440x1440 FPS? Hoeft niet op alle kaarten, ofc, maar wel interessant om een idee van te hebben hoe de RTXen daarop presteren.

Acties:
  • +1 Henk 'm!

  • Denzo
  • Registratie: Augustus 2007
  • Laatst online: 27-04 22:23
elbowlessgoat schreef op zaterdag 22 september 2018 @ 01:09:
@Foritain 3440x1440 FPS? Hoeft niet op alle kaarten, ofc, maar wel interessant om een idee van te hebben hoe de RTXen daarop presteren.
Vandaag even SCUM gespeeld op 3440x1440 (alles maximaal), niet zo gelet op de FPS counter maar naar mijn gevoel was het overal soepel 60+ op een paar gekke engine hiccups na (misschien server lag?) :)

Acties:
  • +1 Henk 'm!

  • maratropa
  • Registratie: Maart 2000
  • Niet online
@Foritain ik ben altijd benieuwd naar compute power, vaak onderbelicht in reviews.. Anandtech doet wel wat maar wel karig dit keer en ik ben ook altijd wel benieuwd naar gpu renderers.. Dus;

Luxmark
Vray Benchmark
Octane benchmark

Als ze werken :)

specs


Acties:
  • +1 Henk 'm!

  • Abom
  • Registratie: September 2000
  • Laatst online: 05-05 10:24
Grotbewoner schreef op vrijdag 21 september 2018 @ 17:53:
[...]


Waarom zou je gokken op driver updates en dan niet gewoon een 1080TI kopen? Vooral tweedehands is het gewoon prima te doen als je bereid bent die enorme berg geld uit te geven. Van alle argumenten voor de 2080 snap ik helemaal niks. Veel duurder dan 1080TI voor nauwelijks performance. Behalve misschien het streamergedoe, maar daar zou ik zelf niks mee doen. Als je dan al een krankzinnige berg geld uitgeeft, kan je dan niet beter de 2080TI kopen?
Veel duurder? Een 1080TI (2 jaar oud product) kost ook nog 700+, voor maar 100 euro meer heb je een 2080; nieuw product, een aantal nieuwe features, toekomstbestendiger, energie-efficiënter.
Eens, de generatie stelt teleur en ik hoop ook dat de verkoopaantallen tegenvallen. Ik verwacht dat weinig mensen upgraden van de 1080 serie naar de 2080 serie.

Acties:
  • +3 Henk 'm!

  • dindr
  • Registratie: Oktober 2014
  • Laatst online: 05-02 19:57
Sweetspot deals deze dagen op Alternate. De Aorus 1080ti goedkoper dan de 2080 tegen soms meer of minder performance, afhankelijk van de tests.

Ik sla de 20xx seizoen over dit keer.

Dat mensen nu ineens 700 euro meer willen uittellen voor dezelfde performance die we gewend zijn van nieuwe generaties ~ 20/25% is mij een raadsel.

[ Voor 29% gewijzigd door dindr op 22-09-2018 10:11 ]


  • Duranor
  • Registratie: September 2015
  • Laatst online: 23-03 15:45
Ligt het aan mij of kloppen bij heel veel kaarten de hoeveelheid slots (dp) niet? de meeste lijken wel 2dp terwijl er 3dp op staat. Ook ben ik benieuwd hoe koel deze kaarten / stroom hebben, ik hoop dat we daar nog veel over zien, was vooral benieuwd naar de ASUS Dual. die was nog wel redelijk te doen voor 850/900 euro, ik zit zelf nu op een moederbord die alleen 2 dp ondersteund. en ik zat al jaren met een GTX 960. Oftewel ik wil graag een upgrade doen, niet een 1080 / ti, vooral omdat deze kaarten veel warmer worden dan de 2080 RTX tot ik zo ver gezien heb.

Acties:
  • +1 Henk 'm!

  • MaXeRs
  • Registratie: November 2008
  • Laatst online: 04-05 14:38
dindr schreef op zaterdag 22 september 2018 @ 10:10:
Dat mensen nu ineens 700 euro meer willen uittellen voor dezelfde performance die we gewend zijn van nieuwe generaties ~ 20/25% is mij een raadsel.
Dat jij dat niet begrijpt!
Nu met Ray 😎Charles tracing en 12 cent besparing op de stroom kosten in een jaar.
Oh en je kan zeggen dat je een nieuwe kaart hebt. 🤑😉
Als je de centen hebt doe je jezelf een plezier door zoiets te kopen en de logica hoef je voor niemand te verantwoorden.

[ Voor 11% gewijzigd door MaXeRs op 22-09-2018 14:33 ]

Wat zijn de meeste AIB modellen slecht zeg. GIGABYTE heeft bijvoorbeeld een 2 en 3 slot koeler (Windforce vs Gaming). Het gaming model is gewoon luidruchtiger onder load dan de FE en dat is al de koeler met de grotere heatsink van de twee. Nu houdt ie de kaart ook ietsje koeler dus je zou de fan ietsje losser kunnen zetten, maar 't blijft me tegenvallen. De top ASUS en MSI koelers zijn best goed, maar de rest is belabberd.

https://www.guru3d.com/ar...ming-oc-8g-review,11.html

[ Voor 19% gewijzigd door Paprika op 22-09-2018 16:01 ]


  • bjorntju
  • Registratie: Augustus 2007
  • Laatst online: 04-05 23:30
Paprika schreef op zaterdag 22 september 2018 @ 16:00:
Wat zijn de meeste AIB modellen slecht zeg. GIGABYTE heeft bijvoorbeeld een 2 en 3 slot koeler (Windforce vs Gaming). Het gaming model is gewoon luidruchtiger onder load dan de FE en dat is al de koeler met de grotere heatsink van de twee. Nu houdt ie de kaart ook ietsje koeler dus je zou de fan ietsje losser kunnen zetten, maar 't blijft me tegenvallen. De top ASUS en MSI koelers zijn best goed, maar de rest is belabberd.

https://www.guru3d.com/ar...ming-oc-8g-review,11.html
Idd, volgens mij zijn MSI met de Gaming X Trio en Asus met de Strix ook de enige kaarten met een custom PCB zover ik weet. Zullen vast nog wel meerdere komen maar dat zijn de enige twee die op dit moment "verkrijgbaar" zijn. Volgens mij is de Strix daarnaast ook nog eens vrij hoog geprijst vergeleken met de X Trio. In de UK wordt die verkocht voor 1499 pond(!) https://www.overclockers....phics-card-gx-427-as.html

De 2080 TI Duke is Guru 3D ook erg tevreden over trouwens: https://www.guru3d.com/ar...-2080-ti-duke-review.html

Qua prestaties, tempratuur en geluid erg weinig verschil met de Gaming X Trio. Wel een minder grote koeler en wat minder RGB ;)

Heb zelf nu een 2080TI Gaming X Trio in de pre-order staan bij Paradigit, kan hem daar afhalen in de winkel dus hoef toch pas te betalen op moment van ophalen, mocht ik hem ergens anders nog kunnen vinden kan ik hem altijd nog annuleren en hoef ik niet eerst te wachten op mijn geld :)

Weet iemand eigenlijk of er benchmarks zijn van een 2080TI i.c.m een Ryzen 2700X? Ik wil een nieuwe build gaan maken, en waar ik eerst graag een 8700k wilde hebben, is die erg sterk in prijs gestegen, waardoor is nu toch naar de 2700X neig, maar ik ben wel benieuwd wat daar de performance van is vergeleken met een 8700k.

[ Voor 9% gewijzigd door bjorntju op 22-09-2018 16:38 ]

Ik heb een 2700X en tenzij je op 240Hz gaat gamen zou ik voor de Ryzen gaan en voor mijn case is ook die kaart te dik :+.

https://www.techpowerup.c...AMD/Ryzen_7_2700X/20.html

[ Voor 43% gewijzigd door Paprika op 22-09-2018 17:38 ]


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)
Paprika schreef op zaterdag 22 september 2018 @ 16:00:
Wat zijn de meeste AIB modellen slecht zeg. GIGABYTE heeft bijvoorbeeld een 2 en 3 slot koeler (Windforce vs Gaming). Het gaming model is gewoon luidruchtiger onder load dan de FE en dat is al de koeler met de grotere heatsink van de twee. Nu houdt ie de kaart ook ietsje koeler dus je zou de fan ietsje losser kunnen zetten, maar 't blijft me tegenvallen. De top ASUS en MSI koelers zijn best goed, maar de rest is belabberd.

https://www.guru3d.com/ar...ming-oc-8g-review,11.html
Ik snap de verbazing eerlijk gezegd niet. :P
Bij het rode kamp moet je nu al twee jaar subpar product kopen of heel goed opletten welke je wel koopt. Pascal was zuinig en daarom konden de AIB's wegkomen met relatief simpele, en dus goedkope oplossingen. Dat is nu wel voorbij. Vervolgens zullen de huidige verbruiksgetallen, koeling en geluidswaarden ook nog vertekend zijn. Hoeveel ray tracing games ken jij precies? RT cores draaien echt niet op de statische elektriciteit die "leather jacked man" met de wrijving van zijn jasjes genereert of de vele RTX memes. Ga er gerust maar vanuit dat die RT cores nog wat extra's gaan vragen.

Nu ik de FE kaarten gestript heb gezien ben ik ook niet erg onder de indruk. Gewoon een relatief dun hitteblok met een vaperchamber welke contact maakt met de GPU, VRAM en mosfets. Twee ventilatoren erop, beetje opgepoetst ontwerp en dat is het. Onnodig complex ontwerp wat veel te duur zal zijn in productie, maar ook niks bijzonders. Een beetje basismodel van een AIB zou dit makkelijk moeten kunnen matchen met een hitteblok, goed contact met de GPU en wat koperen pijpen door het blok.

Dat lijkt een aantal niet voor elkaar te krijgen. Nee, we moeten meer zinloze RGB, "coole" logo's etc hebben. Kwaliteit be dammed. Natuurlijk lijkt Gigabyte ook weer de race naar de bodem te leiden met hun "budgetmodel" van bijna €900. Dat lijkt toch al de trend te zijn de afgelopen jaren. Of het nu videokaarten of moederborden zijn, het moet goedkoper, slechter en meer RGB. }:|

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

@DaniëlWW2 er waren gewoon veel meer Pascal kaarten bij launch die kwalitatief goed waren en ook nog eens niet belachelijk veel duurder dan de concurrentie. Het onderlinge verschil (temperatuur, noise ratio) zou alsnog groot zijn geweest ongeacht 't onderlinge TDP verschil.

[ Voor 29% gewijzigd door Paprika op 22-09-2018 18:02 ]


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)
Paprika schreef op zaterdag 22 september 2018 @ 18:01:
@DaniëlWW2 er waren gewoon veel meer Pascal kaarten bij launch die kwalitatief goed waren en ook nog eens niet belachelijk veel duurder dan de concurrentie. Het onderlinge verschil (temperatuur, noise ratio) zou alsnog groot zijn geweest ongeacht 't onderlinge TDP verschil.
Ja, dat ontken ik niet. :P
Ik kijk alleen naar de langere termijn en zie de algemene kwaliteit van dit soort producten alleen maar dalen. Komt er ook nog eens een vrij substantiële verhoging van verbruik bij en dan krijg je gewoon subpar spul. Dit is niks nieuws omdat het rode kamp er al jaren mee zit. Natuurlijk is het extra problematisch als je het hebt over kaarten die al snel €900+ zijn, maar dat lijkt tegenwoordig ook geen garantie van kwaliteit meer te zijn. :X

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

Zoals ik gisteren al aangaf. Ik ben teleurgesteld dat zelfs de FE koeler zoveel ruimte opgeeft voor een RGB(!) controller terwijl de kaart groene LEDs gebruikt en dus de controller potentieel alleen voor animaties kan worden gebruikt, waar overigens een drie jarige na 2 minuten al op uitgekeken is. Belachelijk veel potentieel koelvin oppervlak verdwijnt nu in een gat voor een reusachtige controller die waarschijnlijk niet eens wordt gebruikt....

Iedereen met een window in z'n case: I despise you :+.

[ Voor 25% gewijzigd door Paprika op 22-09-2018 18:18 ]


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

(jarig!)
Paprika schreef op zaterdag 22 september 2018 @ 18:15:
Zoals ik gisteren al aangaf. Ik ben teleurgesteld dat zelfs de FE koeler zoveel ruimte opgeeft voor een RGB(!) controller terwijl de kaart groene LEDs gebruikt en dus de controller potentieel alleen voor animaties kan worden gebruikt, waar overigens een drie jarige na 2 minuten al op uitgekeken is. Belachelijk veel potentieel koelvin oppervlak verdwijnt nu in een gat voor een reusachtige controller die waarschijnlijk niet eens wordt gebruikt....

Iedereen met een window in z'n case: I despise you :+.
En dan alsnog is die FE beter dan sommige AIB kaarten. Ergens is dat gewoon knap. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Rick-vvv
  • Registratie: Juli 2016
  • Laatst online: 21-04 17:36
Iemand ervaringen met Sea Hawk kaarten van msi?

Had de Msi 2080ti gaming x in preorder staan maar met zijn 327mm lengte past hij niet in mijn case.

Tweede keus zou de asus Strix oc zijn maar die zie ik nog nergens verschijnen in NL voor pre order.
Nu zit ik naar de Sea hawk x te kijken maar weet niet van die pre fab 'water' gekoelde kaarten.

Acties:
  • +1 Henk 'm!
Er zijn zat reviews te vinden van andere/vorige Seahawk modellen.

https://www.tomshardware....raphics-cards,4725-9.html
https://www.guru3d.com/ar...-sea-hawk-x-review,1.html
https://www.gamersnexus.n...gtx-1080-review?showall=1

Mijn advies:
Haal een kaart met een reference PCB (FE of het merendeel van de kaarten die nu beschikbaar zijn) en maak er zelf een hybrid model van op de lange termijn. Voor de reference pcb komen er altijd oplossingen om dit te realiseren en het is zowel een betere als goedkopere oplossing. Als je echt niet wilt knutselen dan is de Inno3D iChill zonder twijfel de winnaar.

Acties:
  • +1 Henk 'm!
roberto250b schreef op vrijdag 21 september 2018 @ 13:41:
Gisteren ook mijn RTX2080 ontvangen maar wacht nog steeds op mijn nieuwe case. (silent base 601 staat nog steeds op nalevering). heb hem daarom even voor de leuk in mijn oude pc gedrukt in combinatie met een i7-950 en ben nu de enige met een score op deze gpu-cpu combi op 3dMark :)
:+, ik durf ook nog m'n gezicht te laten zien.

https://www.3dmark.com/se...e%20RTX%202080&gpuCount=1

O-)

Acties:
  • 0 Henk 'm!

  • Zer0
  • Registratie: September 1999
  • Niet online

Zer0

Destroy 2000 Years Of Culture

Grappig te zien dat je met een lager geklokte CPU en GPU boven aan staat, heb je een overklok van het geheugen gedaan?

maybe we sit down and talk about the revolution and stuff
but it doesn't work like that
you can't turn back now there's no way back
you feel the power to destroy your enemy..


Acties:
  • 0 Henk 'm!
Zer0 schreef op dinsdag 25 september 2018 @ 10:24:
[...]
Grappig te zien dat je met een lager geklokte CPU en GPU boven aan staat, heb je een overklok van het geheugen gedaan?
Klopt, 250MHz op 't geheugen (1750MHz -> 2000MHz, oftewel 16000MHz effectief i.p.v. 14000MHz). Ik heb 't verschil voor je rechtgezet, maar nu ben ik er ook echt klaar mee. :+

[ Voor 10% gewijzigd door Paprika op 25-09-2018 12:32 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
Grotbewoner schreef op vrijdag 21 september 2018 @ 10:40:
Waarom zou je een dure 2080 kopen VS een goedkopere 1080ti? 5% performance verschil als ik het goed heb.

Daarnaast: voor de handvol spellen die binnen 6 maanden ray tracing ondersteunt, kan je deze spellen ook net een framerate van boven de 60 op 4K met ray tracing aan spelen? Of moet je de ineens downgraden naar 1080p?
Idd als je dan toch al een veel te dure RTX kaart gaat kopen doe het dan goed en ga voor de RTX 2080 Ti ik zou zelf nooit een 2080 halen dan wordt het een 1080 Ti.
Of nog beter zing het nog even een jaar uit met je huidige kaart tot de 3xxx generatie die zal relatief snel volgen nu 7nm voor de deur staat.

[ Voor 10% gewijzigd door Astennu op 25-09-2018 12:59 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Abom
  • Registratie: September 2000
  • Laatst online: 05-05 10:24
Astennu schreef op dinsdag 25 september 2018 @ 12:57:
[...]

Idd als je dan toch al een veel te dure RTX kaart gaat kopen doe het dan goed en ga voor de RTX 2080 Ti ik zou zelf nooit een 2080 halen dan wordt het een 1080 Ti.
Dat slaat natuurlijk helemaal nergens op. Waarom zou je een 2 jaar oud product kopen voor vrijwel dezelfde prijs? Als het een principieel ding is (wat ik kan begrijpen), kun je beter een AMD kaart kopen.
Waarom loop je zo te zeiken over de 20xx serie, dat doe je ook in de andere thread. Overigens heb je zelf een vega 64...over overpriced kaarten gesproken...
Of nog beter zing het nog even een jaar uit met je huidige kaart tot de 3xxx generatie die zal relatief snel volgen nu 7nm voor de deur staat.
Hoe kom je erbij dat er snel een 30xx serie aan komt, waar haal je die wijsheid vandaan? Nvidia heeft helemaal geen noodzaak om snel iets nieuws uit te brengen, ze hebben 0-concurrentie in het high-end segment.

[ Voor 4% gewijzigd door Abom op 27-09-2018 14:48 ]


  • djunicron
  • Registratie: Januari 2009
  • Laatst online: 28-04 15:39

djunicron

*click-swoosh-thud*

elbowlessgoat schreef op zaterdag 22 september 2018 @ 01:09:
@Foritain 3440x1440 FPS? Hoeft niet op alle kaarten, ofc, maar wel interessant om een idee van te hebben hoe de RTXen daarop presteren.
Zal hier ook naar gaan kijken, krijg vanavond een FE en Asus Dual binnen (beide Ti).


Overigens was er al een youtube review waar hiernaar gekeken werd. Niet zo vreemd, maar de performance zit echt midden tussen 1440p en 4K in... (Dus Shaduw van Lara: 100fps / 52fps: 3440x1440: 77fps. etc)

  • zion
  • Registratie: Augustus 1999
  • Niet online

zion

I GoT my I on U

(overleden)
Abom schreef op donderdag 27 september 2018 @ 14:38:
Hoe kom je erbij dat er snel een 30xx serie aan komt, waar haal je die wijsheid vandaan? Nvidia heeft helemaal geen noodzaak om snel iets nieuws uit te brengen, ze hebben 0-concurrentie in het high-end segment.
A; Vanwege het feit dat ze dat over een jaar (+/-) waarschijnlijk wel hebben (en zelfs als blijkt van niet kunnen ze het risico niet nemen).
B: Omdat voor hun 7nm ook voordeliger is (kleiner/zuiniger/alvast weer optimaliseren voor toekomstige kaarten)
C: Omdat deze kaarten (volgens de vele geruchten) sowieso in eerste instantie voor 7nm bedoeld waren.
D: Omdat ze dan weer bakken met geld kunnen vangen van early adopters.
E: Omdat stilstand achteruitgang is en het nieuwe ontwerp nu af is, en er nu dus geoptimaliseerd kan (gaat) worden.
F: Omdat deze serie tot op heden vanwege afmetingen verbruik en relatieve performance tov de vorige generatie nogal lauw ontvangen is.

10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem

@zion, Turing was bedoeld voor 10nm, niet 7nm.

Anoniem: 1115249

@zion

A. Het lijkt mij allesbehalve een "feit" dat Nvidia over een jaar opeens concurrentie heeft in het high-end segment.
B. Het is voordelig voor Nvidia om 2 jaar flink te spekken met de nieuwe RTX-kaarten. Niet om over een jaar alweer met een nieuwe reeks te komen en niet-verkochte kaarten in de schappen te laten staan.
C. Zie B
D. Zie B
E. Zie B
F. Zie B

Acties:
  • +1 Henk 'm!

  • zion
  • Registratie: Augustus 1999
  • Niet online

zion

I GoT my I on U

(overleden)
Paprika schreef op donderdag 27 september 2018 @ 20:58:
@zion, Turing was bedoeld voor 10nm, niet 7nm.
Je hebt helemaal gelijk, excuses, my bad.
Anoniem: 1115249 schreef op donderdag 27 september 2018 @ 23:40:
@zion

A. Het lijkt mij allesbehalve een "feit" dat Nvidia over een jaar opeens concurrentie heeft in het high-end segment.
B. Het is voordelig voor Nvidia om 2 jaar flink te spekken met de nieuwe RTX-kaarten. Niet om over een jaar alweer met een nieuwe reeks te komen en niet-verkochte kaarten in de schappen te laten staan.
C. Zie B
D. Zie B
E. Zie B
F. Zie B
A: Iets met "waarschijnlijk", en "zelfs indien niet", had toch duidelijk moeten laten blijken dat ik het niet als vaststaand feit presenteerde.
B: Als ze die strategie hanteren (van snel nieuwe kaarten op de markt brengen) zullen ze daar natuurlijk ook wel rekening mee houden qua productie van deze lijn hé :?
C: Tenzij ze op deze node tegen problemen aanlopen, maar gelukkig loopt de uitrol voorspoedig voorlopig, O Wacht.... :+
D: Tenzij verkopen gaan tegenvallen, en voor het eerst zie je de tendens dat velen zeggen, deze sla ik even over met deze absurde prijzen.
E: Zie B slaat nergens op als argument.
F: Zie E: :P

Hoe dan ook, ik zal me er verder niet meer mee bemoeien, want net zoals voor iedereen hier, is het voor mij ook koffiedik kijken, we zien het eind volgend jaar wel, en tot die tijd is de RTX 20xx era aangebroken, dus laten we ons daar op focussen.

10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem


Acties:
  • 0 Henk 'm!

  • djunicron
  • Registratie: Januari 2009
  • Laatst online: 28-04 15:39

djunicron

*click-swoosh-thud*

zion schreef op donderdag 27 september 2018 @ 20:13:
[...]

A; Vanwege het feit dat ze dat over een jaar (+/-) waarschijnlijk wel hebben (en zelfs als blijkt van niet kunnen ze het risico niet nemen).
B: Omdat voor hun 7nm ook voordeliger is (kleiner/zuiniger/alvast weer optimaliseren voor toekomstige kaarten)
C: Omdat deze kaarten (volgens de vele geruchten) sowieso in eerste instantie voor 7nm bedoeld waren.
D: Omdat ze dan weer bakken met geld kunnen vangen van early adopters.
E: Omdat stilstand achteruitgang is en het nieuwe ontwerp nu af is, en er nu dus geoptimaliseerd kan (gaat) worden.
F: Omdat deze serie tot op heden vanwege afmetingen verbruik en relatieve performance tov de vorige generatie nogal lauw ontvangen is.
A. Over "Navi": Tja. Ik hoop echt dat AMD weerstand kan gaan bieden. Dat hoopte ik met Vega ook al. Toen de eerste resultaten er waren en die machine loeiend heet stond te worden, verdween dat weer snel. Ze hebben best wat dingen goed gedaan, maar ik denk toch wel dat Vega een flop mag worden genoemd. Ze hebben behoorlijk met mensen geschoven, maar ik verwacht persoonlijk niet dat ze opeens de RTX kaarten voorbij gaan streven, ookal heeft Nvidia de deur behoorlijk open gezet.
B. Uiteindelijk aan materiaal wel, maar 7nm heeft tot nu toe kwa machines wel behoorlijke tegenslagen gehad. Machines voor de fabricage zijn niet aan te slepen en ze zijn net weer wat kritischer kwa puurheid / voorbereiding van de wavers. Ik denk niet dat je zoals de afgelopen jaren mag stellen dat 7nm weer goedkoper gaat worden.
C. Nvidia heeft in Keulen aan diverse mensen laten weten dat ze eigenlijk 10nm in gedachten hadden, wegens beschikbaarheid, kosten, etc. Uiteindelijk bleek het niet op te gaan schieten en hebben ze om maanden te besparen 12nm gebruikt. Dat Volta "gen 2" 7nm moest worden was wel een wat meer gegrond gerucht, maar daarvan is ook nooit een datum genoemd. Maargoed, Nvidia heeft interesse in 7nm, sure, maar ik denk dat dat teveel geruchten heeft doen opwaaien.
D. Inderdaad, maar ze willen ook nu een ander spelletje spelen. Ze willen alle marktsegmenten met de 20x0 serie opschuiven, omdat ze anders door hun R&D centjes heen blijven gaan. Daarnaast lijkt Nvidia nu minder afhankelijk van MS te willen zijn kwa wat ze aan technologie kunnen waarmaken. Zolang RTX niet van de grond komt en AMD geen concurrentie bied, denk ik eerder een lauwe refresh van Turing te gaan zien over 10 maanden, dat dat ze over 12 alweer met 'echte' opvolgers komen. Zoals je aangeeft, de early adopters kopen toch wel, en de laatste golf koopt alsnog 2 jaar na dato een GTX1080...
E. Correct. Er zal ook zeker wel een RTX 7nm (of misschien net een ander formaat) versie komen, mits het nu echt compleet flopt het komende jaar. Maar ze kunnen er voorlopig rustig de tijd voor nemen. De eerste RTX titel is er nog niet eens; waarom zouden ze snel een 2e gen uitbrengen?
F. Ook dat, maar ondanks dat verkoopt het momenteel overal direct uit, ook in Europa waar de prijzen 70% boven de genoemde AIB MRSP ligt. Ik verwacht eerlijk gezegd dat ze gewoon langzaam in prijs gaan zakken, nog eens een refreshje doen en dan daarna, zeg over 18 maanden met een 20 Gigaray versie komen. En op dat moment is dat ook werkelijk iets. Of droppen ze de hele grap in de marketing omdat MS met Dx12 DR iets anders heeft verzonnen wat populairder is geworden, of omdat Tensor Cores de hoofdrol krijgen, etc. Nvidia heeft nu zelf een markt gecreëerd. En nu rustig afwachten wat er nu écht nodig gaat zijn in een volgende gen.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-05 12:47
Abom schreef op donderdag 27 september 2018 @ 14:38:
[...]

Dat slaat natuurlijk helemaal nergens op. Waarom zou je een 2 jaar oud product kopen voor vrijwel dezelfde prijs? Als het een principieel ding is (wat ik kan begrijpen), kun je beter een AMD kaart kopen.
Waarom loop je zo te zeiken over de 20xx serie, dat doe je ook in de andere thread. Overigens heb je zelf een vega 64...over overpriced kaarten gesproken...
De 1080 Ti is een stuk goedkoper dan de 2080 zeker als je hem 2e hands koopt.
Als de prijzen straks stabiliseren en de 2080 is qua prijs vergelijkbaar met de 1080Ti dan kan je natuurlijk beter een 2080 halen maar dat is nu nog niet het geval.

Jij weet helemaal niet waar je het over hebt. De Vega kaarten die ik heb gekocht waren helemaal niet zo duur mijn Vega 56 koste @ launch 430 euro dat was vergelijkbaar met een GTX 1070 dus die prijs is gewoon helemaal goed.

De Vega 64 LC die ik nu heb heb ik voor 450 euro gekocht dat was vergelijkbaar met wat de GTX 1080 op dat moment 2e hands deed. Dus ook hier weer een prima prijs prestatie verhouding. De LC is een stukje sneller dan een normale 64.
Dus misschien moet je iets voorzichtiger zijn met wat je zegt.
[...]

Hoe kom je erbij dat er snel een 30xx serie aan komt, waar haal je die wijsheid vandaan? Nvidia heeft helemaal geen noodzaak om snel iets nieuws uit te brengen, ze hebben 0-concurrentie in het high-end segment.
chips van 754mm2 zijn alles behalve goedkoop (er komen er maar weinig uit een 300mm wafer) de yields zijn ook altijd slechter dan die van kleine chips. Dus zodra de 7nm productie op stoom is is het een stuk goedkoper om daar chips mee te maken. (in het begin is het even duurder)

AMD gaat ook op 7nm produceren. De eerste chip voor het datacenter wordt daar al op 7nm gemaakt. Dus volgend jaar komt AMD met een 7nm chip voor de desktop markt en al zou die niet zo snel zijn als de 2080 Ti maar eerder rond de 2080 zitten (verwacht niet dat ze direct de 2080 Ti gaan verslaan maar hopelijk heb ik ongelijk voor de concurrentie zou het goed zijn) dan kunnen ze die op 7nm goedkoper maken en kunnen ze op prijs alsnog winnen. Dus in dat opzicht wil nVidia ook een 7nm chip hebben zodat ze mee kunnen en de prijs dan ook verlagen mocht het nodig zijn. Dus het zou mij niet verbazen als nVidia eind volgend jaar wel met iets nieuws komt en anders begin 2020. Maar we gaan het zien. Voorheen was er gewoon geen goede rede om iets nieuws op de markt te brengen er was ook geen veel kleiner productie proces want 12nm is ook niet kleiner dan 16nm alleen efficiënter en sneller.

Maar 7nm is wel kleiner. En zal ook voor een lager verbruik kunnen zorgen + weer veel ruimte voor prestatie verbeteringen.
Het ligt er natuurlijk ook een beetje aan wat Navi gaat doen als die 2080 Prestaties neer kan zetten voor een lage prijs (let op de ALS) dan is er zeker een vorm van concurrentie wat ze wat tegen moeten doen.
En als Navi nog steeds GCN is en dus max 4096 shaders op 7nm met hogere clocks en tweaks moeten 1080 Ti / 2080 prestaties wel haalbaar zijn gezien waar Vega nu zit. Ik verwacht geen hele nieuwe architectuur dus ik verwacht niet dat ze het de 2080 Ti qua prestaties moeilijk gaan maken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • zion
  • Registratie: Augustus 1999
  • Niet online

zion

I GoT my I on U

(overleden)
djunicron schreef op vrijdag 28 september 2018 @ 03:18:
A. Over "Navi": Tja. Ik hoop echt dat AMD weerstand kan gaan bieden. Dat hoopte ik met Vega ook al. Toen de eerste resultaten er waren en die machine loeiend heet stond te worden, verdween dat weer snel. Ze hebben best wat dingen goed gedaan, maar ik denk toch wel dat Vega een flop mag worden genoemd. Ze hebben behoorlijk met mensen geschoven, maar ik verwacht persoonlijk niet dat ze opeens de RTX kaarten voorbij gaan streven, ookal heeft Nvidia de deur behoorlijk open gezet.
Ik had het over de "Next-Gen" van (hopelijk begin) 2020, realistisch gezien kan je Navi wel afschrijven als concurrentie voor de 2080(TI), dat gaat ie hoogstwaarschijnlijk niet redden met z'n GCN architectuur.

10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Gelukkig wat verbetering:

NVIDIA Fixes RTX 2080 Ti & RTX 2080 Power Consumption. Tested. Better, But not Good Enough

[ Voor 36% gewijzigd door Help!!!! op 28-09-2018 18:21 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 02:15
Is het mogelijk met de 2080ti (https://www.coolblue.nl/p...=561034&utm_content=26850) 5 monitor outputs tegelijk te laten genereren?

Wss kan je nooit 3xDP (3x 4K) EN HDMI VR bril EN usb-c output tegelijk naar diverse monitoren sturen? Of kan dat ondertussen wel? Tot nu toe nog nooit gelezen dat een videokaart met bv 5 outputs deze tegelijk kunnen gebruiken. Altijd gebonden aan 3 + HDMI.

Ik wil 3x4K gaan draaien en dan hopelijk met USB-c 3 1080 schermpjes aansturen als dat mogelijk is?

  • djunicron
  • Registratie: Januari 2009
  • Laatst online: 28-04 15:39

djunicron

*click-swoosh-thud*

TweakerVincent schreef op zaterdag 29 september 2018 @ 16:40:
Is het mogelijk met de 2080ti (https://www.coolblue.nl/p...=561034&utm_content=26850) 5 monitor outputs tegelijk te laten genereren?

Wss kan je nooit 3xDP (3x 4K) EN HDMI VR bril EN usb-c output tegelijk naar diverse monitoren sturen? Of kan dat ondertussen wel? Tot nu toe nog nooit gelezen dat een videokaart met bv 5 outputs deze tegelijk kunnen gebruiken. Altijd gebonden aan 3 + HDMI.

Ik wil 3x4K gaan draaien en dan hopelijk met USB-c 3 1080 schermpjes aansturen als dat mogelijk is?
Je kan met de Turing chips maximaal 4 schermen aansturen. Er zat wel een vreemde verdeling in, maar de details zijn mij even ontgaan. Je kan maximaal 2 schermen over DP via USB C aansturen, maar niet meer dan 4K / 60hz per stuk. Over de DP kan je max 8K aansturen, maar daarvan kan je er maar 2 gebruiken.

3x 4K zou geen probleem moeten zijn. Ik geloof dat HDMI + USB-C Vr headsets tegelijk ook werkt.

Nu zijn dit details van de Nvidia FE kaarten. Wellicht is het voor aftermarket kaarten net weer even anders, dat zou ook niet de eerste keer zijn.

USB-C naar mini DP naar een 3440x1440 100hz scherm werkt hier iig, net als over DP. 2x 1440p & 3440x1440 werkt ook naar behoren (1x DP en 1x HDMI 1440p).


Ik zou gokken dat 3x 4K en dan 3x USB-C 1080p NIET gaat werken. USB-C DP + 2x DP werkt op een Asus OC Dual niet, het USB DP mini scherm gaat dan uit. Ik vermoed daarom dat je dus 2x DP en 2x HDMI data stromen kan sturen. :?

  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 02:15
djunicron schreef op zaterdag 29 september 2018 @ 16:49:
[...]


Je kan met de Turing chips maximaal 4 schermen aansturen. Er zat wel een vreemde verdeling in, maar de details zijn mij even ontgaan. Je kan maximaal 2 schermen over DP via USB C aansturen, maar niet meer dan 4K / 60hz per stuk. Over de DP kan je max 8K aansturen, maar daarvan kan je er maar 2 gebruiken.

3x 4K zou geen probleem moeten zijn. Ik geloof dat HDMI + USB-C Vr headsets tegelijk ook werkt.

Nu zijn dit details van de Nvidia FE kaarten. Wellicht is het voor aftermarket kaarten net weer even anders, dat zou ook niet de eerste keer zijn.

USB-C naar mini DP naar een 3440x1440 100hz scherm werkt hier iig, net als over DP. 2x 1440p & 3440x1440 werkt ook naar behoren (1x DP en 1x HDMI 1440p).


Ik zou gokken dat 3x 4K en dan 3x USB-C 1080p NIET gaat werken. USB-C DP + 2x DP werkt op een Asus OC Dual niet, het USB DP mini scherm gaat dan uit. Ik vermoed daarom dat je dus 2x DP en 2x HDMI data stromen kan sturen. :?
toon volledige bericht
thanks!

Ik wil voor development werkzaamheden zoveel mogelijk schermen hebben. 3x4k en 3x1080p op een creatieve manier.

Als ik nou eens 1DP op een kaart gebruik om 3 1080 schermen aan te sturen (zou in theorie moeten kunnen). 2e DP 2 4K schermen laten aansturen en laatste DP dan main scherm 4k. Plus dan hdmi die met de rift aan de slag gaat.

Dan zou ik dus 6 schermen met 3 DP kunnen aansturen. HDMI dan native Oculust.

Of is dit te mooi gedacht? Kan amper wat vinden hierover op internet...

Anders moet ik helaas een 2e GPU erbij prikken maar ik heb alleen maar AMD liggen hier en NVIDIA en AMD combineren mag niet heb ik gelezen?

Acties:
  • +2 Henk 'm!
Zo, de 2080 FE gaat terug en nu is er een 2080 Sea Hawk voor in de plaats gekomen.

Afbeeldingslocatie: https://i.imgur.com/tj0xWqz.png Click voor full-size image.

Ondanks dat de Founders Edition wat mij betreft een best goede koeler is, en ook goed stil was in mijn full-size case (Corsair Air 540), bleek deze het toch wel erg zwaar te hebben na te zijn overgestapt op een iets kleinere ("mini-ITX") case.

Afbeeldingslocatie: https://i.imgur.com/urOP8Wc.png

Hij zoog voornamelijk zijn eigen warme exhaust lucht weer opnieuw aan in een oneindige loop en dat was te merken aan de temperatuur. Met de Sea Hawk gaat de GPU warmte via het rad de kast uit terwijl het geheugen en VRM gekoeld wordt door de blower wat er dus aan de achterkant weer uit gaat. Stukken beter zo. _/-\o_

Verder is de H200i wel een leuke case, bedankt voor je review @Foritain. Ik wacht nog altijd op mijn Ghost S1, maar de (nieuwe, 2018 model) Corsair SF600 is ook nog altijd niet geleverd, dus nu kan ik even vooruit met mijn RM850i zonder een joekel van een kast op de grond. 't Venster en de RGB had van mij niet gehoeven, maar gezien ik door Ryzen memory compatibility problemen uiteindelijk bij een GSKILL setje met RGB terecht ben gekomen en de X52 ook RGB heeft is het nog best prima te verdragen in een statische stand zoals wit bij de witte H200i :+.

(Pssst: plastic over het venster blijft nog lekker even zitten i.v.m. transport in de nabije toekomst)

[ Voor 156% gewijzigd door Paprika op 29-09-2018 21:30 ]


Acties:
  • 0 Henk 'm!

  • beebie121
  • Registratie: December 2011
  • Laatst online: 05-05 16:55
Paprika schreef op zaterdag 29 september 2018 @ 20:27:
Zo, de 2080 FE gaat terug en nu is er een 2080 Sea Hawk voor in de plaats gekomen.

[Afbeelding] Click voor full-size image.

Ondanks dat de Founders Edition wat mij betreft een best goede koeler is, en ook goed stil was in mijn full-size case (Corsair Air 540), bleek deze het toch wel erg zwaar te hebben na te zijn overgestapt op een iets kleinere ("mini-ITX") case.

[Afbeelding]

Hij zoog voornamelijk zijn eigen warme exhaust lucht weer opnieuw aan in een oneindige loop en dat was te merken aan de temperatuur. Met de Sea Hawk gaat de GPU warmte via het rad de kast uit terwijl het geheugen en VRM gekoeld wordt door de blower wat er dus aan de achterkant weer uit gaat. Stukken beter zo. _/-\o_

Verder is de H200i wel een leuke case, bedankt voor je review @Foritain. Ik wacht nog altijd op mijn Ghost S1, maar de (nieuwe, 2018 model) Corsair SF600 is ook nog altijd niet geleverd, dus nu kan ik even vooruit met mijn RM850i zonder een joekel van een kast op de grond. 't Venster en de RGB had van mij niet gehoeven, maar gezien ik door Ryzen memory compatibility problemen uiteindelijk bij een GSKILL setje met RGB terecht ben gekomen en de X52 ook RGB heeft is het nog best prima te verdragen in een statische stand zoals wit bij de witte H200i :+.

(Pssst: plastic over het venster blijft nog lekker even zitten i.v.m. transport in de nabije toekomst)
toon volledige bericht
zit even rustig hier door dit topic te lezen en ik zie 2 hele leuke dingen: first op 22-09 zeg je iedereen met een window ik dispcie you.

om vervolgens als 1 van de laatste meldingen hier een window kast te hebben

(waarbij je ook nog eens eerst iemand een tip geeft geen sea hawk te nemen, en voila een week later heb je een sea hawk hahahaha.

ben wel benieuwd of er meer ervaringen zijn met de 20** kaarten.

Acties:
  • 0 Henk 'm!
Beetje met NVENC aan het spelen geweest gisteravond. Nvidia gaf al aan dat er een 'speciale' OBS versie moet gaan komen om het optimale uit Turing te halen, maar ik ben nog niet echt overtuigd. NVENC x264 in OBS is zichtbaar beter dan op de Pascal kaarten, vooral in tekst scherpte is het verschil groot. Maar zelfs met een giga bitrate vind ik vooral in lichte stukken het nog erggg blokkerig. Niet als je direct opneemt, dan is het perfect, maar als je het naar een daadwerkelijke encoded stream omzet is het toch net-niet imho. Beter ja, veel beter zelfs, maar ik had stiekem gehoopt op 'software encoding is dead woo'

Iemand anders al wat getest met NVENC streaming op een RTX?

Dat gezegd hebbende, dat je met eeen i7-8700K AC:Origins Ultra op 4K redelijk soepel kan livestreamen (~50FPS met NVENC, 4K/60 output) is an sich best een prestatie. Softwareencoding trekt die CPU heavy game niet. Nu nog een nut hebben voor 4K streams.

[ Voor 5% gewijzigd door Foritain op 02-10-2018 10:41 ]


Acties:
  • 0 Henk 'm!

  • jaaoie17
  • Registratie: Augustus 2000
  • Laatst online: 05-05 13:08
Duranor schreef op zaterdag 22 september 2018 @ 11:39:
Ligt het aan mij of kloppen bij heel veel kaarten de hoeveelheid slots (dp) niet? de meeste lijken wel 2dp terwijl er 3dp op staat. Ook ben ik benieuwd hoe koel deze kaarten / stroom hebben, ik hoop dat we daar nog veel over zien, was vooral benieuwd naar de ASUS Dual. die was nog wel redelijk te doen voor 850/900 euro, ik zit zelf nu op een moederbord die alleen 2 dp ondersteund. en ik zat al jaren met een GTX 960. Oftewel ik wil graag een upgrade doen, niet een 1080 / ti, vooral omdat deze kaarten veel warmer worden dan de 2080 RTX tot ik zo ver gezien heb.
dp?

Acties:
  • 0 Henk 'm!

  • Duranor
  • Registratie: September 2015
  • Laatst online: 23-03 15:45
Jaa.... mijn fout ik bedoelde hier mee het aantal hoeveelheid slots die de videokaart nodig heeft om erin vast te kunnen zetten.

Acties:
  • 0 Henk 'm!

  • jaaoie17
  • Registratie: Augustus 2000
  • Laatst online: 05-05 13:08
Duranor schreef op dinsdag 2 oktober 2018 @ 10:50:
[...]


Jaa mijn fout ik bedoleide hier mee het aantal hoeveelheid slots die de videokaart nodig heeft om erin vast te kunnen zetten.
Maar hoeveel slots een kaart gebruikt ondersteund toch elke moederbord? Het gaat dan toch meer om de kast?

Acties:
  • 0 Henk 'm!

  • Duranor
  • Registratie: September 2015
  • Laatst online: 23-03 15:45
jaaoie17 schreef op dinsdag 2 oktober 2018 @ 10:53:
[...]


Maar hoeveel slots een kaart gebruikt ondersteund toch elke moederbord? Het gaat dan toch meer om de kast?
Ik kan maar 2 slots hebben in mijn kast. Maar ik had het idee dat de hoeveelheid sloten niet klopten per bericht. was specifiek aan het kijken naar afmetingen enzovoort.

Acties:
  • 0 Henk 'm!

  • StealthyPeanut
  • Registratie: Mei 2008
  • Laatst online: 01-05 10:54
Abom schreef op donderdag 27 september 2018 @ 14:38:
[...]

Dat slaat natuurlijk helemaal nergens op. Waarom zou je een 2 jaar oud product kopen voor vrijwel dezelfde prijs? Als het een principieel ding is (wat ik kan begrijpen), kun je beter een AMD kaart kopen.
Waarom loop je zo te zeiken over de 20xx serie, dat doe je ook in de andere thread. Overigens heb je zelf een vega 64...over overpriced kaarten gesproken...
Zeker wel. Je noemt het wel "2 jaar oude techniek", maar dat zie je ook terug in de prijs. Je kunt voor rond de 525/550 euro een 1080ti OC op de kop tikken 2e hands. Met vaak minimaal nog 1 jaar garantie. Deze presteert in huidige games minstens zo goed en soms zelfs beter dan een RTX2080.

De goedkoopste RTX2080 is € 800,- You do the math :).

Als dit dan (zoasl velen hier beweren) toch maar een "tussenstap" is naar de 3-serie, dan ben je juist beter met de goedkopere oudere techniek, want je betaalt minder en houdt meer geld over. Dan kan je over 2 jaar die 250 euro die je nu bespaart prima in een nieuwe kaart stoppen.

Acties:
  • +1 Henk 'm!

  • Abom
  • Registratie: September 2000
  • Laatst online: 05-05 10:24
StealthyPeanut schreef op dinsdag 2 oktober 2018 @ 11:02:
[...]


Zeker wel. Je noemt het wel "2 jaar oude techniek", maar dat zie je ook terug in de prijs. Je kunt voor rond de 525/550 euro een 1080ti OC op de kop tikken 2e hands. Met vaak minimaal nog 1 jaar garantie. Deze presteert in huidige games minstens zo goed en soms zelfs beter dan een RTX2080.
Wat is het toch met het vergelijken van nieuwe en 2e hands producten, natuurlijk is het prijs verschil dan veel groter, maar de vergelijking slaat nergens op. Wanneer je in de markt bent voor 2e hands videokaarten, koop je sowieso geen 2080.
De goedkoopste RTX2080 is € 800,- You do the math :).
En de goedkoopste 1080TI is €700, dat heb ik hierboven al aangegeven...
Als dit dan (zoasl velen hier beweren) toch maar een "tussenstap" is naar de 3-serie, dan ben je juist beter met de goedkopere oudere techniek, want je betaalt minder en houdt meer geld over. Dan kan je over 2 jaar die 250 euro die je nu bespaart prima in een nieuwe kaart stoppen.
Eens, ik denk ook dat de 20xx serie een tussenstap is. Het is een 'goede' kaart voor een matige prijs. Maar ik vind het nog vreemder om een iets minder matige prijs te betalen voor een 2 jaar oud product.
Een 1080TI 2e hands is zeker een goede deal en wanneer je een 1080(TI of non-TI) hebt, ben je gek wanneer je een 2080 zou halen (of je hebt geld over). Wanneer je echter op zoek bent naar een nieuwe videokaart, vind ik het vreemd om voor een 1080TI te gaan.

Acties:
  • 0 Henk 'm!
beebie121 schreef op dinsdag 2 oktober 2018 @ 09:47:
[...]


zit even rustig hier door dit topic te lezen en ik zie 2 hele leuke dingen: first op 22-09 zeg je iedereen met een window ik dispcie you.

om vervolgens als 1 van de laatste meldingen hier een window kast te hebben
Als jij een locatie weet die een side-panel verkoopt voor deze kast, please let me know! Voor de Corsair had ik die wel gekocht namelijk. Ik zeg ook letterlijk in die post dat ik 't liever niet heb. ;( Voor de rest had ik 't Sea Hawk stukje al aangegeven: in een mini-ITX case zie ik het nut dus wel (gesloten 'tunnel' met rechtstreekse exhaust), maar in een grote case heb je meer aan een EVGA reference PCB, omdat je bij EVGA de koeler kunt vervangen zonder de garantie te verliezen. Nogmaals, in m'n vorige case deed de FE koeler het perfect (stil, koel, alle ruimte en genoeg fans om de hitte af te dragen), in de mini-ITX werkte het echter niet. Voor 200 euro kun je prima zelf een koeler erop zetten, een betere zelfs. Ik zou er eerder een 240/280mm RAD op zetten dan die 120mm die er nu op zit. Zeker voor de 2080Ti gaat ie het zwaar hebben met z'n 300+ power limit en de blower fan is ook niet de stilste, dat kun je zoveel beter oplossen als je het zelf kunt doen en de hitte in de case kwijt kan.
Duranor schreef op dinsdag 2 oktober 2018 @ 10:56:
[...]


Ik kan maar 2 slots hebben in mijn kast. Maar ik had het idee dat de hoeveelheid sloten niet klopten per bericht. was specifiek aan het kijken naar afmetingen enzovoort.
Ze geven het zo aan, omdat je bijvoorbeeld bij 2.1 slots al direct het 3e slot ook kwijt bent, en in sommige cases zou het daardoor al niet gaan passen, omdat de kast dit niet toelaat.

[ Voor 57% gewijzigd door Paprika op 02-10-2018 13:03 ]


Acties:
  • 0 Henk 'm!

  • Larmoth
  • Registratie: Maart 2017
  • Laatst online: 29-04 10:32
Abom schreef op dinsdag 2 oktober 2018 @ 11:56:

En de goedkoopste 1080TI is €700, dat heb ik hierboven al aangegeven...
Toch onlangs 1 gekocht voor 650euro. Begint toch al een serieus verschil te geven. :) Als geld geen rol had gespeeld ging ik ook voor het best maar in dit geval dus wel.

Acties:
  • 0 Henk 'm!
Larmoth schreef op dinsdag 2 oktober 2018 @ 12:58:
[...]


Toch onlangs 1 gekocht voor 650euro. Begint toch al een serieus verschil te geven. :) Als geld geen rol had gespeeld ging ik ook voor het best maar in dit geval dus wel.
Tja dat blijft een keuze die ieder voor zich moet maken. Zoek eens op 1080Ti modellen die maar 2 slots bezetten. Dat zijn er maar zeer weinig. Filter die nog eens op maximale lengte en opeens zijn ze allemaal net zo duur. Als je een grote case hebt dan zou de GIGABYTE aanbieding die Alternate had met z'n 650-680 (afhankelijk van timing) een betere keuze.

categorie: Videokaarten

[ Voor 31% gewijzigd door Paprika op 02-10-2018 13:07 ]


Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 02:15
Inno3d 2080 heb ik maar vind de 3dmark scores tegenvallen...

Haal met firestrike 1.1 en de 4k benchmark lage scores, lager dan een 1080ti. Kan dit door drivers komen of moet ik nog wat instellen oid?

https://www.3dmark.com/3dm/29012240

Moet mijn CPU nog even Overclocken. 2080 gewoon stock. Iemand een tip?

[ Voor 3% gewijzigd door TweakerVincent op 02-10-2018 13:34 ]


Acties:
  • 0 Henk 'm!
Kun je eens Timespy draaien? Dat vergelijkt veel makkelijker.

Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 02:15
Paprika schreef op dinsdag 2 oktober 2018 @ 13:35:
Kun je eens Timespy draaien? Dat vergelijkt veel makkelijker.
TIME SPY EXTREME 1.0:

https://www.3dmark.com/3dm/29012522

Acties:
  • 0 Henk 'm!
Ik bedoelde eigenlijk de normale :+ (niet Extreme dus), maar ik draai wel even Firestrike... :p In Firestrike zie ik belachelijke FPS getallen (meer dan 100) dus dan is er al snel een bottleneck.

Draai anders toch maar even een normale Timespy. :D

[ Voor 48% gewijzigd door Paprika op 02-10-2018 13:50 ]


Acties:
  • 0 Henk 'm!

  • freaky35
  • Registratie: September 2012
  • Laatst online: 23:17
TweakerVincent schreef op dinsdag 2 oktober 2018 @ 13:34:
Inno3d 2080 heb ik maar vind de 3dmark scores tegenvallen...

Haal met firestrike 1.1 en de 4k benchmark lage scores, lager dan een 1080ti. Kan dit door drivers komen of moet ik nog wat instellen oid?

https://www.3dmark.com/3dm/29012240

Moet mijn CPU nog even Overclocken. 2080 gewoon stock. Iemand een tip?
Die benchmark is ook erg cpu afhankelijk dat is niet zo raar dus,dat je niet zo hoog komt nog.
CPU overclock zal zeker helpen met de score.

Acties:
  • 0 Henk 'm!
Graphics score: 28340 (1080Ti) vs 29458 (2080)
https://www.guru3d.com/ar...tx-1080-ti-review,29.html
https://www.3dmark.com/3dm/29012688?
Dit is mijn Firestrike. Dat plaatst hem denk ik ietsje hoger dan een stock 1080Ti. In Timespy is het gat echter veel groter. DirectX 11 vs 12 en de 20-series zijn sterker in DirectX 12 dan z'n voorgangers.

Graphics score: 9521 (1080Ti) vs 12034 (2080)
https://www.guru3d.com/ar...tx_1080_ti_review,30.html
https://www.3dmark.com/spy/4546678

[ Voor 51% gewijzigd door Paprika op 02-10-2018 13:59 ]


Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 02:15
Paprika schreef op dinsdag 2 oktober 2018 @ 13:56:
https://www.3dmark.com/3dm/29012688?
Dit is mijn Firestrike. Dat plaatst hem denk ik ietsje hoger dan een stock 1080Ti. In Timespy is het gat echter veel groter. DirectX 11 vs 12 en de 20-series zijn sterker in DirectX 12 dan z'n voorgangers.

https://www.guru3d.com/ar...tx_1080_ti_review,30.html
https://www.3dmark.com/spy/4546678
https://www.3dmark.com/3dm/29012800 dit is de normale die je bedoelde

Acties:
  • 0 Henk 'm!
Zie mijn edit. Dit is dus beter dan de 1080Ti.

Zie ook:
Afbeeldingslocatie: https://www.guru3d.com/index.php?ct=articles&action=file&id=43822&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1
Afbeeldingslocatie: https://www.guru3d.com/index.php?ct=articles&action=file&id=43827&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1

Het is een beetje zoals de 8800GTX (meer geheugen, 1080Ti) vs 9800GTX (ietsje moderner en sneller in recente games, 2080). Ook toen gold dat een 8800GTX eigenaar niet moest overstappen, maar alles daaronder had wel iets aan een 9800GTX.
The end result is that Nvidia has taken care of business with this GeForce 9800 GTX. It delivers very good performance, better than the 8800 GTX' (by an average of 7%) and close to the 8800 Ultra (especially without antialiasing).
Tomshardware

@TweakerVincent, gooi dat geheugen op de kaart sowieso eens omhoog (+600 ofzo om te beginnen) en draai de overclock scan voor de GPU.

[ Voor 37% gewijzigd door Paprika op 02-10-2018 14:07 ]


Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 02:15
Paprika schreef op dinsdag 2 oktober 2018 @ 14:00:
[...]

Zie mijn edit. Dit is dus beter dan de 1080Ti.

Zie ook:
[Afbeelding]
[Afbeelding]

Het is een beetje zoals de 8800GTX (meer geheugen, 1080Ti) vs 9800GTX (ietsje moderner en sneller in recente games, 2080). Ook toen gold dat een 8800GTX eigenaar niet moest overstappen, maar alles daaronder had wel iets aan een 9800GTX.


[...]

Tomshardware

@TweakerVincent, gooi dat geheugen sowieso eens omhoog en draai de overclock scan voor de GPU.
toon volledige bericht
ok helder, ik ga even mijn cpu overclocken.

Acties:
  • 0 Henk 'm!
Staat je powerlimit al op de hoogste stand in Afterburner? Ook heel relevant. Je CPU test vind ik niet zo relevant voor alsnog. Ik vergelijk alleen de graphics score.

[ Voor 36% gewijzigd door Paprika op 02-10-2018 14:08 ]


Acties:
  • 0 Henk 'm!
@TweakerVincent @bvenlh, zou 1 van jullie met GPU-Z de bios willen extracten, deze ergens uploaden en de link hier delen?

Je hebt deze versie van GPU-Z nodig: https://www.techpowerup.c...chments/gpu-z-exe.107772/

Zelfde verzoek voor mensen met een ASUS STRIX, MSI Gaming X Trio en andere leuke kaarten..

@bjorntju en @TheTurk, ook voor jullie dus :+.

[ Voor 29% gewijzigd door Paprika op 02-10-2018 15:40 ]


Acties:
  • 0 Henk 'm!

  • Z500
  • Registratie: Mei 2006
  • Laatst online: 08-04 08:48
Ik ben er een klein beetje uit, dus vraagje waar vast iemand snel antwoord op heeft.

Ik heb nu een PC met een intel 4770k erin, is deze inmiddels te zwak voor een RTX2080(ti)?
Ohja, ik draai op 1440p

[ Voor 6% gewijzigd door Z500 op 02-10-2018 15:44 ]


Acties:
  • 0 Henk 'm!
Z500 schreef op dinsdag 2 oktober 2018 @ 15:43:
Ik ben er een klein beetje uit, dus vraagje waar vast iemand snel antwoord op heeft.

Ik heb nu een PC met een intel 4770k erin, is deze inmiddels te zwak voor een RTX2080(ti)?
Ohja, ik draai op 1440p
Draai je hem op stock snelheden? Het antwoord is ja en nee :+. Overgeklokt zou ik zeggen, niet op 'n manier dat je je zorgen hoeft te maken. Draait ie stock dan is 't afhankelijk van het spel. Ik kan me voorstellen dat een 64 slot Battlefield 1 server bijvoorbeeld wel eens een bottlleneck zou kunnen vormen, maar je kunt altijd meer graphic settings toevoegen. 60 FPS haal je vast wel. Daarnaast geldt dat er altijd wel ergens een bottleneck ligt. Als je nu een mindere GPU zou kopen dan is de GPU de bottleneck en als je ooit je CPU wel vervangt wordt die bottleneck alleen maar groter...

[ Voor 12% gewijzigd door Paprika op 02-10-2018 16:07 ]


Acties:
  • 0 Henk 'm!

  • Z500
  • Registratie: Mei 2006
  • Laatst online: 08-04 08:48
Paprika schreef op dinsdag 2 oktober 2018 @ 16:03:
[...]

Draai je hem op stock snelheden? Het antwoord is ja en nee :+. Overgeklokt zou ik zeggen, niet op 'n manier dat je je zorgen hoeft te maken. Draait ie stock dan is 't afhankelijk van het spel. Ik kan me voorstellen dat een 64 slot Battlefield 1 server bijvoorbeeld wel eens een bottlleneck zou kunnen vormen, maar je kunt altijd meer graphic settings toevoegen. 60 FPS haal je vast wel. Daarnaast geldt dat er altijd wel ergens een bottleneck ligt. Als je nu een mindere GPU zou kopen dan is de GPU de bottleneck en als je ooit je CPU wel vervangt wordt die bottleneck alleen maar groter...
Draai nu op stock snelheden, ik had al bedacht om te kijken of ik hem naar 4.4ghz kan krijgen. Dus dan zou hij nog eventjes mee kunnen, dank je voor je antwoord.

Acties:
  • 0 Henk 'm!

  • TheTurk
  • Registratie: April 2010
  • Laatst online: 16-02 23:20
@Paprika Ik heb ze nog niet gehad :(

Acties:
  • +3 Henk 'm!

  • bjorntju
  • Registratie: Augustus 2007
  • Laatst online: 04-05 23:30
Paprika schreef op dinsdag 2 oktober 2018 @ 15:34:
@TweakerVincent @bvenlh, zou 1 van jullie met GPU-Z de bios willen extracten, deze ergens uploaden en de link hier delen?

Je hebt deze versie van GPU-Z nodig: https://www.techpowerup.c...chments/gpu-z-exe.107772/

Zelfde verzoek voor mensen met een ASUS STRIX, MSI Gaming X Trio en andere leuke kaarten..

@bjorntju en @TheTurk, ook voor jullie dus :+.
Zie: https://www.techpowerup.com/vgabios/204124/204124 (nog niet verified though)

Build zelf is klaar in ieder geval :)
Afbeeldingslocatie: https://i.imgur.com/9bvqKoj.jpg
Afbeeldingslocatie: https://i.imgur.com/7QL7JWf.jpg
Afbeeldingslocatie: https://i.imgur.com/ZKjWHUk.jpg

Kaart via OC scanner laten overclocken, uiteindelijk +164MHz erbij gekregen, daarnaast +700mhz op het geheugen nog handmatig erbij gedaan. Zie ook:

Afbeeldingslocatie: https://i.imgur.com/ss5AqA0.png

Uiteindelijk deze 3Dmark score gehaald:

https://www.3dmark.com/spy/4557252

Ben best tevreden over de kaart (Gainward RTX 2080 TI Phantom GS). Tempratuur zit mét overclock op ongeveer 69 graden na een poosje Furmark. In eerste instantie had ik hem vertical gemount in de Evolv X, ziet er mooier uit, maar toen tikte de kaart wel 79 graden aan in Furmark, en dat vond ik toch wel zonde. Op het moment dat ik de deur van mijn case opende zag je de temperatuur al meteen dalen, dus het ligt er echt aan dat de afstand met het raampje te klein is, kan dan dus niet genoeg lucht aanzuigen. Opzich kan 79 graden geen kwaad, maar dit maakte de kaart ook weer een stuk luider. Nu is hij een stuk stiller :)

De kaart heeft helaas geen 0 RPM functie wat de fans laten stoppen als de kaart idle is (blijf het vreemd vinden dat er nog steeds kaarten zijn die dat niet hebben, lijkt mij zeer simpel te implementeren...) Maar zorgt er wel voor dat de kaart met 29 graden lekker koel blijft in idle. Case wordt gekoeld met 3x 140MM Phanteks fan in de voorkant, een NZXT X62 bovenin, en een Be Quiet Silent Wings 3 achter.

Nadeel is dat de standaard Gainward software (Xpertool) wel aardig brak is. De fanspeed kan ik niet aanpassen en blijft op 0% dutycycle hangen. Daarnaast ook geen enkele manier om de RGB aan te passen welke onder de kaart zelf zit. Via Afterburner kan ik wel alles aanpassen (behalve de RGB, daarvoor moet ik het weer via EVGA Precision X1 doen). Beetje jammer maar geen dealbreaker.

Al met al best blij mee, maar nog niet echt mee gegamed. Niet echt tijd voor gehad ivm. werk enzo. Hopelijk komend weekend wat meer tijd :)

Specs zijn:

Case: Phanteks Evolv X
CPU: Ryzen 2700X
MB: Asus ROG Crosshair VII Hero
RAM: TridentZ RGB 16GB DDR4 3200Mhz
GPU: Gainward RTX 2080 Ti Phantom GS
PSU: HX1000i PSU
CPU koeler: Kraken X62 AIO
viertal diverse SSD's in ik in de loop der jaren heb opgespaard ;)

[ Voor 5% gewijzigd door bjorntju op 08-10-2018 13:35 ]


Acties:
  • 0 Henk 'm!
Kun je niet zelf een idle profiel aanmaken in Afterburner? Anders even de EVGA bios flashen, dan wordt je fan wel silent in idle. :+

Acties:
  • 0 Henk 'm!

  • bjorntju
  • Registratie: Augustus 2007
  • Laatst online: 04-05 23:30
Paprika schreef op dinsdag 2 oktober 2018 @ 21:13:
Kun je niet zelf een idle profiel aanmaken in Afterburner? Anders even de EVGA bios flashen, dan wordt je fan wel silent in idle. :+
Nee, had ik nog geprobeerd. Als ik de fan curve op 0% zet dan blijft hij helaas gewoon draaien. Moet wel zeggen dat hij op de laagste snelheid praktich onhoorbaar is, dus zo erg vind ik het niet.

BIOS flashen heb ik nog aan gedacht, maar ben wel bang dat ik dan mijn garantie verlies. Als mijn kaart defect gaat kan ik de originele BIOS niet meer flashen, dus dat risico neem ik liever niet haha :P

Acties:
  • 0 Henk 'm!

  • ArisB
  • Registratie: Oktober 2004
  • Laatst online: 29-04 13:05
Gister mijn MSI RTX-2080 Gaming X Trio binnen gekregen als upgrade voor mijn GTX-980. Massief apparaat, had voor de 980 al een stuk uit de drivebays moeten zagen, nu het drivebay-rekje maar helemaal verwijderd :D

Er zit een soort support-arm bij die je in de sloten onder de kaart moet/kan schroeven, vraag me alleen wel af of deze echt helpt. Eenmaal gemonteerd voelt het niet echt heel ondersteunend aan.

Star Wars Battlefront 2 & Fallout 4 kan ik nu op 4K spelen, heb alleen wat geks bij No Man's Sky.
NMS haalt op planeten over de grond wel 60 fps, maar als je bij een gebouw op de planeet komt zakt het naar 30fps. Het gekke is dat op dat moment zowel de gpu als de cpu naar 60~50% belasting zakken. Als ik me omdraai (dus gebouw uit het zicht), schiet de belasting weer omhoog maar heb ik ook weer 60 fps. Nu verwachte ik niet dat ik bij NMS altijd 60 fps zou halen, maar bij https://www.techspot.com/...force-rtx-2080/page2.html halen ze minimaal 44 fps. Voor nu ga ik er van uit dat het aan het spel ligt, daar zijn wel meer dingen mis mee :)

Acties:
  • 0 Henk 'm!

  • freaky35
  • Registratie: September 2012
  • Laatst online: 23:17
ArisB schreef op woensdag 3 oktober 2018 @ 09:31:
Gister mijn MSI RTX-2080 Gaming X Trio binnen gekregen als upgrade voor mijn GTX-980. Massief apparaat, had voor de 980 al een stuk uit de drivebays moeten zagen, nu het drivebay-rekje maar helemaal verwijderd :D

Er zit een soort support-arm bij die je in de sloten onder de kaart moet/kan schroeven, vraag me alleen wel af of deze echt helpt. Eenmaal gemonteerd voelt het niet echt heel ondersteunend aan.

Star Wars Battlefront 2 & Fallout 4 kan ik nu op 4K spelen, heb alleen wat geks bij No Man's Sky.
NMS haalt op planeten over de grond wel 60 fps, maar als je bij een gebouw op de planeet komt zakt het naar 30fps. Het gekke is dat op dat moment zowel de gpu als de cpu naar 60~50% belasting zakken. Als ik me omdraai (dus gebouw uit het zicht), schiet de belasting weer omhoog maar heb ik ook weer 60 fps. Nu verwachte ik niet dat ik bij NMS altijd 60 fps zou halen, maar bij https://www.techspot.com/...force-rtx-2080/page2.html halen ze minimaal 44 fps. Voor nu ga ik er van uit dat het aan het spel ligt, daar zijn wel meer dingen mis mee :)
lijkt eerder problemen met drivers,hier op het forum maar ook op de nvidia site,zijn er meer met dit probleem,met andere games ook ..

Acties:
  • 0 Henk 'm!
@ArisB zou jij ook je bios kunnen delen svp?

Acties:
  • +1 Henk 'm!

  • ArisB
  • Registratie: Oktober 2004
  • Laatst online: 29-04 13:05
Hier de bios van mijn MSI RTX 2080 Gaming X Trio
https://www.techpowerup.com/vgabios/204137/204137

Acties:
  • 0 Henk 'm!

  • kmichael
  • Registratie: Februari 2005
  • Laatst online: 24-04 17:06
ArisB schreef op woensdag 3 oktober 2018 @ 09:31:
Gister mijn MSI RTX-2080 Gaming X Trio binnen gekregen als upgrade voor mijn GTX-980. Massief apparaat, had voor de 980 al een stuk uit de drivebays moeten zagen, nu het drivebay-rekje maar helemaal verwijderd :D

Er zit een soort support-arm bij die je in de sloten onder de kaart moet/kan schroeven, vraag me alleen wel af of deze echt helpt. Eenmaal gemonteerd voelt het niet echt heel ondersteunend aan.

Star Wars Battlefront 2 & Fallout 4 kan ik nu op 4K spelen, heb alleen wat geks bij No Man's Sky.
NMS haalt op planeten over de grond wel 60 fps, maar als je bij een gebouw op de planeet komt zakt het naar 30fps. Het gekke is dat op dat moment zowel de gpu als de cpu naar 60~50% belasting zakken. Als ik me omdraai (dus gebouw uit het zicht), schiet de belasting weer omhoog maar heb ik ook weer 60 fps. Nu verwachte ik niet dat ik bij NMS altijd 60 fps zou halen, maar bij https://www.techspot.com/...force-rtx-2080/page2.html halen ze minimaal 44 fps. Voor nu ga ik er van uit dat het aan het spel ligt, daar zijn wel meer dingen mis mee :)
Ik heb 2 x RTX2080Ti in SLI, nu heb ik ook dat mijn GPU's rond de 60% blijven steken bij BattleField 1 en Far Cry 5, ik denk dat het een driver probleem is want met mijn ouwe 2 x GTX1080 in SLI ging deze wel naar 99%
Met GPU stress test blijven ze wel continu op 99%, Hitte kan het niet zijn want ik heb waterkoeling @53 graden.

Het lukt me wel om ze in BF1 naar 99% te krijgen, maar dan moet ik de resolutie scale omhoog zetten,
Ik game op een Asus 4K 144hz scherm in HDR.
Ik blijf meestal wel rond de 144fps:
GPU1: 70%
GPU2: 60%
Maar soms zakt die naar 60% en 53% dan zakt de frame rate naar 115fps

Alles op max en V-Sync staat uit.

CPU zit max rond de 60%, op alle cores

[ Voor 14% gewijzigd door kmichael op 03-10-2018 17:21 ]


Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 02:15
Ik heb de Inno3D 2080 gpu (was 799 euro). Ik wil mss toch de 2010ti kopen, kan nog ruilen binnen een maand. Twijfel of ik daar goed aan doen, ik zag bijvoorbeeld de inno3d voor 1199 euro. Wil gamen op 4k en dat gaat nu wel goed met de 2080 maar ergens twijfel ik.

Iemand een tip?

Acties:
  • 0 Henk 'm!
Als het bedrag je niet zal tegenhouden gewoon doen. Zelf heb ik ook die twijfels gehad (al is een hybrid 2080Ti al snel 1400+), maar ik verwacht zelf niet genoeg spannends te spelen te komende tijd dat dat het geld waard is. Ik wacht wel even op 7nm (zelfs de 2080 is eigenlijk al overrated voor mijn doel).

Acties:
  • 0 Henk 'm!

  • TweakerVincent
  • Registratie: April 2014
  • Laatst online: 02:15
Paprika schreef op vrijdag 5 oktober 2018 @ 16:58:
Als het bedrag je niet zal tegenhouden gewoon doen. Zelf heb ik ook die twijfels gehad (al is een hybrid 2080Ti al snel 1400+), maar ik verwacht zelf niet genoeg spannends te spelen te komende tijd dat dat het geld waard is. Ik wacht wel even op 7nm (zelfs de 2080 is eigenlijk al overrated voor mijn doel).
tja lastig, geld heb ik wel dus ben bang dat ik later spijt ga krijgen.
Pagina: 1 2 ... 9 Laatste