![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Welkom in het NVIDIA RTX 20XX en GTX 20XX Ervaringentopic, het topic volledig toegewijd aan de gebruikerservaringen en alle belangrijke specificaties uit de GeForce 20 series familie van NVIDIA. Lees, om het hier gezellig te houden, wel even onderstaande regels door voordat je in het topic post. Vragen of speculaties over prijzen en leverbaarheid of op zoek naar de algemene informatie? Kijk hier! | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Net als alle andere discussietopics gelden hier ook een aantal regels. In dit topic dienen alleen ervaringen besproken te worden, info & nieuws of prijzendiscussies dienen in andere topics gevoerd te worden. Heb je problemen met je videokaart? Gebruik dan eerst de search-functie van het forum. Bestaat er nog geen onderwerp over... Neem even een kijkje op Google, speur even de officiële GeForce forums af of open dan een nieuw topic. Post je probleem dus niet hier! Dit is namelijk niet het "Grote nVidia GeForce Problemen Topic"! Ook voor advies over de aankoop van een nieuwe videokaart kun je hier niet terecht. Lees daarvoor: *Algemeen Advies* Welke videokaart moet ik kopen? Natuurlijk is het normaal dat er vergeleken wordt met de concurrenten, maar doe dat dan zonder geflame en probeer ontopic te blijven om te voorkomen dat dit topic gesloten wordt. Het gaat hier dus enkel en alleen om en over ervaringen. Wat is absoluut NOT DONE in dit topic?
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
NVIDIA GeForce RTX 2080 Ti | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
NVIDIA GeForce RTX 2080 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
NVIDIA GeForce RTX 2070 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
| ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
NVIDIA NVLINK | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Al sinds lange tijd - sinds de GeForce 6800 om precies te zijn - kun je twee (of meer) GeForce kaarten combineren om zo de prestaties te verbeteren. Op een hele enkele uitzondering na werken de kaarten dan in zogenaamde AFR modus, ofwel Alternate Frame Rendering. Dat betekent dat twee videokaarten om en om frames uitrekenen, de één doet frame X, de andere X+1, de één weer X+2, en zo verder. Aangezien de monitor slechts op één van beide kaarten wordt aangesloten moeten de door de tweede kaart berekende beelden doorgestuurd worden naar de frame buffer van de primaire kaart. Om de PCI-Express bus die al gebruikt wordt om data tussen CPU en gpu uit te wisselen daar niet mee te belasten wordt daar al sinds jaar en dag de zogenaamde SLI-brug voor gebruikt. Die SLI-brug heeft echter z'n beste tijd gehad. Was het voor de gangbare resolutie van een paar jaar terug nog prima, toen 4K-schermen langzaam gemeengoed werden was de bottleneck bereikt. Bij de Pascal-generatie introduceerde Nvidia al een high-bandwidth SLI-brug die snel genoeg was voor 4K in 60 Hz. Maar, hoe hoger de resolutie, hoe hoger de verversingsfrequenties en hoe hoger de kleurdiepte, hoe meer data er van de ene naar de andere kaart verstuurd moet worden. Hierdoor is de circa 5 GB/s van HB-SLI al snel niet meer toereikend. Om die reden introduceert Nvidia bij de Turing generatie NVLink. NVLink is niet nieuw: het is een technologie die Nvidia al een paar jaar gebruikt bij haar professionele Tesla-kaarten om meerdere gpu's met elkaar te verbinden. Het is een eigen protocol, waarvan de nieuwste versie (NVLink 2.0) een zeer hoge bandbreedte biedt: 25 GB/s bidirectioneel, dus 50 GB/s tussen twee gpu's. De RTX 2080 beschikt over één NVLink verbiding en dat is snel genoeg voor een 8K scherm op 60 Hz, een 5K scherm op 75 Hz en voor drie 4K schermen op 144 Hz. De RTX 2080 Ti biedt zelfs twee NVLink verbindingen (100 GB/s) waarmee zelfs 8K surround (ofwel drie 8K schermen) mogelijk is! Het maakt dus wel dat er een nieuwe type brug nodig is, de NVLink Bridge. Nvidia biedt deze zelf aan met drie en vier slots tussenruimte. Twee GeForce kaarten direct onder elkaar plaatsen met twee slots tussenruimte wordt niet meer aangeraden en dus niet meer ondersteund. De NVLink bruggen gaan $ 79 kosten en vermoedelijk ruwweg hetzelfde in euro's. Het zal de oplettende lezer zijn opgevallen dat de RTX 2070 in dit verhaal niet meer voorkomt. Op deze kaart is NVLink uitgeschakeld en SLI dus niet beschikbaar. Overigens is maar de vraag of NVLink het fenomeen SLI daadwerkelijk nieuw leven in kan blazen. Het probleem op dit moment is niet alleen dat de communicatiesnelheid via de SLI-brug te beperkt is, maar vooral dat de AFR-methode bij moderne DirectX 12 games niet meer zo goed werkt. Moderne API's als DirectX 12 en Vulkan bieden game-developers de mogelijkheid om zelf op slimmere manieren het werk over twee of meer gpu's te verdelen, maar die moeten wel de zin en tijd hebben om dat te goed implementeren in hun code. Zeker gezien het feit dat steeds minder mensen twee videokaarten hebben, maakt dat steeds minder game developers genegen zijn hier veel kostbare ontwikkeltijd in te steken. SLI is evenals AMD's Crossfire duidelijk op zijn retour en wij verwachten niet dat NVLink daar veel aan kan veranderen. Bron voor deze tekst: hardware.info | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Overklokken | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Nvidia heeft voor ontwikkelaars van overkloksoftware zoals EVGA Precision en MSI Afterburner een nieuwe api beschikbaar gesteld getiteld Nvidia Scanner. Via deze techniek kan de software de videokaart geheel automatisch optimale overklokinstellingen laten bepalen. Hiervoor gaat de gpu gedurende een proces dat een kleine half uurtje kan duren stap voor steeds hogere frequentie-voltage-curves uitproberen, die telkens direct via een ingebouwde workload worden getest, totdat er een instelling is die niet stabiel is. Het enige wat je als gebruiker hoeft te doen is een keuze te maken voor maximaal stroomverbruik en/of maximale temperatuur en daarna een half uurtje geduld hebben. Bron voor deze tekst: hardware.info | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Powerlimit BIOS | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Nieuwe NVFlash build (geleaked door Palit dus toen is ie officieel vrijgegeven): https://www.techpowerup.com/download/nvidia-nvflash/ GPU-Z versie pre-release (met bios-dump feature voor Turing GPUs): https://www.techpowerup.c...chments/gpu-z-exe.107772/ EVGA reference PCB 130% power target biossen: https://drive.google.com/...2YcPPllRcBM3t?usp=sharing | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
De nieuwe GeForce RTX kaarten zijn gebaseerd op een nieuwe generatie gpu's luisterend naar de naam Turing. De Turing-chips zijn qua opbouw en architectuur drastisch anders dan de Pascal-generatie chips zoals we die kennen van de GeForce GTX 10-serie kaarten. Nvidia spreekt zelf over de "grootste verandering sinds de komst van de volledig programmeerbare Cuda-cores in 2006". Waar gpu's de afgelopen jaren bestonden uit honderden en bij high-end exemplaren zelfs duizenden shader cores aangevuld met wat periferie als geheugen- en displaycontrollers, vinden we in de Turing-chips naast conventionele shader-cores ook twee nieuwe type cores: RT-cores voor het versnellen van raytracing en Tensor-cores voor het versnellen van machine learning c.q. kunstmatige intelligentie algoritmes. En alsof dat allemaal nog niet genoeg is, bevat de gpu ook nog technologie voor verschillende nieuwe rendertechnieken als mesh rendering (voor scènes met extreem veel detail) en variable rate shading (om beelden niet op het hele scherm in dezelfde resolutie te renderen). Zoals gezegd noemt Nvidia de eigen (software) technologieën om gebruik te maken van de nieuwe mogelijkheden van RT- en Tensor-cores RTX. Bron voor deze tekst: hardware.info | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Real-time raytracing | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Eerst en vooral: games volledig via raytracing berekenen ligt nog jaren in de toekomst. Zo'n tien jaar geleden deed Intel al een poging, maar destijds haalde men met de snelste desktop-processors nog maar 17 beelden per seconde op een resolutie van 256x256 pixels in de toen al antieke game Quake 4. Je zou zeggen dat het nu na tien jaar ontwikkeling veel sneller zou moeten gaan, maar tegelijkertijd willen we ook games met graphics die veel complexer zijn dan die van Quake 4, met veel meer lichtbronnen. Hoewel we tien jaar geleden in al ons enthousiasme nog schreven dat volledig ray-traced games in het verschiet lagen, zijn we daar nu een stuk voorzichtiger over. Wellicht is een game volledig ray-tracen ook wel een doel dat op dit moment helemaal niet zo nuttig is om na te streven. Voor de meeste zaken is rasterization immers een prima en veel efficiëntere methode. Het is uitstekend mogelijk om beide technieken hybride toe te passen, bijvoorbeeld door een 3D-scène in de basis via rasterization te renderen en daarna bepaalde onderdelen, zoals bijvoorbeeld de shaduwen en/of reflecties, door middel van raytracing toe te passen. Dat is wat Nvidia met de RTX-kaarten mogelijk maakt. Daarvoor zijn de twee nieuwe onderdelen in de chips aanwezig. De RT-cores versnellen het proces van het doorrekenen van de lichtstralen. Er is ook werk voor de zogenaamde Tensor-cores. Zelfs de GeForce RTX 2080 zal in de regel niet snel genoeg zijn om bepaalde effecten volledig (lees: alle rays volledig doorgerekend) af te werken. In de praktijk zullen de RT-cores een beperkt tijdbudget per scène krijgen (lees: een paar milliseconden) en daarin zoveel mogelijk rays doorrekenen. Dan kan het zijn dat resultaten onvolledig c.q. een beetje korrelig zijn. De Tensor-cores kunnen op basis van AI-algoritmes dat echter weer corrigeren. Dit is een techniek die men denoising noemt. Zo wordt games renderen anno 2018 dus een samenwerking van shader-cores, RT-cores én Tensor-cores. Werking van de RT-cores De RT-cores die het ray-tracen versnellen hebben in de praktijk slechts één simpele taak, namelijk het volgen van lichtstralen en berekenen waar die een object raken. Alle overige taken binnen het raytracing principe (zoals het berekenen van reflecties) worden niet door de RT-cores gedaan, maar door de shader cores. Ofwel, aan enkel en alleen RT-cores heb je eigenlijk niet. Het doorrekenen van de stralen en bepalen van de punten waar deze objecten raken is wel verreweg het meeste en zwaarste werk binnen het hele raytracing algoritme. Hoe weet Nvidia dit nu te versnellen? Door een algoritme dat luistert naar de naar Bouding Volume Hierarchy ofwel BVH. Zonder dit algoritme toe te passen zou je bij het traceren van een lichtstraal alle driehoeken van alle objecten moeten nalopen om te berekenen welke driehoek en dus welk object als eerste wordt bereikt door de straal en waar deze dus eindigt. Voor het BVH-algoritme worden alle objecten in een 3D-scène allereerst opgedeeld in een beperkt aantal vrij grote blokken of kubussen. De objecten in elk van die blokken worden weer verder opgedeeld in een aantal kleinere blokken. Elk van die kleinere blokken word op hun beurt weer opgedeeld in nog kleinere blokken en zo verder, totdat je uiteindelijk blokken met een overzichtelijk aantal objecten erin overhoudt. Zodra een straal wordt gevolgd, hoeft in eerste instantie alleen maar bepaald te worden in welk hoofdblok deze eindigt. Daarna wordt binnen dat hoofdblok bepaald in welk subblok de straal eindigt en zo gaan het algoritme recursief verder totdat het uiteindelijke object gevonden is. Op die manier is er telkens maar een beperkte dataset benodigd en kan dus relatief snel het eindpunt van lichtstralen bepaald worden. Is dat eindpunt bepaald, dan wordt het werk doorgeschoven naar de conventionele shader cores om reflecties en kleuren te berekenen. Eindpunten voor lichtstralen berekenen volgens dit BVH-trucje kan ook prima met conventionele cores, maar de speciale RT-cores die puur en alleen voor dit doel gemaakt zijn kunnen het veel sneller. Om dat in perspectief te zetten: de shader cores van de de GeForce GTX 1080 Ti (tot vandaag de snelste videokaart voor consumenten) kunnen volgens Nvidia 1,2 gigarays per seconde verwerken, ofwel 1,2 miljard lichtstralen per seconde doorrekenen. De RT-cores in de GeForce RTX 2080 Ti doen 10,9 gigarays per seconde ofwel 10,9 miljard lichtstralen per seconde, bijna een factor 10 meer. Plus: de shader cores blijven beschikbaar voor andere taken! Bron voor deze tekst: hardware.info | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
DLSS: AI-powered anti-aliasing | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
![]() | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||||
Al sinds jaar en dag bieden videokaarten allerhande anti-aliasing methodes om dit tegen te gaan en de beeldkwaliteit te verbeteren. De meest conventionele vorm is multi sample anti-aliasing (MSAA), waarbij de game in een hogere resolutie wordt gerenderd en daarna wordt teruggeschaald. Bij 4x MSAA worden dus 4x zoveel pixels berekend (3840x2160 bij een full hd-resolutie) wat de facto ook betekent dat voor veel onderdelen binnen de 3D-pipeline de werkdruk vier keer zo hoog is (met alle gevolg van dien voor de prestaties). Omdat conventionele MSAA ondanks de uitstekende resultaten wel erg veel prestaties kost, zijn er de afgelopen jaren allerhande andere technologieën bedacht, zoals bijvoorbeeld FXAA (Fast Approximate Anti-Aliasing, dat randen van objecten herkent en afvlakt) en TAA (Temporal Anti-Aliasing, dat data van opeenvolgende frames gebruikt om de beeldkwaliteit te verbeteren). Bij de GeForce RTX 20-serie krijgen we er een optie bij, DLSS, wat staat voor Deep Learning Super Sampling. Wat er bij DLSS in principe gebeurt is dat game developers via machine learning een algoritme opbouwen om beelden zo goed mogelijk in resolutie te verhogen. Daartoe voeden ze het lerend systeem met zoveel mogelijk beelden die zowel in lage als hoge resolutie zijn gerenderd. Het systeem leert zichzelf hoe de beelden van de betreffende game het beste kunnen worden opgewaardeerd. Het leer-gedeelte gebeurt offline door de game-ontwikkelaar op super-computers van Nvidia. Het uiteindelijke algoritme wordt gebruikt in de game. DLSS kan op twee manieren gebruikt worden. Als alternatief voor AA kan DLSS beelden opschalen en daarna terugschalen, waarmee je een soort MSAA krijgt, maar dan met veel minder werkdruk voor de shader cores. Maar DLSS kan ook gebruikt worden wanneer je videokaart bijvoorbeeld niet krachtig genoeg is voor de resolutie van je monitor; zo kan een game native gerenderd worden in Full HD en daarna via DLSS zo goed mogelijk worden opgewaardeerd naar 4K. Bron voor deze tekst: hardware.info |
[ Voor 255% gewijzigd door Paprika op 30-09-2018 18:01 ]