Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Qua rasterization performance eens dat de RTX 4090 slecht schaalt. En dat geeft goede hoop voor AMD's RX 7950XT. De kans is best groot dat AMD die performance crown gaat afpakken.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
100 TFLOPS barrière
https://videocardz.com/14...to-520-fps-in-overwatch-2
Nog wat 8K resultaten
:strip_exif()/f/image/J61VDBU3UgML0oco0MT7PqgI.jpg?f=fotoalbum_large)
:strip_exif()/f/image/axcXp9R808MNjAXjfQ9s6Spf.jpg?f=fotoalbum_large)
:strip_exif()/f/image/vLYjHmozR9mv543xrlv5uN2V.jpg?f=fotoalbum_large)
:strip_exif()/f/image/xmfTsWUsJWLZyx8UcCMiDMva.jpg?f=fotoalbum_large)
:strip_exif()/f/image/6bN9OBaJMzG52BJuq1ViJ0cs.jpg?f=fotoalbum_large)
:strip_exif()/f/image/cD8eDwWBJLeU3PZbRgMIxuVR.jpg?f=fotoalbum_large)
:strip_exif()/f/image/1GtN4E07UUSyN6SjpXqgLgi5.jpg?f=fotoalbum_large)
https://www.nvidia.com/en...22-rtx-dlss-game-updates/
4080 12GB

[ Voor 48% gewijzigd door Paprika op 12-10-2022 06:10 ]
Reflex zou geforceerd worden.Sp3ci3s8472 schreef op dinsdag 11 oktober 2022 @ 22:43:
[...]
Dus ongeveer 10ms extra latency op 100 fps komt overeen met 1 frame dat je moet wachten.
Ook hier is mij niet 100% duidelijk of Reflex aan of uit staat in alle gevallen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Vandaar dat ik ook al zei dat ik benieuwd was naar de reviews vandaag. Ik ben benieuwd naar de koeling headroom en of ze daadwerkelijk op een hele lage temperatuur opereren. Dan zou die 600 watt verhaal wel eens waar kunnen zijn.Ludewig schreef op dinsdag 11 oktober 2022 @ 23:32:
@OMD
Naar verluid heeft Nvidia de board partners enorm genaaid door ze te vertellen dat de wattages richting de 600 zouden gaan, wat een schatting was op basis van Ampere. Toen dit mee bleek te vallen hebben ze zelf razendsnel de koeling afgeschaald. Dus nu zitten de AIB's met gigantische overkill qua koeling, terwijl Nvidia fluitend de bestellingen binnenharkt. Zeker nu ze ook nog eens ervoor zorgen dat hun eigen kaarten een dag voorsprong hebben qua reviews.
Als de AIBs straks massaal blijven zitten met deze kaarten kan dit nog wel eens een staartje gaan krijgen...
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Vanaf m'n telefoon is dit niet zo makkelijk te delen, maar je kunt bij 3DMark best makkelijk aftermarket 4090s vinden in de scorelijst met de bijbehorende temperaturen van de benches (hint 40-60C).OMD schreef op woensdag 12 oktober 2022 @ 08:32:
[...]
Vandaar dat ik ook al zei dat ik benieuwd was naar de reviews vandaag. Ik ben benieuwd naar de koeling headroom en of ze daadwerkelijk op een hele lage temperatuur opereren. Dan zou die 600 watt verhaal wel eens waar kunnen zijn.
Bv https://www.3dmark.com/spy/31330119
[ Voor 4% gewijzigd door Paprika op 12-10-2022 08:40 ]
Ik denk niet dat dit waar is, als nVidia had geweten dat deze kaart op ~400 Watt zou blijven steken hadden ze de koeling van de 3090TI kunnen hergebruiken, dat had veel geld gescheeld. Maar de koeling van de 4090 is een stuk groter (en duurder om te maken). Volgens mij hebben ze ook zichzelf verrast.Ludewig schreef op dinsdag 11 oktober 2022 @ 23:32:
@OMD
Naar verluid heeft Nvidia de board partners enorm genaaid door ze te vertellen dat de wattages richting de 600 zouden gaan, wat een schatting was op basis van Ampere. Toen dit mee bleek te vallen hebben ze zelf razendsnel de koeling afgeschaald. Dus nu zitten de AIB's met gigantische overkill qua koeling, terwijl Nvidia fluitend de bestellingen binnenharkt. Zeker nu ze ook nog eens ervoor zorgen dat hun eigen kaarten een dag voorsprong hebben qua reviews.
Als de AIBs straks massaal blijven zitten met deze kaarten kan dit nog wel eens een staartje gaan krijgen...
NVIDIA GeForce RTX 4090 FE in the DXR, DLSS, Reflex and Frame Generation test – When the CPU gets stuck in the bottleneck with a rattle
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Ik vind dit toch wel een heel eigenaardige launch worden zo. Raster performance increase van 50-70% op je topkaart, maar de rest die daar dan sterk onder hangt? en een 4080 (of 70 voor de liefhebbers) die qua gen-update eigenlijk rond de huidige generatie hangt?Paprika schreef op woensdag 12 oktober 2022 @ 06:03:
https://www.nvidia.com/en...22-rtx-dlss-game-updates/
4080 12GBDe kaart is 15-20% sneller (geen DLSS) dan een twee jaar oude 3080 10GB van 720-800 euro in die tijd en kost 1099 euro of meer (AIB).
Je zou dus bijna een 4000 series kaart moeten kopen om de DLSS3 en niet direct omdat de kaart nu zuiniger is, goedkoper is of beter in je kast past. Het enige argument is straks de software en de betere verkrijgbaarheid. DLSS3 komt enorm goed uit de verf, en dat is maar goed ook want qua kale hardware maakt Nvidia buiten de 4090 zo lijkt geen goede beurt.
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Tot op heden niks op de nvidia site zelf.
-- My Gaming Rig Power -- -- <SG> Diabolic --
Misschien wwoosh, maar Reflect wordt toch ook geforceerd als je DLSS 3 aan zet? Eigenlijk is DLSS 3 = DLSS 2.3 + Reflex + dat Auto Frame Generation dingetje.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Vandaag want anders kun je als local shop koper niets met je kaart.Xtr3me4me schreef op woensdag 12 oktober 2022 @ 10:01:
Vraag me af met de drivers. Worden deze vandaag gereleased voor het grote public of komen ze daarmee morgen?
Tot op heden niks op de nvidia site zelf.
Er gaat meer bewijs de kant op dat het wel waar is dan niet. De koeling van de FE 3090ti is trouwens niet heel erg veel kleiner dan de 4090. Ik denk dat je je vergist met de 3090:roy-t schreef op woensdag 12 oktober 2022 @ 09:00:
[...]
Ik denk niet dat dit waar is, als nVidia had geweten dat deze kaart op ~400 Watt zou blijven steken hadden ze de koeling van de 3090TI kunnen hergebruiken, dat had veel geld gescheeld. Maar de koeling van de 4090 is een stuk groter (en duurder om te maken). Volgens mij hebben ze ook zichzelf verrast.


Het is eerder een doorontwikkeling van de 3090Ti koeler. Ze wilde een betere koeler, lagere temps en een stillere werking. Eigenlijk om met de AIB's te concurreren wat ze nu dus ook doen.
De TBP is relatief laat pas aangepast naar 450watt voor de 4090. De 4080 is ook lager dan vooraf gespeculeerd maar wellicht hebben aib's iets meer tijd gehad voor de 4080.
Het feit dat de board partners zulke gigantische kaarten zijn ten opzichte van de FE spreekt natuurlijk niet in het voordeel van nVidia. Het verschil is echt immens.
[ Voor 4% gewijzigd door OMD op 12-10-2022 10:26 ]
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Er is zeker ruimte tussen de 4090 en 4080 16 GB, maar ik vermoed dat de 4080 16GB en 4080 12GB hun huidige verkoopprijs niet lang zullen behouden. Als die bijvoorbeeld zakken naar een meer realistische $999 en $699, wordt het een ander verhaal. Dat is mèt behoud van 60% gross margin voor Nvidia. De huidige 4080 12 + 16 GB prijzen zijn idioot hoog (meer dan 100% gross margin). Wie een van die 2 kaarten koopt is gek.Paprika schreef op woensdag 12 oktober 2022 @ 09:36:
De 4090 is de enige met de grote die, dus waarschijnlijk is er wat ruimte open om de line-up aan te vullen met tegenhangers van AMD met wat Super / Ti achtig kaarten. Er zal minimaal één kaart van AMD tussen de 4080 en 4090 in moeten zitten lijkt mij.
Er is nog ruimte voor een 4080 Ti met 84 SM ipv 76 SM, maar een dergelijke kaart zal het performance gat zeker niet dichten. Onder de 4090 lijkt ook weinig ruimte, het is eerder waarschijnlijk dat er sterkere AD102 chips komen om de concurrentie met Navi31 aan te gaan.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
![]() | ![]() |
RTX4090Ti dies worden alweer opgespaard. Zal wel Q1 worden wanneer deze gelanceerd gaan worden voor 2000$+ als FE model dan eh.
[ Voor 6% gewijzigd door Xtr3me4me op 12-10-2022 11:34 ]
-- My Gaming Rig Power -- -- <SG> Diabolic --
De rtx 3070 was ook niet bepaald sneller dan de 2080ti dus het product is op zich niet eens verkeerd, de naam en prijs echter...... Het zou wat mij betreft minimaal 3090/3090ti performance moeten zijn maar dan voor een paar honderd minder dan een 3090Paprika schreef op woensdag 12 oktober 2022 @ 06:03:
[Afbeelding]
[Afbeelding]
[Afbeelding]
https://www.nvidia.com/en...22-rtx-dlss-game-updates/
4080 12GBDe kaart is 15-20% sneller (geen DLSS) dan een twee jaar oude 3080 10GB van 720-800 euro in die tijd en kost 1099 euro of meer (AIB).
Of concurrentie en laag segment in de markt zorgt ervoor dat de hele lineup daalt in prijs tegen die tijd. Vergelijk dit draadje en 't levertijden topic maar eens met 2 jaar terug. Toen werden er 10 posts per minuut geplaatst. Het levertijden topic zat rond deze tijd al ruim 4x het aantal reacties.Xtr3me4me schreef op woensdag 12 oktober 2022 @ 11:33:
RTX4090Ti dies worden alweer opgespaard. Zal wel Q1 worden wanneer deze gelanceerd gaan worden voor 2000$+ als FE model dan eh.
Tja maar doelde meer op de 10-20% performance gains. Bedoel denk dat ze echt wel wat gaan verwachten van RDNA3.Paprika schreef op woensdag 12 oktober 2022 @ 11:45:
[...]
Of concurrentie en laag segment in de markt zorgt ervoor dat de hele lineup daalt in prijs tegen die tijd. Vergelijk dit draadje en 't levertijden topic maar eens met 2 jaar terug. Toen werden er 10 posts per minuut geplaatst. Het levertijden topic zat rond deze tijd al ruim 4x het aantal reacties.
-- My Gaming Rig Power -- -- <SG> Diabolic --
Tja, het wordt zo wel lastig om de 4080 12GB te verkopen. Performance is i.d.d. prima, maar de prijs niet. Zelfde geldt voor de 4080 16GB. Die zit mooi tussen de 3090Ti en 4090 in, maar allemachtig wat een geld.meljor schreef op woensdag 12 oktober 2022 @ 11:41:
[...]
De rtx 3070 was ook niet bepaald sneller dan de 2080ti dus het product is op zich niet eens verkeerd, de naam en prijs echter...... Het zou wat mij betreft minimaal 3090/3090ti performance moeten zijn maar dan voor een paar honderd minder dan een 3090
Inderdaad! Ik twijfel tussen de 3080 12GB en de 4080 12GB, de 3080 zit rond de 950 euro, de 4080 zou dan naar mijn inzien maximaal 100 euro duurder mogen zijn, maar dan zit hij de 3080Ti weer in de weg.Thomas schreef op woensdag 12 oktober 2022 @ 13:14:
[...]
Tja, het wordt zo wel lastig om de 4080 12GB te verkopen. Performance is i.d.d. prima, maar de prijs niet. Zelfde geldt voor de 4080 16GB. Die zit mooi tussen de 3090Ti en 4090 in, maar allemachtig wat een geld.
Je hebt een 6900 XT al voor 695 euro. Dan is de 3080 een slechte keuze als dit je twijfels zijn.Danielson schreef op woensdag 12 oktober 2022 @ 13:24:
[...]
Inderdaad! Ik twijfel tussen de 3080 12GB en de 4080 12GB, de 3080 zit rond de 950 euro, de 4080 zou dan naar mijn inzien maximaal 100 euro duurder mogen zijn, maar dan zit hij de 3080Ti weer in de weg.
Ik wil hem gebruiken voor een triple screen setup voor sim-racen, wat ik begrijp is Nvidia daar veel beter geschikt voor (SMP).Paprika schreef op woensdag 12 oktober 2022 @ 13:28:
[...]
Je hebt een 6900 XT al voor 695 euro. Dan is de 3080 een slechte keuze als dit je twijfels zijn.
[ Voor 3% gewijzigd door CMT op 12-10-2022 16:27 ]
Heerlijk als een site zo goed ze allemaal in één overzicht plaatst en stuk voor stuk reviewed. Jammer dat je als consument nu overgeleverd bent met deze launch welke 4090's waar beschikbaar zijn.
Man is a tool-using animal. Without tools he is nothing, with tools he is all.
Heeft er iemand toevallig al de concrete verschillen in clocksnelheden/voltages/power limits etc kunnen vinden?
Ik zag hier een review, misschien dat zij er iets over zeggenpimjai schreef op woensdag 12 oktober 2022 @ 16:44:
Omdat ik de founders editie helaas niet kon krijgen ben ik maar gegaan voor de kaart die nog te krijgen was voor mij, de Gigabyte GeForce RTX 4090 Gaming OC. Zit nu dus een beetje uit te zoeken wat ik precies gekocht heb maar ik kan nergens vinden wat nou de concrete verschillen zijn tussen de silent bios en de OC bios, waar je blijkbaar tussen kan switchen. De site van gigabyte komt niet verder dan dat de silent BIOS stiller is (goh).
Heeft er iemand toevallig al de concrete verschillen in clocksnelheden/voltages/power limits etc kunnen vinden?
https://www.techpowerup.c...tx-4090-gaming-oc/42.html
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Ahja dankje, die had ik inderdaad al gezien, maar zie dat ik de enkele zin die eraan gewijd is eerder gemist had. Het lijkt dat dit dus puur invloed heeft op de fan curve, lekker op silent en gaan dus in mijn geval.Help!!!! schreef op woensdag 12 oktober 2022 @ 16:53:
[...]
Ik zag hier een review, misschien dat zij er iets over zeggen![]()
https://www.techpowerup.c...tx-4090-gaming-oc/42.html
- 6dB verschil is een hoop (10dB komt grofweg overeen met subjectief een halvering in 'luidheid').
Wat alleen niet te meten, is welk model het minst stoort (motorgeluid, evt. resonanties, grondtoonhoogte van de fan's, mate van turbulentie etc).
Alleen het rustverbruik zeg, 20-40W idle.. Je moet het maar willen om weer 10 jaar terug in de tijd te gaan.
Een reference RX6950XT gebruikt 7W idle.
kwa grote, prijs en OC mogelijkheden.CMT schreef op woensdag 12 oktober 2022 @ 17:38:
In welke zin? De Asus en MSI AIB modellen zijn een stuk stiller dan de FE kaart.
- 6dB verschil is een hoop (10dB komt grofweg overeen met subjectief een halvering in 'luidheid').
Wat alleen niet te meten, is welk model het minst stoort (motorgeluid, evt. resonanties, grondtoonhoogte van de fan's, mate van turbulentie etc).
Alleen het rustverbruik zeg, 20-40W idle.. Je moet het maar willen om weer 10 jaar terug in de tijd te gaan.
Een reference RX6950XT gebruikt 7W idle.
Volgens mij snapt niemand mijn vraagsunsmountain schreef op woensdag 12 oktober 2022 @ 10:17:
[...]
Misschien wwoosh, maar Reflect wordt toch ook geforceerd als je DLSS 3 aan zet? Eigenlijk is DLSS 3 = DLSS 2.3 + Reflex + dat Auto Frame Generation dingetje.
In de vergelijkingen die gemaakt zijn door reviewers. Gebruiken ze bij elk resultaat Reflex of hebben ze dat alleen aan voor de DLSS 3 resultaten.
Dat maakt nogal een verschil in latency namelijk en je wil zoveel mogelijk appels met appels vergelijken.
Bron:Our DirectX 12 optimizations apply to GeForce RTX graphics cards and laptops, though improvements will vary based on your specific system setup, and the game settings used. In our testing, performance increases were found in a wide variety of DirectX 12 games, across all resolutions:
Assassin’s Creed Valhalla: up to 24% (1080p)Battlefield 2042: up to 7% (1080p)Borderlands 3: Up to 8% (1080p)Call of Duty: Vanguard: up to 12% (4K)Control: up to 6% (4K)Cyberpunk 2077: up to 20% (1080p)F1Ⓡ 22: up to 17% (4K)Far Cry 6: up to 5% (1440p)Forza Horizon 5: up to 8% (1080P)Horizon Zero Dawn: Complete Edition: up to 8% (4k)Red Dead Redemption 2: up to 7% (1080p)Shadow of the Tomb Raider: up to 5% (1080p)Tom Clancy’s The Division 2: up to 5% (1080p)Watch Dogs: Legion: up to 9% (1440p)
https://www.nvidia.com/en...x-4090-game-ready-driver/


Ik wil op het hart drukken om niet zomaar de sense pinnen aan grond te knoppen om zo meer vermogen te forceren over minder kabels. Dit is alleen voor diegene die heel goed weten waar ze mee bezig zijn en een goede inschatting kunnen maken van wat wel of niet kan (en er ook naar omkijken i.p.v. inpluggen en klaar).
De kans op brand is reëel als het niet goed gaat.
[ Voor 23% gewijzigd door CMT op 13-10-2022 08:00 ]
Ik vraag me af wat dit met de MSI RTX 4090 Gaming X Trio gaat doen want de kaart word geleverd met 3x8 pin maar ik heb een ATX 3.0 voeding met 12VHPR ondersteuning.CMT schreef op donderdag 13 oktober 2022 @ 05:52:
Nou de aap is uit de mouw wat betreft de belachelijke 1 naar 4 verloopkabel, in dit geval een verborgen simpele switch IC: https://www.igorslab.de/e...90-works-with-workaround/
Ik wil op het hart drukken om niet zomaar de sense pinnen aan grond te knoppen om zo meer vermogen te forceren over minder kabels. Dit is alleen voor diegene die heel goed weten waar ze mee bezig zijn en een goede inschatting kunnen maken van wat wel of niet kan (en er ook naar omkijken i.p.v. inpluggen en klaar).
De kans op brand is reëel als het niet goed gaat.
Zoiezo lijkt de aansluiting voor de nieuwe 12 pins connector op alle 4090 kaarten van boterkoek gemaakt, als ik in ieder geval JayzTwoCents beluister. Deze nieuwe kabelspec lijkt gewoon niet echt goed doordacht, of in ieder geval niet goed geïmplementeerd door Nvidia en haar AIBs.CMT schreef op donderdag 13 oktober 2022 @ 05:52:
Dit is alleen voor diegene die heel goed weten waar ze mee bezig zijn en een goede inschatting kunnen maken van wat wel of niet kan (en er ook naar omkijken i.p.v. inpluggen en klaar).
De kans op brand is reëel als het niet goed gaat.
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Als ik die koeler resultaten zo zie vraag ik me wel af wat nu waar is van dan gerucht dat Nvidia een koeler zou hebben ontwikkeld voor 450W, maar de AIB's heimelijk een koeler heeft laten ontwikkelen voor 600W. Ik zie eigenlijk maar een paar AIB kaarten het veel beter doen, en dat is dan ook nog een met een specifiek quiet bios (dat mogelijk ook de performance beïnvloed). Als dat gerucht waar was, zou je eigenlijk verwachten dat iedere AIB koeler de FE compleet zou verpulveren qua geluid en temperatuur, maar dat gebeurt toch niet direct. Er zitten zeker betere modellen tussen (maar dat is eigenlijk altijd wel zo), maar ook modellen die niet of amper beter lijken te presteren.CMT schreef op woensdag 12 oktober 2022 @ 17:38:
In welke zin? De Asus en MSI AIB modellen zijn een stuk stiller dan de FE kaart.
- 6dB verschil is een hoop (10dB komt grofweg overeen met subjectief een halvering in 'luidheid').
Wat alleen niet te meten, is welk model het minst stoort (motorgeluid, evt. resonanties, grondtoonhoogte van de fan's, mate van turbulentie etc).
Alleen het rustverbruik zeg, 20-40W idle.. Je moet het maar willen om weer 10 jaar terug in de tijd te gaan.
Een reference RX6950XT gebruikt 7W idle.
Idle power van de Navi 21 chips lijkt wel een beetje 'all over the place' te zijn, 7W lijkt de ondergrens te zijn in reviews, terwijl 18W het hoogste is wat ik tegenkom. Mijn eigen 6900XT zit op 11-14W in Idle.
[ Voor 7% gewijzigd door Dennism op 13-10-2022 10:14 ]
:fill(white):strip_exif()/f/image/xU9qqsX6a9v0iaeyfwsX21jX.png?f=user_large)
Toch best een verschil voor een normalized test.
Tussen de top en de bodem inderdaad wel. Maar als je die AIO weghaalt aan de top, krijg ik toch niet het idee dat die andere koelers allemaal voor 600W Base TBP ontwikkeld zijn (en dus, aangezien het AIB OC modellen zijn flink meer moeten kunnen verwerken dan base TBP), terwijl de FE dan voor een Base 450W TBP ontwikkeld zou zijn. Daarvoor lijken die verschillen me ten eerste te klein, zeker met de kaarten het dichtst bij de 4090, maar daarnaast zou je dan ook kleinere verschillen verwachten tussen de AIB kaarten zelf.Paprika schreef op donderdag 13 oktober 2022 @ 10:15:
[Afbeelding]
Toch best een verschil voor een normalized test.
Dit lijkt meer op het verloop dat je redelijk vaak ziet bij nieuwe releases, waar de reference / FE kaarten onderaan bungelen, met de onderkant van de stack qua AIB kaarten. En dat de top AIB kaarten (die vaak ook veel duurder zijn), het logischerwijs qua koeling ook beter doen.
Tot je een 2de monitor aansluit en dan schiet het voorbij Nvidia naar 50W. Ik vind het idle verbruik van de 6950xt wel eigenaardig want de 6900xt had wel een idle van bijna 30W.CMT schreef op woensdag 12 oktober 2022 @ 17:38:
Alleen het rustverbruik zeg, 20-40W idle.. Je moet het maar willen om weer 10 jaar terug in de tijd te gaan.
Een reference RX6950XT gebruikt 7W idle.
/f/image/ObIh47GKbbJWXaJbpCExpy7t.png?f=fotoalbum_large)
De Suprim viel qua meerprijs (bij de juiste winkel) best mee. Ik zou zelf, als ik een potentiële koper was geweest, vooral concluderen dat de STRIX een overpriced onding is.Dennism schreef op donderdag 13 oktober 2022 @ 10:23:
[...]
Dit lijkt meer op het verloop dat je redelijk vaak ziet bij nieuwe releases, waar de reference / FE kaarten onderaan bungelen, met de onderkant van de stack qua AIB kaarten. En dat de top AIB kaarten (die vaak ook veel duurder zijn), het logischerwijs qua koeling ook beter doen.
Daar ik nu nergens prijzen zie, want mensen zijn schijnbaar nog steeds gek genoeg om 2k+ euro stuk te slaan op dag 1 op een GPU, voor mijn beeldvorming, uitgaande van €1950 voor de FE, wat moest die Suprim X, de Suprim X Liquid en die Strix gister kosten dan bij onze Webshops?Paprika schreef op donderdag 13 oktober 2022 @ 10:28:
[...]
De Suprim viel qua meerprijs (bij de juiste winkel) best mee. Ik zou zelf, als ik een potentiële koper was geweest, vooral concluderen dat de STRIX een overpriced onding is.
2250, 2400, 2600Dennism schreef op donderdag 13 oktober 2022 @ 10:37:
[...]
Daar ik nu nergens prijzen zie, want mensen zijn schijnbaar nog steeds gek genoeg om 2k+ euro stuk te slaan op dag 1 op een GPU, voor mijn beeldvorming, uitgaande van €1950 voor de FE, wat moest die Suprim X, de Suprim X Liquid en die Strix gister kosten dan bij onze Webshops?
Bij Alternate ging ie weg voor €2500. Die deden een onfris truckje door eerst de andere webshops af te wachten en hun te laten launcen om vervolgens een half uur later de eigen voorraad online te zetten voor beduidend hogere prijzen.Dennism schreef op donderdag 13 oktober 2022 @ 10:37:
[...]
Daar ik nu nergens prijzen zie, want mensen zijn schijnbaar nog steeds gek genoeg om 2k+ euro stuk te slaan op dag 1 op een GPU, voor mijn beeldvorming, uitgaande van €1950 voor de FE, wat moest die Suprim X, de Suprim X Liquid en die Strix gister kosten dan bij onze Webshops?

Man is a tool-using animal. Without tools he is nothing, with tools he is all.
allemaal natuurlijk veel te duur, maar die strix spant dan inderdaad wel de kroon.
Bedoel je de Suprim x met die €2500 of de Strix?J4s0n schreef op donderdag 13 oktober 2022 @ 10:42:
[...]
Bij Alternate ging ie weg voor €2500. Die deden een onfris truckje door eerst de andere webshops af te wachten en hun te laten launcen om vervolgens een half uur later de eigen voorraad online te zetten voor beduidend hogere prijzen.
Als @Paprika €2250 noemt als prijs bij de webshops en Alternate maakt daar dan €2500 van is dat inderdaad wel een streek
Maar eerlijk is eerlijk, als ze dan alsnog verkopen laat het ook maar weer zien dat mensen simpelweg bereid zijn dat soort idiote prijzen te betalen, en Nvidia met hun partners dus wel gelijk hebben. Laten we hopen dat AMD dit niet opvalt
[ Voor 18% gewijzigd door Dennism op 13-10-2022 10:48 ]
Alternate koppelde verplicht 'n 1300W voeding van zo'n 250 euro aan al hun kaartenDennism schreef op donderdag 13 oktober 2022 @ 10:44:
[...]
Bedoel je de Suprim x met die €2500 of de Strix?
Als @Paprika €2250 noemt als prijs bij de webshops en Alternate maakt daar dan €2500 van is dat inderdaad wel een streek
Edit:
@Dennism, van de Tweakers discord gekaapt:
/f/image/NexrB3rDCD0LbxF77PhEIPlm.png?f=fotoalbum_large)
[ Voor 33% gewijzigd door Paprika op 13-10-2022 10:56 ]
Lol, zie echter ook mijn edit hierboven. Als mensen dat als zoete koek slikken en tekenen bij het kruisje laat dat wel het gelijk zijn zien van Nvidia en hun partners.Paprika schreef op donderdag 13 oktober 2022 @ 10:45:
[...]
Alternate koppelde verplicht 'n 1300W voeding van zo'n 250 euro aan al hun kaarten.
[ Voor 22% gewijzigd door OMD op 13-10-2022 10:49 ]
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
De Suprim X.Dennism schreef op donderdag 13 oktober 2022 @ 10:44:
[...]
Bedoel je de Suprim x met die €2500 of de Strix?
Als @Paprika €2250 noemt als prijs bij de webshops en Alternate maakt daar dan €2500 van is dat inderdaad wel een streek
Maar eerlijk is eerlijk, als ze dan alsnog verkopen laat het ook maar weer zien dat mensen simpelweg bereid zijn dat soort idiote prijzen te betalen, en Nvidia dus wel gelijk heeft. Laten we hopen dat AMD dit niet opvalt
Dat scalpers dit doen is tot daar aan toe. Hoort erbij in deze gekte. Maar dat gerespecteerde (of ik dacht gerespecteerde) webwinkels zo handelen is niet sjiek. Ze mogen het doen, betekent niet dat ze het ook moeten doen natuurlijk.
Man is a tool-using animal. Without tools he is nothing, with tools he is all.
Alleen is dat verschil relevant? Of je kaart nu 58 graden of 72 graden wordt, beide is prima binnen de marges.Paprika schreef op donderdag 13 oktober 2022 @ 10:15:
[Afbeelding]
Toch best een verschil voor een normalized test.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Het ging hier puur over de hoeveelheid warmte de koelers konden dumpen richting de omgeving. Zelf zou ik de goedkoopste kaart nemen als dat je vraag is.Jeroenneman schreef op donderdag 13 oktober 2022 @ 10:48:
[...]
Alleen is dat verschil relevant? Of je kaart nu 58 graden of 72 graden wordt, beide is prima binnen de marges.
Volgens mij klopt dit wanneer je geen DSC gebruikt, met DSC kun je volgens mij wel hoger als je zaken als HDR, 10bit kleur e.d. laat vallen.OMD schreef op donderdag 13 oktober 2022 @ 10:47:
Even voor mijn beeldvorming want dat is materie waar ik niet echt in thuis ben. De 4090 heeft maar een DP1.4a aansluiting en is daarom gelimiteerd tot 4K 120hz? Klopt dit? Ik zie toch bij reviews veel meer fps of is het alleen het uitgestuurde signaal dat de limit heeft?
[ Voor 5% gewijzigd door Dennism op 13-10-2022 10:51 ]
Maar alle koelers hebben toch bijna dezelfde warmte afgifte? Wellicht de één wat sneller van de chip dan de ander, maar in totaal zullen ze de warmte toch kwijt moeten.Paprika schreef op donderdag 13 oktober 2022 @ 10:50:
[...]
Het ging hier puur over de hoeveelheid warmte de koelers konden dumpen richting de omgeving. Zelf zou ik de goedkoopste kaart nemen als dat je vraag is.
Het makkelijkst is de kaart kopen die beschikbaar is, power target naar een normale waarde, en dan zit je met welke koeler dan ook goed.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Klopt, we zeggen hetzelfde eigenlijk.Jeroenneman schreef op donderdag 13 oktober 2022 @ 10:52:
[...]
Maar alle koelers hebben toch bijna dezelfde warmte afgifte? Wellicht de één wat sneller van de chip dan de ander, maar in totaal zullen ze de warmte toch kwijt moeten.
Het makkelijkst is de kaart kopen die beschikbaar is, power target naar een normale waarde, en dan zit je met welke koeler dan ook goed.
Dus je moet eigenlijk kwaliteit van het beeld laten vallen voor fps bij de 4090 als je je 144hz 4k monitor (optimaal) wil gebruiken. Wait whut? Of denk ik te simpel?Dennism schreef op donderdag 13 oktober 2022 @ 10:50:
[...]
Volgens mij klopt dit wanneer je geen DSC gebruikt, met DSC kun je volgens mij wel hoger als je zaken als HDR, 10bit kleur e.d. laat vallen.
[ Voor 8% gewijzigd door OMD op 13-10-2022 10:58 ]
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Komt het eigenlijk wel op neer voor zover ik weet, al claimen ze wel dat DSC virtually lossless is, dus hoeveel je in de praktijk daarvan merkt durf ik niet te zeggen. En ik heb het ook nog nooit kunnen testen.OMD schreef op donderdag 13 oktober 2022 @ 10:55:
[...]
Dus je moet eigenlijk kwaliteit van het beeld laten vallen voor fps bij de 4090 als je je 144hz 4k monitor (optimaal) wil gebruiken. Wait whut? Of denk ik te simpel?
Dit is bijv. wat Benq erover zegt:
Additionally, monitors such as the MOBIUZ EX3210U support digital signal compression technology or DSC, which allows for 4K 144Hz to transit via one DisplayPort 1.4 connection, despite DP 1.4 being around for quite some time. Note that the graphics card you choose should also support DSC, but that’s not a problem because nearly all video cards released over the last couple of years have this technology. If you choose to game in 4K 120Hz, then DSC isn’t needed and DisplayPort 1.4 will work perfectly.
[ Voor 36% gewijzigd door Dennism op 13-10-2022 11:05 ]
Heb net dit stuk een beetje zitten lezen:Dennism schreef op donderdag 13 oktober 2022 @ 11:03:
[...]
Komt het eigenlijk wel op neer voor zover ik weet, al claimen ze wel dat DSC virtually lossless is, dus hoeveel je in de praktijk daarvan merkt durf ik niet te zeggen. En ik heb het ook nog nooit kunnen testen.
https://www.anandtech.com...pg27uq-gsync-hdr-review/3
Aangezien er vermeld wordt dat je niet boven de 4k 120hz kan komen "unless you are using chroma"
Ik kwam er op door dit artikel:
https://videocardz.com/ne...displayport-2-1-interface
Stond er een beetje van te kijken eerlijk gezegd maar goed. Wat het echt in de praktijk voor verschil geeft is denk ik moeilijk uit te vinden en wellicht merk je het amper.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Kwaliteit ga je weinig van merken als je DCS laat vallen. Dit kun je prima doen. Al hoewel ik betwijfel of je het verschil wel gaat merken tussen 120Hz en 144Hz, tenzij je echt competitief bezig bent in de game wereld.OMD schreef op donderdag 13 oktober 2022 @ 10:55:
[...]
Dus je moet eigenlijk kwaliteit van het beeld laten vallen voor fps bij de 4090 als je je 144hz 4k monitor (optimaal) wil gebruiken. Wait whut? Of denk ik te simpel?
-- My Gaming Rig Power -- -- <SG> Diabolic --
Laat ik nou net deze dus gekocht hebben. Links de 4090FE en rechts de Aorus Master. Het is echt een monster.
:strip_exif()/f/image/D2TPABTgH7AZy9HobmMYOtpr.jpg?f=fotoalbum_large)
-- My Gaming Rig Power -- -- <SG> Diabolic --
Het is meer voor de mensen die straks wel een hogere refreshrate monitor hebben dan 120hz op 4k en het wel merken. Dat is dus minder bruikbaar door de oude displayport techniek die nVidia heeft gebruikt. Misschien niet rampzalig maar wel apart voor een niche product van 2000 euro.Xtr3me4me schreef op donderdag 13 oktober 2022 @ 11:08:
[...]
Kwaliteit ga je weinig van merken als je DCS laat vallen. Dit kun je prima doen. Al hoewel ik betwijfel of je het verschil wel gaat merken tussen 120Hz en 144Hz, tenzij je echt competitief bezig bent in de game wereld.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Die DSC 'loss' ga je echt niet merken. Tenzij je professional color accurate werk doet zie je geen verschil tussen 10 of 8 bit kleuren.OMD schreef op donderdag 13 oktober 2022 @ 11:33:
[...]
Het is meer voor de mensen die straks wel een hogere refreshrate monitor hebben dan 120hz op 4k en het wel merken. Dat is dus minder bruikbaar door de oude displayport techniek die nVidia heeft gebruikt. Misschien niet rampzalig maar wel apart voor een niche product van 2000 euro.
Of je 120 naar 144Hz gaat merken hangt af van je gevoeligheid. Ikzelf merk het wel, het is meer een net-iets-smoothere beweging idee, maar het is zeker niet zo groot als het verschil tussen 60 naar 120 Hz.
Dat er geen DP2.0 connectie op de 4090 kaart zit, ach ja soms lopen die dingen elkaar net mis. Maar het is wel een punt voor degene die absoluut die connectie willen gebruiken dat ze weten dat de kaart 'maar' DP1.4a heeft.
[ Voor 13% gewijzigd door Zuvio op 13-10-2022 11:37 ]
Is meer omdat Nvidia ervan uit gaat, dat mensen voorlopig niet meer nodig hebben dan DP 1.4a en HDMI 2.1 en dat er te weinig mensen zijn die voluit gebruik maken van de DP 2.0.OMD schreef op donderdag 13 oktober 2022 @ 11:33:
[...]
Het is meer voor de mensen die straks wel een hogere refreshrate monitor hebben dan 120hz op 4k en het wel merken. Dat is dus minder bruikbaar door de oude displayport techniek die nVidia heeft gebruikt. Misschien niet rampzalig maar wel apart voor een niche product van 2000 euro.
Daarin tegen heeft Nvidia de plank misgeslagen want zowel Intel als AMD hebben DP 2.0 op hun kaarten. Nvidia moet eens leren te stoppen te denken voor een ander en meer luisteren naar het brede publiek.
-- My Gaming Rig Power -- -- <SG> Diabolic --
-Iemand van Corsair besloot om zonder goede informatie te gaan beschuldigen dat ze onzin verspreiden over hoe die PCIe kabel adapter werkt. Die kreeg een uitleg van iemand van Nvidia terug.
-Vervolgens gaan ze airflow testen.
-En dan ook nog eens contact tussen de GPU en de koeler.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
-Ze hebben LDAT gebruikt, bedankt Nvidia.
-Qua latency is het verschil fors en het is groter met 3.0 quality mode dan performance mode. Het effect wordt zoals verwacht ook groter met lagere framerates, waardoor DLSS 3.0 een groter vraagteken is. Eigenlijk zeggen ze dat je dit niet moet gebruiken onder de 120fps die je haalt zonder DLSS3.0. Voor compative games raden ze dit helemaal af. Idem voor hogere fps dan je scherm haar resolutie voor de voordelen in latency.
-DLSS 3.0 ondersteund ook geen Vsync of frame cap waardoor je ook tearing kan krijgen zonder een adaptive sync monitor.
-DLSS 3.0 werkt aardig als er weinig verschil is tussen twee frames. Ook maskeert een erg hogere framerate de artefacts die je ervaart redelijk goed.
-Maar er zijn duidelijk merkbare problemen met UI in games. En als je snel compleet van beeld veranderd, dan krijg je complete blur.
[ Voor 84% gewijzigd door DaniëlWW2 op 13-10-2022 12:59 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik denk dat die 4080 12GB nog wel redelijk uit de voeten moet kunnen met veel games, maar dan wel op een lagere resolutie. Zeker in een 'langzame' game zoals Flight Simulator kan het dan denk ik weinig kwaad, maar aan de andere kant heb je in dat soort games ook veel minder aan, laten we zeggen, 140fps t.o.v. 70 of 80. Ik vind het an sich een hele mooie technologie, het lijkt op een veel betere vorm van 'smoothening' dat je al tijden op televisies hebt. Denk niet dat ik er zelf heel gauw gebruik van zal maken; vooral hoe de HUD lijdt onder DLSS 3 in FS en F1 2022 zou ik me aardig aan storen ben ik bang.Paprika schreef op donderdag 13 oktober 2022 @ 13:17:
@DaniëlWW2, ik ben benieuwd hoe de 4080 12GB door zo'n test gaat komen als die van HU gezien de beperkte uplift tov de 3080.
Het gaat een RTX3080Ti worden die in de ene game iets beter is, de volgende iets slechter met een grappig extraatje die voor een paar games relevant kan zijn, als die het ondersteunen. Meer is het gewoon niet. Het is best leuk voor Flight Sim waar je met een forse CPU bottleneck zit en latency niet erg relevant zal zijn. Maar in elke first person alsmede heel wat third person games zou ik het niet eens overwegen. Je hebt daar de framerate, dus 100+ waardoor je het niet nodig hebt, of je gaat te veel latency impact hebben. Het is zeker ook geen fix voor inadequate RT hardware zoals Nvidia suggereerde.Paprika schreef op donderdag 13 oktober 2022 @ 13:17:
@DaniëlWW2, ik ben benieuwd hoe de 4080 12GB door zo'n test gaat komen als die van HU gezien de beperkte uplift tov de 3080.
Ook ga je naar 285W vanaf 350W. Als dit nu $450 was, dan had je een leuke videokaart voor 1440p. Meer wil ik er eigenlijk ook niet over zeggen omdat dit ding inmiddels afdoende doodgeknuppeld is. Ik blijf er immers bij dat alleen AD102 een beetje interessant lijkt. De rest mist de SM aantallen voor rasterisation + meer RT cores.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Als ze de UI artifacts oplossen zie ik me dit nog best wel vaak gebruiken. Vooral als het betekend dat ik ray-tracing aan kan zetten. Zonder ray-tracing heb je namelijk ook artifacts bij gebruik van bijvoorbeeld SSR en dit is iets wat me meteen opvalt.
Behalve DLSS 3 niet. Gok dat de 4080 12GB in praktijk wel ietsjes beter zal gaan presteren, zeker als er nieuwe drivers uitkomen. De MSRP is trouwens 1099 euro, dus dat is 150 euro meer. Of dat het waard is is een ander verhaal.Danielson schreef op donderdag 13 oktober 2022 @ 14:25:
Ik zat te twijvelen tussen een RTX3080 12GB (950 euro) en een RTX4080 12GB (1300 euro?), maar als ik de benchmarks zo zie dan is het verschil qua performance die paar honderd euro zeker niet waard, dat is wel een beetje een tegenvaller, of zie ik iets over het hoofd?
Dat is de prijs van de FE, de andere merken zoals Asus enz zullen daar ver boven zitten ben ik bang!Thomas schreef op donderdag 13 oktober 2022 @ 14:29:
[...]
Behalve DLSS 3 niet. Gok dat de 4080 12GB in praktijk wel ietsjes beter zal gaan presteren, zeker als er nieuwe drivers uitkomen. De MSRP is trouwens 1099 euro, dus dat is 150 euro meer. Of dat het waard is is een ander verhaal.

Er komt geen FE van de 12GB variantDanielson schreef op donderdag 13 oktober 2022 @ 14:31:
[...]
Dat is de prijs van de FE, de andere merken zoals Asus enz zullen daar ver boven zitten ben ik bang!
Naast de artefacts besprak HWU ook nog de latency effecten onder bepaalde omstandigheden.PjotrX schreef op donderdag 13 oktober 2022 @ 14:00:
De artifacts in de UI zijn eigenlijk de enige waar ik echt over struikel. De rest zijn niet echt opvallend tenzij je er naar opzoek bent. Bij hardware unboxed hadden ze het beeld tot 12,5% moeten vertragen totdat je de artifacts duidelijk zag. Oculus had de UI artifacts ook met hun spacewarp en die zijn opgelost door een apart buffer aan te leveren waar de UI in getekend kan worden. Ik snap niet waarom Nvidia deze optie ook niet geeft. Dit kunnen ze misschien in de toekomst met een update oplossen maar dan heb je wel al tientallen games die al uit zijn en wellicht geen patchen meer krijgen en dus nooit zullen oplossen. Dus een beetje jammer dat Nvidia dat niet meteen bij de eerste versie introduceerde.
Als ze de UI artifacts oplossen zie ik me dit nog best wel vaak gebruiken. Vooral als het betekend dat ik ray-tracing aan kan zetten. Zonder ray-tracing heb je namelijk ook artifacts bij gebruik van bijvoorbeeld SSR en dit is iets wat me meteen opvalt.
Zeker toekomstige lager gepositioneerde GPU's met lagere raw FPS kunnen met DLSS 3 door de toegenomen latency er wel soepel uitzien maar toch minder soepel aanvoelen.
Video start bij het meer samenvattende gedeelte: YouTube: Fake Frames or Big Gains? - Nvidia DLSS 3 Analyzed
Ik ben in ieder geval nog niet echt overtuigd van DLSS 3. Zie het meer als nice to have en zou het waarschijnlijk niet of zelden gebruiken.
[ Voor 4% gewijzigd door Help!!!! op 13-10-2022 15:03 ]
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dat is ook een beetje het gevoel wat ik van hun video kreeg. Je kan dus inderdaad Cyberpunk op 150 fps spelen in 4K met RT en DLSS2+FG aan, maar als het dan nog steeds voelt als 40 fps omdat dat je originele fps was voordat je de trukendoos van Nvidia opende, dan kom je echt nog niet veel verder behalve de bragging rights.Help!!!! schreef op donderdag 13 oktober 2022 @ 14:41:
Zeker lager gepositioneerde GPU's met lagere raw FPS kunnen met DLSS 3 door de toegenomen latency er wel soepel uitzien maar toch minder soepel aanvoelen.
Dan is het inderdaad een beetje een wassen neus als je eigenlijk als native 120fps moet draaien om de software goed te laten functioneren. Dan is 120fps -> 200 fps opeens een heel stuk minder waardevol.
Dat zal dan misschien ook wel gelijk de reden zijn dat DLSS3 niet naar de 3000 series komt? Daar was het namelijk niet effectief/responsive genoeg geweest zijn.
[ Voor 9% gewijzigd door zzzzz op 13-10-2022 14:46 ]
Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K
Zijn quote ook: "Based on this it's hard to recommend anyone use DLSS 3 at moderate to low framerates." en: "I recommend a minimum of 120 FPS before enabling DLSS 3, targeting at around 200fps with frame generation enabled".zzzzz schreef op donderdag 13 oktober 2022 @ 14:45:
[...]
Dat is ook een beetje het gevoel wat ik van hun video kreeg. Je kan dus inderdaad Cyberpunk op 150 fps spelen in 4K met RT en DLSS2+FG aan, maar als het dan nog steeds voelt als 40 fps omdat dat je originele fps was voordat je de trukendoos van Nvidia opende, dan kom je echt nog niet veel verder behalve de bragging rights.
Dan is het inderdaad een beetje een wassen neus als je eigenlijk als native 120fps moet draaien om de software goed te laten functioneren. Dan is 120fps -> 200 fps opeens een heel stuk minder waardevol.
Dat zal dan misschien ook wel gelijk de reden zijn dat DLSS3 niet naar de 3000 series komt? Daar was het namelijk niet effectief/responsive genoeg geweest zijn.
Goede video en zeker het kijken waard voor wie een 4090 heeft weten te bemachtigen en DLSS 3 aan gaat zetten.
De latency increase maakt darabij dat het voor competatieve games niet geschikt is omdat je latency best hard omhoog gaat.
[ Voor 4% gewijzigd door J4s0n op 13-10-2022 14:54 . Reden: Toevoeging ]
Man is a tool-using animal. Without tools he is nothing, with tools he is all.
Ik denk dat NV niet gelogen heeft over de noodzaak voor extra hardware om dit toneelstukje op te kunnen voeren (of liever, ze hebben een nut gevonden voor AI hardware die anders braak had gelegen in gaming). Het heeft dan letterlijk geen zin om het te implementeren voor de eerdere kaarten omdat je er netto dan op achteruit gaat in rasterization perf, voordat de frame generation daar dan weer voor compenseert, zodat je het slechtste van twee werelden hebt: toegenomen latency en niet of nauwelijks toegenomen framerates. Zoiets kan zelfs de marketing van NV niet aan de man brengen, als ze dat al zouden willen.zzzzz schreef op donderdag 13 oktober 2022 @ 14:45:
Dat zal dan misschien ook wel gelijk de reden zijn dat DLSS3 niet naar de 3000 series komt? Daar was het namelijk niet effectief/responsive genoeg geweest zijn.
Voor mij is DLSS 3 (of beter gezegd Frame Generation) in ieder geval volkomen oninteressant geworden na de video van HU. Het is duidelijk een "win more" feature die alleen fijn gaat zijn als je toch al op de eerste rang zit qua hardware, en juist niet om goedkopere hardware een voorsprong te geven ten opzichte van de concurrent op hetzelfde niveau. De winst zit hem vooral bij Nvidia in hoe ze hun benchmarks kunnen verkopen.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Het verhaal achter frame generation op vorige series was al beantwoord zie mijn eigen bericht van 'n paar weken terug.Paprika schreef op woensdag 21 september 2022 @ 10:37:
Dit zou overigens de achterliggende uitleg moeten zijn:
[Afbeelding]
https://ctnzr.io
Exact. HWU gaf dan m.i. ook terecht aan in hun conclusie dat FPS data met/zonder DLSS 3 eigenlijk niet te vergelijken zijn. Het is geen apples to apples maar nvidia presenteert het wel zo in hun marketing en in de reviews staat het ook als 'apples to apples' in de overzichtjes.....MneoreJ schreef op donderdag 13 oktober 2022 @ 14:57:
[...]
Ik denk dat NV niet gelogen heeft over de noodzaak voor extra hardware om dit toneelstukje op te kunnen voeren (of liever, ze hebben een nut gevonden voor AI hardware die anders braak had gelegen in gaming). Het heeft dan letterlijk geen zin om het te implementeren voor de eerdere kaarten omdat je er netto dan op achteruit gaat in rasterization perf, voordat de frame generation daar dan weer voor compenseert, zodat je het slechtste van twee werelden hebt: toegenomen latency en niet of nauwelijks toegenomen framerates. Zoiets kan zelfs de marketing van NV niet aan de man brengen, als ze dat al zouden willen.
Voor mij is DLSS 3 (of beter gezegd Frame Generation) in ieder geval volkomen oninteressant geworden na de video van HU. Het is duidelijk een "win more" feature die alleen fijn gaat zijn als je toch al op de eerste rang zit qua hardware, en juist niet om goedkopere hardware een voorsprong te geven ten opzichte van de concurrent op hetzelfde niveau. De winst zit hem vooral bij Nvidia in hoe ze hun benchmarks kunnen verkopen.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Met hun nieuwe Flow nog wattus etc...is de eerste keer met games we DLSS 3.0 zien en denk software matig nog veel gedaan moet worden.
Ik zou het lekker op DLSS 2.0 houden voorlopig en DLSS 3.0 wachten totdat het volwassen genoeg gemaakt is en de meeste problemen opgelost zijn.
-- My Gaming Rig Power -- -- <SG> Diabolic --
Ik ben nog niet overtuigd van dat filmpje. Reden is dat ik voornamelijk SP games speel en als ik kijk naar de afgelopen jaren dan is de enige titel wat ik speelde met Reflex aan Deathloop was. En twee jaar geleden bestond er geen Reflex en heb ik werkelijk geen problemen met latency gehad. Maar dat light dus vooral aan de type spellen die ik speel. Spellen waar latency een issue is zijn competitieve spellen en die zijn gemaakt voor low-spec hardware. Alle kaarten die nu Frame Generation ondersteunen gaan geen problemen hebben met die spellen. Als je de latency echt nodig hebt zet reflex aan en frame generation uit, probleem opgelost. En mocht dat bij toekomstige spellen lage frame-rates te geven heb je nog de ruimte om settings terug te draaien.Help!!!! schreef op donderdag 13 oktober 2022 @ 14:41:
[...]
Naast de artefacts besprak HWU ook nog de latency effecten onder bepaalde omstandigheden.
Zeker toekomstige lager gepositioneerde GPU's met lagere raw FPS kunnen met DLSS 3 door de toegenomen latency er wel soepel uitzien maar toch minder soepel aanvoelen. YouTube: Fake Frames or Big Gains? - Nvidia DLSS 3 Analyzed
Ik ben in ieder geval nog niet echt overtuigd van DLSS 3. Zie het meer als nice to have en zou het waarschijnlijk niet of zelden gebruiken.
Ik heb wel al 1,5 jaar een 4k monitor en waar ik wel gevoelig voor ben is gestotter door lage framerate of dips. Denk dat de meerwaarde voor mij om van gestotter naar vloeiend gameplay gaan groter is dan de verloren latency (en meestal verlies je latency ten opzichte van reflex aan). Verder zoals al had gezegd zou ik dan de settings kunnen ophogen en daardoor van andere artifacts af zijn zoals LOD-popping of de SSR artifacts. Jammer dat er geen youtuber daar naar heeft gekeken: dus settings in een spel terugschroeven om dezelfde of in ieder geval een deel van de performance te krijgen van frame generation en dan kijken naar wat beter bevalt. Dit verschilt natuurlijk per spel en is heel erg subjectief.
Verified Priority Access Trial with GeForce RTX 4090 Founders Edition, werkt ook voor ons schijnbaar.
De Intel arc is maar UHBR10 en dat is maar 6gbps hoger dan dp1.4a. En is nog pending certificate.OMD schreef op donderdag 13 oktober 2022 @ 11:07:
[...]
Heb net dit stuk een beetje zitten lezen:
https://www.anandtech.com...pg27uq-gsync-hdr-review/3
Aangezien er vermeld wordt dat je niet boven de 4k 120hz kan komen "unless you are using chroma"
Ik kwam er op door dit artikel:
https://videocardz.com/ne...displayport-2-1-interface
Stond er een beetje van te kijken eerlijk gezegd maar goed. Wat het echt in de praktijk voor verschil geeft is denk ik moeilijk uit te vinden en wellicht merk je het amper.
Wat amd gaat doen weten we (nog) niet laten we hopen dat die wel dp2.0 80gbps gaan pushen zodat de markt in de toekomst wel meer dit gaat doen.
Is het nu een issue? Nah je kan al 4K 240 met Dsc op 1.4 zie bv de Samsung G85NB monitor
Zou het beter zijn voor toekomst en geen DSC te moeten gebruiken ja dat wel.
|WOW Daggerspine | Troll Hunter Axejess |
Precies zoals verwacht dus (tenminste mijn verwachtingDaniëlWW2 schreef op donderdag 13 oktober 2022 @ 12:23:
En DLSS3.0.
-Ze hebben LDAT gebruikt, bedankt Nvidia.![]()
-Qua latency is het verschil fors en het is groter met 3.0 quality mode dan performance mode. Het effect wordt zoals verwacht ook groter met lagere framerates, waardoor DLSS 3.0 een groter vraagteken is. Eigenlijk zeggen ze dat je dit niet moet gebruiken onder de 120fps die je haalt zonder DLSS3.0. Voor compative games raden ze dit helemaal af. Idem voor hogere fps dan je scherm haar resolutie voor de voordelen in latency.
-DLSS 3.0 ondersteund ook geen Vsync of frame cap waardoor je ook tearing kan krijgen zonder een adaptive sync monitor.
-DLSS 3.0 werkt aardig als er weinig verschil is tussen twee frames. Ook maskeert een erg hogere framerate de artefacts die je ervaart redelijk goed.
-Maar er zijn duidelijk merkbare problemen met UI in games. En als je snel compleet van beeld veranderd, dan krijg je complete blur.
[YouTube: Fake Frames or Big Gains? - Nvidia DLSS 3 Analyzed]
Daarnaast is HardwareUnboxed de eerste reviewer die goed aangeeft dat ze voor alle resultaten Reflex hebben gebruikt (en in een situatie niet)! Petje af want dit is de juiste situatie om het te testen.
Dat vroeg ik mij ook al af. Misschien omdat ze alles op de kaart doen dat dit lastiger is?PjotrX schreef op donderdag 13 oktober 2022 @ 14:00:
Oculus had de UI artifacts ook met hun spacewarp en die zijn opgelost door een apart buffer aan te leveren waar de UI in getekend kan worden. Ik snap niet waarom Nvidia deze optie ook niet geeft. Dit kunnen ze misschien in de toekomst met een update oplossen maar dan heb je wel al tientallen games die al uit zijn en wellicht geen patchen meer krijgen en dus nooit zullen oplossen. Dus een beetje jammer dat Nvidia dat niet meteen bij de eerste versie introduceerde.
Het is wel zo dat DLSS 2 juist zorgt voor minder latency, want je rendered dan frames op lage resolutie, wat sneller kan dan renderen op hoge resolutie. Dus als je met temporal upscaling van 40 naar 60 fps gaat en dan met interpolation naar 120 fps, dan heb je de latency van 60 FPS, niet van 40.zzzzz schreef op donderdag 13 oktober 2022 @ 14:45:
[...]
Je kan dus inderdaad Cyberpunk op 150 fps spelen in 4K met RT en DLSS2+FG aan, maar als het dan nog steeds voelt als 40 fps omdat dat je originele fps was voordat je de trukendoos van Nvidia opende, dan kom je echt nog niet veel verder behalve de bragging rights.
Dan is het inderdaad een beetje een wassen neus als je eigenlijk als native 120fps moet draaien om de software goed te laten functioneren.
De vraag is dan vooral waar de grens ligt. Hoeveel fps moet je hebben zonder interpolation voordat je onnauwkeurig gaat zijn, of het anderszins gaat merken. En ongetwijfeld hangt dat af van het soort spel.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Het vreemde is ook dat met DLSS 2 de GUI juist pas na de upscaling wordt toegevoegd, zodat je geen upscaling artifacts krijgt in je GUI. Dan zou je denken dat Nvidia de interpolation vlak na de upscaling zou doen, en pas dan de GUI er overheen jast.Sp3ci3s8472 schreef op donderdag 13 oktober 2022 @ 18:37:
[...]
Dat vroeg ik mij ook al af. Misschien omdat ze alles op de kaart doen dat dit lastiger is?
Al is het natuurlijk wel zo dat de CPU eigenlijk helemaal niet betrokken is bij de geïnterpoleerde frames, dus zou je de GUI overlay dan misschien moeten hergebruiken van de vorige frame. Misschien gaat dat dan te vaak niet goed en krijg je een mismatch tussen het scherm en de GUI.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Naja het is niets anders dan wat Oculus doet en dat op een mobiel chip. Het enige dat ik kan bedenken is dat de API voor dlss ingewikkelder wordt. Kan zijn dat ze die zo simpel mogelijk proberen te houden zodat gameontwikkelaars het eerder zullen implementeren en dus meer spellen het gaan ondersteunen. Of misschien zijn ze ervan overtuigd dat ze deze artifacts in de toekomst zelf kunnen oplossen en dus een apart GUI layer/buffer niet nodig is. Een andere mogelijkheid is natuurlijk dat ze de functionaliteit al hebben in hun API maar dat gameontwikkelaars deze nog niet geïmplementeerd hebben.Sp3ci3s8472 schreef op donderdag 13 oktober 2022 @ 18:37:
[...]
Dat vroeg ik mij ook al af. Misschien omdat ze alles op de kaart doen dat dit lastiger is?
Het laatste gebuurt wel vaker. Zo kan je de blur bij camera cuts te verhelpen als je aan dlss aangeeft dat er een camera cut is maar dan moeten gameontwikkelaars dat ook wel doen, zie ook: https://twitter.com/dariosamo/status/1579863614844178434
Ik heb ook zo mijn twijfels daarover, alleen bij het zien van de Asus Strix en Gigabyte Aorus Master, heb ik echt een idee van "600W to the max".Dennism schreef op donderdag 13 oktober 2022 @ 10:08:
[...]
Als ik die koeler resultaten zo zie vraag ik me wel af wat nu waar is van dan gerucht dat Nvidia een koeler zou hebben ontwikkeld voor 450W, maar de AIB's heimelijk een koeler heeft laten ontwikkelen voor 600W. Ik zie eigenlijk maar een paar AIB kaarten het veel beter doen, en dat is dan ook nog een met een specifiek quiet bios (dat mogelijk ook de performance beïnvloed). Als dat gerucht waar was, zou je eigenlijk verwachten dat iedere AIB koeler de FE compleet zou verpulveren qua geluid en temperatuur, maar dat gebeurt toch niet direct. Er zitten zeker betere modellen tussen (maar dat is eigenlijk altijd wel zo), maar ook modellen die niet of amper beter lijken te presteren.
Maar grootte van de koeler zegt niet alles. Het max. toerental van de ventilators is een van de grote factors van de koelcapaciteit. De 4090FE heeft een bereik tot 4000rpm en dat is echt enorm.
Als 350W (4090FE gaming load) met 1500rpm al te koelen is, dan is 600W zeker mogelijk met 4000rpm.
Er van uitgaande dat de vapor chamber genoeg capaciteit heeft om de warmte af te voeren richting het koeloppervlak & fan's. In deze zin denk ik dat ze allemaal wel van 600W uit zijn gegaan.
De FE koeler is wel een heel efficiënt en mooi ontwerp imho.
Het koelontwerp is ook een balans tussen 3 factoren: grootte, temperatuur & geluid.
Vergroot je het een dan verkleint het ander.
Dat is toch niet anders dan bij Nvidia? Het AMD reference ontwerp was gewoon héél zuinig met 7W en daarnaast heb je de andere groep met AIB's die er meer en/of minder efficiënte vrm's op geplakt hebben en dus met een hoger rustverbruik zaten. Het gros in de orde van 10-15W.Idle power van de Navi 21 chips lijkt wel een beetje 'all over the place' te zijn, 7W lijkt de ondergrens te zijn in reviews, terwijl 18W het hoogste is wat ik tegenkom. Mijn eigen 6900XT zit op 11-14W in Idle.
Wat wel anders is, is de 21W tot aan 38W rustverbruik en een gevolg van de overkill aan powerstages (men gaat mij niet wijs maken dat er 24-28 nodig zijn voor 450W). Hier is echt geen excuus voor, behalve dat dit een bewuste keuze is geweest om evt. tot 600W te gaan.
Dat heeft te maken met een bug waardoor het geheugen niet terug klokt in rust. Het kan ook voorkomen met een high refresh rate (144Hz bijvoorbeeld) op een enkele monitor.napata schreef op donderdag 13 oktober 2022 @ 10:26:
[...]
Tot je een 2de monitor aansluit en dan schiet het voorbij Nvidia naar 50W. Ik vind het idle verbruik van de 6950xt wel eigenaardig want de 6900xt had wel een idle van bijna 30W.
[Afbeelding]
Dat probleem is al heel lang bekend en heeft te maken met de monitor timings.
Er bestaat een workaround voor: https://community.amd.com...e-memory-clock/m-p/474184
Deze fix is ook voor Nvidia kaarten van toepassing als er sprake is van een geheugenklok dat vast blijft zitten. Jammer genoeg zijn reviewers redelijk onwetend en laten ze foutieve oude metingen staan.
TPU heeft bijv. wel meer van dat soort domme metingen: Borderlands 3 FPS waarbij een RTX4090 het aflegt tegenover een RTX3080. Oorzaak: DX11 gebruiken i.p.v. DX12, waardoor een cpu bottleneck optreedt.
Nee, het probleem is dat je dan de hele post-processing stap ofwel over moet slaan zoals ze nu doen, ofwel in z'n geheel moet laten uitspelen, wat extra tijd kost én de artifacts erger maakt.Ludewig schreef op donderdag 13 oktober 2022 @ 18:46:
[...]
Het vreemde is ook dat met DLSS 2 de GUI juist pas na de upscaling wordt toegevoegd, zodat je geen upscaling artifacts krijgt in je GUI. Dan zou je denken dat Nvidia de interpolation vlak na de upscaling zou doen, en pas dan de GUI er overheen jast.
Al is het natuurlijk wel zo dat de CPU eigenlijk helemaal niet betrokken is bij de geïnterpoleerde frames, dus zou je de GUI overlay dan misschien moeten hergebruiken van de vorige frame. Misschien gaat dat dan te vaak niet goed en krijg je een mismatch tussen het scherm en de GUI.
Met VR warping werkt het anders. Daar heb je een aparte buffer voor een overlay die je dus ook geheel los van de rest van je game moet updaten. De UI wordt apart gerenderd op 90 (/72/120/144) Hz. Werkt ook niet hetzelfde in elke engine. Als gebruiker wil je ook geen van deze "SAVE MY FRAMERATE" technieken hebben in VR, het voelt gewoon echt niet lekker. Oculus' ASW en dergelijke zijn dan ook last-resort oplossingen die men ten alle tijde dient te vermijden. En om nu te zeggen dat Oculus het op een mobiele chip doet is ook niet waar, dat doen ze pas sinds begin dit jaar en enkel als je in PCVR modus zit (en de chip in de headset dus niet aan het renderen is).
Mijn punt was meer dat reference 6900XT een beetje all over the place zijn, ik heb immers een reference 6900XT, en de reviews lijkt ook niet iedere ref 6900XT op 7W te zitten, sommige wel, maar sommige ook niet.CMT schreef op donderdag 13 oktober 2022 @ 19:54:
Dat is toch niet anders dan bij Nvidia? Het AMD reference ontwerp was gewoon héél zuinig met 7W en daarnaast heb je de andere groep met AIB's die er meer en/of minder efficiënte vrm's op geplakt hebben en dus met een hoger rustverbruik zaten. Het gros in de orde van 10-15W.
Misschien een wat late reactie op je post, maar ik wilde toch nog even reageren.DaniëlWW2 schreef op donderdag 13 oktober 2022 @ 12:23:
En DLSS3.0.
-Ze hebben LDAT gebruikt, bedankt Nvidia.![]()
-Qua latency is het verschil fors en het is groter met 3.0 quality mode dan performance mode. Het effect wordt zoals verwacht ook groter met lagere framerates, waardoor DLSS 3.0 een groter vraagteken is. Eigenlijk zeggen ze dat je dit niet moet gebruiken onder de 120fps die je haalt zonder DLSS3.0. Voor compative games raden ze dit helemaal af. Idem voor hogere fps dan je scherm haar resolutie voor de voordelen in latency.
-DLSS 3.0 ondersteund ook geen Vsync of frame cap waardoor je ook tearing kan krijgen zonder een adaptive sync monitor.
-DLSS 3.0 werkt aardig als er weinig verschil is tussen twee frames. Ook maskeert een erg hogere framerate de artefacts die je ervaart redelijk goed.
-Maar er zijn duidelijk merkbare problemen met UI in games. En als je snel compleet van beeld veranderd, dan krijg je complete blur.
[YouTube: Fake Frames or Big Gains? - Nvidia DLSS 3 Analyzed]
Imho ben je behoorlijk aan het cherrypicken qua review/analyse van DLSS3, aangezien deze analyse van HU (nou niet bepaald de hoogste autoriteit op dit gebied) veruit de negatiefste is van alle analyses die ik tot nu toe heb gezien. Het lijkt ook alsof je conclusie over DLSS 3 compleet gebaseerd is op deze ene video (ook kijkende naar je vervolgreacties verder in het topic).
Als ik echter kijk wat andere reviewers posten, dan kom ik toch behoorlijk andere conclusies tegen. Even een kleine greep uit de reviews die iets over FG zeggen:
Tweakers
Gaat niet heel diep in op dlss 3 / issues met artifacts / latency, maar ze zeggen er wel het volgende over bij CP2077:
Techpowerup:Kortom, de framerate verdubbelt hierdoor, terwijl DLSS 2.0 in het beste geval de framerate met 55 procent verhoogt. In de frametimes zien we bovendien dat DLSS 3.0 ook goede resultaten neerzet en geen extra zichtbare latency toevoegt
ComputerBase.deFor the testing below we picked a difficult scenario--gameplay at 1080p, so it's easier to see small differences, and running at low FPS, which makes the difference between frames bigger, so the Frame Generation algorithm has to work even harder. NVIDIA made it clear to us that you'll get the best Frame Generation results when doubling FPS rates of 60+, and that artifacts at very low FPS rates are not unexpected.
.....
In Microsoft Flight Simulator I really can't spot any noteworthy differences, not in the stills, certainly not in the video running at normal speed.
....
In this review we've tested NVIDIA's new DLSS 3 frame-generation capability, and I have to say I'm impressed. At first I was highly sceptical and thought it would be like the soap opera interpolation effect on TVs, but no, it works REALLY well. ….
While this approach is definitely not problem-free, especially when pixel-peeping at stills or slowed down video, in real-time it's nearly impossible to notice any difference. As you run at higher FPS and resolution it becomes even more difficult because the deltas between each frame are getting smaller and smaller. I also feel like we're only seeing the beginning of this technology, and there will be numerous improvements in the future. Adoption rates should be good, because implementing DLSS 3 frame generation is very easy if you already have DLSS 2 support in your game.
igorslabFrame generation is hardly noticeable in CP 2077
When playing, you usually don't notice that by no means every frame has been rendered. It doesn't matter whether you're in combat, just strolling through the open world or driving fast forward - the image quality always makes a good impression. The frames created do not look like a foreign body, but fit in very well between the really rendered images.
....
What is already emerging is the following insight: DLSS 3 or frame generation is not a "panacea" like DLSS Super Resolution (DLSS 2), but rather a "special tool". Because while Super Resolution is excellent for making previously unplayable situations in terms of FPS and input lag playable, Frame Generation seems to be more suitable for getting even more FPS out of the system at already quite high frame rates (and low latency). to get, in order to then especially improve the gaming experience on monitors with high refresh rates. In the case of low initial FPS with a comparatively high input lag, frame generation can only remedy the FPS, while the input lag will not improve significantly despite the use of Reflex.
Digital Foundry (Welke wederom veruit de meest diepgaande analyse doen)I wouldn’t play games like Shadow of the Tomb Raider without ray tracing now. Turn on DLSS Quality and enjoy a very cool story game on UHD at 144 Hz. This can also be applied to other AAA titles. There is nothing more to say against DXR on and when DLSS 3.0 comes into play, the whole thing is almost a no-brainer. Cyberpunk on UHD with maximum ray tracing and DLSS 3.0 quality makes 111 FPS possible. Yes, the latency is a bit higher for this, but still far from becoming a problem in terms of input latency.
...
DLSS is still the best upscaling technology on the market. NVIDIA doesn’t even need DLSS 3.0 to put the fear of God into Intel or AMD. Speaking of DLSS 3.0, NVIDIA has really hit the ground running. It’s impressive how much more performance you can get out of the RTX 4090 when you unload the CPU thanks to DLSS 3.0. The image quality is on a native level up to the Performance level – usually even better.
Als ik dan naar de analyse van HU kijk, dan is hij bezig de afspeelsnelheid naar 12,5% te verlagen om artifacts uberhaupt zichtbaar te krijgen en met bepaalde voorbeelden zelfs naar 3%, waarbij hij naar de individuele frames gaat kijken. Dat heeft toch helemaal niks meer met real-life performance te maken?… Altogether I would say DLSS3 in aggregate here over this entire video is rather incredible tech. I think at 120 FPS the quality holds up incredibly well and I think its best use case is to enable experiences that were not possible before.
Check this out.
On the left is 4K DLSS quality without FG and no RT.
On the right is Psycho RT but with FG at that same resolution.
DLSS3 on the right hand side here is enabling higher quality settings and has a much higer motion fluidity due to having a higher frame rate. If you were to compare PC latency between these two sides, you would have 34 ms of latency with DLSS2 and 49 with DLSS 3.
This is the kind of trade-off that dlss3 is all about in my eyes: Much better settings, higher FPS, but then you have this added input latency, that I think is rather minimal, considering what you are gaining in return. That is how I would use DLSS3, as it is a nice win.
De latency in F1 bijvoorbeeld gaat (volgens hem) van 53ms met native+reflex naar 46.5ms met dlss3 + reflex, waarna hij later concludeert dat "the latency cost is hard to swallow".. wtf?

En ten slotte zijn uiteindelijke conclusie dat FG alleen gebruikt moet worden als je al 120+ FPS haalt voordat je het inschakelt...tsja... ik kan hier veel woorden aan vuil maken, maar kijkende naar wat hij zelf laat zien in zijn video, maar ook naar wat andere reviewers tonen, vind ik dat een hele gekke conclusie.
Hij heeft een paar terechte punten hoor, maar al met al vind ik zijn analyse en hoe hij tot bepaalde conclusies komt vrij waardeloos.
Verder toont DF bijvoorbeeld dat je met een klein truukje Vsync wel werkend kan krijgen met FG (zoals ik zei, DF gaat er een stuk dieper op in). Het zou me dus niet verbazen als nvidia dit gewoon werkend krijgt in een toekomstige update,
Als ik dan naar de latency cijfers kijk, vind ik het reuze meevallen en eigenlijk prima geschikt voor alles behalve twitchy e-sport games:
![]() | ![]() | ![]() |
Hiermee wil ik niet zeggen dat DLSS perfect oid is. Het heeft echt nog wel last van issues en dat is ook niet zo gek, aangezien het nog maar de eerste versie is. En ik zou al helemaal niet nvidia willen "verdedigen", met hun prachtige prijstactieken.
Maar jouw conclusie (op basis van 1 video van HU lijkt het) en de manier waarop je hier verder over post kan ik moeilijk objectief noemen
Als je met DLSS 2 + reflex lager zit dan lijkt mij de superieure optie.Tyranium schreef op vrijdag 14 oktober 2022 @ 00:23:
De latency in F1 bijvoorbeeld gaat (volgens hem) van 53ms met native+reflex naar 46.5ms met dlss3 + reflex, waarna hij later concludeert dat "the latency cost is hard to swallow".. wtf?
Als jij het type persoon bent wat ook zonder probleem Google Stadia, Steam Remote Play of Geforce Now kan gebruiken dan is dit misschien wel de techniek voor jou. Het verschilt namelijk heel erg per persoon of het speelbaar is of niet.
Leeftijd is een factor maar ook als mensen eerder wagenziek worden dan is input lag erg vervelend. Ik vermoed dat Tim (en Alex?) de jongste is van de rij reviewers.
Voor mij was Dead Space op 45FPS onspeelbaar waar Crysis 1 op 45FPS net speelbaar was. Groot verschil in de engine en de input lag bij Crysis was een stuk lager dan bij Dead Space.
Steam Remote Play heb ik een keertje getest bij iemand. Wat die persoon speelbaar vond met een traag spel zoals Alien Isolation vond ik totaal onspeelbaar.
Persoonlijk hecht ik zelf meer waarde aan de HU review. Daarnaast heeft Tim zo'n beetje elke variant van upscaling gereviewed. Als ik een autoriteit zou kiezen op het gebied van beeld analyse dan zijn dat Tim van HU en Alex van DF (met het gegeven dat DF een groene bril op heeft en HU wellicht kritischer is op Nvidia gezien de dickmove van Nvidia naar hun toe). Vergeet ook niet dat Tim alle monitor reviews doet en hij ook daar goed de pijnpunten van elke monitor kan aanwijzen.
Als je kijkt naar het verschil van content tussen DF en GamersNexus; GM heeft een aantal engineers van Nvidia over de vloer en gaat er diep technisch op in en blijft objectief. De DF DLSS3 preview van de 4090 was een fluff piece; dus nee ik neem ze gewoon niet zo serieus.
De rest van de reviewers, het is leuk dat ze naar DLSS 3 hebben gekeken maar het is duidelijk niet de focus geweest en meer een erbij. Daarnaast zijn ze nu niet echt de autoriteit op wat betreft die analyses zoals ik al duidelijk heb gemaakt; zeker Tweakers niet en TPU doet die analyses normaal ook niet. ComputerBase weet ik persoonlijk niet; hetzelfde voor Igors Lab.
De conclussie dat het voor 100FPS of hoger is vind ik fair want het is gewoon niet bedoelt voor lage framerates (image artifacts en input lag); tenzij je niet gevoelig bent voor input lag.
Edit:
Aanvullend heeft HU ook niet direct een DLSS3 video uitgebracht maar de tijd genomen om een grondige analyse te doen. Of ze hebben maar een kaart gekregen

[ Voor 3% gewijzigd door Sp3ci3s8472 op 14-10-2022 01:18 ]
Woorden doen er toe. Iets "niet speelbaar" noemen bij een latency die ergens tussen native en DLSS+Reflex zweeft kan ik niet serieus nemen. Cyberpunk is ook gewoon speelbaar op AMD videokaarten, en zelfs voordat FSR was toegevoegd.Sp3ci3s8472 schreef op vrijdag 14 oktober 2022 @ 00:57:
[...]
Het verschilt namelijk heel erg per persoon of het speelbaar is of niet.
Dat is jouw mening en zoals ik zei verschilt dit per persoon.cnieuweboer schreef op vrijdag 14 oktober 2022 @ 01:16:
[...]
Woorden doen er toe. Iets "niet speelbaar" noemen bij een latency die ergens tussen native en DLSS+Reflex zweeft kan ik niet serieus nemen. Cyberpunk is ook gewoon speelbaar op AMD videokaarten, en zelfs voordat FSR was toegevoegd.
Doe een gok waarom ik het spel op dag een heb gekocht maar nog niet heb gespeeld. Juist ik vond het los van de bugs onspeelbaar.
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.