Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 14:06
Je zou bijna gaan denken dat EVGA een goede beslissing heeft genomen, op basis van zowel in het verleden behaalde resultaten als deze generatie specifiek. ;)

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +1 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 12-09 18:59
Arstechnica heeft trouwens ook een review staan waar ze de limieten proberen te testen van frame generation en dan ook kijken naar latency, dus bijvoorbeeld games op 8k renderen om zo een lage frame rate af te dwingen: https://arstechnica.com/g...t-gpu-is-easily-its-best/

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Hardware Unboxed benadrukt goede performance per Watt en lager TDP dan de 3090 Ti, wat op zich bevestigt dat TSMC N4 beter is dan Samsung N8.

Qua rasterization performance eens dat de RTX 4090 slecht schaalt. En dat geeft goede hoop voor AMD's RX 7950XT. De kans is best groot dat AMD die performance crown gaat afpakken.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +5 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Afbeeldingslocatie: https://tweakers.net/i/66ViyMKzbbuvOT6FUAbueZHJyCQ=/800x/filters:strip_icc():strip_exif()/f/image/6bN9OBaJMzG52BJuq1ViJ0cs.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/TbOEhaKsCK1hUCzYv_0OMjyt-OE=/800x/filters:strip_icc():strip_exif()/f/image/cD8eDwWBJLeU3PZbRgMIxuVR.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/NGaCPa14Yt3U3OMnIL21BrdLb-g=/800x/filters:strip_icc():strip_exif()/f/image/1GtN4E07UUSyN6SjpXqgLgi5.jpg?f=fotoalbum_large

https://www.nvidia.com/en...22-rtx-dlss-game-updates/

4080 12GB :N De kaart is 15-20% sneller (geen DLSS) dan een twee jaar oude 3080 10GB van 720-800 euro in die tijd en kost 1099 euro of meer (AIB).

[ Voor 48% gewijzigd door Paprika op 12-10-2022 06:10 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op dinsdag 11 oktober 2022 @ 22:43:
[...]


Dus ongeveer 10ms extra latency op 100 fps komt overeen met 1 frame dat je moet wachten.
Ook hier is mij niet 100% duidelijk of Reflex aan of uit staat in alle gevallen.
Reflex zou geforceerd worden. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 12:20

OMD

Ludewig schreef op dinsdag 11 oktober 2022 @ 23:32:
@OMD

Naar verluid heeft Nvidia de board partners enorm genaaid door ze te vertellen dat de wattages richting de 600 zouden gaan, wat een schatting was op basis van Ampere. Toen dit mee bleek te vallen hebben ze zelf razendsnel de koeling afgeschaald. Dus nu zitten de AIB's met gigantische overkill qua koeling, terwijl Nvidia fluitend de bestellingen binnenharkt. Zeker nu ze ook nog eens ervoor zorgen dat hun eigen kaarten een dag voorsprong hebben qua reviews.

Als de AIBs straks massaal blijven zitten met deze kaarten kan dit nog wel eens een staartje gaan krijgen...
Vandaar dat ik ook al zei dat ik benieuwd was naar de reviews vandaag. Ik ben benieuwd naar de koeling headroom en of ze daadwerkelijk op een hele lage temperatuur opereren. Dan zou die 600 watt verhaal wel eens waar kunnen zijn.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
OMD schreef op woensdag 12 oktober 2022 @ 08:32:
[...]


Vandaar dat ik ook al zei dat ik benieuwd was naar de reviews vandaag. Ik ben benieuwd naar de koeling headroom en of ze daadwerkelijk op een hele lage temperatuur opereren. Dan zou die 600 watt verhaal wel eens waar kunnen zijn.
Vanaf m'n telefoon is dit niet zo makkelijk te delen, maar je kunt bij 3DMark best makkelijk aftermarket 4090s vinden in de scorelijst met de bijbehorende temperaturen van de benches (hint 40-60C).

Bv https://www.3dmark.com/spy/31330119

[ Voor 4% gewijzigd door Paprika op 12-10-2022 08:40 ]


Acties:
  • 0 Henk 'm!

  • roy-t
  • Registratie: Oktober 2004
  • Laatst online: 08-09 11:33
Ludewig schreef op dinsdag 11 oktober 2022 @ 23:32:
@OMD

Naar verluid heeft Nvidia de board partners enorm genaaid door ze te vertellen dat de wattages richting de 600 zouden gaan, wat een schatting was op basis van Ampere. Toen dit mee bleek te vallen hebben ze zelf razendsnel de koeling afgeschaald. Dus nu zitten de AIB's met gigantische overkill qua koeling, terwijl Nvidia fluitend de bestellingen binnenharkt. Zeker nu ze ook nog eens ervoor zorgen dat hun eigen kaarten een dag voorsprong hebben qua reviews.

Als de AIBs straks massaal blijven zitten met deze kaarten kan dit nog wel eens een staartje gaan krijgen...
Ik denk niet dat dit waar is, als nVidia had geweten dat deze kaart op ~400 Watt zou blijven steken hadden ze de koeling van de 3090TI kunnen hergebruiken, dat had veel geld gescheeld. Maar de koeling van de 4090 is een stuk groter (en duurder om te maken). Volgens mij hebben ze ook zichzelf verrast.

~ Mijn prog blog!


Acties:
  • +4 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • zzzzz
  • Registratie: Juni 2007
  • Laatst online: 25-05 21:59
Paprika schreef op woensdag 12 oktober 2022 @ 06:03:
https://www.nvidia.com/en...22-rtx-dlss-game-updates/
4080 12GB :N De kaart is 15-20% sneller (geen DLSS) dan een twee jaar oude 3080 10GB van 720-800 euro in die tijd en kost 1099 euro of meer (AIB).
Ik vind dit toch wel een heel eigenaardige launch worden zo. Raster performance increase van 50-70% op je topkaart, maar de rest die daar dan sterk onder hangt? en een 4080 (of 70 voor de liefhebbers) die qua gen-update eigenlijk rond de huidige generatie hangt?
Je zou dus bijna een 4000 series kaart moeten kopen om de DLSS3 en niet direct omdat de kaart nu zuiniger is, goedkoper is of beter in je kast past. Het enige argument is straks de software en de betere verkrijgbaarheid. DLSS3 komt enorm goed uit de verf, en dat is maar goed ook want qua kale hardware maakt Nvidia buiten de 4090 zo lijkt geen goede beurt. 8)

Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
De 4090 is de enige met de grote die, dus waarschijnlijk is er wat ruimte open om de line-up aan te vullen met tegenhangers van AMD met wat Super / Ti achtig kaarten. Er zal minimaal één kaart van AMD tussen de 4080 en 4090 in moeten zitten lijkt mij. :p

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Vraag me af met de drivers. Worden deze vandaag gereleased voor het grote public of komen ze daarmee morgen?
Tot op heden niks op de nvidia site zelf.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
DaniëlWW2 schreef op woensdag 12 oktober 2022 @ 06:22:
[...]


Reflex zou geforceerd worden. :)
Misschien wwoosh, maar Reflect wordt toch ook geforceerd als je DLSS 3 aan zet? Eigenlijk is DLSS 3 = DLSS 2.3 + Reflex + dat Auto Frame Generation dingetje.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Xtr3me4me schreef op woensdag 12 oktober 2022 @ 10:01:
Vraag me af met de drivers. Worden deze vandaag gereleased voor het grote public of komen ze daarmee morgen?
Tot op heden niks op de nvidia site zelf.
Vandaag want anders kun je als local shop koper niets met je kaart. :p

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 12:20

OMD

roy-t schreef op woensdag 12 oktober 2022 @ 09:00:
[...]


Ik denk niet dat dit waar is, als nVidia had geweten dat deze kaart op ~400 Watt zou blijven steken hadden ze de koeling van de 3090TI kunnen hergebruiken, dat had veel geld gescheeld. Maar de koeling van de 4090 is een stuk groter (en duurder om te maken). Volgens mij hebben ze ook zichzelf verrast.
Er gaat meer bewijs de kant op dat het wel waar is dan niet. De koeling van de FE 3090ti is trouwens niet heel erg veel kleiner dan de 4090. Ik denk dat je je vergist met de 3090:

Afbeeldingslocatie: https://preview.redd.it/74vv7e2xn1r91.png?width=640&crop=smart&auto=webp&s=180f1dbda0d43a3d3f0a42f58f1c866d0ffd1fcd
Afbeeldingslocatie: https://www.xiaomitoday.com/wp-content/uploads/2022/10/NVIDIA-RTX-4090-Founder-Edition-Unboxing-16.jpg

Het is eerder een doorontwikkeling van de 3090Ti koeler. Ze wilde een betere koeler, lagere temps en een stillere werking. Eigenlijk om met de AIB's te concurreren wat ze nu dus ook doen.
De TBP is relatief laat pas aangepast naar 450watt voor de 4090. De 4080 is ook lager dan vooraf gespeculeerd maar wellicht hebben aib's iets meer tijd gehad voor de 4080.

Het feit dat de board partners zulke gigantische kaarten zijn ten opzichte van de FE spreekt natuurlijk niet in het voordeel van nVidia. Het verschil is echt immens.

[ Voor 4% gewijzigd door OMD op 12-10-2022 10:26 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • +3 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Paprika schreef op woensdag 12 oktober 2022 @ 09:36:
De 4090 is de enige met de grote die, dus waarschijnlijk is er wat ruimte open om de line-up aan te vullen met tegenhangers van AMD met wat Super / Ti achtig kaarten. Er zal minimaal één kaart van AMD tussen de 4080 en 4090 in moeten zitten lijkt mij. :p
Er is zeker ruimte tussen de 4090 en 4080 16 GB, maar ik vermoed dat de 4080 16GB en 4080 12GB hun huidige verkoopprijs niet lang zullen behouden. Als die bijvoorbeeld zakken naar een meer realistische $999 en $699, wordt het een ander verhaal. Dat is mèt behoud van 60% gross margin voor Nvidia. De huidige 4080 12 + 16 GB prijzen zijn idioot hoog (meer dan 100% gross margin). Wie een van die 2 kaarten koopt is gek.

Er is nog ruimte voor een 4080 Ti met 84 SM ipv 76 SM, maar een dergelijke kaart zal het performance gat zeker niet dichten. Onder de 4090 lijkt ook weinig ruimte, het is eerder waarschijnlijk dat er sterkere AD102 chips komen om de concurrentie met Navi31 aan te gaan.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

En de geruchtenmolen gaat weer verder: https://videocardz.com/ne...s-for-geforce-rtx-4090-ti

Afbeeldingslocatie: https://tweakers.net/i/p715pMYjtac-7g-3mM2B4U0FiNo=/232x232/filters:strip_icc():strip_exif()/f/image/S0bjH7qg7AfpWXPwaJPy9GS5.jpg?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/VCUXZnl7Xkd0Gz-0gG0N6P7gg1g=/232x232/filters:strip_icc():strip_exif()/f/image/WC55tBkPcThpZXZ2vzuzkY50.jpg?f=fotoalbum_tile


RTX4090Ti dies worden alweer opgespaard. Zal wel Q1 worden wanneer deze gelanceerd gaan worden voor 2000$+ als FE model dan eh.

[ Voor 6% gewijzigd door Xtr3me4me op 12-10-2022 11:34 ]

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
Paprika schreef op woensdag 12 oktober 2022 @ 06:03:
[Afbeelding]

[Afbeelding]

[Afbeelding]

https://www.nvidia.com/en...22-rtx-dlss-game-updates/

4080 12GB :N De kaart is 15-20% sneller (geen DLSS) dan een twee jaar oude 3080 10GB van 720-800 euro in die tijd en kost 1099 euro of meer (AIB).
De rtx 3070 was ook niet bepaald sneller dan de 2080ti dus het product is op zich niet eens verkeerd, de naam en prijs echter...... Het zou wat mij betreft minimaal 3090/3090ti performance moeten zijn maar dan voor een paar honderd minder dan een 3090

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Xtr3me4me schreef op woensdag 12 oktober 2022 @ 11:33:
RTX4090Ti dies worden alweer opgespaard. Zal wel Q1 worden wanneer deze gelanceerd gaan worden voor 2000$+ als FE model dan eh.
Of concurrentie en laag segment in de markt zorgt ervoor dat de hele lineup daalt in prijs tegen die tijd. Vergelijk dit draadje en 't levertijden topic maar eens met 2 jaar terug. Toen werden er 10 posts per minuut geplaatst. Het levertijden topic zat rond deze tijd al ruim 4x het aantal reacties.

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Paprika schreef op woensdag 12 oktober 2022 @ 11:45:
[...]

Of concurrentie en laag segment in de markt zorgt ervoor dat de hele lineup daalt in prijs tegen die tijd. Vergelijk dit draadje en 't levertijden topic maar eens met 2 jaar terug. Toen werden er 10 posts per minuut geplaatst. Het levertijden topic zat rond deze tijd al ruim 4x het aantal reacties.
Tja maar doelde meer op de 10-20% performance gains. Bedoel denk dat ze echt wel wat gaan verwachten van RDNA3.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

meljor schreef op woensdag 12 oktober 2022 @ 11:41:
[...]


De rtx 3070 was ook niet bepaald sneller dan de 2080ti dus het product is op zich niet eens verkeerd, de naam en prijs echter...... Het zou wat mij betreft minimaal 3090/3090ti performance moeten zijn maar dan voor een paar honderd minder dan een 3090
Tja, het wordt zo wel lastig om de 4080 12GB te verkopen. Performance is i.d.d. prima, maar de prijs niet. Zelfde geldt voor de 4080 16GB. Die zit mooi tussen de 3090Ti en 4090 in, maar allemachtig wat een geld.

Acties:
  • 0 Henk 'm!

  • Danielson
  • Registratie: Januari 2003
  • Laatst online: 12:35
Thomas schreef op woensdag 12 oktober 2022 @ 13:14:
[...]


Tja, het wordt zo wel lastig om de 4080 12GB te verkopen. Performance is i.d.d. prima, maar de prijs niet. Zelfde geldt voor de 4080 16GB. Die zit mooi tussen de 3090Ti en 4090 in, maar allemachtig wat een geld.
Inderdaad! Ik twijfel tussen de 3080 12GB en de 4080 12GB, de 3080 zit rond de 950 euro, de 4080 zou dan naar mijn inzien maximaal 100 euro duurder mogen zijn, maar dan zit hij de 3080Ti weer in de weg.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Danielson schreef op woensdag 12 oktober 2022 @ 13:24:
[...]


Inderdaad! Ik twijfel tussen de 3080 12GB en de 4080 12GB, de 3080 zit rond de 950 euro, de 4080 zou dan naar mijn inzien maximaal 100 euro duurder mogen zijn, maar dan zit hij de 3080Ti weer in de weg.
Je hebt een 6900 XT al voor 695 euro. Dan is de 3080 een slechte keuze als dit je twijfels zijn.

Acties:
  • 0 Henk 'm!

  • Danielson
  • Registratie: Januari 2003
  • Laatst online: 12:35
Paprika schreef op woensdag 12 oktober 2022 @ 13:28:
[...]

Je hebt een 6900 XT al voor 695 euro. Dan is de 3080 een slechte keuze als dit je twijfels zijn.
Ik wil hem gebruiken voor een triple screen setup voor sim-racen, wat ik begrijp is Nvidia daar veel beter geschikt voor (SMP).

Acties:
  • +6 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

Ik heb geen idee of dit clickbait is, maar hier wordt naar verluid de invloed getest van Pcie 3.0 vs. Pcie 4.0 (x16 neem ik aan) met een 12900K cpu:

[ Voor 3% gewijzigd door CMT op 12-10-2022 16:27 ]


Acties:
  • +1 Henk 'm!

  • J4s0n
  • Registratie: Juni 2011
  • Laatst online: 25-09-2023

J4s0n

Stop! Hammertime!

Heerlijk als een site zo goed ze allemaal in één overzicht plaatst en stuk voor stuk reviewed. Jammer dat je als consument nu overgeleverd bent met deze launch welke 4090's waar beschikbaar zijn.

Man is a tool-using animal. Without tools he is nothing, with tools he is all.


Acties:
  • 0 Henk 'm!

  • pimjai
  • Registratie: Mei 2009
  • Laatst online: 12-09 18:40
Omdat ik de founders editie helaas niet kon krijgen ben ik maar gegaan voor de kaart die nog te krijgen was voor mij, de Gigabyte GeForce RTX 4090 Gaming OC. Zit nu dus een beetje uit te zoeken wat ik precies gekocht heb maar ik kan nergens vinden wat nou de concrete verschillen zijn tussen de silent bios en de OC bios, waar je blijkbaar tussen kan switchen. De site van gigabyte komt niet verder dan dat de silent BIOS stiller is (goh).
Heeft er iemand toevallig al de concrete verschillen in clocksnelheden/voltages/power limits etc kunnen vinden?

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

pimjai schreef op woensdag 12 oktober 2022 @ 16:44:
Omdat ik de founders editie helaas niet kon krijgen ben ik maar gegaan voor de kaart die nog te krijgen was voor mij, de Gigabyte GeForce RTX 4090 Gaming OC. Zit nu dus een beetje uit te zoeken wat ik precies gekocht heb maar ik kan nergens vinden wat nou de concrete verschillen zijn tussen de silent bios en de OC bios, waar je blijkbaar tussen kan switchen. De site van gigabyte komt niet verder dan dat de silent BIOS stiller is (goh).
Heeft er iemand toevallig al de concrete verschillen in clocksnelheden/voltages/power limits etc kunnen vinden?
Ik zag hier een review, misschien dat zij er iets over zeggen :?

https://www.techpowerup.c...tx-4090-gaming-oc/42.html

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • pimjai
  • Registratie: Mei 2009
  • Laatst online: 12-09 18:40
Help!!!! schreef op woensdag 12 oktober 2022 @ 16:53:
[...]

Ik zag hier een review, misschien dat zij er iets over zeggen :?

https://www.techpowerup.c...tx-4090-gaming-oc/42.html
Ahja dankje, die had ik inderdaad al gezien, maar zie dat ik de enkele zin die eraan gewijd is eerder gemist had. Het lijkt dat dit dus puur invloed heeft op de fan curve, lekker op silent en gaan dus in mijn geval.

Acties:
  • 0 Henk 'm!

  • Palindrome
  • Registratie: September 2020
  • Laatst online: 12-09 23:39
Ik zie niet echt een reden om voor een AIB kaart de gaan de FE lijkt mij superieur ?

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

In welke zin? De Asus en MSI AIB modellen zijn een stuk stiller dan de FE kaart.
- 6dB verschil is een hoop (10dB komt grofweg overeen met subjectief een halvering in 'luidheid').
Wat alleen niet te meten, is welk model het minst stoort (motorgeluid, evt. resonanties, grondtoonhoogte van de fan's, mate van turbulentie etc).

Alleen het rustverbruik zeg, 20-40W idle.. Je moet het maar willen om weer 10 jaar terug in de tijd te gaan.
Een reference RX6950XT gebruikt 7W idle.

Acties:
  • 0 Henk 'm!

  • Palindrome
  • Registratie: September 2020
  • Laatst online: 12-09 23:39
CMT schreef op woensdag 12 oktober 2022 @ 17:38:
In welke zin? De Asus en MSI AIB modellen zijn een stuk stiller dan de FE kaart.
- 6dB verschil is een hoop (10dB komt grofweg overeen met subjectief een halvering in 'luidheid').
Wat alleen niet te meten, is welk model het minst stoort (motorgeluid, evt. resonanties, grondtoonhoogte van de fan's, mate van turbulentie etc).

Alleen het rustverbruik zeg, 20-40W idle.. Je moet het maar willen om weer 10 jaar terug in de tijd te gaan.
Een reference RX6950XT gebruikt 7W idle.
kwa grote, prijs en OC mogelijkheden.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

sunsmountain schreef op woensdag 12 oktober 2022 @ 10:17:
[...]

Misschien wwoosh, maar Reflect wordt toch ook geforceerd als je DLSS 3 aan zet? Eigenlijk is DLSS 3 = DLSS 2.3 + Reflex + dat Auto Frame Generation dingetje.
Volgens mij snapt niemand mijn vraag :+.

In de vergelijkingen die gemaakt zijn door reviewers. Gebruiken ze bij elk resultaat Reflex of hebben ze dat alleen aan voor de DLSS 3 resultaten.
Dat maakt nogal een verschil in latency namelijk en je wil zoveel mogelijk appels met appels vergelijken.

Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Zien we ook niet vaak bij Nvidia.
Our DirectX 12 optimizations apply to GeForce RTX graphics cards and laptops, though improvements will vary based on your specific system setup, and the game settings used. In our testing, performance increases were found in a wide variety of DirectX 12 games, across all resolutions:

Assassin’s Creed Valhalla: up to 24% (1080p)Battlefield 2042: up to 7% (1080p)Borderlands 3: Up to 8% (1080p)Call of Duty: Vanguard: up to 12% (4K)Control: up to 6% (4K)Cyberpunk 2077: up to 20% (1080p)F1Ⓡ 22: up to 17% (4K)Far Cry 6: up to 5% (1440p)Forza Horizon 5: up to 8% (1080P)Horizon Zero Dawn: Complete Edition: up to 8% (4k)Red Dead Redemption 2: up to 7% (1080p)Shadow of the Tomb Raider: up to 5% (1080p)Tom Clancy’s The Division 2: up to 5% (1080p)Watch Dogs: Legion: up to 9% (1440p)
Bron:
https://www.nvidia.com/en...x-4090-game-ready-driver/

Acties:
  • +5 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

Nou de aap is uit de mouw wat betreft de belachelijke 1 naar 4 verloopkabel, in dit geval een verborgen simpele switch IC :z : https://www.igorslab.de/e...90-works-with-workaround/

Afbeeldingslocatie: https://www.igorslab.de/wp-content/uploads/2022/10/Adapter-Scheme-Web-3-2048x1289.png

Ik wil op het hart drukken om niet zomaar de sense pinnen aan grond te knoppen om zo meer vermogen te forceren over minder kabels. Dit is alleen voor diegene die heel goed weten waar ze mee bezig zijn en een goede inschatting kunnen maken van wat wel of niet kan (en er ook naar omkijken i.p.v. inpluggen en klaar).
De kans op brand is reëel als het niet goed gaat.

[ Voor 23% gewijzigd door CMT op 13-10-2022 08:00 ]


Acties:
  • +1 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
CMT schreef op donderdag 13 oktober 2022 @ 05:52:
Nou de aap is uit de mouw wat betreft de belachelijke 1 naar 4 verloopkabel, in dit geval een verborgen simpele switch IC :z : https://www.igorslab.de/e...90-works-with-workaround/

Ik wil op het hart drukken om niet zomaar de sense pinnen aan grond te knoppen om zo meer vermogen te forceren over minder kabels. Dit is alleen voor diegene die heel goed weten waar ze mee bezig zijn en een goede inschatting kunnen maken van wat wel of niet kan (en er ook naar omkijken i.p.v. inpluggen en klaar).
De kans op brand is reëel als het niet goed gaat.
Ik vraag me af wat dit met de MSI RTX 4090 Gaming X Trio gaat doen want de kaart word geleverd met 3x8 pin maar ik heb een ATX 3.0 voeding met 12VHPR ondersteuning.

Acties:
  • +1 Henk 'm!

  • zzzzz
  • Registratie: Juni 2007
  • Laatst online: 25-05 21:59
CMT schreef op donderdag 13 oktober 2022 @ 05:52:
Dit is alleen voor diegene die heel goed weten waar ze mee bezig zijn en een goede inschatting kunnen maken van wat wel of niet kan (en er ook naar omkijken i.p.v. inpluggen en klaar).
De kans op brand is reëel als het niet goed gaat.
Zoiezo lijkt de aansluiting voor de nieuwe 12 pins connector op alle 4090 kaarten van boterkoek gemaakt, als ik in ieder geval JayzTwoCents beluister. Deze nieuwe kabelspec lijkt gewoon niet echt goed doordacht, of in ieder geval niet goed geïmplementeerd door Nvidia en haar AIBs.

Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:09
CMT schreef op woensdag 12 oktober 2022 @ 17:38:
In welke zin? De Asus en MSI AIB modellen zijn een stuk stiller dan de FE kaart.
- 6dB verschil is een hoop (10dB komt grofweg overeen met subjectief een halvering in 'luidheid').
Wat alleen niet te meten, is welk model het minst stoort (motorgeluid, evt. resonanties, grondtoonhoogte van de fan's, mate van turbulentie etc).

Alleen het rustverbruik zeg, 20-40W idle.. Je moet het maar willen om weer 10 jaar terug in de tijd te gaan.
Een reference RX6950XT gebruikt 7W idle.
Als ik die koeler resultaten zo zie vraag ik me wel af wat nu waar is van dan gerucht dat Nvidia een koeler zou hebben ontwikkeld voor 450W, maar de AIB's heimelijk een koeler heeft laten ontwikkelen voor 600W. Ik zie eigenlijk maar een paar AIB kaarten het veel beter doen, en dat is dan ook nog een met een specifiek quiet bios (dat mogelijk ook de performance beïnvloed). Als dat gerucht waar was, zou je eigenlijk verwachten dat iedere AIB koeler de FE compleet zou verpulveren qua geluid en temperatuur, maar dat gebeurt toch niet direct. Er zitten zeker betere modellen tussen (maar dat is eigenlijk altijd wel zo), maar ook modellen die niet of amper beter lijken te presteren.

Idle power van de Navi 21 chips lijkt wel een beetje 'all over the place' te zijn, 7W lijkt de ondergrens te zijn in reviews, terwijl 18W het hoogste is wat ik tegenkom. Mijn eigen 6900XT zit op 11-14W in Idle.

[ Voor 7% gewijzigd door Dennism op 13-10-2022 10:14 ]


Acties:
  • +4 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Afbeeldingslocatie: https://tweakers.net/i/3i6L6m08mUKftCNQTFDjz1yvKEA=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/xU9qqsX6a9v0iaeyfwsX21jX.png?f=user_large

Toch best een verschil voor een normalized test.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:09
Paprika schreef op donderdag 13 oktober 2022 @ 10:15:
[Afbeelding]

Toch best een verschil voor een normalized test.
Tussen de top en de bodem inderdaad wel. Maar als je die AIO weghaalt aan de top, krijg ik toch niet het idee dat die andere koelers allemaal voor 600W Base TBP ontwikkeld zijn (en dus, aangezien het AIB OC modellen zijn flink meer moeten kunnen verwerken dan base TBP), terwijl de FE dan voor een Base 450W TBP ontwikkeld zou zijn. Daarvoor lijken die verschillen me ten eerste te klein, zeker met de kaarten het dichtst bij de 4090, maar daarnaast zou je dan ook kleinere verschillen verwachten tussen de AIB kaarten zelf.

Dit lijkt meer op het verloop dat je redelijk vaak ziet bij nieuwe releases, waar de reference / FE kaarten onderaan bungelen, met de onderkant van de stack qua AIB kaarten. En dat de top AIB kaarten (die vaak ook veel duurder zijn), het logischerwijs qua koeling ook beter doen.

Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09:39
CMT schreef op woensdag 12 oktober 2022 @ 17:38:

Alleen het rustverbruik zeg, 20-40W idle.. Je moet het maar willen om weer 10 jaar terug in de tijd te gaan.
Een reference RX6950XT gebruikt 7W idle.
Tot je een 2de monitor aansluit en dan schiet het voorbij Nvidia naar 50W. Ik vind het idle verbruik van de 6950xt wel eigenaardig want de 6900xt had wel een idle van bijna 30W.

Afbeeldingslocatie: https://tweakers.net/i/0KF9THpm5Wggy1PWCjmjOJ4guag=/x800/filters:strip_exif()/f/image/ObIh47GKbbJWXaJbpCExpy7t.png?f=fotoalbum_large

Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Dennism schreef op donderdag 13 oktober 2022 @ 10:23:
[...]
Dit lijkt meer op het verloop dat je redelijk vaak ziet bij nieuwe releases, waar de reference / FE kaarten onderaan bungelen, met de onderkant van de stack qua AIB kaarten. En dat de top AIB kaarten (die vaak ook veel duurder zijn), het logischerwijs qua koeling ook beter doen.
De Suprim viel qua meerprijs (bij de juiste winkel) best mee. Ik zou zelf, als ik een potentiële koper was geweest, vooral concluderen dat de STRIX een overpriced onding is. :p

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:09
Paprika schreef op donderdag 13 oktober 2022 @ 10:28:
[...]

De Suprim viel qua meerprijs (bij de juiste winkel) best mee. Ik zou zelf, als ik een potentiële koper was geweest, vooral concluderen dat de STRIX een overpriced onding is. :p
Daar ik nu nergens prijzen zie, want mensen zijn schijnbaar nog steeds gek genoeg om 2k+ euro stuk te slaan op dag 1 op een GPU, voor mijn beeldvorming, uitgaande van €1950 voor de FE, wat moest die Suprim X, de Suprim X Liquid en die Strix gister kosten dan bij onze Webshops?

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Dennism schreef op donderdag 13 oktober 2022 @ 10:37:
[...]


Daar ik nu nergens prijzen zie, want mensen zijn schijnbaar nog steeds gek genoeg om 2k+ euro stuk te slaan op dag 1 op een GPU, voor mijn beeldvorming, uitgaande van €1950 voor de FE, wat moest die Suprim X, de Suprim X Liquid en die Strix gister kosten dan bij onze Webshops?
2250, 2400, 2600

Acties:
  • +1 Henk 'm!

  • J4s0n
  • Registratie: Juni 2011
  • Laatst online: 25-09-2023

J4s0n

Stop! Hammertime!

Dennism schreef op donderdag 13 oktober 2022 @ 10:37:
[...]


Daar ik nu nergens prijzen zie, want mensen zijn schijnbaar nog steeds gek genoeg om 2k+ euro stuk te slaan op dag 1 op een GPU, voor mijn beeldvorming, uitgaande van €1950 voor de FE, wat moest die Suprim X, de Suprim X Liquid en die Strix gister kosten dan bij onze Webshops?
Bij Alternate ging ie weg voor €2500. Die deden een onfris truckje door eerst de andere webshops af te wachten en hun te laten launcen om vervolgens een half uur later de eigen voorraad online te zetten voor beduidend hogere prijzen. :/

Man is a tool-using animal. Without tools he is nothing, with tools he is all.


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:09
allemaal natuurlijk veel te duur, maar die strix spant dan inderdaad wel de kroon.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:09
J4s0n schreef op donderdag 13 oktober 2022 @ 10:42:
[...]


Bij Alternate ging ie weg voor €2500. Die deden een onfris truckje door eerst de andere webshops af te wachten en hun te laten launcen om vervolgens een half uur later de eigen voorraad online te zetten voor beduidend hogere prijzen. :/
Bedoel je de Suprim x met die €2500 of de Strix?

Als @Paprika €2250 noemt als prijs bij de webshops en Alternate maakt daar dan €2500 van is dat inderdaad wel een streek :P

Maar eerlijk is eerlijk, als ze dan alsnog verkopen laat het ook maar weer zien dat mensen simpelweg bereid zijn dat soort idiote prijzen te betalen, en Nvidia met hun partners dus wel gelijk hebben. Laten we hopen dat AMD dit niet opvalt :+

[ Voor 18% gewijzigd door Dennism op 13-10-2022 10:48 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Dennism schreef op donderdag 13 oktober 2022 @ 10:44:
[...]


Bedoel je de Suprim x met die €2500 of de Strix?

Als @Paprika €2250 noemt als prijs bij de webshops en Alternate maakt daar dan €2500 van is dat inderdaad wel een streek :P
Alternate koppelde verplicht 'n 1300W voeding van zo'n 250 euro aan al hun kaarten :+.

Edit:
@Dennism, van de Tweakers discord gekaapt:
Afbeeldingslocatie: https://tweakers.net/i/UsSppd71EOSjhOpDspQUZfS6Pqw=/800x/filters:strip_exif()/f/image/NexrB3rDCD0LbxF77PhEIPlm.png?f=fotoalbum_large

[ Voor 33% gewijzigd door Paprika op 13-10-2022 10:56 ]


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:09
Paprika schreef op donderdag 13 oktober 2022 @ 10:45:
[...]

Alternate koppelde verplicht 'n 1300W voeding van zo'n 250 euro aan al hun kaarten :+.
Lol, zie echter ook mijn edit hierboven. Als mensen dat als zoete koek slikken en tekenen bij het kruisje laat dat wel het gelijk zijn zien van Nvidia en hun partners.

Acties:
  • +2 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 12:20

OMD

Even voor mijn beeldvorming want dat is materie waar ik niet echt in thuis ben. De 4090 heeft maar een DP1.4a aansluiting en is daarom gelimiteerd tot 4K 120hz? Klopt dit? Ik zie toch bij reviews veel meer fps of is het alleen het uitgestuurde signaal dat de limit heeft?

[ Voor 22% gewijzigd door OMD op 13-10-2022 10:49 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • +1 Henk 'm!

  • J4s0n
  • Registratie: Juni 2011
  • Laatst online: 25-09-2023

J4s0n

Stop! Hammertime!

Dennism schreef op donderdag 13 oktober 2022 @ 10:44:
[...]


Bedoel je de Suprim x met die €2500 of de Strix?

Als @Paprika €2250 noemt als prijs bij de webshops en Alternate maakt daar dan €2500 van is dat inderdaad wel een streek :P

Maar eerlijk is eerlijk, als ze dan alsnog verkopen laat het ook maar weer zien dat mensen simpelweg bereid zijn dat soort idiote prijzen te betalen, en Nvidia dus wel gelijk heeft. Laten we hopen dat AMD dit niet opvalt :+
De Suprim X.

Dat scalpers dit doen is tot daar aan toe. Hoort erbij in deze gekte. Maar dat gerespecteerde (of ik dacht gerespecteerde) webwinkels zo handelen is niet sjiek. Ze mogen het doen, betekent niet dat ze het ook moeten doen natuurlijk.

Man is a tool-using animal. Without tools he is nothing, with tools he is all.


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Paprika schreef op donderdag 13 oktober 2022 @ 10:15:
[Afbeelding]

Toch best een verschil voor een normalized test.
Alleen is dat verschil relevant? Of je kaart nu 58 graden of 72 graden wordt, beide is prima binnen de marges.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Jeroenneman schreef op donderdag 13 oktober 2022 @ 10:48:
[...]

Alleen is dat verschil relevant? Of je kaart nu 58 graden of 72 graden wordt, beide is prima binnen de marges.
Het ging hier puur over de hoeveelheid warmte de koelers konden dumpen richting de omgeving. Zelf zou ik de goedkoopste kaart nemen als dat je vraag is.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:09
OMD schreef op donderdag 13 oktober 2022 @ 10:47:
Even voor mijn beeldvorming want dat is materie waar ik niet echt in thuis ben. De 4090 heeft maar een DP1.4a aansluiting en is daarom gelimiteerd tot 4K 120hz? Klopt dit? Ik zie toch bij reviews veel meer fps of is het alleen het uitgestuurde signaal dat de limit heeft?
Volgens mij klopt dit wanneer je geen DSC gebruikt, met DSC kun je volgens mij wel hoger als je zaken als HDR, 10bit kleur e.d. laat vallen.

[ Voor 5% gewijzigd door Dennism op 13-10-2022 10:51 ]


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Paprika schreef op donderdag 13 oktober 2022 @ 10:50:
[...]

Het ging hier puur over de hoeveelheid warmte de koelers konden dumpen richting de omgeving. Zelf zou ik de goedkoopste kaart nemen als dat je vraag is.
Maar alle koelers hebben toch bijna dezelfde warmte afgifte? Wellicht de één wat sneller van de chip dan de ander, maar in totaal zullen ze de warmte toch kwijt moeten.

Het makkelijkst is de kaart kopen die beschikbaar is, power target naar een normale waarde, en dan zit je met welke koeler dan ook goed.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Jeroenneman schreef op donderdag 13 oktober 2022 @ 10:52:
[...]

Maar alle koelers hebben toch bijna dezelfde warmte afgifte? Wellicht de één wat sneller van de chip dan de ander, maar in totaal zullen ze de warmte toch kwijt moeten.

Het makkelijkst is de kaart kopen die beschikbaar is, power target naar een normale waarde, en dan zit je met welke koeler dan ook goed.
Klopt, we zeggen hetzelfde eigenlijk. :p

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 12:20

OMD

Dennism schreef op donderdag 13 oktober 2022 @ 10:50:
[...]


Volgens mij klopt dit wanneer je geen DSC gebruikt, met DSC kun je volgens mij wel hoger als je zaken als HDR, 10bit kleur e.d. laat vallen.
Dus je moet eigenlijk kwaliteit van het beeld laten vallen voor fps bij de 4090 als je je 144hz 4k monitor (optimaal) wil gebruiken. Wait whut? Of denk ik te simpel?

[ Voor 8% gewijzigd door OMD op 13-10-2022 10:58 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:09
OMD schreef op donderdag 13 oktober 2022 @ 10:55:
[...]


Dus je moet eigenlijk kwaliteit van het beeld laten vallen voor fps bij de 4090 als je je 144hz 4k monitor (optimaal) wil gebruiken. Wait whut? Of denk ik te simpel?
Komt het eigenlijk wel op neer voor zover ik weet, al claimen ze wel dat DSC virtually lossless is, dus hoeveel je in de praktijk daarvan merkt durf ik niet te zeggen. En ik heb het ook nog nooit kunnen testen.

Dit is bijv. wat Benq erover zegt:
Additionally, monitors such as the MOBIUZ EX3210U support digital signal compression technology or DSC, which allows for 4K 144Hz to transit via one DisplayPort 1.4 connection, despite DP 1.4 being around for quite some time. Note that the graphics card you choose should also support DSC, but that’s not a problem because nearly all video cards released over the last couple of years have this technology. If you choose to game in 4K 120Hz, then DSC isn’t needed and DisplayPort 1.4 will work perfectly.

[ Voor 36% gewijzigd door Dennism op 13-10-2022 11:05 ]


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 12:20

OMD

Dennism schreef op donderdag 13 oktober 2022 @ 11:03:
[...]


Komt het eigenlijk wel op neer voor zover ik weet, al claimen ze wel dat DSC virtually lossless is, dus hoeveel je in de praktijk daarvan merkt durf ik niet te zeggen. En ik heb het ook nog nooit kunnen testen.
Heb net dit stuk een beetje zitten lezen:
https://www.anandtech.com...pg27uq-gsync-hdr-review/3
Aangezien er vermeld wordt dat je niet boven de 4k 120hz kan komen "unless you are using chroma"

Ik kwam er op door dit artikel:
https://videocardz.com/ne...displayport-2-1-interface

Stond er een beetje van te kijken eerlijk gezegd maar goed. Wat het echt in de praktijk voor verschil geeft is denk ik moeilijk uit te vinden en wellicht merk je het amper.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

OMD schreef op donderdag 13 oktober 2022 @ 10:55:
[...]


Dus je moet eigenlijk kwaliteit van het beeld laten vallen voor fps bij de 4090 als je je 144hz 4k monitor (optimaal) wil gebruiken. Wait whut? Of denk ik te simpel?
Kwaliteit ga je weinig van merken als je DCS laat vallen. Dit kun je prima doen. Al hoewel ik betwijfel of je het verschil wel gaat merken tussen 120Hz en 144Hz, tenzij je echt competitief bezig bent in de game wereld.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +2 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Ik heb wel gemerkt dat de Aorus Master van Gigabyte de grootste uitvoering heeft van alle merken.

Laat ik nou net deze dus gekocht hebben. Links de 4090FE en rechts de Aorus Master. Het is echt een monster.
Afbeeldingslocatie: https://tweakers.net/i/MbmQwIJxSRP4nVxt_H1EYqmiZsE=/800x/filters:strip_icc():strip_exif()/f/image/D2TPABTgH7AZy9HobmMYOtpr.jpg?f=fotoalbum_large

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 12:20

OMD

Xtr3me4me schreef op donderdag 13 oktober 2022 @ 11:08:
[...]


Kwaliteit ga je weinig van merken als je DCS laat vallen. Dit kun je prima doen. Al hoewel ik betwijfel of je het verschil wel gaat merken tussen 120Hz en 144Hz, tenzij je echt competitief bezig bent in de game wereld.
Het is meer voor de mensen die straks wel een hogere refreshrate monitor hebben dan 120hz op 4k en het wel merken. Dat is dus minder bruikbaar door de oude displayport techniek die nVidia heeft gebruikt. Misschien niet rampzalig maar wel apart voor een niche product van 2000 euro.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Zuvio
  • Registratie: Mei 2004
  • Laatst online: 16-08 07:53
OMD schreef op donderdag 13 oktober 2022 @ 11:33:
[...]


Het is meer voor de mensen die straks wel een hogere refreshrate monitor hebben dan 120hz op 4k en het wel merken. Dat is dus minder bruikbaar door de oude displayport techniek die nVidia heeft gebruikt. Misschien niet rampzalig maar wel apart voor een niche product van 2000 euro.
Die DSC 'loss' ga je echt niet merken. Tenzij je professional color accurate werk doet zie je geen verschil tussen 10 of 8 bit kleuren.

Of je 120 naar 144Hz gaat merken hangt af van je gevoeligheid. Ikzelf merk het wel, het is meer een net-iets-smoothere beweging idee, maar het is zeker niet zo groot als het verschil tussen 60 naar 120 Hz.

Dat er geen DP2.0 connectie op de 4090 kaart zit, ach ja soms lopen die dingen elkaar net mis. Maar het is wel een punt voor degene die absoluut die connectie willen gebruiken dat ze weten dat de kaart 'maar' DP1.4a heeft.

[ Voor 13% gewijzigd door Zuvio op 13-10-2022 11:37 ]


Acties:
  • +1 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

OMD schreef op donderdag 13 oktober 2022 @ 11:33:
[...]


Het is meer voor de mensen die straks wel een hogere refreshrate monitor hebben dan 120hz op 4k en het wel merken. Dat is dus minder bruikbaar door de oude displayport techniek die nVidia heeft gebruikt. Misschien niet rampzalig maar wel apart voor een niche product van 2000 euro.
Is meer omdat Nvidia ervan uit gaat, dat mensen voorlopig niet meer nodig hebben dan DP 1.4a en HDMI 2.1 en dat er te weinig mensen zijn die voluit gebruik maken van de DP 2.0.

Daarin tegen heeft Nvidia de plank misgeslagen want zowel Intel als AMD hebben DP 2.0 op hun kaarten. Nvidia moet eens leren te stoppen te denken voor een ander en meer luisteren naar het brede publiek.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Asus heeft overigens wel 2 HDMI poorten op hun kaarten gestopt. Dat kan nog 'n beetje helpen.

Acties:
  • +6 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

GamersNexus gaat er nu wel helemaal voor zeg. :P
-Iemand van Corsair besloot om zonder goede informatie te gaan beschuldigen dat ze onzin verspreiden over hoe die PCIe kabel adapter werkt. Die kreeg een uitleg van iemand van Nvidia terug.
-Vervolgens gaan ze airflow testen.
-En dan ook nog eens contact tussen de GPU en de koeler.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +5 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En DLSS3.0. :)
-Ze hebben LDAT gebruikt, bedankt Nvidia. :+
-Qua latency is het verschil fors en het is groter met 3.0 quality mode dan performance mode. Het effect wordt zoals verwacht ook groter met lagere framerates, waardoor DLSS 3.0 een groter vraagteken is. Eigenlijk zeggen ze dat je dit niet moet gebruiken onder de 120fps die je haalt zonder DLSS3.0. Voor compative games raden ze dit helemaal af. Idem voor hogere fps dan je scherm haar resolutie voor de voordelen in latency.
-DLSS 3.0 ondersteund ook geen Vsync of frame cap waardoor je ook tearing kan krijgen zonder een adaptive sync monitor.

-DLSS 3.0 werkt aardig als er weinig verschil is tussen twee frames. Ook maskeert een erg hogere framerate de artefacts die je ervaart redelijk goed.
-Maar er zijn duidelijk merkbare problemen met UI in games. En als je snel compleet van beeld veranderd, dan krijg je complete blur.

[ Voor 84% gewijzigd door DaniëlWW2 op 13-10-2022 12:59 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
DLSS 2 of FSR 2 op quality mode is is dus veel beter want je wil geen lagg voelen, ook niet in langzame games. Hopelijk komen er nog tests waar bij het iemand is gelukt om DLSS 3 te testen zonder reflex, puur uit nieuwsgierigheid hoeveel vertraging extra dat opleverd.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
@DaniëlWW2, ik ben benieuwd hoe de 4080 12GB door zo'n test gaat komen als die van HU gezien de beperkte uplift tov de 3080.

Acties:
  • 0 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

Paprika schreef op donderdag 13 oktober 2022 @ 13:17:
@DaniëlWW2, ik ben benieuwd hoe de 4080 12GB door zo'n test gaat komen als die van HU gezien de beperkte uplift tov de 3080.
Ik denk dat die 4080 12GB nog wel redelijk uit de voeten moet kunnen met veel games, maar dan wel op een lagere resolutie. Zeker in een 'langzame' game zoals Flight Simulator kan het dan denk ik weinig kwaad, maar aan de andere kant heb je in dat soort games ook veel minder aan, laten we zeggen, 140fps t.o.v. 70 of 80. Ik vind het an sich een hele mooie technologie, het lijkt op een veel betere vorm van 'smoothening' dat je al tijden op televisies hebt. Denk niet dat ik er zelf heel gauw gebruik van zal maken; vooral hoe de HUD lijdt onder DLSS 3 in FS en F1 2022 zou ik me aardig aan storen ben ik bang.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op donderdag 13 oktober 2022 @ 13:17:
@DaniëlWW2, ik ben benieuwd hoe de 4080 12GB door zo'n test gaat komen als die van HU gezien de beperkte uplift tov de 3080.
Het gaat een RTX3080Ti worden die in de ene game iets beter is, de volgende iets slechter met een grappig extraatje die voor een paar games relevant kan zijn, als die het ondersteunen. Meer is het gewoon niet. Het is best leuk voor Flight Sim waar je met een forse CPU bottleneck zit en latency niet erg relevant zal zijn. Maar in elke first person alsmede heel wat third person games zou ik het niet eens overwegen. Je hebt daar de framerate, dus 100+ waardoor je het niet nodig hebt, of je gaat te veel latency impact hebben. Het is zeker ook geen fix voor inadequate RT hardware zoals Nvidia suggereerde.

Ook ga je naar 285W vanaf 350W. Als dit nu $450 was, dan had je een leuke videokaart voor 1440p. Meer wil ik er eigenlijk ook niet over zeggen omdat dit ding inmiddels afdoende doodgeknuppeld is. Ik blijf er immers bij dat alleen AD102 een beetje interessant lijkt. De rest mist de SM aantallen voor rasterisation + meer RT cores.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 12-09 18:59
De artifacts in de UI zijn eigenlijk de enige waar ik echt over struikel. De rest zijn niet echt opvallend tenzij je er naar opzoek bent. Bij hardware unboxed hadden ze het beeld tot 12,5% moeten vertragen totdat je de artifacts duidelijk zag. Oculus had de UI artifacts ook met hun spacewarp en die zijn opgelost door een apart buffer aan te leveren waar de UI in getekend kan worden. Ik snap niet waarom Nvidia deze optie ook niet geeft. Dit kunnen ze misschien in de toekomst met een update oplossen maar dan heb je wel al tientallen games die al uit zijn en wellicht geen patchen meer krijgen en dus nooit zullen oplossen. Dus een beetje jammer dat Nvidia dat niet meteen bij de eerste versie introduceerde.
Als ze de UI artifacts oplossen zie ik me dit nog best wel vaak gebruiken. Vooral als het betekend dat ik ray-tracing aan kan zetten. Zonder ray-tracing heb je namelijk ook artifacts bij gebruik van bijvoorbeeld SSR en dit is iets wat me meteen opvalt.

Acties:
  • 0 Henk 'm!

  • Danielson
  • Registratie: Januari 2003
  • Laatst online: 12:35
Ik zat te twijvelen tussen een RTX3080 12GB (950 euro) en een RTX4080 12GB (1300 euro?), maar als ik de benchmarks zo zie dan is het verschil qua performance die paar honderd euro zeker niet waard, dat is wel een beetje een tegenvaller, of zie ik iets over het hoofd? :?

Acties:
  • 0 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

Danielson schreef op donderdag 13 oktober 2022 @ 14:25:
Ik zat te twijvelen tussen een RTX3080 12GB (950 euro) en een RTX4080 12GB (1300 euro?), maar als ik de benchmarks zo zie dan is het verschil qua performance die paar honderd euro zeker niet waard, dat is wel een beetje een tegenvaller, of zie ik iets over het hoofd? :?
Behalve DLSS 3 niet. Gok dat de 4080 12GB in praktijk wel ietsjes beter zal gaan presteren, zeker als er nieuwe drivers uitkomen. De MSRP is trouwens 1099 euro, dus dat is 150 euro meer. Of dat het waard is is een ander verhaal.

Acties:
  • 0 Henk 'm!

  • Danielson
  • Registratie: Januari 2003
  • Laatst online: 12:35
Thomas schreef op donderdag 13 oktober 2022 @ 14:29:
[...]


Behalve DLSS 3 niet. Gok dat de 4080 12GB in praktijk wel ietsjes beter zal gaan presteren, zeker als er nieuwe drivers uitkomen. De MSRP is trouwens 1099 euro, dus dat is 150 euro meer. Of dat het waard is is een ander verhaal.
Dat is de prijs van de FE, de andere merken zoals Asus enz zullen daar ver boven zitten ben ik bang! ;w

Acties:
  • 0 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

Danielson schreef op donderdag 13 oktober 2022 @ 14:31:
[...]


Dat is de prijs van de FE, de andere merken zoals Asus enz zullen daar ver boven zitten ben ik bang! ;w
Er komt geen FE van de 12GB variant ;). Zou goed kunnen dat merken boven die 1099 euro gaan zitten maar ik kan me om heel eerlijk te zijn niet voorstellen dat er mensen met goed verstand veel meer voor gaan betalen, dan kom je in het territorium van de 16GB variant terecht en die is veel sneller. Ik ga er bijna vanuit dat die 1099 wel wordt aangehouden, misschien op korte termijn zelfs minder.

Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PjotrX schreef op donderdag 13 oktober 2022 @ 14:00:
De artifacts in de UI zijn eigenlijk de enige waar ik echt over struikel. De rest zijn niet echt opvallend tenzij je er naar opzoek bent. Bij hardware unboxed hadden ze het beeld tot 12,5% moeten vertragen totdat je de artifacts duidelijk zag. Oculus had de UI artifacts ook met hun spacewarp en die zijn opgelost door een apart buffer aan te leveren waar de UI in getekend kan worden. Ik snap niet waarom Nvidia deze optie ook niet geeft. Dit kunnen ze misschien in de toekomst met een update oplossen maar dan heb je wel al tientallen games die al uit zijn en wellicht geen patchen meer krijgen en dus nooit zullen oplossen. Dus een beetje jammer dat Nvidia dat niet meteen bij de eerste versie introduceerde.
Als ze de UI artifacts oplossen zie ik me dit nog best wel vaak gebruiken. Vooral als het betekend dat ik ray-tracing aan kan zetten. Zonder ray-tracing heb je namelijk ook artifacts bij gebruik van bijvoorbeeld SSR en dit is iets wat me meteen opvalt.
Naast de artefacts besprak HWU ook nog de latency effecten onder bepaalde omstandigheden.

Zeker toekomstige lager gepositioneerde GPU's met lagere raw FPS kunnen met DLSS 3 door de toegenomen latency er wel soepel uitzien maar toch minder soepel aanvoelen.

Video start bij het meer samenvattende gedeelte: YouTube: Fake Frames or Big Gains? - Nvidia DLSS 3 Analyzed

Ik ben in ieder geval nog niet echt overtuigd van DLSS 3. Zie het meer als nice to have en zou het waarschijnlijk niet of zelden gebruiken.

[ Voor 4% gewijzigd door Help!!!! op 13-10-2022 15:03 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +2 Henk 'm!

  • zzzzz
  • Registratie: Juni 2007
  • Laatst online: 25-05 21:59
Help!!!! schreef op donderdag 13 oktober 2022 @ 14:41:
Zeker lager gepositioneerde GPU's met lagere raw FPS kunnen met DLSS 3 door de toegenomen latency er wel soepel uitzien maar toch minder soepel aanvoelen.
Dat is ook een beetje het gevoel wat ik van hun video kreeg. Je kan dus inderdaad Cyberpunk op 150 fps spelen in 4K met RT en DLSS2+FG aan, maar als het dan nog steeds voelt als 40 fps omdat dat je originele fps was voordat je de trukendoos van Nvidia opende, dan kom je echt nog niet veel verder behalve de bragging rights.
Dan is het inderdaad een beetje een wassen neus als je eigenlijk als native 120fps moet draaien om de software goed te laten functioneren. Dan is 120fps -> 200 fps opeens een heel stuk minder waardevol.
Dat zal dan misschien ook wel gelijk de reden zijn dat DLSS3 niet naar de 3000 series komt? Daar was het namelijk niet effectief/responsive genoeg geweest zijn.

[ Voor 9% gewijzigd door zzzzz op 13-10-2022 14:46 ]

Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K


Acties:
  • +3 Henk 'm!

  • J4s0n
  • Registratie: Juni 2011
  • Laatst online: 25-09-2023

J4s0n

Stop! Hammertime!

zzzzz schreef op donderdag 13 oktober 2022 @ 14:45:
[...]

Dat is ook een beetje het gevoel wat ik van hun video kreeg. Je kan dus inderdaad Cyberpunk op 150 fps spelen in 4K met RT en DLSS2+FG aan, maar als het dan nog steeds voelt als 40 fps omdat dat je originele fps was voordat je de trukendoos van Nvidia opende, dan kom je echt nog niet veel verder behalve de bragging rights.
Dan is het inderdaad een beetje een wassen neus als je eigenlijk als native 120fps moet draaien om de software goed te laten functioneren. Dan is 120fps -> 200 fps opeens een heel stuk minder waardevol.
Dat zal dan misschien ook wel gelijk de reden zijn dat DLSS3 niet naar de 3000 series komt? Daar was het namelijk niet effectief/responsive genoeg geweest zijn.
Zijn quote ook: "Based on this it's hard to recommend anyone use DLSS 3 at moderate to low framerates." en: "I recommend a minimum of 120 FPS before enabling DLSS 3, targeting at around 200fps with frame generation enabled".

Goede video en zeker het kijken waard voor wie een 4090 heeft weten te bemachtigen en DLSS 3 aan gaat zetten.

De latency increase maakt darabij dat het voor competatieve games niet geschikt is omdat je latency best hard omhoog gaat.

[ Voor 4% gewijzigd door J4s0n op 13-10-2022 14:54 . Reden: Toevoeging ]

Man is a tool-using animal. Without tools he is nothing, with tools he is all.


Acties:
  • +3 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 14:06
zzzzz schreef op donderdag 13 oktober 2022 @ 14:45:
Dat zal dan misschien ook wel gelijk de reden zijn dat DLSS3 niet naar de 3000 series komt? Daar was het namelijk niet effectief/responsive genoeg geweest zijn.
Ik denk dat NV niet gelogen heeft over de noodzaak voor extra hardware om dit toneelstukje op te kunnen voeren (of liever, ze hebben een nut gevonden voor AI hardware die anders braak had gelegen in gaming). Het heeft dan letterlijk geen zin om het te implementeren voor de eerdere kaarten omdat je er netto dan op achteruit gaat in rasterization perf, voordat de frame generation daar dan weer voor compenseert, zodat je het slechtste van twee werelden hebt: toegenomen latency en niet of nauwelijks toegenomen framerates. Zoiets kan zelfs de marketing van NV niet aan de man brengen, als ze dat al zouden willen. :P

Voor mij is DLSS 3 (of beter gezegd Frame Generation) in ieder geval volkomen oninteressant geworden na de video van HU. Het is duidelijk een "win more" feature die alleen fijn gaat zijn als je toch al op de eerste rang zit qua hardware, en juist niet om goedkopere hardware een voorsprong te geven ten opzichte van de concurrent op hetzelfde niveau. De winst zit hem vooral bij Nvidia in hoe ze hun benchmarks kunnen verkopen.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Paprika schreef op woensdag 21 september 2022 @ 10:37:
Dit zou overigens de achterliggende uitleg moeten zijn:
[Afbeelding]

https://ctnzr.io
Het verhaal achter frame generation op vorige series was al beantwoord zie mijn eigen bericht van 'n paar weken terug.

Acties:
  • +3 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

MneoreJ schreef op donderdag 13 oktober 2022 @ 14:57:
[...]

Ik denk dat NV niet gelogen heeft over de noodzaak voor extra hardware om dit toneelstukje op te kunnen voeren (of liever, ze hebben een nut gevonden voor AI hardware die anders braak had gelegen in gaming). Het heeft dan letterlijk geen zin om het te implementeren voor de eerdere kaarten omdat je er netto dan op achteruit gaat in rasterization perf, voordat de frame generation daar dan weer voor compenseert, zodat je het slechtste van twee werelden hebt: toegenomen latency en niet of nauwelijks toegenomen framerates. Zoiets kan zelfs de marketing van NV niet aan de man brengen, als ze dat al zouden willen. :P

Voor mij is DLSS 3 (of beter gezegd Frame Generation) in ieder geval volkomen oninteressant geworden na de video van HU. Het is duidelijk een "win more" feature die alleen fijn gaat zijn als je toch al op de eerste rang zit qua hardware, en juist niet om goedkopere hardware een voorsprong te geven ten opzichte van de concurrent op hetzelfde niveau. De winst zit hem vooral bij Nvidia in hoe ze hun benchmarks kunnen verkopen.
Exact. HWU gaf dan m.i. ook terecht aan in hun conclusie dat FPS data met/zonder DLSS 3 eigenlijk niet te vergelijken zijn. Het is geen apples to apples maar nvidia presenteert het wel zo in hun marketing en in de reviews staat het ook als 'apples to apples' in de overzichtjes.....

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

De 4090 moet je gewoon weg nog niet gebruiken voor DLSS 3.0 Hoe fancy Nvidia het ook maakt, DLSS 3.0 moet nog flink aan gesleuteld worden. Immers was dat ook met DLSS 1.0.

Met hun nieuwe Flow nog wattus etc...is de eerste keer met games we DLSS 3.0 zien en denk software matig nog veel gedaan moet worden.
Ik zou het lekker op DLSS 2.0 houden voorlopig en DLSS 3.0 wachten totdat het volwassen genoeg gemaakt is en de meeste problemen opgelost zijn.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 12-09 18:59
Help!!!! schreef op donderdag 13 oktober 2022 @ 14:41:
[...]

Naast de artefacts besprak HWU ook nog de latency effecten onder bepaalde omstandigheden.

Zeker toekomstige lager gepositioneerde GPU's met lagere raw FPS kunnen met DLSS 3 door de toegenomen latency er wel soepel uitzien maar toch minder soepel aanvoelen. YouTube: Fake Frames or Big Gains? - Nvidia DLSS 3 Analyzed

Ik ben in ieder geval nog niet echt overtuigd van DLSS 3. Zie het meer als nice to have en zou het waarschijnlijk niet of zelden gebruiken.
Ik ben nog niet overtuigd van dat filmpje. Reden is dat ik voornamelijk SP games speel en als ik kijk naar de afgelopen jaren dan is de enige titel wat ik speelde met Reflex aan Deathloop was. En twee jaar geleden bestond er geen Reflex en heb ik werkelijk geen problemen met latency gehad. Maar dat light dus vooral aan de type spellen die ik speel. Spellen waar latency een issue is zijn competitieve spellen en die zijn gemaakt voor low-spec hardware. Alle kaarten die nu Frame Generation ondersteunen gaan geen problemen hebben met die spellen. Als je de latency echt nodig hebt zet reflex aan en frame generation uit, probleem opgelost. En mocht dat bij toekomstige spellen lage frame-rates te geven heb je nog de ruimte om settings terug te draaien.
Ik heb wel al 1,5 jaar een 4k monitor en waar ik wel gevoelig voor ben is gestotter door lage framerate of dips. Denk dat de meerwaarde voor mij om van gestotter naar vloeiend gameplay gaan groter is dan de verloren latency (en meestal verlies je latency ten opzichte van reflex aan). Verder zoals al had gezegd zou ik dan de settings kunnen ophogen en daardoor van andere artifacts af zijn zoals LOD-popping of de SSR artifacts. Jammer dat er geen youtuber daar naar heeft gekeken: dus settings in een spel terugschroeven om dezelfde of in ieder geval een deel van de performance te krijgen van frame generation en dan kijken naar wat beter bevalt. Dit verschilt natuurlijk per spel en is heel erg subjectief.

Acties:
  • +2 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
https://www.nvidia.com/en...rial-with-geforce-rtx-40/

Verified Priority Access Trial with GeForce RTX 4090 Founders Edition, werkt ook voor ons schijnbaar.

Acties:
  • 0 Henk 'm!

  • William/Ax3
  • Registratie: Augustus 2000
  • Laatst online: 30-08 08:36

William/Ax3

We are Starstuff

OMD schreef op donderdag 13 oktober 2022 @ 11:07:
[...]


Heb net dit stuk een beetje zitten lezen:
https://www.anandtech.com...pg27uq-gsync-hdr-review/3
Aangezien er vermeld wordt dat je niet boven de 4k 120hz kan komen "unless you are using chroma"

Ik kwam er op door dit artikel:
https://videocardz.com/ne...displayport-2-1-interface

Stond er een beetje van te kijken eerlijk gezegd maar goed. Wat het echt in de praktijk voor verschil geeft is denk ik moeilijk uit te vinden en wellicht merk je het amper.
De Intel arc is maar UHBR10 en dat is maar 6gbps hoger dan dp1.4a. En is nog pending certificate.
Wat amd gaat doen weten we (nog) niet laten we hopen dat die wel dp2.0 80gbps gaan pushen zodat de markt in de toekomst wel meer dit gaat doen.

Is het nu een issue? Nah je kan al 4K 240 met Dsc op 1.4 zie bv de Samsung G85NB monitor
Zou het beter zijn voor toekomst en geen DSC te moeten gebruiken ja dat wel.

|WOW Daggerspine | Troll Hunter Axejess |


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op donderdag 13 oktober 2022 @ 12:23:
En DLSS3.0. :)
-Ze hebben LDAT gebruikt, bedankt Nvidia. :+
-Qua latency is het verschil fors en het is groter met 3.0 quality mode dan performance mode. Het effect wordt zoals verwacht ook groter met lagere framerates, waardoor DLSS 3.0 een groter vraagteken is. Eigenlijk zeggen ze dat je dit niet moet gebruiken onder de 120fps die je haalt zonder DLSS3.0. Voor compative games raden ze dit helemaal af. Idem voor hogere fps dan je scherm haar resolutie voor de voordelen in latency.
-DLSS 3.0 ondersteund ook geen Vsync of frame cap waardoor je ook tearing kan krijgen zonder een adaptive sync monitor.

-DLSS 3.0 werkt aardig als er weinig verschil is tussen twee frames. Ook maskeert een erg hogere framerate de artefacts die je ervaart redelijk goed.
-Maar er zijn duidelijk merkbare problemen met UI in games. En als je snel compleet van beeld veranderd, dan krijg je complete blur.
[YouTube: Fake Frames or Big Gains? - Nvidia DLSS 3 Analyzed]
Precies zoals verwacht dus (tenminste mijn verwachting :+). Onbruikbaar op lage framerates en ze gebruikten performance mode in de previews om o.a. dat te verdoezelen.

Daarnaast is HardwareUnboxed de eerste reviewer die goed aangeeft dat ze voor alle resultaten Reflex hebben gebruikt (en in een situatie niet)! Petje af want dit is de juiste situatie om het te testen.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

PjotrX schreef op donderdag 13 oktober 2022 @ 14:00:
Oculus had de UI artifacts ook met hun spacewarp en die zijn opgelost door een apart buffer aan te leveren waar de UI in getekend kan worden. Ik snap niet waarom Nvidia deze optie ook niet geeft. Dit kunnen ze misschien in de toekomst met een update oplossen maar dan heb je wel al tientallen games die al uit zijn en wellicht geen patchen meer krijgen en dus nooit zullen oplossen. Dus een beetje jammer dat Nvidia dat niet meteen bij de eerste versie introduceerde.
Dat vroeg ik mij ook al af. Misschien omdat ze alles op de kaart doen dat dit lastiger is?

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
zzzzz schreef op donderdag 13 oktober 2022 @ 14:45:
[...]
Je kan dus inderdaad Cyberpunk op 150 fps spelen in 4K met RT en DLSS2+FG aan, maar als het dan nog steeds voelt als 40 fps omdat dat je originele fps was voordat je de trukendoos van Nvidia opende, dan kom je echt nog niet veel verder behalve de bragging rights.
Dan is het inderdaad een beetje een wassen neus als je eigenlijk als native 120fps moet draaien om de software goed te laten functioneren.
Het is wel zo dat DLSS 2 juist zorgt voor minder latency, want je rendered dan frames op lage resolutie, wat sneller kan dan renderen op hoge resolutie. Dus als je met temporal upscaling van 40 naar 60 fps gaat en dan met interpolation naar 120 fps, dan heb je de latency van 60 FPS, niet van 40.

De vraag is dan vooral waar de grens ligt. Hoeveel fps moet je hebben zonder interpolation voordat je onnauwkeurig gaat zijn, of het anderszins gaat merken. En ongetwijfeld hangt dat af van het soort spel.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Sp3ci3s8472 schreef op donderdag 13 oktober 2022 @ 18:37:
[...]
Dat vroeg ik mij ook al af. Misschien omdat ze alles op de kaart doen dat dit lastiger is?
Het vreemde is ook dat met DLSS 2 de GUI juist pas na de upscaling wordt toegevoegd, zodat je geen upscaling artifacts krijgt in je GUI. Dan zou je denken dat Nvidia de interpolation vlak na de upscaling zou doen, en pas dan de GUI er overheen jast.

Al is het natuurlijk wel zo dat de CPU eigenlijk helemaal niet betrokken is bij de geïnterpoleerde frames, dus zou je de GUI overlay dan misschien moeten hergebruiken van de vorige frame. Misschien gaat dat dan te vaak niet goed en krijg je een mismatch tussen het scherm en de GUI.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 12-09 18:59
Sp3ci3s8472 schreef op donderdag 13 oktober 2022 @ 18:37:
[...]


Dat vroeg ik mij ook al af. Misschien omdat ze alles op de kaart doen dat dit lastiger is?
Naja het is niets anders dan wat Oculus doet en dat op een mobiel chip. Het enige dat ik kan bedenken is dat de API voor dlss ingewikkelder wordt. Kan zijn dat ze die zo simpel mogelijk proberen te houden zodat gameontwikkelaars het eerder zullen implementeren en dus meer spellen het gaan ondersteunen. Of misschien zijn ze ervan overtuigd dat ze deze artifacts in de toekomst zelf kunnen oplossen en dus een apart GUI layer/buffer niet nodig is. Een andere mogelijkheid is natuurlijk dat ze de functionaliteit al hebben in hun API maar dat gameontwikkelaars deze nog niet geïmplementeerd hebben.
Het laatste gebuurt wel vaker. Zo kan je de blur bij camera cuts te verhelpen als je aan dlss aangeeft dat er een camera cut is maar dan moeten gameontwikkelaars dat ook wel doen, zie ook: https://twitter.com/dariosamo/status/1579863614844178434

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

Dennism schreef op donderdag 13 oktober 2022 @ 10:08:
[...]


Als ik die koeler resultaten zo zie vraag ik me wel af wat nu waar is van dan gerucht dat Nvidia een koeler zou hebben ontwikkeld voor 450W, maar de AIB's heimelijk een koeler heeft laten ontwikkelen voor 600W. Ik zie eigenlijk maar een paar AIB kaarten het veel beter doen, en dat is dan ook nog een met een specifiek quiet bios (dat mogelijk ook de performance beïnvloed). Als dat gerucht waar was, zou je eigenlijk verwachten dat iedere AIB koeler de FE compleet zou verpulveren qua geluid en temperatuur, maar dat gebeurt toch niet direct. Er zitten zeker betere modellen tussen (maar dat is eigenlijk altijd wel zo), maar ook modellen die niet of amper beter lijken te presteren.
Ik heb ook zo mijn twijfels daarover, alleen bij het zien van de Asus Strix en Gigabyte Aorus Master, heb ik echt een idee van "600W to the max".
Maar grootte van de koeler zegt niet alles. Het max. toerental van de ventilators is een van de grote factors van de koelcapaciteit. De 4090FE heeft een bereik tot 4000rpm en dat is echt enorm.
Als 350W (4090FE gaming load) met 1500rpm al te koelen is, dan is 600W zeker mogelijk met 4000rpm.
Er van uitgaande dat de vapor chamber genoeg capaciteit heeft om de warmte af te voeren richting het koeloppervlak & fan's. In deze zin denk ik dat ze allemaal wel van 600W uit zijn gegaan.
De FE koeler is wel een heel efficiënt en mooi ontwerp imho.

Het koelontwerp is ook een balans tussen 3 factoren: grootte, temperatuur & geluid.
Vergroot je het een dan verkleint het ander.
Idle power van de Navi 21 chips lijkt wel een beetje 'all over the place' te zijn, 7W lijkt de ondergrens te zijn in reviews, terwijl 18W het hoogste is wat ik tegenkom. Mijn eigen 6900XT zit op 11-14W in Idle.
Dat is toch niet anders dan bij Nvidia? Het AMD reference ontwerp was gewoon héél zuinig met 7W en daarnaast heb je de andere groep met AIB's die er meer en/of minder efficiënte vrm's op geplakt hebben en dus met een hoger rustverbruik zaten. Het gros in de orde van 10-15W.
Wat wel anders is, is de 21W tot aan 38W rustverbruik en een gevolg van de overkill aan powerstages (men gaat mij niet wijs maken dat er 24-28 nodig zijn voor 450W). Hier is echt geen excuus voor, behalve dat dit een bewuste keuze is geweest om evt. tot 600W te gaan.
napata schreef op donderdag 13 oktober 2022 @ 10:26:
[...]

Tot je een 2de monitor aansluit en dan schiet het voorbij Nvidia naar 50W. Ik vind het idle verbruik van de 6950xt wel eigenaardig want de 6900xt had wel een idle van bijna 30W.

[Afbeelding]
Dat heeft te maken met een bug waardoor het geheugen niet terug klokt in rust. Het kan ook voorkomen met een high refresh rate (144Hz bijvoorbeeld) op een enkele monitor.
Dat probleem is al heel lang bekend en heeft te maken met de monitor timings.
Er bestaat een workaround voor: https://community.amd.com...e-memory-clock/m-p/474184


Deze fix is ook voor Nvidia kaarten van toepassing als er sprake is van een geheugenklok dat vast blijft zitten. Jammer genoeg zijn reviewers redelijk onwetend en laten ze foutieve oude metingen staan.

TPU heeft bijv. wel meer van dat soort domme metingen: Borderlands 3 FPS waarbij een RTX4090 het aflegt tegenover een RTX3080. Oorzaak: DX11 gebruiken i.p.v. DX12, waardoor een cpu bottleneck optreedt.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Ludewig schreef op donderdag 13 oktober 2022 @ 18:46:
[...]


Het vreemde is ook dat met DLSS 2 de GUI juist pas na de upscaling wordt toegevoegd, zodat je geen upscaling artifacts krijgt in je GUI. Dan zou je denken dat Nvidia de interpolation vlak na de upscaling zou doen, en pas dan de GUI er overheen jast.

Al is het natuurlijk wel zo dat de CPU eigenlijk helemaal niet betrokken is bij de geïnterpoleerde frames, dus zou je de GUI overlay dan misschien moeten hergebruiken van de vorige frame. Misschien gaat dat dan te vaak niet goed en krijg je een mismatch tussen het scherm en de GUI.
Nee, het probleem is dat je dan de hele post-processing stap ofwel over moet slaan zoals ze nu doen, ofwel in z'n geheel moet laten uitspelen, wat extra tijd kost én de artifacts erger maakt.

Met VR warping werkt het anders. Daar heb je een aparte buffer voor een overlay die je dus ook geheel los van de rest van je game moet updaten. De UI wordt apart gerenderd op 90 (/72/120/144) Hz. Werkt ook niet hetzelfde in elke engine. Als gebruiker wil je ook geen van deze "SAVE MY FRAMERATE" technieken hebben in VR, het voelt gewoon echt niet lekker. Oculus' ASW en dergelijke zijn dan ook last-resort oplossingen die men ten alle tijde dient te vermijden. En om nu te zeggen dat Oculus het op een mobiele chip doet is ook niet waar, dat doen ze pas sinds begin dit jaar en enkel als je in PCVR modus zit (en de chip in de headset dus niet aan het renderen is).

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:09
CMT schreef op donderdag 13 oktober 2022 @ 19:54:


Dat is toch niet anders dan bij Nvidia? Het AMD reference ontwerp was gewoon héél zuinig met 7W en daarnaast heb je de andere groep met AIB's die er meer en/of minder efficiënte vrm's op geplakt hebben en dus met een hoger rustverbruik zaten. Het gros in de orde van 10-15W.
Mijn punt was meer dat reference 6900XT een beetje all over the place zijn, ik heb immers een reference 6900XT, en de reviews lijkt ook niet iedere ref 6900XT op 7W te zitten, sommige wel, maar sommige ook niet.

Acties:
  • +7 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

DaniëlWW2 schreef op donderdag 13 oktober 2022 @ 12:23:
En DLSS3.0. :)
-Ze hebben LDAT gebruikt, bedankt Nvidia. :+
-Qua latency is het verschil fors en het is groter met 3.0 quality mode dan performance mode. Het effect wordt zoals verwacht ook groter met lagere framerates, waardoor DLSS 3.0 een groter vraagteken is. Eigenlijk zeggen ze dat je dit niet moet gebruiken onder de 120fps die je haalt zonder DLSS3.0. Voor compative games raden ze dit helemaal af. Idem voor hogere fps dan je scherm haar resolutie voor de voordelen in latency.
-DLSS 3.0 ondersteund ook geen Vsync of frame cap waardoor je ook tearing kan krijgen zonder een adaptive sync monitor.

-DLSS 3.0 werkt aardig als er weinig verschil is tussen twee frames. Ook maskeert een erg hogere framerate de artefacts die je ervaart redelijk goed.
-Maar er zijn duidelijk merkbare problemen met UI in games. En als je snel compleet van beeld veranderd, dan krijg je complete blur.
[YouTube: Fake Frames or Big Gains? - Nvidia DLSS 3 Analyzed]
Misschien een wat late reactie op je post, maar ik wilde toch nog even reageren.

Imho ben je behoorlijk aan het cherrypicken qua review/analyse van DLSS3, aangezien deze analyse van HU (nou niet bepaald de hoogste autoriteit op dit gebied) veruit de negatiefste is van alle analyses die ik tot nu toe heb gezien. Het lijkt ook alsof je conclusie over DLSS 3 compleet gebaseerd is op deze ene video (ook kijkende naar je vervolgreacties verder in het topic).

Als ik echter kijk wat andere reviewers posten, dan kom ik toch behoorlijk andere conclusies tegen. Even een kleine greep uit de reviews die iets over FG zeggen:

Tweakers

Gaat niet heel diep in op dlss 3 / issues met artifacts / latency, maar ze zeggen er wel het volgende over bij CP2077:
Kortom, de framerate verdubbelt hierdoor, terwijl DLSS 2.0 in het beste geval de framerate met 55 procent verhoogt. In de frametimes zien we bovendien dat DLSS 3.0 ook goede resultaten neerzet en geen extra zichtbare latency toevoegt
Techpowerup:
For the testing below we picked a difficult scenario--gameplay at 1080p, so it's easier to see small differences, and running at low FPS, which makes the difference between frames bigger, so the Frame Generation algorithm has to work even harder. NVIDIA made it clear to us that you'll get the best Frame Generation results when doubling FPS rates of 60+, and that artifacts at very low FPS rates are not unexpected.
.....
In Microsoft Flight Simulator I really can't spot any noteworthy differences, not in the stills, certainly not in the video running at normal speed.
....
In this review we've tested NVIDIA's new DLSS 3 frame-generation capability, and I have to say I'm impressed. At first I was highly sceptical and thought it would be like the soap opera interpolation effect on TVs, but no, it works REALLY well. ….

While this approach is definitely not problem-free, especially when pixel-peeping at stills or slowed down video, in real-time it's nearly impossible to notice any difference. As you run at higher FPS and resolution it becomes even more difficult because the deltas between each frame are getting smaller and smaller. I also feel like we're only seeing the beginning of this technology, and there will be numerous improvements in the future. Adoption rates should be good, because implementing DLSS 3 frame generation is very easy if you already have DLSS 2 support in your game.
ComputerBase.de
Frame generation is hardly noticeable in CP 2077
When playing, you usually don't notice that by no means every frame has been rendered. It doesn't matter whether you're in combat, just strolling through the open world or driving fast forward - the image quality always makes a good impression. The frames created do not look like a foreign body, but fit in very well between the really rendered images.
....
What is already emerging is the following insight: DLSS 3 or frame generation is not a "panacea" like DLSS Super Resolution (DLSS 2), but rather a "special tool". Because while Super Resolution is excellent for making previously unplayable situations in terms of FPS and input lag playable, Frame Generation seems to be more suitable for getting even more FPS out of the system at already quite high frame rates (and low latency). to get, in order to then especially improve the gaming experience on monitors with high refresh rates. In the case of low initial FPS with a comparatively high input lag, frame generation can only remedy the FPS, while the input lag will not improve significantly despite the use of Reflex.
igorslab
I wouldn’t play games like Shadow of the Tomb Raider without ray tracing now. Turn on DLSS Quality and enjoy a very cool story game on UHD at 144 Hz. This can also be applied to other AAA titles. There is nothing more to say against DXR on and when DLSS 3.0 comes into play, the whole thing is almost a no-brainer. Cyberpunk on UHD with maximum ray tracing and DLSS 3.0 quality makes 111 FPS possible. Yes, the latency is a bit higher for this, but still far from becoming a problem in terms of input latency.
...
DLSS is still the best upscaling technology on the market. NVIDIA doesn’t even need DLSS 3.0 to put the fear of God into Intel or AMD. Speaking of DLSS 3.0, NVIDIA has really hit the ground running. It’s impressive how much more performance you can get out of the RTX 4090 when you unload the CPU thanks to DLSS 3.0. The image quality is on a native level up to the Performance level – usually even better.
Digital Foundry (Welke wederom veruit de meest diepgaande analyse doen)
… Altogether I would say DLSS3 in aggregate here over this entire video is rather incredible tech. I think at 120 FPS the quality holds up incredibly well and I think its best use case is to enable experiences that were not possible before.
Check this out.
On the left is 4K DLSS quality without FG and no RT.
On the right is Psycho RT but with FG at that same resolution.

DLSS3 on the right hand side here is enabling higher quality settings and has a much higer motion fluidity due to having a higher frame rate. If you were to compare PC latency between these two sides, you would have 34 ms of latency with DLSS2 and 49 with DLSS 3.
This is the kind of trade-off that dlss3 is all about in my eyes: Much better settings, higher FPS, but then you have this added input latency, that I think is rather minimal, considering what you are gaining in return. That is how I would use DLSS3, as it is a nice win.

Afbeeldingslocatie: https://tweakers.net/i/EeETC5NAtE21mlBbpDfsCdIR4UA=/800x/filters:strip_icc():strip_exif()/f/image/CRGnXUODFnZx8MU5qc1yweo1.jpg?f=fotoalbum_large
Als ik dan naar de analyse van HU kijk, dan is hij bezig de afspeelsnelheid naar 12,5% te verlagen om artifacts uberhaupt zichtbaar te krijgen en met bepaalde voorbeelden zelfs naar 3%, waarbij hij naar de individuele frames gaat kijken. Dat heeft toch helemaal niks meer met real-life performance te maken?

De latency in F1 bijvoorbeeld gaat (volgens hem) van 53ms met native+reflex naar 46.5ms met dlss3 + reflex, waarna hij later concludeert dat "the latency cost is hard to swallow".. wtf? 8)7

En ten slotte zijn uiteindelijke conclusie dat FG alleen gebruikt moet worden als je al 120+ FPS haalt voordat je het inschakelt...tsja... ik kan hier veel woorden aan vuil maken, maar kijkende naar wat hij zelf laat zien in zijn video, maar ook naar wat andere reviewers tonen, vind ik dat een hele gekke conclusie.

Hij heeft een paar terechte punten hoor, maar al met al vind ik zijn analyse en hoe hij tot bepaalde conclusies komt vrij waardeloos.

Verder toont DF bijvoorbeeld dat je met een klein truukje Vsync wel werkend kan krijgen met FG (zoals ik zei, DF gaat er een stuk dieper op in). Het zou me dus niet verbazen als nvidia dit gewoon werkend krijgt in een toekomstige update,

Als ik dan naar de latency cijfers kijk, vind ik het reuze meevallen en eigenlijk prima geschikt voor alles behalve twitchy e-sport games:

Afbeeldingslocatie: https://tweakers.net/i/kurPn4MqKDs1TxG55hv370_wJUM=/232x232/filters:strip_exif()/f/image/TdsBtv5Vm1ZfEIoPEZzzYRjT.png?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/3-r7xobYfMT0LD4GNoc9E9d6_vU=/232x232/filters:strip_icc():strip_exif()/f/image/RZ00DDXC7HghqMrLc76AK15w.jpg?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/9jtqHLtRwKy-gE7df7hHp3ITSBY=/232x232/filters:strip_icc():strip_exif()/f/image/ji2daH5sn3oR0OAyfeTXhgkK.jpg?f=fotoalbum_tile


Hiermee wil ik niet zeggen dat DLSS perfect oid is. Het heeft echt nog wel last van issues en dat is ook niet zo gek, aangezien het nog maar de eerste versie is. En ik zou al helemaal niet nvidia willen "verdedigen", met hun prachtige prijstactieken.
Maar jouw conclusie (op basis van 1 video van HU lijkt het) en de manier waarop je hier verder over post kan ik moeilijk objectief noemen :)

Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Tyranium schreef op vrijdag 14 oktober 2022 @ 00:23:
De latency in F1 bijvoorbeeld gaat (volgens hem) van 53ms met native+reflex naar 46.5ms met dlss3 + reflex, waarna hij later concludeert dat "the latency cost is hard to swallow".. wtf? 8)7
Als je met DLSS 2 + reflex lager zit dan lijkt mij de superieure optie.

Als jij het type persoon bent wat ook zonder probleem Google Stadia, Steam Remote Play of Geforce Now kan gebruiken dan is dit misschien wel de techniek voor jou. Het verschilt namelijk heel erg per persoon of het speelbaar is of niet.
Leeftijd is een factor maar ook als mensen eerder wagenziek worden dan is input lag erg vervelend. Ik vermoed dat Tim (en Alex?) de jongste is van de rij reviewers.

Voor mij was Dead Space op 45FPS onspeelbaar waar Crysis 1 op 45FPS net speelbaar was. Groot verschil in de engine en de input lag bij Crysis was een stuk lager dan bij Dead Space.
Steam Remote Play heb ik een keertje getest bij iemand. Wat die persoon speelbaar vond met een traag spel zoals Alien Isolation vond ik totaal onspeelbaar.

Persoonlijk hecht ik zelf meer waarde aan de HU review. Daarnaast heeft Tim zo'n beetje elke variant van upscaling gereviewed. Als ik een autoriteit zou kiezen op het gebied van beeld analyse dan zijn dat Tim van HU en Alex van DF (met het gegeven dat DF een groene bril op heeft en HU wellicht kritischer is op Nvidia gezien de dickmove van Nvidia naar hun toe). Vergeet ook niet dat Tim alle monitor reviews doet en hij ook daar goed de pijnpunten van elke monitor kan aanwijzen.
Als je kijkt naar het verschil van content tussen DF en GamersNexus; GM heeft een aantal engineers van Nvidia over de vloer en gaat er diep technisch op in en blijft objectief. De DF DLSS3 preview van de 4090 was een fluff piece; dus nee ik neem ze gewoon niet zo serieus.

De rest van de reviewers, het is leuk dat ze naar DLSS 3 hebben gekeken maar het is duidelijk niet de focus geweest en meer een erbij. Daarnaast zijn ze nu niet echt de autoriteit op wat betreft die analyses zoals ik al duidelijk heb gemaakt; zeker Tweakers niet en TPU doet die analyses normaal ook niet. ComputerBase weet ik persoonlijk niet; hetzelfde voor Igors Lab.

De conclussie dat het voor 100FPS of hoger is vind ik fair want het is gewoon niet bedoelt voor lage framerates (image artifacts en input lag); tenzij je niet gevoelig bent voor input lag.

Edit:
Aanvullend heeft HU ook niet direct een DLSS3 video uitgebracht maar de tijd genomen om een grondige analyse te doen. Of ze hebben maar een kaart gekregen :z

[ Voor 3% gewijzigd door Sp3ci3s8472 op 14-10-2022 01:18 ]


Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 11-09 17:47
Sp3ci3s8472 schreef op vrijdag 14 oktober 2022 @ 00:57:
[...]

Het verschilt namelijk heel erg per persoon of het speelbaar is of niet.
Woorden doen er toe. Iets "niet speelbaar" noemen bij een latency die ergens tussen native en DLSS+Reflex zweeft kan ik niet serieus nemen. Cyberpunk is ook gewoon speelbaar op AMD videokaarten, en zelfs voordat FSR was toegevoegd.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

cnieuweboer schreef op vrijdag 14 oktober 2022 @ 01:16:
[...]


Woorden doen er toe. Iets "niet speelbaar" noemen bij een latency die ergens tussen native en DLSS+Reflex zweeft kan ik niet serieus nemen. Cyberpunk is ook gewoon speelbaar op AMD videokaarten, en zelfs voordat FSR was toegevoegd.
Dat is jouw mening en zoals ik zei verschilt dit per persoon.
Doe een gok waarom ik het spel op dag een heb gekocht maar nog niet heb gespeeld. Juist ik vond het los van de bugs onspeelbaar.
Pagina: 1 ... 121 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.