Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
@DaniëlWW2, ik denk zelf dat de 3090Ti eerder het beta product was en dat de 4090 het echte product is geworden. Die hele 3090Ti kaart was onzinnig overigens en deze release bevestigt dat. Veel betaald voor een kaart die nu niks meer waard gaat zijn. Verder, DP 1.4 vind ik zelf matig, omdat (als ik interesse had gehad) ik nog altijd niet m'n 4 monitoren zou kunnen vervangen. Er is immers nog geen optie, bij Nvidia, om meer dan 1 monitor met meer dan 8bit 4k/120 (of 144hz) te draaien. 10bit of 5/8k future proofing zit er niet in.

@Xtr3me4me, 2 posts boven je.

[ Voor 27% gewijzigd door Paprika op 11-10-2022 10:25 ]


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Vraag mij af hoe laat de NDA afloopt en reviewers de 4090 benchmarks en tests mogen tentoonstellen aan het grote publiek.

@Paprika hahaha dank je wel :P

Zal mij benieuwen vanmiddag wat eruit gaat komen.

[ Voor 28% gewijzigd door Xtr3me4me op 11-10-2022 10:35 ]

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op dinsdag 11 oktober 2022 @ 10:19:
@DaniëlWW2, ik denk zelf dat de 3090Ti eerder het beta product was en dat de 4090 het echte product is geworden. Die hele 3090Ti kaart was onzinnig overigens en deze release bevestigt dat. Veel betaald voor een kaart die nu niks meer waard gaat zijn. Verder, DP 1.4 vind ik zelf matig, omdat (als ik interesse had gehad) ik nog altijd niet m'n 4 monitoren zou kunnen vervangen. Er is immers nog geen optie, bij Nvidia, om meer dan 1 monitor met meer dan 8bit 4k/120 (of 144hz) te draaien. 10bit of 5/8k future proofing zit er niet in.
Het lijkt inderdaad een test te zijn geweest. Maar ik denk ook een mentale voorbereiding dat 350W helemaal niet meer een eenmalig maximum zou zijn. Iedereen kon een halfjaar wennen aan 450W en daar is de RTX4090.

Maar het gaat mij er meer om dat ik de details echt wil zien omdat de indruk blijft bestaan dat dit voor gamers een erg matige verbetering gaat zijn. Zeker in de context van deze ontwikkelcyclus vind ik dat opvallend. Want toen de ontwikkelcyclus van Lovelace begon (uitgaande van drie jaar cyclus), moet Nvidia hebben geweten van RDNA1. Iets waar toen al duidelijk van was dat het een beginpunt zou zijn. In die jaren lijken ze niks gedaan te hebben met de realisatie dat AMD opeens zeer competitief was in rasterisation. Ampere haar extra datapad was er immers al tegen de tijd dat RDNA1 werd onthult. Alle middelen voor Lovelace lijken in tensor cores gestopt te zijn alsmede hardware die bepaalde software concepten ondersteund.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 15:55
OMD schreef op maandag 10 oktober 2022 @ 22:23:
Voorheen gingen juist de beste chips naar de aib’s. EVGA had bijvoorbeeld de Kingpin, MSI had de Lightning kaarten etc. Daar stelde ze zelf dat het de best gebinde chips waren. Of dat waar is, is natuurlijk vraag 2 maar goed. Dat was in ieder geval de informatie wat ze aan de consument voorschotelde en Kingpin zei dat ook.
Ik denk dat dit wel klopt, ik zag een tijd geleden ook een filmpje van volgens mij kingpin (maar zou ook een andere top overklokker geweest kunnen zijn), waarin hij inderdaad aangaf dat in ieder geval de top modellen van 'zijn' kaarten zelfs handmatig gebinned werden voor die specifieke kaarten en waar dan de rest naar de lager gepositioneerde kaarten ging.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Dergelijke limited edition kaarten hadden zeker wel binning. De hall of fame zal dat vandaag de dag ook wel hebben. De STRIX etc zijn gewoon mainstream tegenwoordig. Dergelijke speciale kaarten maken bijna geen merken meer.

[ Voor 3% gewijzigd door Paprika op 11-10-2022 11:23 ]


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 12:20

OMD

Paprika schreef op dinsdag 11 oktober 2022 @ 11:22:
Dergelijke limited edition kaarten hadden zeker wel binning. De hall of fame zal dat vandaag de dag ook wel hebben. De STRIX etc zijn gewoon mainstream tegenwoordig. Dergelijke speciale kaarten maken bijna geen merken meer.
Hall of Fame was ik helemaal vergeten. Die monsters met het LCD scherm <3 :
Afbeeldingslocatie: https://www.galax.com/media/catalog/product/cache/14/image/500x500/9df78eab33525d08d6e5fb8d27136e95/3/0/30hof3090_box_rgb_mon_1.png

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@DaniëlWW2

Nvidia zet al een lange tijd in op RT. In 2020 hadden ze Hardware Unboxed al even geblacklist omdat ze te weinig aandacht zouden geven aan RT.

Het is natuurlijk ook wel logisch dat de bedrijven ver voorlopen qua techniek, want ze moeten al heel lang voordat de technologie überhaupt bij high-end consumenten is, al beginnen met de ontwikkeling. En voordat het dan bij de budget-consument is, ben je nog veel verder.

Van binnen het bedrijf kun je dan wel een sterke mismatch krijgen met de meerderheid van de consumenten, wanneer iets als RT voor het bedrijf al bijna oude koek is, maar veel consumenten nog nauwelijks relevant. Zeker als je je bedenkt dat veel gamers op oudere generaties kaarten zitten.

Daarnaast zet Nvidia natuurlijk behoorlijk in op de professionele markt met dezelfde chips als voor de game-markt. Het gevolg is dat de chips voor beide niet optimaal zijn. Als gamer betaal je bij Nvidia voor behoorlijk wat die-space waar je niet veel aan hebt.

Dit is bijvoorbeeld ook waarom Google nu zijn eigen chips maakt die optimaal zijn voor hun toepassingen en waarom Intel het plan heeft om een portfolio aan chip-blokken aan te bieden die je als Lego-steentjes aan elkaar kunt klikken. Dan kunnen bedrijven relatief goedkoop een chip laten maken met de functionaliteiten die ze nodig hebben, ipv een generieke chip die een manusje van alles is, maar nergens meesterlijk in is.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

DaniëlWW2 schreef op dinsdag 11 oktober 2022 @ 10:48:
[...]


Het lijkt inderdaad een test te zijn geweest. Maar ik denk ook een mentale voorbereiding dat 350W helemaal niet meer een eenmalig maximum zou zijn. Iedereen kon een halfjaar wennen aan 450W en daar is de RTX4090.
Begint bijna op een complot te lijken om ons meer energie te laten gebruiken... /s

Acties:
  • +1 Henk 'm!

  • PP_Sound
  • Registratie: Januari 2021
  • Niet online
edward2 schreef op maandag 10 oktober 2022 @ 20:05:
/\ Ik bedoel binning op de chips die al niet het volledige aantal cores enabled hebben.
Uiteraard gaat de volledig werkende chips naar een Ti/Titan over een half jaartje, dan icm met 30 gbps v-ram ? ;)
Die worden dan geleverd met een ingebouwde voeding van 750W en een hijskraantje om de kaart in de behuizing te tillen.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Thomas schreef op dinsdag 11 oktober 2022 @ 12:33:
[...]


Begint bijna op een complot te lijken om ons meer energie te laten gebruiken... /s
Zucht nee. ;)
Het zat er al jaren aan te komen dat een node shrink niet automatisch meer voor hogere clock speeds + meer transistoren voor een relatief vergelijkbaar verbruik zou zorgen. Chipontwerpers moeten het zelf doen en dat is nieuw en lastig omdat de meeste vooruitgang in de afgelopen decennia uit node shrinks kwam en zelden uit architectuur.

@Ludewig En daarom vroeg ik me al eerder af waarom Nvidia over de hele lijn in lijkt te zetten op tensor cores. Maak van AD102 dan en workstation chip en geet de rest iets meer SM's en reduceer tensor cores. Want het gaat nu om halo SKU, maar verder omlaag in de lijn gaan de winsten behoorlijk tegenvallen omdat er te weinig brute rekenkracht is.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op dinsdag 11 oktober 2022 @ 10:14:
Nvidia doet echt hun best voor deze launch. :z
Geen DP 2.0, geen HDMI 2.1, op wat details na het RTX3090Ti PCB, de rasterisation lijkt bijna helemaal vanuit Ampere overgenomen te zijn en de prijs komt waarschijnlijk behoorlijk richting de €2000.

Ik ben echt benieuwd wat het nu gaat worden. Ik denk nog steeds 50-70% over de RTX3090Ti, maar ik wil vooral weten wat er gebeurd met verschillende processoren en resoluties. Het gaat mij ook een beetje om de vraag of Nvidia nog meer tegen de beperkingen hun drivermodel gaat aanlopen. Apart daarvan wil ik zien wat waarschijnlijk 72MB aan L2 cache doet voor occupency. Het was behoorlijk slecht met GA102 en de vraag is nu in hoeverre het hangt op data i.p.v. scheduling. Eigenlijk vraag ik me af hoe consistent de verbetering zal zijn over de RTX3090Ti.
Ik ben persoonlijk in alle eerlijkheid meer geinteresseerd naar nieuwe cpu benchmarks van Zen 4 met een snellere kaart dan de daadwerkelijke 4xxx launch :/ .
Aanvullend, mijn interesse in Zen 4 was al erg laag :+.

Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
HDMI 2.1 ga ik wel van uit tenminste dat laten de AIB kaarten wel zien bij de specs.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Thomas schreef op dinsdag 11 oktober 2022 @ 12:33:
[...]


Begint bijna op een complot te lijken om ons meer energie te laten gebruiken... /s
Nvidia => Нвидиа! (geen idee of het klopt, want Googel translate).

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

DaniëlWW2 schreef op dinsdag 11 oktober 2022 @ 10:14:
[...]


Nvidia doet echt hun best voor deze launch. :z
Geen DP 2.0, geen HDMI 2.1, op wat details na het RTX3090Ti PCB, de rasterisation lijkt bijna helemaal vanuit Ampere overgenomen te zijn en de prijs komt waarschijnlijk behoorlijk richting de €2000.
De RTX4**** hebben wel HDMI 2.1 ;). Maar dat is dan ook één knullige aansluiting. De 3x DP 1.4 ernaast kunnen het niet zonder DSC doen. Verder zie ik het op de monitormarkt eerder gebeuren dat DP2.0 ondersteunt zal worden, dan HDMI. Voor €2000 dus onacceptabel imho.
Mijn interesse was al heel laag, maar als ik dan ook nog eens zie dat het vrijwel een 1 op 1 kopie geworden is van de 3090TI :O.

Acties:
  • +1 Henk 'm!

  • Lekiame
  • Registratie: April 2008
  • Laatst online: 12-09 22:51
10 min tot we de performance reviews van de 4090 kunnen verwachten toch ?

Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09:39
CMT schreef op dinsdag 11 oktober 2022 @ 14:32:
[...]


De RTX4**** hebben wel HDMI 2.1 ;). Maar dat is dan ook één knullige aansluiting. De 3x DP 1.4 ernaast kunnen het niet zonder DSC doen. Verder zie ik het op de monitormarkt eerder gebeuren dat DP2.0 ondersteunt zal worden, dan HDMI. Voor €2000 dus onacceptabel imho.
Mijn interesse was al heel laag, maar als ik dan ook nog eens zie dat het vrijwel een 1 op 1 kopie geworden is van de 3090TI :O.
Huh? Elke degelijke monitor heeft toch HDMI ondersteuning?

Het probleem zit hem in als je meerdere monitoren hebt die boven de DP 1.4 standaard zitten. Ik denk wel dat dit een zeer klein doelpubliek is dus ik kan er wel inkomen waarom NVIDIA hier gierig op is.

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Lekiame schreef op dinsdag 11 oktober 2022 @ 14:48:
10 min tot we de performance reviews van de 4090 kunnen verwachten toch ?
YouTube: The ULTIMATE RTX 4090 Gaming PC Build! 😲 Full Gameplay Benchmarks w/...

PC Centric is al bezig. Maar hij begint vanaf de grond af aan. Hij bouwt eerst de PC met 7950x daarna de 4090 erin en dan benchmarks. :z

Denk als je wacht tot hardware unboxed, weet je denk ik sneller wat de kaart nu presteert.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic





review: Nvidia GeForce RTX 4090 - Olifant in de porseleinkast

[ Voor 66% gewijzigd door DaniëlWW2 op 11-10-2022 15:02 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Wow wat een afgang 45% sneller op 4k bij TPU.
Waarschijnlijk cpu limiet bij TPU en Tweakers.

[ Voor 37% gewijzigd door Sp3ci3s8472 op 11-10-2022 15:28 ]


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Je kan al zien dat de RTX 4090 echt gemaakt is voor 4K gamen. Dat is waar hij de troon flink pakt.

Ik blij met mijn LG C2 Evo

[ Voor 13% gewijzigd door Xtr3me4me op 11-10-2022 15:04 ]

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op dinsdag 11 oktober 2022 @ 15:02:
Wow wat een afgang 45% sneller op 4k bij TPU.
47% hier lokaal op 4K...
Ik wil nog echt goed kijken naar alle sites, maar dit zou echt slecht zijn. De chip is 50% meer SM's en 700MHz meer dan de RTX3090Ti. Lineaire schaling zou iets van 80% moeten zijn.

[ Voor 3% gewijzigd door DaniëlWW2 op 11-10-2022 15:07 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

napata schreef op dinsdag 11 oktober 2022 @ 14:50:
[...]

Huh? Elke degelijke monitor heeft toch HDMI ondersteuning?

Het probleem zit hem in als je meerdere monitoren hebt die boven de DP 1.4 standaard zitten. Ik denk wel dat dit een zeer klein doelpubliek is dus ik kan er wel inkomen waarom NVIDIA hier gierig op is.
De meeste monitoren met een resolutie hoger dan 3440x1440 hebben een HDMI 2.0 aansluiting. Een klein deel HDMI 2.1
Het probleem met DP 1.4 is dat je niet zonder DSC kunt om toch 4k 120Hz op de monitor te krijgen.
Nu is er te beargumenteren dat monitoren geen DP 2.0 hebben, maar monitor fabrikanten wachten doorgaans af wat de gpu fabrikanten doen. Het is dus aan de gpu fabrikant om over te stappen op een nieuwe standaard, en die is echt wel nodig met 4k 120Hz. DP2.0 is begin dit jaar gevalideerd, dus er was genoeg tijd om dat nog aan te passen. €2000 is geen excuus meer.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op dinsdag 11 oktober 2022 @ 15:05:
[...]


47% hier lokaal op 4K...
Ik wil nog echt goed kijken naar alle sites, maar dit zou echt slecht zijn. De chip is 50% meer SM's en 700MHz meer dan de RTX3090Ti. Lineaire schaling zou iets van 80% moeten zijn.
Bij zware RT titels is het wel wat hoger; maar ja.

Acties:
  • 0 Henk 'm!

  • Danielson
  • Registratie: Januari 2003
  • Laatst online: 15:56
Afbeeldingslocatie: https://tweakers.net/i/i07YvA-qeJuWdGuci9DYIBdJFXI=/800x/filters:strip_exif()/f/image/s7gtlMNJeRj8LgCxUTKHirFp.png?f=fotoalbum_large

WTF!

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

De review van LTT is nogal teleurstellend. Ze testen welgeteld 3 spellen waaronder CS GO.
Daarnaast hecht ik zelf meer waarde aan TPU:
Afbeeldingslocatie: https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/cyberpunk-2077-rt-3840-2160.png

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Afbeeldingslocatie: https://tweakers.net/i/GVR2IFDb39SvSfJwyBxpClWJilk=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/atuPzo33l0TBIzDFWl7wXS08.jpg?f=user_large

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Ik vind de RTX 4090 tot nu toe goed presteren op 4k vs de RTX 3090.

Edit

Boven de 60% sneller in games zonder RT.

[ Voor 27% gewijzigd door ItalianStyle op 11-10-2022 15:20 ]


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 12:20

OMD

Maar zoals in HUB te horen is, is de power consumption een stuk lager dan wat menigeen dacht. HUB is ook wat positiever dan de 45% die hier vermeld wordt. Performance per dollar ligt in lijn met de 3090ti alleen minder verbruik en 50% meer fps.

Grappig ook tov TechpowerUp. HUB test met een 5800x3d. Dat zijn serieus andere resultaten nu er een CPU bottleneck op hoge resolutie komt kijken.

Als je F122 neemt scheelt alleen al 22 fps op 4k. Dat is echt een hoop.

[ Voor 31% gewijzigd door OMD op 11-10-2022 15:23 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Sp3ci3s8472 schreef op dinsdag 11 oktober 2022 @ 15:02:
Wow wat een afgang 45% sneller op 4k bij TPU.
Ik vind 't lastig, omdat de framerate wel vaak hoog is, waarbij er dus best vaak een cpu limiet zou kunnen zijn die roet in 't eten gooit. Ik zie vooral veel 100 of meer fps op 4k. Gpu utilization is dan nog best goede info om te hebben eigenlijk...

Afbeeldingslocatie: https://tweakers.net/i/Eh4l-IkFgPhGWAJQ6jqpz9G1Its=/x800/filters:strip_exif()/f/image/XHowfDWsgvzpcD8BvWdEWSWA.png?f=fotoalbum_large

@OMD, wat jij ook zegt dus.

[ Voor 41% gewijzigd door Paprika op 11-10-2022 15:23 ]


Acties:
  • +1 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 12:20

OMD

Paprika schreef op dinsdag 11 oktober 2022 @ 15:21:
[...]

Ik vind 't lastig, omdat de framerate wel vaak hoog is, waarbij er dus best vaak een cpu limiet zou kunnen zijn die roet in 't eten gooit. Ik zie vooral veel 100 of meer fps op 4k. Gpu utilization is dan nog best goede info om te hebben eigenlijk...

[Afbeelding]

@OMD, wat jij ook zegt dus.
Tussen die 2 reviews scheelt Far Cry 6 50fps op 4k!
Techpowerup met 5800x -> 114fps
HUB met 5800x3d -> 164 fps

Sorry, maar dit keer vind ik Techpowerup een kleine beetje de plank hebben misgeslagen. Deze kaart had met een 5800x3d getest moeten worden, een 7950x of een 12900ks.

[ Voor 3% gewijzigd door OMD op 11-10-2022 15:26 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Paprika schreef op dinsdag 11 oktober 2022 @ 15:21:
[...]

Ik vind 't lastig, omdat de framerate wel vaak hoog is, waarbij er dus best vaak een cpu limiet zou kunnen zijn die roet in 't eten gooit. Ik zie vooral veel 100 of meer fps op 4k. Gpu utilization is dan nog best goede info om te hebben eigenlijk...

[Afbeelding]

@OMD, wat jij ook zegt dus.
Ik kijk even naar het test systeem van TPU. Dat is wel erg teleurstellend:
AMD Ryzen 7 5800X, PBO Max Enabled
(Zen 3, 32 MB Cache)
Dat zou het kunnen verklaren.

Ook tweakers zit nog op een 5950x. Ik had gehoopt dat de testsystemen van de meesten nu een 5800x 3D, 12900k of Zen 4 zouden zijn.

Edit:
Hah halve minuut te laat :P.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Een 5800x3d op 8k zou ideaal zijn. Heeft iemand die combinatie gevonden? :+

Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
DaniëlWW2 schreef op dinsdag 11 oktober 2022 @ 15:05:
[...]


47% hier lokaal op 4K...
Ik wil nog echt goed kijken naar alle sites, maar dit zou echt slecht zijn. De chip is 50% meer SM's en 700MHz meer dan de RTX3090Ti. Lineaire schaling zou iets van 80% moeten zijn.
Uh nee, lineair zou >100% zijn.

Met Nvidia's geadverteerde boost clocks zijn de 3090, 3090 Ti en 4090 achtereenvolgens 35,6 TF, 40 TF en 82 TF. Van die eerste twee weten we dat ze iets hoger tikken...maar volgens TPU doet de 4090 dat ook:

Afbeeldingslocatie: https://tpucdn.com/review/nvidia-geforce-rtx-4090-founders-edition/images/clock-vs-voltage.png

Op 2700 MHz heb je het voor de 4090 over maar liefst 88,5 TF. Zelfs met een 3090 Ti vast op 2 GHz haal je maar 43 TF, wat dus minder dan de helft is. Het ding presteert kilometers onder wat de cijfers op papier zouden doen, zoals verwacht. De halve chip ligt gewoon stil en niets te doen.

Dat de RT performance zo veel hoger ligt is ook niet gek, dat schaalt voorlopig nog vrij lineair met beschikbare hardware omdat we daar nog lang niet genoeg van hebben. met 128 RT cores tegenover 84 (of 82 voor de 3090) heb je al 52% van de performance puur op het aantal. Voeg daar nog eens de kloksnelheid aan toe en de te verwachten winst is al >2x, dus dat dat er in veel gevallen ook uit komt is helemaal niet gek.

Ik ga vanavond eens rustig alle cijfers in detail bekijken, maar zo op het eerste oog doet hij precies wat ik verwachtte en is er dus weinig indrukwekkends te zien.

Het enige positieve dat ik zie, is dat je in de meeste games geen 450W zult trekken omdat de halve chip toch stil ligt.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Wat ik ook zonde vind van veel reviews is dat ze er DLSS 3 erin opnemen maar het nauwelijks hebben over de impact op input lag. Had DLSS 3 benoemd en daarna een goed artikel/video gemaakt waar dat wel getest wordt.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

OMD schreef op dinsdag 11 oktober 2022 @ 15:19:
Maar zoals in HUB te horen is, is de power consumption een stuk lager dan wat menigeen dacht. HUB is ook wat positiever dan de 45% die hier vermeld wordt. Performance per dollar ligt in lijn met de 3090ti alleen minder verbruik en 50% meer fps.

Grappig ook tov TechpowerUp. HUB test met een 5800x3d. Dat zijn serieus andere resultaten nu er een CPU bottleneck op hoge resolutie komt kijken.
Goed gezien. Tweakers hier met de 5950X, TPU met de 5800X en HUB met de 5800X3D. :)
Het verschil is zo 20%, meer dan het verschil tussen die processoren meestal is in gaming. Dit is een serieuze CPU bottleneck op 4K.

Maar dan komen we toch precies in die 50-70% terecht met een exceptionele CPU op 4K. Iets minder is al een verlies van 20%. Nu nog kijken of er ook ADL testen zijn. :)

edit: Computerbase.de gebruikte de 12900K en 65% sneller dan de RTX3090Ti. Het is dus een CPU bottleneck.
https://www.computerbase....und_ohne_rt_in_3840__2160

[ Voor 11% gewijzigd door DaniëlWW2 op 11-10-2022 15:34 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 12:20

OMD

Mogen de aib's niet getest worden? Misschien een domme vraag maar dat weet ik eigenlijk niet.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

OMD schreef op dinsdag 11 oktober 2022 @ 15:31:
Mogen de aib's niet getest worden? Misschien een domme vraag maar dat weet ik eigenlijk niet.
GamersNexus zei van niet inderdaad.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
OMD schreef op dinsdag 11 oktober 2022 @ 15:31:
Mogen de aib's niet getest worden? Misschien een domme vraag maar dat weet ik eigenlijk niet.
Volgens mij was dat bij Ampère niet 't geval en heb ik mijn 3080 op de gok gekocht met het idee dat de chip best efficient was en ik veel animo voor de FE verwachtte :+...

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 12:20

OMD

Ok, beetje apart maar ik neem dan aan dat de NDA morgen vervalt? Ik ben vooral benieuwd namelijk naar die 600watt speculaties en/of al die kaarten op 45 graden draaien door hun overbemeten koelblokken :)

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

Ik vind de performance zeer netjes. De RTX3090 en 2080Ti deden het iets slechter t.o.v. hun voorgangers.

Acties:
  • +1 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09:39
Ik kijk altijd standaard naar Computerbase of PCGH. De Duitse sites zijn in mijn ogen de beste reviews met vaak verschillende extraatjes die ze bekijken en duidelijke grafieken, zoals bvb.
Afbeeldingslocatie: https://tweakers.net/i/n12kI_-lSRo4biM1LcpIiJkCP7M=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/Bk34I3IgzjZVrHcOMQg9ycHd.png?f=user_large

Zelfs al is je Duits maar beperkt dan zijn ze nog handig.

Het is zeker nuttig om ook eens met mindere CPUs te testen maar dan moet je dit als extra punt in je review zetten en niet als standaard. In een review moet je gewoon testen met de snelst mogelijke CPU. Als je dat niet doet is het een beetje zoals een CPU test op 1440p ultra.

Dit heeft Computerbase als resultaat en is binnen m'n verwachtingen. Ze testen met een 12900K.
Afbeeldingslocatie: https://tweakers.net/i/LC87ucu0qT-XdSCcwubJv2Kkk0Q=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/8z9FfYd1NBZnmzRt5SykcmoP.png?f=user_large

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Wat ik aanraad voor diegene die een RTX4090 nemen, nu zie ik dit alleen bij de FE modellen, geen idee bij de AIB's.

YouTube: Is the $1599 RTX 4090 Worth it?? 4090 Benchmarked!

van JayTwoCents. Op min: 14:01. Over de meegeleverde kabel en de aansluiting ervan. Vind het een zeer goede en uitgebreide uitleg en Tip erover.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
OMD schreef op dinsdag 11 oktober 2022 @ 15:35:
Ok, beetje apart maar ik neem dan aan dat de NDA morgen vervalt? Ik ben vooral benieuwd namelijk naar die 600watt speculaties en/of al die kaarten op 45 graden draaien door hun overbemeten koelblokken :)
Voor de 3080 was dat inderdaad het moment dat ze beschikbaar kwamen. Via unboxing filmpjes kun je wel achterhalen welke reviewers welke modellen hebben voor hun review. Gezien 't dan om temperatuur gaat kun je eigenlijk overal kijken ongeacht of ze bij sommige games een cpu limiet hebben of niet. Immers is de load test meestal niet 'n game.

Heeft iemand toevallig een review gevonden waar ze undervolten? Vanaf m'n esim op een eiland in Azië is ieder YouTube filmpje kijken niet de meest goedkope grap. :$

[ Voor 26% gewijzigd door Paprika op 11-10-2022 15:38 ]


Acties:
  • 0 Henk 'm!

  • ReyNL
  • Registratie: Augustus 2015
  • Laatst online: 26-08 17:54
Ik snap er ff niets meer van. Hier staat gemiddeld 97 fps en in de video van JayzTwoCents zie ik Cyberpunk op 4K RT On, DLSS off op gemiddeld 43fps??

Afbeeldingslocatie: https://tweakers.net/i/ZesCBSfujd9NhwTSc3AzDa_ZooQ=/800x/filters:strip_icc():strip_exif()/f/image/02UTj9xuVW0AbSf3niGhE8nM.jpg?f=fotoalbum_large

[ Voor 38% gewijzigd door ReyNL op 11-10-2022 15:48 ]


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Sp3ci3s8472 schreef op dinsdag 11 oktober 2022 @ 15:31:
Wat ik ook zonde vind van veel reviews is dat ze er DLSS 3 erin opnemen maar het nauwelijks hebben over de impact op input lag. Had DLSS 3 benoemd en daarna een goed artikel/video gemaakt waar dat wel getest wordt.
Tweakers zegt er oa dit over bij cyberpunk:
De totale winst komt daarmee op maar liefst 105 procent uit voor DLSS op de RTX 4090 ten opzichte van het renderen zonder deze upscaling-techniek. Kortom, de framerate verdubbelt hierdoor, terwijl DLSS 2.0 in het beste geval de framerate met 55 procent verhoogt. In de frametimes zien we bovendien dat DLSS 3.0 ook goede resultaten neerzet en geen extra zichtbare latency toevoegt.

Acties:
  • +2 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Zichtbare latency is leuk, maar laat Nvidia nou net een hardware apparaat beschikbaar hebben gesteld aan reviewers enkele jaren terug. :p

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Paprika schreef op dinsdag 11 oktober 2022 @ 15:41:
Zichtbare latency is leuk, maar laat Nvidia nou net een hardware apparaat beschikbaar hebben gesteld aan reviewers enkele jaren terug. :p
Ja het is sowieso even wachten op een meer in-depth analyse van dlss 3

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 12:20

OMD

ReyNL schreef op dinsdag 11 oktober 2022 @ 15:39:
[...]


Ik snap er ff niets meer van. Hier staat gemiddeld 97 fps en in de video van JayzTwoCents zie ik Cyberpunk op 4K RT On, DLSS off op gemiddeld 48fps??
Denk dat die LTT review niet goed is. Andere reviews zitten ook in de 48fps range. Denk dat ze DLSS hebben aangeslingerd ofzo.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
OMD schreef op dinsdag 11 oktober 2022 @ 15:43:
[...]


Denk dat die LTT review niet goed is. Andere reviews zitten ook in de 48fps range. Denk dat ze DLSS hebben aangeslingerd ofzo.
Dat gat is veel te groot. Stom en slecht dat dit niet vóór het publiceren is opgevallen gezien zeker tien medewerkers aan dit filmpje hebben gewerkt.

Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
OMD schreef op dinsdag 11 oktober 2022 @ 15:25:
[...]


Tussen die 2 reviews scheelt Far Cry 6 50fps op 4k!
Techpowerup met 5800x -> 114fps
HUB met 5800x3d -> 164 fps

Sorry, maar dit keer vind ik Techpowerup een kleine beetje de plank hebben misgeslagen. Deze kaart had met een 5800x3d getest moeten worden, een 7950x of een 12900ks.
Testen ze allebij de ingame benchmark, dat maakt namelijk ook nog een groot verschil in FC6

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op dinsdag 11 oktober 2022 @ 15:41:
Zichtbare latency is leuk, maar laat Nvidia nou net een hardware apparaat beschikbaar hebben gesteld aan reviewers enkele jaren terug. :p
Ik denk dat we moeten wachten/hopen op een follow up van GamersNexus. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 12:20

OMD

ItalianStyle schreef op dinsdag 11 oktober 2022 @ 15:44:
[...]


Testen ze allebij de ingame benchmark, dat maakt namelijk ook nog een groot verschil in FC6
Was enkel een voorbeeld. Je kan andere resultaten erbij pakken en dan zie je dat er ook een groot gat ontstaat. oVer het algemeen gebruiken ze de ingame benchmark omdat dat consistente data is.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • ReyNL
  • Registratie: Augustus 2015
  • Laatst online: 26-08 17:54
OMD schreef op dinsdag 11 oktober 2022 @ 15:43:
[...]


Denk dat die LTT review niet goed is. Andere reviews zitten ook in de 48fps range. Denk dat ze DLSS hebben aangeslingerd ofzo.
Jemig wat sleeecht. En hij zegt volgens mij ook nog dat ze hebben ge-tripple checkt :*)

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

ReyNL schreef op dinsdag 11 oktober 2022 @ 15:39:
[...]


Ik snap er ff niets meer van. Hier staat gemiddeld 97 fps en in de video van JayzTwoCents zie ik Cyberpunk op 4K RT On, DLSS off op gemiddeld 48fps??

[Afbeelding]
Ik zou niet te veel waarde hechten aan reviews van JayzTwoCents en Linus :P. Ze zijn van lagere kwaliteit vergeleken met de hieronder genoemde reviews.
LTT doet te veel randzaken om echt de focus op een goede cpu/gpu review te hebben. JayzTwoCents zit te vaak fout imho.

Tot nu toe ben ik van mening dat GamersNexus de beste review heeft. HardwareUnboxed moet ik nog bekijken , maar ik vermoed dat ze meer games hebben en minder de focus op dingen waarin Gamers Nexus goed in is (transient spikes, clocksnelheden etc).

[ Voor 10% gewijzigd door Sp3ci3s8472 op 11-10-2022 15:50 . Reden: context ]


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Effectief zo'n 60-65% in regulier rendering van games als je geen limieten elders hebt lijkt het. Dat is in absolute cijfers niet eens heel verkeerd, ware het niet dat het topmodel de beste prijs/performance gaat hebben, waardoor de rest van de line-up hier totaal niet in de buurt bij gaat komen qua scaling.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
napata schreef op dinsdag 11 oktober 2022 @ 15:35:
Ik kijk altijd standaard naar Computerbase of PCGH. De Duitse sites zijn in mijn ogen de beste reviews met vaak verschillende extraatjes die ze bekijken en duidelijke grafieken, zoals bvb.

Afbeeldingslocatie: https://tweakers.net/i/n12kI_-lSRo4biM1LcpIiJkCP7M=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/Bk34I3IgzjZVrHcOMQg9ycHd.png?f=user_large

Zelfs al is je Duits maar beperkt dan zijn ze nog handig.
Kijk dit is nog eens zinvolle informatie. Helemaal overheen gelezen. +82% op 300W tov +69.5% op 450W. Ik zou die kaart lekker op 300W zetten en genieten van je 600W koelblok die bijna passief kan koelen op dit powerlimiet.

Afbeeldingslocatie: https://tweakers.net/i/oZAYiAJO_zOwCc7oURAtPyNuZGs=/800x/filters:strip_icc():strip_exif()/f/image/bqMy7zHdAunfkMgU7BWt2O3S.jpg?f=fotoalbum_large

[ Voor 27% gewijzigd door Paprika op 11-10-2022 15:59 ]


Acties:
  • +1 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Gezien de CPU die tweakers gebruik maak ik mij ook geen zorgen om de i9 9900k in combinatie met een RTX 4090 op 4k/120hz lock. Het zal hooguit een paar % schelen.

Acties:
  • +1 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

ItalianStyle schreef op dinsdag 11 oktober 2022 @ 16:05:
Gezien de CPU die tweakers gebruik maak ik mij ook geen zorgen om de i9 9900k in combinatie met een RTX 4090 op 4k/120hz lock. Het zal hooguit een paar % schelen.
Idem hier met mijn i7 9700kf @ 4,6Ghz. Denk dat de kaart max 5-10fps mist afhankelijk van het spel. In Cyberpunk zag ik mijn 3090FE met msi afterburner op 99% draaien in 4K en 8 cores zaten rond de 60%.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09:39
Paprika schreef op dinsdag 11 oktober 2022 @ 15:57:
[...]

Kijk dit is nog eens zinvolle informatie. Helemaal overheen gelezen. +82% op 300W tov +69.5% op 450W. Ik zou die kaart lekker op 300W zetten en genieten van je 600W koelblok die bijna passief kan koelen op dit powerlimiet.

[Afbeelding]
Het verschil tussen 300 & 350W vind ik nog redelijk maar die extra 100W daar bovenop lijkt heel weinig op te leveren. Pure verspilling in mij ogen. Ik vraag me af waarom ze dit doen want dit verkloot je performance/W enorm.

Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

napata schreef op dinsdag 11 oktober 2022 @ 16:12:
[...]

Het verschil tussen 300 & 350W vind ik nog redelijk maar die extra 100W daar bovenop lijkt heel weinig op te leveren. Pure verspilling in mij ogen. Ik vraag me af waarom ze dit doen want dit verkloot je performance/W enorm.
Waarschijnlijk om een betere performance te kunnen leveren (of iig een poging daartoe) dan de opkomende kaarten van amd. Zo kan Nvidia door blijven gaan met het roepen dat zij de best presterende videokaart hebben :)

Acties:
  • +2 Henk 'm!

  • Seditiar
  • Registratie: September 2009
  • Niet online
Paprika schreef op dinsdag 11 oktober 2022 @ 15:41:
Zichtbare latency is leuk, maar laat Nvidia nou net een hardware apparaat beschikbaar hebben gesteld aan reviewers enkele jaren terug. :p
Afbeeldingslocatie: https://tweakers.net/i/0vmKm5mKDS4XtMsgDqvHH5uB5So=/800x/filters:strip_exif()/f/image/GRcNXphTc8oNQxuFS4FwwESX.png?f=fotoalbum_large

FG = Frame Generation. De video is van Optimum Tech.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Seditiar schreef op dinsdag 11 oktober 2022 @ 16:25:
[...]


[Afbeelding]

FG = Frame Generation. De video is van Optimum Tech.
Weet je toevallig ook of hij Relex aanheeft bij de niet DLSS 3 resultaten? En zou DLSS 3 op plek 2 niet DLSS 2 moeten zijn?

Acties:
  • +1 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09:39
Tyranium schreef op dinsdag 11 oktober 2022 @ 16:24:
[...]


Waarschijnlijk om een betere performance te kunnen leveren (of iig een poging daartoe) dan de opkomende kaarten van amd. Zo kan Nvidia door blijven gaan met het roepen dat zij de best presterende videokaart hebben :)
Gaat die 3% echt het verschil maken? Ik betwijfel het. We spreken hier over 3% meer performance voor 28,5% meer verbruik. Ik ga er van uit dat de GPU ook effectief 450W gebruikt maar Ampere zat ook altijd tegen de limiet aan dus dit lijkt me geen onjuiste veronderstelling.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
napata schreef op dinsdag 11 oktober 2022 @ 16:28:
[...]

Gaat die 3% echt het verschil maken? Ik betwijfel het. We spreken hier over 3% meer performance voor 28,5% meer verbruik. Ik ga er van uit dat de GPU ook effectief 450W gebruikt maar Ampere zat ook altijd tegen de limiet aan dus dit lijkt me geen onjuiste veronderstelling.
Afbeeldingslocatie: https://tweakers.net/i/bmasl6NZ-8vOvcV4shGNmWioWXM=/800x/filters:strip_exif()/f/image/vvWjiPvg4EbQhJU9CwlKTqe1.png?f=fotoalbum_large

Tja, de grote stijging zit zeker niet aan de rechterkant, dus voor de rest viel dit wel te verwachten. Eigenlijk bevestigt die review alleen maar de slide van Nvidia.

[ Voor 3% gewijzigd door Paprika op 11-10-2022 16:31 ]


Acties:
  • 0 Henk 'm!

  • Seditiar
  • Registratie: September 2009
  • Niet online
Sp3ci3s8472 schreef op dinsdag 11 oktober 2022 @ 16:27:
[...]


Weet je toevallig ook of hij Relex aanheeft bij de niet DLSS 3 resultaten? En zou DLSS 3 op plek 2 niet DLSS 2 moeten zijn?
Is Reflex niet standaard aan bij DLSS 3? Ik weet het niet zeker hoor, maar ook geen idee of hij het wel/niet aan heeft staan mocht het niet gelinkt zijn met DLSS 3.

Ik denk dat plek 2 wel DLSS 3 moet zijn. Dan is het eigenlijk RT + DLSS 3 + FG tegenover RT + DLSS 3 tegenover "vanilla" en tegenover RT Psycho.

Acties:
  • 0 Henk 'm!

  • Novacore
  • Registratie: November 2021
  • Niet online
Sp3ci3s8472 schreef op dinsdag 11 oktober 2022 @ 16:27:
[...]


Weet je toevallig ook of hij Relex aanheeft bij de niet DLSS 3 resultaten? En zou DLSS 3 op plek 2 niet DLSS 2 moeten zijn?
Reflex staat inderdaad altijd aan met DLSS 3, per de DLSS3-preview video van Digital Foundry een week of twee geleden.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Seditiar schreef op dinsdag 11 oktober 2022 @ 16:32:
[...]


Is Reflex niet standaard aan bij DLSS 3? Ik weet het niet zeker hoor, maar ook geen idee of hij het wel/niet aan heeft staan mocht het niet gelinkt zijn met DLSS 3.

Ik denk dat plek 2 wel DLSS 3 moet zijn. Dan is het eigenlijk RT + DLSS 3 + FG tegenover RT + DLSS 3 tegenover "vanilla" en tegenover RT Psycho.
Novacore schreef op dinsdag 11 oktober 2022 @ 16:42:
[...]

Reflex staat inderdaad altijd aan met DLSS 3, per de DLSS3-preview video van Digital Foundry een week of twee geleden.
Dat is mijn vraag niet, lees nog eens. Als je zoveel mogelijk appels met appels wilt vergelijken wat betreft input lag dan wil je dat Reflex bij alle 4 de situaties aanstaat.

DLSS 3 is altijd frame generation. Bij plek 1 en 2 zegt hij DLSS 3 frame generation en DLSS 3 wat erg onlogisch is want er is geen DLSS 3 zonder frame generation. Dus het moet DLSS 2 zijn tenzij het spel zegt dat het "DLSS 3" is.

Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 12-09 18:59
Sp3ci3s8472 schreef op dinsdag 11 oktober 2022 @ 16:49:
[...]


[...]


Dat is mijn vraag niet, lees nog eens. Als je zoveel mogelijk appels met appels wilt vergelijken wat betreft input lag dan wil je dat Reflex bij alle 4 de situaties aanstaat.

DLSS 3 is altijd frame generation. Bij plek 1 en 2 zegt hij DLSS 3 frame generation en DLSS 3 wat erg onlogisch is want er is geen DLSS 3 zonder frame generation. Dus het moet DLSS 2 zijn tenzij het spel zegt dat het "DLSS 3" is.
Zoals ik het hier en daar heb opgepakt in filmpjes is dlss en frame generation een aparte optie. Zodra je frame generation aan zet gaat reflex automatisch aan. Er wordt (meestal) geen onderscheid gemaakt tussen dlss 2 of 3. Dat is ook logisch want Nvidia zegt immers zelf dat ze aan hun upsampling blijven doorontwikkelen. DLSS 2 is al 2 jaar oud en sinds dien zijn er al 4 updates aan gegeven. Dus de games van 2 jaar geleden hebben niet dezelfde implementatie van upsampling als games hebben die nu met dlss 3 uitkomen.

Acties:
  • +3 Henk 'm!

  • roy-t
  • Registratie: Oktober 2004
  • Laatst online: 08-09 11:33
Ook in het filmpje van der8auer is goed te zien dat met een powertarget van 60% je 100~150 watt minder verbruik kunt hebben met slechts een paar fps minder:

Hij gaat er vanaf de gelinkte tijd uitgebreid op in: YouTube: The RTX 4090 Power Target makes No Sense - But the Performance is Mi...

Super raar, ik zou veel liever een 300W GPU hebben met deze, toch erg goede performance. Dat zou de GPU toch ook een stuk goedkoper hebben gemaakt, de koeling zou niet opnieuw ontworpen hoeven worden en de oude power stekkers hadden gebruikt kunnen worden.

~ Mijn prog blog!


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

PjotrX schreef op dinsdag 11 oktober 2022 @ 17:03:
[...]

Zoals ik het hier en daar heb opgepakt in filmpjes is dlss en frame generation een aparte optie. Zodra je frame generation aan zet gaat reflex automatisch aan. Er wordt (meestal) geen onderscheid gemaakt tussen dlss 2 of 3. Dat is ook logisch want Nvidia zegt immers zelf dat ze aan hun upsampling blijven doorontwikkelen. DLSS 2 is al 2 jaar oud en sinds dien zijn er al 4 updates aan gegeven. Dus de games van 2 jaar geleden hebben niet dezelfde implementatie van upsampling als games hebben die nu met dlss 3 uitkomen.
Zelfs bij DF maken ze dat onderscheid overduidelijk. Daarnaast zou dat betekenen dat of alles voor de 4xxx generatie ook ineens DLSS 3 heeft (maar dan zonder frame generation); of DLSS 2.x wordt niet meer doorontwikkeld en de oudere kaarten krijgen wat nu de laatste versie is.
Beide gevallen lijkt het mij vreselijk raar. Ik geloof niet dat Nvidia dat marketing technisch op die manier zou willen doen.

Want als klant stel ik voor mijzelf dan meteen de vraag, krijgt DLSS 2 nog updates voor mijn oude 3070? Hoewel dit mij niet eens zou verbazen want Nvidia is Nvidia.

Optimum is voor mij de eerste die er op die manier over praat.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

GamersNexus dan:
-De FE koeler lijkt echt goed te zijn. Zo goed dat je moet gaan afvragen hoe AIB's hiermee moeten concurreren?
-Transient spikes lijken beperkt te zijn tot 40%, maar ze lijken soms wel erg lang te zijn. Het lijkt erop dat Nvidia die spikes niet zozeer onder controle heeft, maar ze uitsmeert over een veel langere tijd.
-De PCIe verloopkabel die Nvidia meelevert is vrij slim. Die werkt niet als je twee reguliere PCIe 8 pin kabels aansluit en met drie kabels kan je de GPU powertarget niet meer verhogen.
-Voor de rest is het testen. Tja 50-70% sneller, CPU bottleneck bij 1440p etc. RT lijkt redelijk in lijn te liggen met raster, het is een paar procent beter dan de rastererisation winst met rond de 70% over de RTX3090Ti.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Xtr3me4me schreef op dinsdag 11 oktober 2022 @ 15:03:
Je kan al zien dat de RTX 4090 echt gemaakt is voor 4K gamen. Dat is waar hij de troon flink pakt.

Ik blij met mijn LG C2 Evo
4K gamen met RT, dat gaat nu best soepel met deze nieuwe videokaart.

Maar de gemiddelde 1440p gamer heeft wellicht niet zoveel power nodig :P

[ Voor 4% gewijzigd door XWB op 11-10-2022 18:30 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 16:45
Mensen, even een vraag over de RTX 4090 welke ik niet kan terug vinden in de reviews.

De 4090 heeft net als de 3090 en 3090 Ti 24Gb VRAM aan boord.
Bij de 3090 en 3090Ti (?) zat er 12Gb aan de goede zijde (GPU zijde) en 12Gb aan de achter zijde (gevalletje warmhoudplaat voor je koffie)

Is dit bij de 4090 weer hetzelfde of hebben ze nu de 24Gb Vram wel allemaal aan de goed kant gedaan :?

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

dierkx36 schreef op dinsdag 11 oktober 2022 @ 18:32:
Mensen, even een vraag over de RTX 4090 welke ik niet kan terug vinden in de reviews.

De 4090 heeft net als de 3090 en 3090 Ti 24Gb VRAM aan boord.
Bij de 3090 en 3090Ti (?) zat er 12Gb aan de goede zijde (GPU zijde) en 12Gb aan de achter zijde (gevalletje warmhoudplaat voor je koffie)

Is dit bij de 4090 weer hetzelfde of hebben ze nu de 24Gb Vram wel allemaal aan de goed kant gedaan :?
RTX3090Ti heeft al alleen VRAM aan een kant en de RTX4090 is niet anders. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 16:45
DaniëlWW2 schreef op dinsdag 11 oktober 2022 @ 18:33:
[...]


RTX3090Ti heeft al alleen VRAM aan een kant en de RTX4090 is niet anders. ;)
Dank je _/-\o_

Heb zelf een 3090 en ik dacht dat bij de 3090Ti de Vram ook verdeeld was over de voor en achterkant.

Maar de 4090 heeft de VRAM dus allemaal aan de voorkant, duidelijk thanx _/-\o_

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 15:55
OMD schreef op dinsdag 11 oktober 2022 @ 15:25:
[...]

Sorry, maar dit keer vind ik Techpowerup een kleine beetje de plank hebben misgeslagen. Deze kaart had met een 5800x3d getest moeten worden, een 7950x of een 12900ks.
Aan de ene kant ja, aan de andere kant is het ook goed om te zien dat een reviewer wat anders doet dan het standaard stramien van snelste cpu pakken en proberen alle bottlenecks weg te werken.

TPU's review laat immers nu heel goed zien dat mensen met een 'mindere' cpu (en dan hebben we het over een upper mid range model van de vorige generatie!) ook minimaal de cpu zullen moeten upgraden willen ze alles uit de kaart halen op 4k, laat staan op 1440P, waar zelfs de snelste cpu's van het moment kan bottlenecken. Wat mogelijk aspirant kopers zeker kan helpen in het maken van hun beslissing.

[ Voor 5% gewijzigd door Dennism op 11-10-2022 18:55 ]


Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 12-09 18:59
Sp3ci3s8472 schreef op dinsdag 11 oktober 2022 @ 17:53:
[...]


Zelfs bij DF maken ze dat onderscheid overduidelijk. Daarnaast zou dat betekenen dat of alles voor de 4xxx generatie ook ineens DLSS 3 heeft (maar dan zonder frame generation); of DLSS 2.x wordt niet meer doorontwikkeld en de oudere kaarten krijgen wat nu de laatste versie is.
Beide gevallen lijkt het mij vreselijk raar. Ik geloof niet dat Nvidia dat marketing technisch op die manier zou willen doen.

Want als klant stel ik voor mijzelf dan meteen de vraag, krijgt DLSS 2 nog updates voor mijn oude 3070? Hoewel dit mij niet eens zou verbazen want Nvidia is Nvidia.

Optimum is voor mij de eerste die er op die manier over praat.
Als je bij dat DF filmpje naar 3:16 springt zie je dat bij spider man bij upscaling method gewoon dlss staat en niet meer 2 of 3. En dat frame generation apart wordt genoemd. Nvidia heeft ook een fimpje waar ze dat ook zelf benadrukken hier: YouTube: What is NVIDIA DLSS 3? | The Performance Multiplier hier zeggen ze dat dlss bestaat uit drie componenten: upscaling (hun noemen dat super resolution), frame generation en reflex. In dlss 2 zal alleen de upscaling. In dlss 3 is reflex en frame generation bijgekomen. Maar het zijn verschillende componenten en er wordt gezegd dat ze hun super resolution component blijven doorontwikkelen. Ik denk dat er veel verwarring over is en daarom je bij elke site/filmpje iets anders ziet staan.

De versie van de upscaling methode die je spel hebt hangt af wanneer het spel ontwikkeld is (hoewel er truucjes zijn om deze te upgraden door .dll bestanden in de game directory te veranderen, maar dat gaat vast niet altijd werken). Ik ga er wel vanuit dat nvidia verschillende implementaties heeft voor verschillende generatie videokaarten van hun upscaling, want bij nieuwe kaarten is er vast mogelijk om grotere neurale netwerken te gebruiken voor beter kwaliteit. En of ze voor oudere versies hun upscaling implementatie nog bijhouden/verbeteren weet ik niet. Ik gok van wel want ze willen graag in de tests voor blijven lopen op fsr en xess. Maar aangezien niemand meer de verschillende dlss implementaties onderling test (het is ook moeilijk want dan moet je bij een game tussen twee implementaties kunnen kiezen, of je moet een game met en zonder dlss 3 patch naast elkaar kunnen draaien) kunnen ze dat ook niet doen en er mee weg komen.

Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Afbeeldingslocatie: https://pbs.twimg.com/media/FeymThzUUAIrvIt?format=jpg&name=small




Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Nu online

edward2

Schieten op de beesten

Wat een domper, alleen FE-tests....

Hoelaat zullen de Aib-reviews komen morgen?
Toch niet pas om 15u?

Ik dacht even rustig een keuze te kunnen maken voordat het morgen om 15u los gaat.

[ Voor 6% gewijzigd door edward2 op 11-10-2022 19:38 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Seditiar
  • Registratie: September 2009
  • Niet online
Sp3ci3s8472 schreef op dinsdag 11 oktober 2022 @ 16:49:
[...]


[...]


Dat is mijn vraag niet, lees nog eens. Als je zoveel mogelijk appels met appels wilt vergelijken wat betreft input lag dan wil je dat Reflex bij alle 4 de situaties aanstaat.

DLSS 3 is altijd frame generation. Bij plek 1 en 2 zegt hij DLSS 3 frame generation en DLSS 3 wat erg onlogisch is want er is geen DLSS 3 zonder frame generation. Dus het moet DLSS 2 zijn tenzij het spel zegt dat het "DLSS 3" is.
Juistem, blijkbaar over het woord "niet" gelezen in je post. Ik heb het filmpje nog even een keertje bekeken maar hij heeft het helaas niet specifiek over Reflex. Normaalgesproken is hij erg grondig met dit soort dingen dus ik ga er vanuit dat hij het zoveel mogelijk genormaliseerd heeft. Maar dat blijft een aanname dus heb je niet zoveel aan.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 15:55
edward2 schreef op dinsdag 11 oktober 2022 @ 19:37:
Wat een domper, alleen FE-tests....

Hoelaat zullen de Aib-reviews komen morgen?
Toch niet pas om 15u?

Ik dacht even rustig een keuze te kunnen maken voordat het morgen om 15u los gaat.
Gewoonlijk wel ja, dit is al beter dan alles op release dag zoals het ook wel geweest is.

Acties:
  • +2 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

Ik ga het de komende week allemaal rustig bekijken, maar zo op het eerste gezicht vallen de prestaties in lijn met mijn eigen verwachting: +50-70% rasterization t.o.v. een RTX3090Ti.
Een enorme sprong in prestaties, maar ik vind het juíst niet indrukwekkend in perspectief gebracht met hoeveel ze er tegenaan gegooid hebben qua core schaalvergroting + meer klok. Een beetje de Russische methode van verbetering. Dan zou je eerder +150-200% verwachten (1.6x cores maal 1.3x klok).

Voor degene die zich ook afvragen hoe het zit met een undervolt en powerscaling.
PCGH heeft daar een klein stukje over geschreven: https://www.pcgameshardwa...orbestellen-1404846/5/#a3
Met een UV is ca. 20% te besparen, pakweg 90W t.o.v. stock.
Afhankelijk van de game is de 450W ook wel te bereiken! Dus zuinig is de kaart niet (zonder cpu bottleneck).

Het verbaast mij verder dat zoveel reviewers geen 5800X3D hebben genomen als cpu basis. Hele vreemde keuze wat mij betreft. Hopelijk komen ze nog met een correctie achteraf, wanneer de AMD RDNA3 kaarten geland zijn.

Acties:
  • 0 Henk 'm!

  • Maudima
  • Registratie: Juni 2013
  • Laatst online: 07-02 19:15
CMT schreef op dinsdag 11 oktober 2022 @ 19:52:
Ik ga het de komende week allemaal rustig bekijken, maar zo op het eerste gezicht vallen de prestaties in lijn met mijn eigen verwachting: +50-70% rasterization t.o.v. een RTX3090Ti.
Een enorme sprong in prestaties, maar ik vind het juíst niet indrukwekkend in perspectief gebracht met hoeveel ze er tegenaan gegooid hebben qua core schaalvergroting + meer klok. Een beetje de Russische methode van verbetering. Dan zou je eerder +150-200% verwachten (1.6x cores maal 1.3x klok).

Voor degene die zich ook afvragen hoe het zit met een undervolt en powerscaling.
PCGH heeft daar een klein stukje over geschreven: https://www.pcgameshardwa...orbestellen-1404846/5/#a3
Met een UV is ca. 20% te besparen, pakweg 90W t.o.v. stock.
Afhankelijk van de game is de 450W ook wel te bereiken! Dus zuinig is de kaart niet (zonder cpu bottleneck).

Het verbaast mij verder dat zoveel reviewers geen 5800X3D hebben genomen als cpu basis. Hele vreemde keuze wat mij betreft. Hopelijk komen ze nog met een correctie achteraf, wanneer de AMD RDNA3 kaarten geland zijn.
De winst van de cache die de 5800X3D biedt is slecht te vertalen naar performance van andere CPUs. Benchmarks voor de 5800X3D lieten ook zien dat de winst erg afhankelijk was van de game/engine. Performance schatten van een 5800X -> 5600X of zelfs chips van vorige generaties is een stuk makkelijker. In die zin snap ik het wel als een outlet de vcache versie overslaat voor GPU benchmarks.

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Vinden mensen dit echt verrassend? Nvidia probeert gewoon telkens nieuwe shortcuts te vinden om de sprong in performance te verhogen. Het rotte aan shortcuts: ze werken niet in alle gevallen en ze hebben een downside.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 16:45
Nog even een andere vraag :

Is Inno3D de enigste die de RTX 4090 gaat maken geschikt voor een custom loop (Inno3D RTX 4090 iChill Frostbite)

ik ben nou de grote namen (Asus, Msi en Gigabyte) langs gelezen maar wat ik tot nu toe zie zijn het, als ze al met waterkoeling uitkomen, allemaal AIO's

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
ING heeft met een i9 9900k getest PCIe 3.0, als ik dan naar Borderlands 3 kijk valt de CPU bottleneck heel erg mee op 4k, vergeleken met de nieuwste high end CPU's, natuurlijk is het ook erg game afhankelijk maar het is in ieder geval geen CPU upgrade waard want dan moet het verschil echt groter zijn dan 4fps.

[ Voor 11% gewijzigd door ItalianStyle op 11-10-2022 20:09 ]


Acties:
  • +1 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
roy-t schreef op dinsdag 11 oktober 2022 @ 17:33:
Ook in het filmpje van der8auer is goed te zien dat met een powertarget van 60% je 100~150 watt minder verbruik kunt hebben met slechts een paar fps minder:

Hij gaat er vanaf de gelinkte tijd uitgebreid op in: YouTube: The RTX 4090 Power Target makes No Sense - But the Performance is Mi...

Super raar, ik zou veel liever een 300W GPU hebben met deze, toch erg goede performance. Dat zou de GPU toch ook een stuk goedkoper hebben gemaakt, de koeling zou niet opnieuw ontworpen hoeven worden en de oude power stekkers hadden gebruikt kunnen worden.
Het is heel simpel.

Het is een Mining GPU. *O* ..... -O-

GPU`s zijn jaren van tevoren in design, Jensen heeft een ultieme mining GPU gecreerd die ook leuk is voor spelletjes.
Jammergenoeg is de mining boom afgelopen en heb je nog maar de helft van de GPU nodig.

In deze video van Derbauer kan je zien dat de kaart zonder veel prestatie verlies de kaart op 284 watt laten lopen. Waarbij je ook kan zien dat hij bij 130% performance ongeveer bij 550 watt blijft steken.
https://youtu.be/60yFji_GKak?t=876

Bij deze video van Gamersnexus zie je dat in Furmark de kaart wel tot 666 watt te pushen is op 130% performance.
https://youtu.be/j9vC9NBL8zo?t=984

Dat is 382 watt verschil ??? voor 20% extra frames terwijl het al een supersnelle kaart is. Waarom daar een power en koel architectuur voor ontwikkelen?

De koeler en het powercircuit op deze kaart is dus bemeten voor NIET Gamen, maar andere berekeningen die het wel kunnen verzadigen.
3x raden welke.

Waarschijnlijk schiet nVidia hier zichzelf mee in de voeten aangezien ze binnen een half jaar of door de mining delen weg te halen (sommige floating point units weer meer integer te maken, ofzo) het wattage budget 300 watt omlaag kunnen doen, of als ze de distibutie verdeling binnen de architectuur aanpassen de kaart nog weer 30%-50% sneller kunnen maken in games, powerbudget is nl geen probleem.

Het vage is dat nVidia dit power budget ook verplicht aan de andere kaart producenten, alsof er nog weer een ongewiskunde/calculatie bubbel gaat komen ?

[ Voor 8% gewijzigd door enchion op 11-10-2022 20:47 ]

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

Maudima schreef op dinsdag 11 oktober 2022 @ 20:00:
[...]

De winst van de cache die de 5800X3D biedt is slecht te vertalen naar performance van andere CPUs. Benchmarks voor de 5800X3D lieten ook zien dat de winst erg afhankelijk was van de game/engine. Performance schatten van een 5800X -> 5600X of zelfs chips van vorige generaties is een stuk makkelijker. In die zin snap ik het wel als een outlet de vcache versie overslaat voor GPU benchmarks.
Ik kan het wel begrijpen als een reviewer bij een bepaalde CPU blijft; om de resultaten uit eerder gemaakte reviews vergelijkbaar te houden. Een 12900k is wat dat betreft ook wel prima.
Maar waarom zou men nog bij de oude 5950X of 5800X blijven? Neem dan een 5800X3D of een 12900KS. Het gaat er uiteindelijk om, om een evt. bottleneck voor de GPU zo veel mogelijk te minimaliseren.
Ook zullen in de tussentijd wel een aantal Windows updates en nieuwe GPU drivers zijn verschenen.
Dan is het wel zo fijn om met een schone lei te beginnen.
Maar misschien doen ze dat wel met de Raptor Lake + RNDA3 release.

Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Zoals altijd is Igor misschien wel de meest leerzame reviewer.
DLSS 3.0 latency met Reflex lijkt een beetje mee te vallen. Je gaat het denk ik zeker merken omdat je een rare mismatch tussen framerate op je scherm en latency gaat krijgen. Maar in ieder geval is het voor specifiek RT in Cyberpunk, alsnog lager dan RT zonder DLSS. De vraag is alleen of je niet alsnog liever DLSS 2.0 wil voor zowel latency als kwaliteit van frames. Want statisch lijkt DLSS 3.0 best aardig, maar in beweging lijkt het forse artefacts op te gaan leveren. En als er dan ook nog eens latency penalty overheen komt.
https://www.igorslab.de/e...w-drink-less-work-more/7/

1440p
Afbeeldingslocatie: https://www.igorslab.de/wp-content/uploads/2022/10/Cyberpunk-2077-Latency-1440p-DX12-Ultra-RT-On.png
Afbeeldingslocatie: https://www.igorslab.de/wp-content/uploads/2022/10/Cyberpunk-2077-Latency-1440p-DX12-Ultra-RT-On-DLSS_FSR.png

4K
Afbeeldingslocatie: https://www.igorslab.de/wp-content/uploads/2022/10/Cyberpunk-2077-Latency-2160p-DX12-Ultra-RT-On.png
Afbeeldingslocatie: https://www.igorslab.de/wp-content/uploads/2022/10/Cyberpunk-2077-Latency-2160p-DX12-Ultra-RT-On-DLSS_FSR.png

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
CMT schreef op dinsdag 11 oktober 2022 @ 20:41:
[...]
Maar waarom zou men nog bij de oude 5950X of 5800X blijven? Neem dan een 5800X3D of een 12900KS. Het gaat er uiteindelijk om, om een evt. bottleneck voor de GPU zo veel mogelijk te minimaliseren.
Omdat er bijna geen bottleneck is tenzij je de kaart wil gebruiken tot 1440p, maar dan haal je nog minder uit de GPU dan wanneer je op 4k gaat gamen met een CPU van 3 generaties terug.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

ItalianStyle schreef op dinsdag 11 oktober 2022 @ 20:57:
[...]


Omdat er bijna geen bottleneck is tenzij je de kaart wil gebruiken tot 1440p, maar dan haal je nog minder uit de GPU dan wanneer je op 4k gaat gamen met een CPU van 3 generaties terug.
Dat valt nog te bezien. Het ziet er naar uit dat in 4K en bij sommige spellen, de cpu of pcie-link op z'n minst genoemd van invloed zijn. Maar daarvoor zijn duidelijke metingen nodig met GPU vermogen.
Ik kan alleen wat algemene metingen vinden.
De GPU klok lijkt niet een beperking te vormen, dus zou ik verwachten dat de TBP? van 450W gewoon gehaald moet worden onder vollast gamen.

Acties:
  • +1 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 12:20

OMD

Dennism schreef op dinsdag 11 oktober 2022 @ 18:54:
[...]


Aan de ene kant ja, aan de andere kant is het ook goed om te zien dat een reviewer wat anders doet dan het standaard stramien van snelste cpu pakken en proberen alle bottlenecks weg te werken.

TPU's review laat immers nu heel goed zien dat mensen met een 'mindere' cpu (en dan hebben we het over een upper mid range model van de vorige generatie!) ook minimaal de cpu zullen moeten upgraden willen ze alles uit de kaart halen op 4k, laat staan op 1440P, waar zelfs de snelste cpu's van het moment kan bottlenecken. Wat mogelijk aspirant kopers zeker kan helpen in het maken van hun beslissing.
Deels mee eens, deels niet. Als je 2000 euro uitgeeft voor een kaart dan is een cpu die het kan bijhouden geen overbodige luxe. Je gooit ook geen octaan 85 in een tank van een Ferrari als die op het circuit rijdt.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Chromanin
  • Registratie: Maart 2009
  • Laatst online: 11-09 19:59
OMD schreef op dinsdag 11 oktober 2022 @ 21:59:
[...]


Deels mee eens, deels niet. Als je 2000 euro uitgeeft voor een kaart dan is een cpu die het kan bijhouden geen overbodige luxe. Je gooit ook geen octaan 85 in een tank van een Ferrari als die op het circuit rijdt.
Waarom niet eigenlijk? Lijkt me logisch dat er veel mensen moeten kiezen met dit soort prijzen. En het alternatief is er niet echt (4080 trekt echt op niets). En met een GPU kom je eenmaal veel verder als met zender welk ander component.

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 12:20

OMD

Chromanin schreef op dinsdag 11 oktober 2022 @ 22:14:
[...]

Waarom niet eigenlijk? Lijkt me logisch dat er veel mensen moeten kiezen met dit soort prijzen. En het alternatief is er niet echt (4080 trekt echt op niets). En met een GPU kom je eenmaal veel verder als met zender welk ander component.
Ging over de reviews. Je reviewed iets wat het maximaal kan. Je probeert dus zo veel mogelijk bottlenecks weg te nemen. Zelfde als testen met sport auto’s. Wat heeft het nou voor zin om dit met een 2700x te testen? Of met een 9600k?

Leuk dat je dat doet voor de mensen die geen snellere cpus hebben maar je weet daarna nog steeds niet wat het kan doen. Dat is toch het hele punt van een review? Hoeveel performance uplift ten opzichte van de generatie ervoor?

Wellicht leuk geweest voor kleinere reviewers maar de grote jongens hadden in mijn ogen de volledige potentie van de kaart moeten tonen. Je zag het al aan de eerste comments na de launch. 45% uplift maar dat klopte dus niet, dat lag hoger met een snellere cpu.

Maar goed, blijkbaar vinden mensen dit vreemd en willen ze een review van een kaart die gelimiteerd wordt en daardoor lagere waardes laat zien. Mij maakt het niet uit, moet iedereen zelf weten. Ik wil toch graag weten bij aankoop van een nieuwe cpu wat hij kan, dat gaat moeilijk met 8gb geheugen wat loopt op rond de 1666mt/s (dat kan uiteraard niet maar je snapt m’n punt)

[ Voor 14% gewijzigd door OMD op 11-10-2022 22:27 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het lijkt me dat de kopers van een E2k GPU in grofweg twee kampen te delen zijn. De ene groep heeft zeer veel besteedbaar inkomen en het kan ze allemaal ook niks schelen en zij hebben dus ook de allerduurste recente CPU gewoon omdat het kan. Dus bijv een 5950x of een 7950x danwel Intel tegenhanger.

De andere groep gamed vooral en is qua CPU nog wel enigzins prijsbewust omdat het prestatieverschil niet zo groot is. Die hebben een 5800X of 7700x danwel Intel tegenhanger.

Dus qua reviews is er volgensmij voor allebei wel wat te zeggen.

Ik laat de 4900 voorlopig sowieso schieten omdat ik vind dat een niet zakelijke GPU van meer dan e850-e1000 totaal buiten proporties is.

Misschien slecht voorbeeld maar een broodje kaas koop ik, los van mijn besteedbaar inkomen, ook niet meer als het duurder is dan zeg maar bijv. e10. Kan het nog zo lekker er uitzien.

Ik hoop eigenlijk dat nu de miningcraze over is, en dus ook de mogelijkheid om je investering terug te verdienen, alsmede corona over is dat blijkt dat deze prijzen absoluut niet sustainable zijn en dat dit soort kaarten weer worden wat het was: een totale niche. We zullen zien. 8)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 12:20

OMD

Even uit de review van GamersNexus. Waarom zou iemand nog voor een board partner model gaan? Hij geeft ook aan dat de koeler gewoon echt goed is dat er weinig reden is behalve bling bling.

Dat is, zoals hij ook zegt, op zijn minst zorgwekkend voor de partners. Moeilijker te concurreren is natuurlijk een commercieel slecht verkoopbaar verhaal.

Even los van al dat gezeik (ook van mij)
- giga performance uplift. Grootste sinds jaren
- prijs per dollar is best aantrekkelijk als je vergelijkt met 2000 dollar msrp 3090ti
- verbruik lager dan verwacht
- zeer goede en stille koeler
- veel aandacht voor temps vrm en mosfets.

Snap best dat als je het geld hebt dit best een veilige investering is voor komende jaren denk ik.

[ Voor 36% gewijzigd door OMD op 11-10-2022 22:42 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • M-spec
  • Registratie: September 2004
  • Niet online
Ik heb het vrij vlot gezien na een paar reviews van de 4090. Het is een erg snelle videokaart en als we de prijs buiten beschouwing laten dan is 1440p de nieuwe 1080p waar je zelfs de meest recente CPU's hard aan de bak mogen. De hardware specs lopen zoals vaker niet helemaal lineair door in game prestaties maar wat ik zeer netjes vind is de efficiëntie bij 300W. Zo had ie uitgebracht mogen worden. Nog steeds uitstekende prestaties en OC met de powerslider als een optie ipv standaard richting 450W en zelfs 600W als OC. Maar goed, je snapt het pas als je het begrijpt. Iets met 7000 staat mij ook nog bij.

Het is leuk materiaal om mee te experimenteren maar deze hardware laat ik in ieder geval aan mij voorbij gaan. Ik zit eerder te wachten op een nieuwe wow-factor in games en niet alleen een hoger getal in de linker of rechter bovenhoek.

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op dinsdag 11 oktober 2022 @ 20:43:
Zoals altijd is Igor misschien wel de meest leerzame reviewer.
DLSS 3.0 latency met Reflex lijkt een beetje mee te vallen. Je gaat het denk ik zeker merken omdat je een rare mismatch tussen framerate op je scherm en latency gaat krijgen. Maar in ieder geval is het voor specifiek RT in Cyberpunk, alsnog lager dan RT zonder DLSS. De vraag is alleen of je niet alsnog liever DLSS 2.0 wil voor zowel latency als kwaliteit van frames. Want statisch lijkt DLSS 3.0 best aardig, maar in beweging lijkt het forse artefacts op te gaan leveren. En als er dan ook nog eens latency penalty overheen komt.
https://www.igorslab.de/e...w-drink-less-work-more/7/

1440p
[Afbeelding]
[Afbeelding]

4K
[Afbeelding]
[Afbeelding]
Dus ongeveer 10ms extra latency op 100 fps komt overeen met 1 frame dat je moet wachten.
Ook hier is mij niet 100% duidelijk of Reflex aan of uit staat in alle gevallen.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@OMD

Naar verluid heeft Nvidia de board partners enorm genaaid door ze te vertellen dat de wattages richting de 600 zouden gaan, wat een schatting was op basis van Ampere. Toen dit mee bleek te vallen hebben ze zelf razendsnel de koeling afgeschaald. Dus nu zitten de AIB's met gigantische overkill qua koeling, terwijl Nvidia fluitend de bestellingen binnenharkt. Zeker nu ze ook nog eens ervoor zorgen dat hun eigen kaarten een dag voorsprong hebben qua reviews.

Als de AIBs straks massaal blijven zitten met deze kaarten kan dit nog wel eens een staartje gaan krijgen...

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason

Pagina: 1 ... 120 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.