Acties:
  • +1 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 11-09 17:47
Sp3ci3s8472 schreef op vrijdag 14 oktober 2022 @ 01:22:
[...]

Dat is jouw mening en zoals ik zei verschilt dit per persoon.
Doe een gok waarom ik het spel op dag een heb gekocht maar nog niet heb gespeeld. Juist ik vond het los van de bugs onspeelbaar.
Cyberpunk heeft een doodnormale input latency. En AMD heeft geen gelijkwaardig alternatief voor Reflex. Conclusie: alle spellen met hoge systeemeisen (en daarom wat lagere fps en hogere latency) zijn onspeelbaar?

En Tim heeft enorm veel beeldschermen getest. Zelfs voor gaming schermen is het verschil in input latency tussen de beste en minder goede beeldschermen >10ms. Wat ongeveer gelijk is aan het verschil tussen wel/geen framegeneration. Raar dat hij vervolgens beweerd dat hij zo'n verschil in latency nooit eerder heeft ervaren, buiten problemen met een engine.

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

Dennism schreef op vrijdag 14 oktober 2022 @ 00:08:
[...]


Mijn punt was meer dat reference 6900XT een beetje all over the place zijn, ik heb immers een reference 6900XT, en de reviews lijkt ook niet iedere ref 6900XT op 7W te zitten, sommige wel, maar sommige ook niet.
Oooh op die fiets. Dat kan komen door het soort beeldscherm dat gebruikt wordt. Rustverbruik is een beetje afhankelijk van de resolutie en refreshrate. Idem ditto voor Nvidia.
Daarnaast zal ook van invloed zijn hoe reviewers meten. Met HWInfo / Wattman of een gekalibreerde meetsetup die aan de PCIe slot + PCIe connectoren meet?
Alleen het laatstgenoemde meet het hele verbruik omdat dan ook de vrm sectie wordt meegenomen (in het geval RDNA2). Ik heb bij mij ook extern gemeten en kom echt op 7-8W uit.

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

cnieuweboer schreef op vrijdag 14 oktober 2022 @ 01:41:
[...]
En Tim heeft enorm veel beeldschermen getest. Zelfs voor gaming schermen is het verschil in input latency tussen de beste en minder goede beeldschermen >10ms. Wat ongeveer gelijk is aan het verschil tussen wel/geen framegeneration. Raar dat hij vervolgens beweerd dat hij zo'n verschil in latency nooit eerder heeft ervaren, buiten problemen met een engine.
Wat hier kan spelen is de variatie. De gemeten latency waarden zijn slechts gemiddelden en zeggen niets over uitschieters naar boven & naar onder toe. Het kan best zijn dat FG dit erger maakt.
Je mag verder aannemen dat de input latency van een monitor een heel stuk stabieler zal zijn (wordt bepaald door de beeldverwerking van de monitor / scaler), dan game system latency wat o.a. sterk afhankelijk is van de momentane FPS / frametimes. Mijn inziens kan je daarom de input lag van een monitor niet vergelijken met game input lag.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@cnieuweboer

Cyberpunk is wel 1 van de zwaardere spellen, dus het is prima mogelijk dat dit op iemands systeem op zo'n lage fps draait dat ze de input latency te erg vinden.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 12-09 18:59
Werelds schreef op donderdag 13 oktober 2022 @ 20:42:
[...]

Nee, het probleem is dat je dan de hele post-processing stap ofwel over moet slaan zoals ze nu doen, ofwel in z'n geheel moet laten uitspelen, wat extra tijd kost én de artifacts erger maakt.

Met VR warping werkt het anders. Daar heb je een aparte buffer voor een overlay die je dus ook geheel los van de rest van je game moet updaten. De UI wordt apart gerenderd op 90 (/72/120/144) Hz. Werkt ook niet hetzelfde in elke engine. Als gebruiker wil je ook geen van deze "SAVE MY FRAMERATE" technieken hebben in VR, het voelt gewoon echt niet lekker. Oculus' ASW en dergelijke zijn dan ook last-resort oplossingen die men ten alle tijde dient te vermijden. En om nu te zeggen dat Oculus het op een mobiele chip doet is ook niet waar, dat doen ze pas sinds begin dit jaar en enkel als je in PCVR modus zit (en de chip in de headset dus niet aan het renderen is).
Wat ik doelde met way oculus op de mobiele chip doe is het samenvoegen van aparte buffers met scene en gui over elkaar. Dit doen ze al jaren zowel op pc en quest. Zonder deze methode krijg je namelijk nooit een mooi uitziende gui aangezien je altijd een timewarp slag aan het eind doet ongeacht of je je frame-rate haalt of niet.
Over spacewarp: deze wordt zeker op de quest zonder pcvr gedraaid. En hoewel ik het met je eens ben dat spaceward een last-resort effort moet zijn is het niet hoe Oculus het ziet. Oculus heeft er een versie van die ze Applicatin SpaceWarp noemen en daar kan de applicatie er daadwerkelijk voor kiezen om alles op 45fps te draaien en de headset het te laten interpoleren. Sterker nog ze prijzen het hier aan en zeggen dat het tot 70% meer performance geeft: https://developer.oculus....ng-application-spacewarp/

Maar wat ik hier op doelde is dus dat Oculus al lang heeft laten zien dat het beste is om je gui te scheiden en bij dlss super resolution doe je dat zelfs standaard. Ik vind het gewoon vreemd dat nvidia hier niet voor gekozen heeft.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:40
Ik had vooral gehoopt dat dlss3 in vr te gebruiken zou zijn. Maar met de extra latency is dat waarschijnlijk geen goed idee. Of je moet daar weer een spacewarp overheen gooien. :+

Ben wel benieuwd of het goed bruikbaar is als je een ingame fps cap op iets onder de helft van de frequentie van de monitor zet, en dan g- of freesync aan. Zou je iig geen issues met frame pacing moeten hebben.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
PjotrX schreef op vrijdag 14 oktober 2022 @ 08:13:
Over spacewarp: deze wordt zeker op de quest zonder pcvr gedraaid. En hoewel ik het met je eens ben dat spaceward een last-resort effort moet zijn is het niet hoe Oculus het ziet. Oculus heeft er een versie van die ze Applicatin SpaceWarp noemen en daar kan de applicatie er daadwerkelijk voor kiezen om alles op 45fps te draaien en de headset het te laten interpoleren. Sterker nog ze prijzen het hier aan en zeggen dat het tot 70% meer performance geeft: https://developer.oculus....ng-application-spacewarp/
Hmm, AppSW heb ik op de één of andere manier gemist. ASW deden ze nooit op de Quest(s). AppSW is een temporele aanpak zoals we dat tegenwoordig overal zien. Straks eens kijken of ik wat beeldmateriaal kan vinden over hoe het uit ziet.

Dat Oculus dat pusht vind ik ook niet gek, dat heeft de Quest 2 nodig. Qua beeldkwaliteit zijn native games echt geenszins te vergelijken met PCVR.
Maar wat ik hier op doelde is dus dat Oculus al lang heeft laten zien dat het beste is om je gui te scheiden en bij dlss super resolution doe je dat zelfs standaard. Ik vind het gewoon vreemd dat nvidia hier niet voor gekozen heeft.
Omdat Nvidia daar niet voor kán kiezen, dat ligt aan de kant van de engines en gamedevs :)

Voor flatscreen is het nooit nodig geweest om dit te scheiden. Misschien dat dat nu wel gedaan gaat worden, maar het ligt anders dan bij VR, waar men er voor ontwerpt. Waar DLSS min of meer in de normale pipeline past, zou het scheiden van overlays voor FG een vrij fundamenteel verschil zijn. En of men dat gaat doen voor die kleine groep mensen die de komende jaren gebruik gaat kunnen en wíllen maken van FG? Ik betwijfel het.

Acties:
  • +2 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Sp3ci3s8472 schreef op vrijdag 14 oktober 2022 @ 00:57:
[...]


Als je met DLSS 2 + reflex lager zit dan lijkt mij de superieure optie.
Als je puur en alleen naar latency zou kijken, dan wel. Als ik echter een game kan spelen met hogere settings + hogere FPS door FG te gebruiken en met een minimale verhoging van de latency, dan zou ik eerder daarvoor kiezen (mits er geen duidelijke artifacts oid zichtbaar zijn).

Het punt wat ik echter wilde maken is dat in 1 van de games die HU test, de latency van FG + reflex lager is dan Native en ook lager dan native + reflex. In Flight simulator gaat de latency met 11 ms omhoog geloof ik, waarbij hij zelf zegt dat je het niet merkt. Dan slaat de uiteindelijk conclusie die hij trekt , namelijk "the latency cost is hard to swallow" gewoon helemaal nergens op :)
Als jij het type persoon bent wat ook zonder probleem Google Stadia, Steam Remote Play of Geforce Now kan gebruiken dan is dit misschien wel de techniek voor jou. Het verschilt namelijk heel erg per persoon of het speelbaar is of niet.
Leeftijd is een factor maar ook als mensen eerder wagenziek worden dan is input lag erg vervelend. Ik vermoed dat Tim (en Alex?) de jongste is van de rij reviewers.
Lol, bij Stadia en de overige streamingdiensten gaat het over een veel hogere latency toename. Ik ben alles behalve een expert in latency van streamingdiensten, maar als ik even het eerste google artikel hierover open, een artikel van Toms hardware, dan kom ik het volgende tegen:

Afbeeldingslocatie: https://tweakers.net/i/6yNq1QMYljI2YyQm90vom4_JBeg=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/nQp9Dh0JNOBSCElJ2g4eWgF3.png?f=user_large

Dat gaat over 150 tot wel bijna 300ms! Totaal onvergelijkbaar met een increase van ~10ms van zeg 35 naar 45. Dat is volgens mij het hele punt wat de meeste van deze reviews willen maken; ja, de latency gaat iets omhoog, maar in de meeste situaties merk je daar eigenlijk niks van tijdens het gamen.

Volgens mij heb ik alleen in de analyse van DF een situatie gezien, waarbij de latency wel behoorlijk omhoog ging. Bij het gebruik van vsync icm de situatie dat je FPS hoger is dan de refreshrate van de monitor. Toen kwamen ze op een latency van ~110.
Zodra ze echter ervoor zorgden dat de fps iets lager was dan de max refreshrate (door dlss quality te gebruiken ipv performance), zakte de latency weer terug naar 49.

Sowieso vind ik het eigenlijk wel komisch dat er opeens zo'n groot probleem gemaakt wordt van een latency increase van zeg ~ 10/15 ms. Voor de aankondiging van dlss3 hoorde je daar niemand over en nu zou het opeens een game onspeelbaar maken of "too hard to swallow" ;w
Voor mij was Dead Space op 45FPS onspeelbaar waar Crysis 1 op 45FPS net speelbaar was. Groot verschil in de engine en de input lag bij Crysis was een stuk lager dan bij Dead Space.
Steam Remote Play heb ik een keertje getest bij iemand. Wat die persoon speelbaar vond met een traag spel zoals Alien Isolation vond ik totaal onspeelbaar.
Ik ben het helemaal met je eens dat met dit soort dingen (Artifacts, shimmering, microstuttering, etc) het heel persoonlijk is of je het storend vindt of niet en je het eigenlijk vaak zelf moet ervaren, wil je een conclusie kunnen trekken. Ik ben er zelf tamelijk allergisch voor, dus zou nvidia dit aardig op orde moeten hebben zou ik FG willen gebruiken.

Maar daarom vind ik het heel gek als iemand zo stellig loopt te verkondigen dat dlss 3 bij wijze van spreke waardeloos is, terwijl die persoon vrijwel zeker niet zelf dlss3 / FG heeft geprobeerd, zijn conclusie/mening voornamelijk baseert op 1 review (wat toevallig de meest negatieve is) en alle overige reviews, die met een andere conclusie komen, heel makkelijk aan de kant schuift.

Dan ben je iig niet bezig met het delen van een objectieve mening/waarneming/whatever, maar vooral aan het verkondigen hoe je zou willen dat de situatie zou zijn.

Acties:
  • +1 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 12:20

OMD

Tyranium schreef op vrijdag 14 oktober 2022 @ 09:36:
[...]


Sowieso vind ik het eigenlijk wel komisch dat er opeens zo'n groot probleem gemaakt wordt van een latency increase van zeg ~ 10/15 ms. Voor de aankondiging van dlss3 hoorde je daar niemand over en nu zou het opeens een game onspeelbaar maken of "too hard to swallow" ;w
Er was toch ook niets bekend van latency verhoging voor DLSS3 uitkwam omdat er niets bekend was over DLSS3. Latency toename is altijd een ding geweest, en een grote ook. Voor de casual gamer misschien niet en die was tevreden met een stadia bijvoorbeeld maar bijvoorbeeld voor mij is het simpelweg onspeelbaar.
Mensen die spelen met DLSS3 zijn al geen casual gamers meer, die starten namelijk een game op en gaan spelen. Mensen die een 4090 kopen zijn al helemaal geen casual gamers, die willen top notch prestaties en betalen daar de hoofdprijs voor, als ze dan iets moeten inleveren kan ik mij voorstellen dat dit verkeerd valt.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

OMD schreef op vrijdag 14 oktober 2022 @ 09:48:
[...]


Er was toch ook niets bekend van latency verhoging voor DLSS3 uitkwam omdat er niets bekend was over DLSS3. Latency toename is altijd een ding geweest, en een grote ook. Voor de casual gamer misschien niet en die was tevreden met een stadia bijvoorbeeld maar bijvoorbeeld voor mij is het simpelweg onspeelbaar.
Mensen die spelen met DLSS3 zijn al geen casual gamers meer, die starten namelijk een game op en gaan spelen. Mensen die een 4090 kopen zijn al helemaal geen casual gamers, die willen top notch prestaties en betalen daar de hoofdprijs voor, als ze dan iets moeten inleveren kan ik mij voorstellen dat dit verkeerd valt.
Een flinke latency toename is inderdaad altijd al een ding geweest (zeker bij e-sports). Maar een latency toename naar 45ms of 60 ms, in normale games? Dus niet twitchy e-sport games, volgens mij is iedereen het wel over eens dat FG daar niet geschikt voor is, nvidia zelf ook :+
Als dat een probleem is dan zou dat volgens mij betekenen dat de meeste van de huidige games onspeelbaar zijn? Zeker bij AMD kaarten, waar je geen gebruik kan maken van reflex. Daar klopt toch geen snars van :)

[ Voor 6% gewijzigd door Tyranium op 14-10-2022 10:03 ]


Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 11-09 17:47
CMT schreef op vrijdag 14 oktober 2022 @ 07:39:
[...]

Wat hier kan spelen is de variatie. De gemeten latency waarden zijn slechts gemiddelden en zeggen niets over uitschieters naar boven & naar onder toe. Het kan best zijn dat FG dit erger maakt.
Je mag verder aannemen dat de input latency van een monitor een heel stuk stabieler zal zijn (wordt bepaald door de beeldverwerking van de monitor / scaler), dan game system latency wat o.a. sterk afhankelijk is van de momentane FPS / frametimes. Mijn inziens kan je daarom de input lag van een monitor niet vergelijken met game input lag.
Grote uitschieters zijn prima meetbaar. Zover ik weet is er geen enkele reviewer die daar iets over gezegd heeft buiten het verhaal van DF over vsync.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@Tyranium Bedankt voor deze uitstekende demonstratie van "shoot the messenger"...
Ik probeer bewust mijn mening over DLSS 3.0 niet te geven. De reden waarom heb je inmiddels zelf gedemonstreerd. Ik wist allang hoe deze discussie zou gaan lopen en ik heb hier simpelweg geen zin in. Ik beschreef daarom wat vermeld werd in de video.

Ik kan ook niet zeggen dat ik onder de indruk van die andere reviews ben. Ik zie de meeste geen of nauwelijks melding maken van specifieke artefacts vermelden die er wel zijn. Dus zaken zoals UI of wat er gebeurd als er een groot verschil tussen twee opvolgende frames is waar DLSS 3.0 een frame tussen probeert te genereren. Ook zie ik nauwelijks de vermelding dat DLSS 3.0 beter werkt als je al een veel hogere framerate haalt en dus minder last van latency gaat krijgen omdat je latency grotendeels hangt op de framerate die je haalt zonder DLSS 3.0. Dus precies wat Nvidia niet demonteerde met hun RT demo van de lage 20fps native naar 100fps. Je krijgt misschien 100fps op je scherm, maar de latency ligt waarschijnlijk rond de de 60fps van DLSS 2.0.

Van een review verwacht ik uiteindelijk dat ze zowel positieve als negatieve aspecten benoemen en dan hun oordeel vellen. Dat deden ze bij HUB zeker. Daaruit kan je vervolgens je eigen conclusies trekken.

Overigens waren er vanaf het begin al zorgen over zowel latency als artefacts. Die zorgen werden alleen maar groter met screenshots en Nvidia die Reflex ging forceren voor DLSS 3.0. En als laatste had AMD al hun eigen latency verlagende technologie (Anti Lag), ruim een jaar voordat Nvidia het had.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 11-09 17:47
DaniëlWW2 schreef op vrijdag 14 oktober 2022 @ 10:25:
Overigens waren er vanaf het begin al zorgen over zowel latency als artefacts.
En nu het daadwerkelijk getest is blijkt de latency best mee te vallen. Maar natuurlijk zijn er nu weer genoeg mensen die plots beweren dat 13ms extra latency een enorm probleem is. Maar dat geld natuurlijk alleen als het iets negatiefs is voor Nvidia. Als dat echt zo'n probleem zou zijn, zouden twitchy shooters al jaren onspeelbaar zijn met een AMD videokaart.

Acties:
  • +3 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

@Tyranium
Ik heb vanaf het begin al lopen zeuren over latency. Zei het in DLSS3 of in dingen zoals vsync en streaming. Je kan jaren teruggaan in de topics hier als je wilt.
Daarom zeg ik ook dat het per persoon verschilt.

Zoals @DaniëlWW2 benoemd. Benoemd HU duidelijk de voor en nadelen van de techniek en geeft daarna zijn conclussie waar hij inderdaad ook zijn mening geeft.
Daar kan je het wel of niet mee eens zijn. Want het verschilt per persoon wat acceptabel is.
Als je bij de andere reviews alleen maar de positieve punten hoort dan kan je gewoon geen goede conclussie trekken.

Daarnaast is het niet alsof ik favoriete reviewers ga verdedigen ook als ze het fout hebben. Nadat ik erachter kwam dat TPU (en Tweakers) maar een 5800x (5950x) voor het testen heeft gebruikt heb ik die ook zitten "afzeiken" en mijn post aangepast.
Je wil als consument gewoon het hele plaatje en dat kreeg je niet in reviews waar een tragere cpu was gebruikt. En dus ook niet in veel van de andere reviews van DLSS3.

Ik wil dat reviewers zoveel mogelijk hun best doen want daarmee kan ik mijn eigen conclussies trekken op basis van accurate data.

Aanvullend de 4k data van LTT in Cyberpunk was foutief; die hebben ze later aangepast (in een pinned comment). Had liever gezien dat ze een edit hadden gedaan maar snap ook dat youtube youtube is.

Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

cnieuweboer schreef op vrijdag 14 oktober 2022 @ 11:45:
[...]


En nu het daadwerkelijk getest is blijkt de latency best mee te vallen. Maar natuurlijk zijn er nu weer genoeg mensen die plots beweren dat 13ms extra latency een enorm probleem is. Maar dat geld natuurlijk alleen als het iets negatiefs is voor Nvidia. Als dat echt zo'n probleem zou zijn, zouden twitchy shooters al jaren onspeelbaar zijn met een AMD videokaart.
Waarom? Omdat AMD geen Reflex heeft? Een techniek die eigenlijk alleen werkt als je een gpu bottleneck hebt.
Je kan dit prima zelf emuleren door een framerate target in een spel te zetten. Het is niet zo handig als Reflex dat volledig automatisch is, maar als je perse wil dat kan het prima. Zeker in die twitch shooters is het veel makkelijker om een cpu bottleneck te creeren.

Ik heb een cpu bottleneck (in games) dus ik heb dat probleem niet :'( .

Laat niet weg dat ik graag zie dat AMD met een open variant van Reflex komt zodat dat zoals alle gesloten NV technieken een langzame dood sterft. Dat Radeon Boost vind ik nu niet echt vergelijkbaar met Reflex, dus daar heeft AMD imho de plank misgeslagen. Ja, lagere resolutie en variable rate shading halen een gpu bottleneck weg ten koste van beeldkwaliteit en een minder stabiele lagere latency (en waarschijnlijk meer microstutters).

Zie ook de video van Battlenonsense.

Acties:
  • +2 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Tyranium schreef op vrijdag 14 oktober 2022 @ 09:36:
[...]
Het punt wat ik echter wilde maken is dat in 1 van de games die HU test, de latency van FG + reflex lager is dan Native en ook lager dan native + reflex.
Dan moet je wel bedenken dat de technieken om de FPS te verhogen juist ook worden gebruikt wanneer de native latency te hoog is. DLSS 2 zorgt voor een afname van de latency en kan een spel dan speelbaar maken. Frame Interpolation kan het spel dan juist weer onspeelbaar maken door de toename in latency. Dat deze voor een bepaald persoon onacceptabele latency iets lager is dan de native onspeelbare latency, betekent niet dat je de latency dan opeens acceptabel moet vinden.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 12-09 18:59
haarbal schreef op vrijdag 14 oktober 2022 @ 08:32:
Ik had vooral gehoopt dat dlss3 in vr te gebruiken zou zijn. Maar met de extra latency is dat waarschijnlijk geen goed idee. Of je moet daar weer een spacewarp overheen gooien. :+

Ben wel benieuwd of het goed bruikbaar is als je een ingame fps cap op iets onder de helft van de frequentie van de monitor zet, en dan g- of freesync aan. Zou je iig geen issues met frame pacing moeten hebben.
In principe is spacwarp die oculus toepast zoiets als frame generation. Alleen wordt bij spacewarp het beeld geëxtrapoleerd, wat dus extra artifacts geeft maar de latency niet toe laat nemen. Een ander verschil is dat spacwarp werkt met motion vectors vanuit de game (net als dlss frame generation) en motion vectors vanuit de hardware video encoder op de gpu (hier gebruikt frame generation nvidia's optical flow component voor). De laatste is een iets wat ze voor vr kunnen gebruiken. De motion vectors die uit de video encoder komen zijn namelijk niet per pixel maar per blok van pixels x bij x pixels. Dat is dus minder nauwkeurig en zorgt voor extra artifacts. Als nvidia ontwikkelaars toegang kan geven tot hun optical flow component zou dat bij vr de kwaliteit van spacewarp kunnen verbeteren.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

ItalianStyle schreef op vrijdag 14 oktober 2022 @ 12:02:
[...]


Hopelijk is dit geen slecht voorteken.
Gokje: er blijven zodanig veel GPU's op de plank liggen dat er geen reden is om "weer" aan miners te gaan verkopen. Voor NVidia aantrekkelijker dan gewoon de prijzen verlagen, natuurlijk.

Vanuit commercieel oogpunt is er natuurlijk geen enkele reden om niet aan miners te verkopen anders dan dat dat verkopen aan gamers in de weg zit, en dat laatste was schijnbaar belangrijk, waarschijnlijk vanwege marktaandeel en PR. Dat argument valt nu weg.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@bwerg

Je draait het precies om. De vraag van miners is grotendeels weggevallen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +8 Henk 'm!

  • Yonix
  • Registratie: April 2004
  • Laatst online: 12:46
En dat was het voor de RTX 4080 (12GB)RTX 4070.

https://videocardz.com/ne...els-geforce-rtx-4080-12gb

Afbeeldingslocatie: https://tweakers.net/i/FURwrD3rBTde6ToJgQh4DNzpUvE=/800x/filters:strip_exif()/f/image/qe2hwF2c3R4X2TyswFImt0e8.png?f=fotoalbum_large

[ Voor 58% gewijzigd door Yonix op 14-10-2022 18:26 ]


Acties:
  • +2 Henk 'm!

  • Cloggs
  • Registratie: April 2004
  • Laatst online: 10-09 19:12
Enige juiste actie. Ook wel makkelijk om te doen voor Nvidia aangezien er geen FE modellen van uit komen. AIB's zullen er denk ik minder blij mee zijn.

Acties:
  • +2 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 08:37
Cloggs schreef op vrijdag 14 oktober 2022 @ 18:30:
[...]

Enige juiste actie. Ook wel makkelijk om te doen voor Nvidia aangezien er geen FE modellen van uit komen. AIB's zullen er denk ik minder blij mee zijn.
Wellicht hoeven ze alleen maar een ander bios/stickertje/andere doos te maken (in de toekomst): RTX 4070 ;)

Toch weer een bijzondere actie van Nvidia (of het goed of fout is... weet ik niet).
Inderdaad ook niet zo fraai richten de AIB's... waar zijn ze mee bezig na al reeds een debacle met EVGA. :S

Zou het zo zijn dat deze kaarten al in productie waren/in warenhuizen liggen (zoals de geruchten toen over de RTX 4090 in warenhuizen, ver voor de release) ?

[ Voor 31% gewijzigd door HugoBoss1985 op 14-10-2022 18:49 ]


Acties:
  • +2 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

cnieuweboer schreef op vrijdag 14 oktober 2022 @ 10:14:
[...]


Grote uitschieters zijn prima meetbaar. Zover ik weet is er geen enkele reviewer die daar iets over gezegd heeft buiten het verhaal van DF over vsync.
Ik denk niet dat je begrijpt wat ik bedoel. 10ms monitor input latency verschil hoeft niet hetzelfde te zijn als 10ms input latency verschil, veroorzaak door FG+Reflex.
Nergens zie ik metingen waarbij ze de distributie en daarmee de uitschieters/afwijking/tolerantie/hoe je het ook wilt noemen, er bij betrokken hebben. Enkel gemiddelden dat over een bepaalde tijd is gemeten.

Wil je het goed doen, doe het dan zoals Igor heeft gedaan:
https://www.igorslab.de/n...latenzen-in-der-praxis/6/

Afbeeldingslocatie: https://www.igorslab.de/wp-content/uploads/2021/06/Bild-29.jpg

AMD's anti lag+boost oplossing ligt gemiddeld op de hielen van Nvidia Reflex met 60.4ms vs 58ms.
Op het eerste gezicht een uitstekend resultaat. Als je daar van uitgaat dan zouden beide oplossingen gelijkwaardig moeten zijn.
Echter heeft AMD's methode een veel grotere spreiding met een grotere delta als gevolg. Aan de max. latency veranderd er weinig, waardoor er alsnog een slechtere ervaring is.

Overigens ben ik er mee eens dat reviewers inconsistent kunnen zijn. Het zijn tenslotte mensen waarbij de subjectieve ervaring/mening wel eens wilt veranderen en die niet altijd objectief blijven.
DF doet dat net zo goed, door 54ms vs 62ms "Far more responsive" en een 3ms verschil "essentially undetectable" te noemen. Geloof je het zelf dat een 8ms verschil zoveel anders ervaren wordt dan een 3ms verschil?
cnieuweboer schreef op vrijdag 14 oktober 2022 @ 11:45:
[...]


En nu het daadwerkelijk getest is blijkt de latency best mee te vallen. Maar natuurlijk zijn er nu weer genoeg mensen die plots beweren dat 13ms extra latency een enorm probleem is. Maar dat geld natuurlijk alleen als het iets negatiefs is voor Nvidia. Als dat echt zo'n probleem zou zijn, zouden twitchy shooters al jaren onspeelbaar zijn met een AMD videokaart.
Zo lees ik het anders niet? Al vanaf het begin is er kritiek geuit dat de latency met FG nooit beter zal worden dan wat met DLSS2 bereikt wordt en het daardoor geen magisch middel is om bijv. een volwaardige 100 FPS ervaring te geven.
Ieder moet daar een persoonlijk afweging in maken wat hij/zij nog acceptabel vind.
Als de lag bij 50 FPS DLSS2 je stoort dan zal FG daar niets aan veranderen, ook al neemt de latency in absolute term maar nauwelijks toe en is het beeld wat vloeiender vanwege hogere FPS (en daarmee het nadeel van sample & hold verkleint).

Persoonlijk heb ik nooit last gehad van de lag veroorzaakt door 60Hz v-sync. Ik speel ook geen shooters waarbij een (re)actiesnelheid van een Cobra nodig is (een aanval duurt 70ms btw, probeer maar eens sneller te zijn ;) ). Maar ik ben wel erg gevoelig voor frametime variatie.

Acties:
  • +1 Henk 'm!

  • UniMatrix
  • Registratie: December 2002
  • Laatst online: 07:16
Goed zo, nu die 4080 nog netjes max 10-15% onder de 4090 laten performen.

EV: 2017 Ioniq Electric | PC: AMD Ryzen 7 5700X | MSI RTX 4090 Gaming Trio | VR: Pico 4


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09:39
CMT schreef op vrijdag 14 oktober 2022 @ 18:32:
[...]

[Afbeelding]

AMD's anti lag+boost oplossing ligt gemiddeld op de hielen van Nvidia Reflex met 60.4ms vs 58ms.
Op het eerste gezicht een uitstekend resultaat. Als je daar van uitgaat dan zouden beide oplossingen gelijkwaardig moeten zijn.
Echter heeft AMD's methode een veel grotere spreiding met een grotere delta als gevolg. Aan de max. latency veranderd er weinig, waardoor er alsnog een slechtere ervaring is.
Het bijkomend voordeel van Reflex is dat het ook niet de resolutie verlaagt voor een hogere framerate. Vermoedelijk daarmee dat de resultaten inconsistent zijn bij AMD want het gaat om een dynamische resolutieverlaging.
Good riddance. Aan de ene kant goed dat ze luisteren naar feedback maar aan de andere kant had het nooit mogen bestaan. Ik vermoed wel dat het komt doordat ze beseffen dat ze die 4080s zo niet verkocht gingen krijgen want je kan nu al betere price/performance krijgen in dezelfde tier van prestaties. Vraag me af wat ze nu van plan zijn.

Edit: ze gaan hem gewoon lanceren als 4070Ti met dezelfde prijs :P. Dat zou nog wel kunnen.

[ Voor 42% gewijzigd door napata op 14-10-2022 19:04 ]


Acties:
  • +4 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Deze zag ik even niet aankomen :D

Ze voorkomen hiermee wel dat ze nog decennia geridiculed zouden gaan worden met die 4070.... :+

Oh en fwiw: NVIDIA GeForce RTX 4090 PCI-Express Scaling

[ Voor 12% gewijzigd door Help!!!! op 14-10-2022 19:07 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +6 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Wat goed dat Nvidia een keer naar zijn klanten luistert :)

March of the Eagles


Acties:
  • +2 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09:39
Daar gaat toch wel een kostenplaatje aan vasthangen want hun partners hebben natuurlijk al dozen geprint, koelers gemaakt, handleidingen en productpagina's gemaakt. Die gaan ze nu allemaal moeten aanpassen. Mogelijk zijn er ook al x kaarten met doos verscheept want de lancering was niet zo ver meer.

Acties:
  • +1 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 08:37
napata schreef op vrijdag 14 oktober 2022 @ 19:09:
Daar gaat toch wel een kostenplaatje aan vasthangen want hun partners hebben natuurlijk al dozen geprint, koelers gemaakt, handleidingen en productpagina's gemaakt. Die gaan ze nu allemaal moeten aanpassen. Mogelijk zijn er ook al x kaarten met doos verscheept want de lancering was niet zo ver meer.
Daar heeft EVGA in ieder geval geen last van ;) :+

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

Help!!!! schreef op vrijdag 14 oktober 2022 @ 19:01:
[...]

Deze zag ik even niet aankomen :D

Ze voorkomen hiermee wel dat ze nog decennia geridiculed zouden gaan worden met die 4070.... :+

Oh en fwiw: NVIDIA GeForce RTX 4090 PCI-Express Scaling
Bedankt!
Ik zag vandaag ook dat Computerbase Pcie 3.0x16 vs. Pcie 4.0x16 hebben vergeleken in een update voor de RTX4090: https://www.computerbase.de/2022-10/nvidia-geforce-rtx-4090-review-test/5/#abschnitt_der_geforce_52225_beschleunigt_die_geforce_rtx_3000_deutlich_update

Met 4k resolutie globaal gezien nauwelijks verschil en uitschieters tot ca. 7%. Niets om naar huis over te schrijven. Zolang je onder deze FPS blijft is het dus geen groot probleem.

Acties:
  • +1 Henk 'm!

  • Moonspring
  • Registratie: November 2020
  • Laatst online: 31-08 09:28
De 4080 12 gb is gecancelled. Vanwege de naamgeving aldus nvidia.

Waarschijnlijk komt hij later wel op de markt. Nu lanceren concureert met de hoog geplaatste ampère kaarten.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Prachtig, dat dacht ik al dat ze het de RTX 4070 zouden gaan noemen maar dan met prijsverlaging. Kan alsnog. Ze zagen waarschijnlijk de (gebrekkige) verkoopcijfers van de 4080 12 GB. En de kritiek.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12-09 19:33
Verstandige zet na de terechte kritiek op de positionering van die chip, maar die 4080 met 16GB gaat natuurlijk ook veel te duur worden, 1469 euro. Al lijken mensen gezien de 4090 launch nog altijd geld teveel te hebben.

Best een goede verkrijgbaarheid en nog steeds quasi uitverkocht.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik wil nu vooral weten of ze de volle AD104 chip nu gaan uitbrengen als RTX4070 of RTX4070Ti.
Want ik denk dat RTX4070Ti ook te veel gevraagd is. Immers is de RTX4080 al bijna de volle AD103 chip waar makkelijk nog een tweede bin onder past. Dat zou de RTX4070Ti moeten worden.

En de prijs, tja we zien al dat de CPU markt flink aan het inzakken is met zowel Intel als AMD. Als dat gebeurd, dan gaat de niche die DIY GPU's zijn, het echt niet volhouden. Nvidia kan maar beter hun les leren en de volle AD104 voor veel minder geld in de markt zetten als RTX4070. Dus niet $900, nee eerder max $500.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • PP_Sound
  • Registratie: Januari 2021
  • Niet online
Moonspring schreef op vrijdag 14 oktober 2022 @ 19:43:
De 4080 12 gb is gecancelled. Vanwege de naamgeving aldus nvidia.

Waarschijnlijk komt hij later wel op de markt. Nu lanceren concureert met de hoog geplaatste ampère kaarten.
Het zal dan de 4070 Ti worden waarschijnlijk voor 1099 Euro. ;)

Acties:
  • +1 Henk 'm!

  • William/Ax3
  • Registratie: Augustus 2000
  • Laatst online: 30-08 08:36

William/Ax3

We are Starstuff

DaniëlWW2 schreef op vrijdag 14 oktober 2022 @ 21:00:
Ik wil nu vooral weten of ze de volle AD104 chip nu gaan uitbrengen als RTX4070 of RTX4070Ti.
Want ik denk dat RTX4070Ti ook te veel gevraagd is. Immers is de RTX4080 al bijna de volle AD103 chip waar makkelijk nog een tweede bin onder past. Dat zou de RTX4070Ti moeten worden.

En de prijs, tja we zien al dat de CPU markt flink aan het inzakken is met zowel Intel als AMD. Als dat gebeurd, dan gaat de niche die DIY GPU's zijn, het echt niet volhouden. Nvidia kan maar beter hun les leren en de volle AD104 voor veel minder geld in de markt zetten als RTX4070. Dus niet $900, nee eerder max $500.
Ik denk dat ze gaan kijken wat AMD brengt en dan gaan kijken wat ze nu willen om de rest van de stack te vullen en tegen welke prijzen. Het lijkt er echt op dat ze nu ook eerst van de overgeproduceerde 3000 kaarten af willen. Dat maakt het cancelen van deze 4080 12Gb ook weer makkelijker de eerste tijd.

Als AMD richting 4090 (geruchten atm zeggen van niet) komt dan zullen ze de ti ook weer sneller willen uitbrengen aangezien ze altijd de koning spot willen hebben. Of ze willen die b.v voorzien van gddr7 (mischien ook voor een soort super refresh o.i.d) en daarop ook moeten wachten. Dat zou namelijk heel wat powerlimiet weer schelen naast extra perfomence.

We gaan het zien laten we hopen dat de prijzen door competitie en marktsegment dat de prijzen gaan zakken op ieder perfomence level en dat AMD en Nvidia elkaar blijven pushen op elk niveau.

|WOW Daggerspine | Troll Hunter Axejess |


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Ik denk zelf dat ze het doorhadden de 4080 12Gb die zo afgeslankt is op dat prijsmodel, eigenlijk nergens heen ging t.o.v. waar AMD mee gaat komen.
Dat de 4080 12Gb gewoon niet aantrekkelijk voor mensen zullen zijn, zowel niet in performance als in prijsklasse.

Dus ik denk zelf dat ze de 4080 12Gb gaan rebranden in de schaduw naar 4060Ti / 4070 op een latere datum. Ze zullen de chips zekers niet weggooien en voor nu alleen de 16Gb modellen uitbrengen in november en dan wachten ze verder wat AMD brengt aan de tafel.

Van daaruit gaan ze of de 4090Ti versneld inzetten of gewoon ergens volgend jaar eind Q1 of ergens Q2 de Ti uitbrengen, waarbij in Q1 de 4060Ti zal komen en dan misschien de 4070 dat AMD ook hun midden en laag segment bekend heeft gemaakt.

Mochten ze met een model komen die gelijk of gevaarlijk dicht in de buurt komt van de 4090 voor een lagere prijs, komen ze met de 4090Ti met een hoger bedrag dan de 4090 msrp uiteraard, maar gelijk ver vooruit de kroon pakt.
Maar goed, dat denk ik en het is nu meer koffiedik kijken en wachten op de launch en benchmarks van AMD, daarna zien we wel de next move van Nvidia na de 4080 16Gb.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
4090 is nog niet eens uitverkocht en dat had ik niet verwacht voor de eerste lichting. Ging er wel vanuit dat de verkoop daarna een stuk minder zou zijn want de kaart is gewoon zeer prijzig. Misschien is hij het zelfs wel waard maar is gewoon erg veel geld.

De 4080 16gb zit wel erg veel onder de 4090 en de prijs is domweg te hoog, gaat nergens over.

De 12gb was nog veel erger dus cancellen is logische stap. Erg jammer dat ze zo greedy zijn daar want ze maken prima producten.

Ik denk dat iedereen wel een klein beetje geaccepteerd had dat een topmodel geen 600 meer kost tegenwoordig en 900 het " nieuwe normaal is en de "halo kaart" er nog wat boven.
Maar de 3090ti is al te duur en om dan nu een 4080 proberen te verkopen voor dat geld gaat te ver wat mij betreft.

Acties:
  • 0 Henk 'm!

  • PP_Sound
  • Registratie: Januari 2021
  • Niet online
De 4080 zetten ze zo hoog in prijs omdat er nog 3080/3090 chips verkocht moeten worden.

Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
PP_Sound schreef op vrijdag 14 oktober 2022 @ 21:52:
De 4080 zetten ze zo hoog in prijs omdat er nog 3080/3090 chips verkocht moeten worden.
Dat snap ik maar is totaal raar toch? 2080ti was ook een dure kaart maar de 3080 die toch aardig sneller was werd gewoon voor een nette prijs aangeboden en was dus een stuk goedkoper ( tot de miners en scalpers kwamen iig)

Acties:
  • +1 Henk 'm!

  • PP_Sound
  • Registratie: Januari 2021
  • Niet online
meljor schreef op vrijdag 14 oktober 2022 @ 22:10:
[...]


Dat snap ik maar is totaal raar toch? 2080ti was ook een dure kaart maar de 3080 die toch aardig sneller was werd gewoon voor een nette prijs aangeboden en was dus een stuk goedkoper ( tot de miners en scalpers kwamen iig)
De 3090 zat weer ruim boven de 2080 Ti en met de 4090 wordt het prijsniveau nog verder omhoog getrokken.
Bij Turing was er boven de 2080 Ti alleen nog de belachelijk dure RTX Titan 24GB

[ Voor 8% gewijzigd door PP_Sound op 14-10-2022 22:20 ]


Acties:
  • 0 Henk 'm!

  • Palindrome
  • Registratie: September 2020
  • Laatst online: 12-09 23:39
Ah Ben benieuwd hoelang de 4070 nu op zich laat wachten. Nvidia zal wel even de tijd nemen zodat de top 3000 serie nog aantrekkelijk lijkt voor diegene die niet de dure 4080 en 4090 wil.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

HugoBoss1985 schreef op vrijdag 14 oktober 2022 @ 18:31:
[...]


Wellicht hoeven ze alleen maar een ander bios/stickertje/andere doos te maken (in de toekomst): RTX 4070 ;)

Toch weer een bijzondere actie van Nvidia (of het goed of fout is... weet ik niet).
Inderdaad ook niet zo fraai richten de AIB's... waar zijn ze mee bezig na al reeds een debacle met EVGA. :S

Zou het zo zijn dat deze kaarten al in productie waren/in warenhuizen liggen (zoals de geruchten toen over de RTX 4090 in warenhuizen, ver voor de release) ?
Ik denk dat ze de bui al zagen hangen. Want er is een reden waarom iedereen de GTX 970 een 3.5GB kaart noemt; de kaart was super in zijn tijd, maar had gewoon geen 4GB die bruikbaar was. Die laatste 512MB was te traag om te gebruiken.
Als iedereen ondanks dat Nvidia de naam RTX 4080 geeft de kaart RTX 4070 had genoemd dan win je het waarschijnlijk als consument.

De kaart niet uitbrengen onder de 4080 naam was de enige juiste stap die ze hadden kunnen nemen.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

William/Ax3 schreef op vrijdag 14 oktober 2022 @ 21:28:
[...]


Ik denk dat ze gaan kijken wat AMD brengt en dan gaan kijken wat ze nu willen om de rest van de stack te vullen en tegen welke prijzen. Het lijkt er echt op dat ze nu ook eerst van de overgeproduceerde 3000 kaarten af willen. Dat maakt het cancelen van deze 4080 12Gb ook weer makkelijker de eerste tijd.
Dat zou goed een achterliggende reden kunnen zijn. :)
Als AMD richting 4090 (geruchten atm zeggen van niet) komt dan zullen ze de ti ook weer sneller willen uitbrengen aangezien ze altijd de koning spot willen hebben. Of ze willen die b.v voorzien van gddr7 (mischien ook voor een soort super refresh o.i.d) en daarop ook moeten wachten. Dat zou namelijk heel wat powerlimiet weer schelen naast extra perfomence.

We gaan het zien laten we hopen dat de prijzen door competitie en marktsegment dat de prijzen gaan zakken op ieder perfomence level en dat AMD en Nvidia elkaar blijven pushen op elk niveau.
Ten eerste gaat er 100% zeker geen GDDR7 komen voor Lovelace. Veel te vroeg omdat die geheugenchips nog lang niet productie gereed zijn en je niet zomaar een ander type geheugen kan gebruiken op een videokaart. :)

Voor AMD, tja dat is een gerucht zonder veel substantie. Het hele beeld van de afgelopen halfjaar doet heel anders vermoeden. Neem alleen al de simpelere rekensom van transistoraantallen. De grote prestatieverbetering in GPU's is eigenlijk altijd hoeveelheid transistoren. Dat is zeker nu het geval omdat het rasterisation ontwerp van Lovelace gewoon dezelfde als van Ampere is. Waarschijnlijk zijn er wel fors meer transistoren mee gemoeid om meer clock speed mogelijk te maken.

Nu is de volle AD102 chip een gigantische 76,3 miljard transistoren groot waar GA102 nog 28,3 miljard was. De RTX4090 is niet de volle chip, maar alsnog moge duidelijk zijn dat 60-65% sneller in gaming helemaal niet zo goed is als je het afzet tegen hoeveel transistoren hiervoor nodig zijn. Immers zit je alsnog ruim boven de 2x transistoren ten opzichte van GA102. Die zijn alleen naar andere zaken gegaan dan rasterisation. Vervolgens heeft AD103 45,9 miljard en AD104 35,8 miljard transistoren. Die laatste chip is waar Nvidia zelf van aangeeft dat het ergens rond GA102 zal presteren. Zeg het is 5% sneller dan een RX6900XT. Hoe gaat AMD die niet verslaan? Een overclockte RX6900XT, eigenlijk dus de RX6950XT, presteert waarschijnlijk al redelijk gelijkwaardig aan de volle AD104 chip.

Ik zit dus ook al heel erg naar de prijs van de RTX4080 te kijken. Dat lijkt me ook compleet onhoudbaar waarbij ik me afvraag of ze dat wel vol gaan houden of die niet ook voor lancering gaan verlagen. Want hier zou je kijken naar iets van 15-20% sneller dan een RTX3090Ti, dus iets van 25-30% sneller dan wat AMD nu als snelste heeft. Een dergelijke prestatiesprong is goed te doen voor AMD omdat deze chip alsnog bijna tweemaal zoveel transistoren heeft als GA102 en er erg weinig uithaalt qua rasterisation volgens zelfs Nvidia.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
meljor schreef op vrijdag 14 oktober 2022 @ 22:10:
[...]


Dat snap ik maar is totaal raar toch? 2080ti was ook een dure kaart maar de 3080 die toch aardig sneller was werd gewoon voor een nette prijs aangeboden en was dus een stuk goedkoper ( tot de miners en scalpers kwamen iig)
Dat is niet raar gegeven de markt. Overproductie door pandemie, miner bubble is aan het barsten. Kijk voor de grap eens naar performance per €/$ in Timespy Extreme. De prijzen van 4080's en 4090 zijn precies zo gekozen dat je dezelfde performance per €/$ krijgt als met de 3080, Ngriezelig gewoon.

De echte prijzen van de 4070 ("4080" 12 GB) , 4080 en 4090 zouden moeten zijn: respectievelijk $699, $999 en $1499. Dat baseer ik op de productiekosten en marges (Nvidia en AIB partners). $1599 is wel een correcte prijs voor de 4090, zij het met 70% bruto marge. Ik zie Nvidia de prijs van de 4090 en 4080 dan ook niet (snel) veranderen tenzij ze afgeknuppeld worden door RDNA3, maar die van de opnieuw te lanceren 4070 gaat wel zakken.

Ik zal morgen m'n berekeningen delen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

Allemachtig wat een shit show van Nvidia. Ze hadden letterlijk dit hele circus kunnen voorkomen door die kaart vanaf het begin al een 4070 te noemen. Hadden ze ook nog ~10% van de huidige MSRP's (van de gehele line-up) afgeroomd waren ze al helemaal spekkoper geweest. Dan waren de prijzen niettemin hoog maar ik denk voor de meeste met een realistische blik zeker acceptabel.

Deze grap had ik i.i.g. niet aan zien komen. Ben benieuwd wat dit voor AIB producten gaat berekenen die al kaarten hadden liggen.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

-Nvidia zou in ieder geval de AIB partners compenseren voor de verpakking.
-Het schijnt de RTX4070 te worden.
-Release zou rond CES worden.
-Ja de prijs gaat waarschijnlijk omlaag.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Help!!!! schreef op vrijdag 14 oktober 2022 @ 19:01:
[...]

Deze zag ik even niet aankomen :D

Ze voorkomen hiermee wel dat ze nog decennia geridiculed zouden gaan worden met die 4070.... :+

Oh en fwiw: NVIDIA GeForce RTX 4090 PCI-Express Scaling
Jammer dat ze bij TPU laten weten met welke instellingen ze testen.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
ItalianStyle schreef op zaterdag 15 oktober 2022 @ 09:32:
[...]


Jammer dat ze bij TPU laten weten met welke instellingen ze testen.
https://www.techpowerup.c...ci-express-scaling/2.html

Staat hier, dus max tenzij er iets anders staat vermeld.

[ Voor 7% gewijzigd door Paprika op 15-10-2022 10:08 ]


Acties:
  • +3 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Thomas schreef op zaterdag 15 oktober 2022 @ 08:34:
Hadden ze ook nog ~10% van de huidige MSRP's (van de gehele line-up) afgeroomd waren ze al helemaal spekkoper geweest. Dan waren de prijzen niettemin hoog maar ik denk voor de meeste met een realistische blik zeker acceptabel.
Dan nog zou het probleem blijven dat de 4000 series schalen in 't voordeel van de 4090. In dollars voor 't gemak:
De 4080 16GB begint vanaf 1200 USD, oftewel 75% van een 4090 (1600 USD). Ondertussen heeft ie nog geen 60% van de CUDA cores (9728 vs 16384), precies 2/3e of 75% van 't geheugen en praktisch dezelfde kloksnelheid. Je betaalt dus letterlijk meer voor minder relatief gezien.

Afbeeldingslocatie: https://tweakers.net/i/ZYyPyxOuQQ4PBUjeKBWoh9JwuBc=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/JbN1XeR5cNlAcFQgN6El3VPr.jpg?f=user_large

Ik kan mij eigenlijk 123 geen reeks herinneren waar dit 't geval was.

Acties:
  • +1 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Ik geloof niet dat bij Metro Exudus met raytracing aan is getest en DLSS lijkt ook aan te staan bij want 1080 fps.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
ItalianStyle schreef op zaterdag 15 oktober 2022 @ 10:13:
[...]


Ik geloof niet dat bij Metro Exudus met raytracing aan is getest en DLSS lijkt ook aan te staan bij want 1080 fps.
Zonder RT, zonder DLSS. TPU test beide features geheel apart zoals het hoort: https://www.techpowerup.c...-founders-edition/34.html

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op zaterdag 15 oktober 2022 @ 10:13:
[...]

Dan nog zou het probleem blijven dat de 4000 series schalen in 't voordeel van de 4090. In dollars voor 't gemak:
De 4080 16GB begint vanaf 1200 USD, oftewel 75% van een 4090 (1600 USD). Ondertussen heeft ie nog geen 60% van de CUDA cores (9728 vs 16384), precies 2/3e of 75% van 't geheugen en praktisch dezelfde kloksnelheid. Je betaalt dus letterlijk meer voor minder relatief gezien.

[Afbeelding]

Ik kan mij eigenlijk 123 geen reeks herinneren waar dit 't geval was.
We waren in ieder geval gewaarschuwd. :+


Het blijft bij mij ook maar twee vragen oproepen.
1) Wat is de economische rationeel nu voor AD103/104/106/107?
2) Wil Nvidia je (voorlopig) wel iets anders verkopen dan AD102?

Bij die eerste speelt mee dat als je gaat inschatten wat een dergelijke chip kost, je al snel tot de conclusie komt dat AD104 ook wel eens duurder kan zijn dan GA102 om te maken, zelfs als je rekening houd voor VRAM kosten. Vervolgens mist de prestatiewinst in rasterisation. Het is alleen wel een gaming focused chip. AD103 zal iets sneller zijn, maar die is ook zeker iets duurder dan GA102 om te maken. Qua PCB maakt het waarschijnlijk ook weinig uit of je GPU op 285W, 320W of 350W zit. Veel elementen zullen vergelijkbaar zijn. Het grootste verschil is waarschijnlijk VRAM configuratie. AD106/AD107 zijn veel kleinere chips waar ik de rationeel eerder zie in efficiëntiewinst. Immers zie ik dergelijke chips veelal verdwijnen in laptops waar efficiëntie belangrijk is.

Voor AD102 speelt dat die chip duur zal zijn om te maken, maar ook iets extra's oplevert. Dat heeft weinig met gaming te maken en juist alles met de rest van die GPU. De RTX4090 loopt tegen een CPU bottleneck aan op 1440p of zelfs met een iets mindere CPU op 4K. DP 2.0 mist voor die ultieme 4K ervaring die juist nu mogelijk begint te worden en de transistor/performance verhouding is helemaal krom vergeleken met zelfs GA102. Ik zie AD102 ook niet als een gaming GPU. Ik zie het als een workstation GPU. Specifiek voor GCI rendering, ML/AI werk en game development. Zeker met die laatste is Nvidia heel interessante dingen aan het doen. Als je zo naar de RTX4090 kijkt, dan begint het product opeens veel logischer te zijn. Dit sluit alleen niet aan op de marketing als de ultieme gaming GPU.

Daarom lijk je nu ook zo'n verwarrend verhaal te krijgen. Ze verdienen bij Nvidia waarschijnlijk veel meer aan AD102 verkopen in als workstation GPU, maar lijken vergelijkbare marges te willen halen uit elke wafer die ze verkopen. Dus zijn AD103 en voorheen ook AD104 veel te duur. Van beiden moet minstens $400 eraf. Daarnaast speelt de gigantische inventaris aan oude RTX30 series videokaarten die ze ook niet gaan verkopen zo lang als ze bewust het aanbod beperkt en de prijzen veel te hoog houden.

edit: En natuurlijk bovenop alles komt de realisatie dat de PC markt aan het inzakken is. We zagen Nvidia eerst, snel gevolgd door Intel en AMD inmiddels ook. Ook komen er berichten over overcapaciteit in NAND en DRAM. Het lijkt me een kwestie van tijd voordat een echt luxeproduct zoals een videokaart, ook aan de beurt is. Zeker omdat die juist botsen bij het grote problemen van zeer hoge energieprijzen. Hoe lager je zal gaan in de productlijn, hoe groter dat zal worden. Als je immers €2000 kan uitgeven aan een videokaart, dan gaat de energierekening ook wel lukken. Kan je echt maximaal €500 uitgeven, dan zal die energierekening ook een groter probleem zijn.

[ Voor 9% gewijzigd door DaniëlWW2 op 15-10-2022 13:27 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

@DaniëlWW2 400$ er af? Waarom zou Nvidia dat doen? Dan worden die kaarten goedkoper dan hun voorgangers ondanks de flinke mondiale inflatie. Je zegt het zelf, er zijn nog genoeg kaarten uit de 30** serie die significant goedkoper zijn. Wil je nu het nieuwste van het nieuwste, dan betaal je een premium.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Ze zullen het zeker niet willen doen. Denk ook niet dat ze de "4070' hadden willen unlaunchen maar voelden zich blijkbaar toch gedwongen.

Naast inflatie is er ook crisis en duidelijke vraaguitval in de pc markt. Het is nog maar te bezien in hoeverre er voldoende appetite is bij die prijzen.

Zelfs de 4090 was niet uitverkocht. En daar verwacht ik eigenlijk minder snel vraaguitval omdat dit mensen betreft die sowieso flink wat spending power hebben en zelfs in economisch slechte tijden blijft die groep groot genoeg. Gaat in NL lijkt mij hooguit over 100, heel misschien 200 kaarten bij launch.

De problemen zullen eerder ontstaan in de 'goedkopere' segmenten waar de volumes afgezet moeten worden.

Het wordt wel interessant denk ik maar wellicht zijn er heel veel mensen die ondanks de crisis gaan YOLO'en .

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • pannalicour
  • Registratie: April 2017
  • Laatst online: 02-09 00:48
Ik snap dat de rtx 4090 prijzig is, maar die kaart presteert ongelofelijk. Ik snap niet waarom Nvidia zo'n kaart uitbrengt. Je zou denken, net als in het verleden, dat ze een kaart uitbrengen die "wat" beter is dan de voorganger. Ze laten de rtx 3080 en 3090 kopers echt met een slecht gevoel achter imo.

Ik ben serieus benieuwd hoe ze de rtx 4090 gaan overtreffen. De rtx 4090 kopers gaan echt niet overstappen, kijkend naar hoe het in 4k presteert en daar bovenop dlss 3.0.

Tenzij ze weten waarmee de concurrent komt? Anders ziet dit er naar uit dat dit de beste kaart ever wordt van Nvidia en schieten ze zich wellicht in hun eigen voet.?

[ Voor 10% gewijzigd door pannalicour op 15-10-2022 15:46 ]


Acties:
  • 0 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

pannalicour schreef op zaterdag 15 oktober 2022 @ 15:40:
Ik snap dat de rtx 4090 prijzig is, maar die kaart presteert ongelofelijk. Ik snap niet waarom Nvidia zo'n kaart uitbrengt. Je zou denken, net als in het verleden, dat ze een kaart uitbrengen die "wat" beter is dan de voorganger. Ze laten de rtx 3080 en 3090 kopers echt met een slecht gevoel achter imo.

Ik ben serieus benieuwd hoe ze de rtx 4090 gaan overtreffen. De rtx 4090 kopers gaan echt niet overstappen, kijkend naar hoe het in 4k presteert en daar bovenop dlss 3.0.

Tenzij ze weten waarmee de concurrent komt? Anders ziet dit er naar uit dat dit de beste kaart ever wordt van Nvidia en schieten ze zich wellicht in hun eigen voet.?
Valt mee hoe groot de sprong is hoor. De 2080ti en 3090 waren ook flinke sprongen vooruit voor hoge prijzen. Natuurlijk zorgt DLSS 3 ervoor dat je echt hele grote sprongen kunt maken, maar scores waarbij DLSS uitgeschakeld is zijn ~40% hoger - dat was ook zo bij de 2080ti en 3090 t.o.v. de voorgangers.

De (particuliere) 4090 kopers zijn verder vgm juist de mensen die zo enthousiast zijn dat ze het prima vinden om eens in de zoveel tijd flink wat geld over de balk willen smijten voor hun hobby.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Thomas schreef op zaterdag 15 oktober 2022 @ 14:29:
@DaniëlWW2 400$ er af? Waarom zou Nvidia dat doen? Dan worden die kaarten goedkoper dan hun voorgangers ondanks de flinke mondiale inflatie. Je zegt het zelf, er zijn nog genoeg kaarten uit de 30** serie die significant goedkoper zijn. Wil je nu het nieuwste van het nieuwste, dan betaal je een premium.
Dat draai ik graag om. Waarom moeten consumenten nu Nvidia gaan helpen? ;)
Nvidia heeft zelf de productie van Ampere GPU's zo opgevoerd omdat ze alles verkocht aan cryptominers. Toen dit instortte hebben ze er voor gekozen om niet geleidelijk de prijzen te laten zakken om hun extra inventaris in het afgelopen halfjaar te verkopen. In plaats daarvan hebben ze bewust het aanbod in de markt beperkt om de vraagprijzen hoog te houden. Vervolgens hebben ze zelf besloten om de prijzen van Lovelace nog hoger te maken, nota bene $400 voor RTX3070 naar "RTX4080 12GB" en $500 voor de RTX3080 naar RTX4080. Dat dezen ze om mensen te verleiden om toch nog een veel te dure Ampere GPU te kopen.

Er is hier ook niks geheims aan. Deze strategie heeft Jensen Huang zelf gezegd tegen investeerders. Geheel voorspelbaar lijkt de reactie van de consument te zijn dat zowel Lovelace als Ampere gewoon veel te duur zijn en kopen mensen het niet. Die consumenten hebben ook meer last van inflatie dan een multinational. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

DaniëlWW2 schreef op zaterdag 15 oktober 2022 @ 16:54:
[...]


Dat draai ik graag om. Waarom moeten consumenten nu Nvidia gaan helpen? ;)
Nvidia heeft zelf de productie van Ampere GPU's zo opgevoerd omdat ze alles verkocht aan cryptominers. Toen dit instortte hebben ze er voor gekozen om niet geleidelijk de prijzen te laten zakken om hun extra inventaris in het afgelopen halfjaar te verkopen. In plaats daarvan hebben ze bewust het aanbod in de markt beperkt om de vraagprijzen hoog te houden. Vervolgens hebben ze zelf besloten om de prijzen van Lovelace nog hoger te maken, nota bene $400 voor RTX3070 naar "RTX4080 12GB" en $500 voor de RTX3080 naar RTX4080. Dat dezen ze om mensen te verleiden om toch nog een veel te dure Ampere GPU te kopen.

Er is hier ook niks geheims aan. Deze strategie heeft Jensen Huang zelf gezegd tegen investeerders. Geheel voorspelbaar lijkt de reactie van de consument te zijn dat zowel Lovelace als Ampere gewoon veel te duur zijn en kopen mensen het niet. Die consumenten hebben ook meer last van inflatie dan een multinational. :z
Uiteindelijk is het Nvidia die de prijs bepaalt. Jij vindt die (veel) te hoog en post hier herhaaldelijk dat ze veel minder zouden moeten kosten. Dat de kaarten duur zijn moge duidelijk zijn, maar Nvidia mag vragen wat ze willen, en de markt reageert zoals ze doet. De 4090 wordt gewoon verkocht. Dat heeft niks met helpen te maken, maar gewoon een product willen en daar geld voor over hebben.

Zodra ze kaarten echt niet meer aan de straatstenen kwijt kunnen zet die prijsverlaging wel in, maar dat wordt een lange weg.

Acties:
  • +1 Henk 'm!

  • Snowdog
  • Registratie: Maart 2001
  • Laatst online: 08:52
Thomas schreef op zaterdag 15 oktober 2022 @ 17:08:
[...]


Uiteindelijk is het Nvidia die de prijs bepaalt. Jij vindt die (veel) te hoog en post hier herhaaldelijk dat ze veel minder zouden moeten kosten. Dat de kaarten duur zijn moge duidelijk zijn, maar Nvidia mag vragen wat ze willen, en de markt reageert zoals ze doet. De 4090 wordt gewoon verkocht. Dat heeft niks met helpen te maken, maar gewoon een product willen en daar geld voor over hebben.

Zodra ze kaarten echt niet meer aan de straatstenen kwijt kunnen zet die prijsverlaging wel in, maar dat wordt een lange weg.
Tuurlijk bepalen zij de prijs, maar dit laat wel zien hoe slecht een monopoly of in dit geval eik duopoly is en welke macht fabrikanten daarmee hebben. Het is te hopen dat AMD wel redelijke prijzen gaat vragen, maar die kans is denk ik nu ook niet zo enorm, die zullen waarschijnlijk proberen gewoon net onder nVidia te gaan zitten. Dat is gewoon geen goede zaak en dan kan je wel zeggen, zij mogen de prijs bepalen, maar daarmee vernaggelen ze wel de hele markt en da's toch jammer.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Denk dat AMD iets normalere prijzen gaat vragen. Ze hebben de prijzen van de 6900 serie al flink verlaagd. (6900XT bijv is nog maar 700 ipv ~1100) Om zo van hun stock af te komen.

Nvidia positioneert hun nieuwe kaarten simpelweg zoals ze nu doen omdat ze nog stapels RTX3000 kaarten hebben liggen. Die willen ze niet met verlies verkopen. Als ze een 4080 16 voor bijv 1000 zouden gaan verkopen, verkopen ze geen enkele RTX3000 kaart meer. Dan prijzen ze zichzelf uit de markt. Edit; plus de RTX4000 kaarten zijn ook een stuk duurder om te maken dan de 3000.

Zie ook dit kanaal: https://youtube.com/c/MooresLawIsDead

Hij laat in een paar filmpjes oa zien waarom de prijzen zijn zoals ze zijn. Kosten, marges, redenen, enz enz

[ Voor 20% gewijzigd door Format-C op 15-10-2022 17:33 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

Snowdog schreef op zaterdag 15 oktober 2022 @ 17:17:
[...]


Tuurlijk bepalen zij de prijs, maar dit laat wel zien hoe slecht een monopoly of in dit geval eik duopoly is en welke macht fabrikanten daarmee hebben. Het is te hopen dat AMD wel redelijke prijzen gaat vragen, maar die kans is denk ik nu ook niet zo enorm, die zullen waarschijnlijk proberen gewoon net onder nVidia te gaan zitten. Dat is gewoon geen goede zaak en dan kan je wel zeggen, zij mogen de prijs bepalen, maar daarmee vernaggelen ze wel de hele markt en da's toch jammer.
Yup, het is inderdaad een slechte zaak. Ik ben hier ook niet blij mee. Ik denk ook niet dat dit oneindig kan duren. PC gaming wordt nu zo duur dat de console markt weer meer aan zal trekken. AMD en Nvidia zullen moeten reageren met betaalbare kaarten, waarna de prijzen kunnen worden opgedreven, en zo is de cirkel rond.

Erg gesimplificeerd natuurlijk.

Acties:
  • 0 Henk 'm!

  • pannalicour
  • Registratie: April 2017
  • Laatst online: 02-09 00:48
Thomas schreef op zaterdag 15 oktober 2022 @ 16:51:
[...]


Valt mee hoe groot de sprong is hoor. De 2080ti en 3090 waren ook flinke sprongen vooruit voor hoge prijzen. Natuurlijk zorgt DLSS 3 ervoor dat je echt hele grote sprongen kunt maken, maar scores waarbij DLSS uitgeschakeld is zijn ~40% hoger - dat was ook zo bij de 2080ti en 3090 t.o.v. de voorgangers.

De (particuliere) 4090 kopers zijn verder vgm juist de mensen die zo enthousiast zijn dat ze het prima vinden om eens in de zoveel tijd flink wat geld over de balk willen smijten voor hun hobby.
Kan zijn dat ik verkeerd heb berekend maar ik denk dat de prestatieverbetering van 3090 ti naar rtx 4090 eerder 60% is (hardware unboxed).

Acties:
  • +2 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 12-09 19:33
Format-C schreef op zaterdag 15 oktober 2022 @ 17:25:


Zie ook dit kanaal: https://youtube.com/c/MooresLawIsDead

Hij laat in een paar filmpjes oa zien waarom de prijzen zijn zoals ze zijn. Kosten, marges, redenen, enz enz
Hou er wel rekening mee dat dit MLID is, een kanaal / youtuber die regelmatig onbetrouwbaar blijkt en een historie heeft van het deleten van video's uit het verleden met verkeerde voorspellingen. Zijn content is bijvoorbeeld niet voor niets verboden op diverse hardware gerelateerde reddits (o.a. r/hardware ) Ik zou hem eerder zien als entertainer dan als autoriteit op het gebied van leaks en bijbehorende implicaties voor de markt.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 05-09 11:40

Format-C

Tracing Rays

Dennism schreef op zaterdag 15 oktober 2022 @ 19:10:
[...]


Ik zou hem eerder zien als entertainer dan als autoriteit op het gebied van leaks en bijbehorende implicaties voor de markt.
Zo zie ik hem ook hoor. (Al denk ik dat hij het vwb de voorraden die nV nog heeft liggen wel bij t juiste eind heeft. )

(Edit: gamersnexus. Dat is een autoriteit. Imho)

[ Voor 6% gewijzigd door Format-C op 15-10-2022 19:47 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09:39
pannalicour schreef op zaterdag 15 oktober 2022 @ 17:58:
[...]


Kan zijn dat ik verkeerd heb berekend maar ik denk dat de prestatieverbetering van 3090 ti naar rtx 4090 eerder 60% is (hardware unboxed).
De sprong van 2080Ti naar 3090 was ook 45-50% dus 60% is nu niet zoveel meer. De 1080Ti was 80% sneller dan 980Ti. Dat was pas een sprong.

Acties:
  • +1 Henk 'm!

  • pannalicour
  • Registratie: April 2017
  • Laatst online: 02-09 00:48
napata schreef op zaterdag 15 oktober 2022 @ 20:34:
[...]

De sprong van 2080Ti naar 3090 was ook 45-50% dus 60% is nu niet zoveel meer. De 1080Ti was 80% sneller dan 980Ti. Dat was pas een sprong.
Dan zou je moeten vergelijken met de gtx 1080 en niet de gtx 1080 ti. Jouw vergelijking gaat wel op als de rtx 4090 ti er was.

Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

pannalicour schreef op zaterdag 15 oktober 2022 @ 20:42:
[...]


Dan zou je moeten vergelijken met de gtx 1080 en niet de gtx 1080 ti. Jouw vergelijking gaat wel op als de rtx 4090 ti er was.
Niet echt, we hebben het namelijk over de snelste chip die beschikbaar is. Een 4090 Ti gaat waarschijnlijk niet heel veel sneller zijn dan een 4090 omdat die al de grootste chip gebruikt. De 1080 heeft een andere chip dan de 1080 Ti.

Kijken naar de naam van een product is leuk en aardig, maar dat geeft niet het hele plaatje.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Snowdog schreef op zaterdag 15 oktober 2022 @ 17:17:
[...]
Tuurlijk bepalen zij de prijs, maar dit laat wel zien hoe slecht een monopoly of in dit geval een duopoly is en welke macht fabrikanten daarmee hebben.
Een groot probleem is dat de toetredingsdrempel erg hoog is, wat we zien aan Intel, die ondanks hun gigantische uitgaven en ondanks hun lange ervaring bij iGPU's, nog niet kan aanhaken.

Volgens de economische theorie is zo'n hoge toetredingsdrempel een belangrijke factor in het kunnen bestaan van een oligopolie en geeft het in het algemeen marktmacht aan bedrijven die al succesvol op de markt opereren, waar ze misbruik van kunnen maken.

Het is echter wel zo dat zelfs in een monopolie, de kopers kunnen bepalen of ze überhaupt iets kopen, of gaan voor alternatieven (oude kaart blijven gebruiken, consoles of andere vormen van entertainment).

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
napata schreef op zaterdag 15 oktober 2022 @ 20:34:
[...]

De sprong van 2080Ti naar 3090 was ook 45-50% dus 60% is nu niet zoveel meer. De 1080Ti was 80% sneller dan 980Ti. Dat was pas een sprong.
Dan zou je eigenlijk de Titan kaart moeten aanhouden en in die tijd stond 4k nog echt in de kinderschoenen. Dit was de periode dat 1440p met 120-165Hz de latest of the latest was. Daarmee kom je uit op zo'n 72-73% vanaf de 980Ti. Op 4k is het dan nog net iets meer met 78.5%, maar ik durf dat te verwijten aan het verschil in geheugen voor een resolutie die men eigenlijk niet gebruikte. Men had toen al geaccepteerd dat 60Hz niet meer kon.

https://www.techpowerup.c...ia-titan-x-pascal/24.html

En verder, tja, ik zie de 4090 als vervanger van de normale 3090. Er zijn een paar idioten die het pad 1080Ti -> 2080Ti -> 3090 -> 3090Ti zullen hebben bewandeld, maar van de 1% enthusiast shoppers nog eens de 1% pakken die absoluut belachelijke keuzes maken en daarmee rekenen acht ik niet relevant. Zie ook Ram-G-maN in 'Nvidia brengt RTX 3090 Ti met sneller geheugen en 450W-tdp uit voor 2249 euro'.

Als je dan een review pakt die niet al te cpu limited is zoals https://www.computerbase....und_ohne_rt_in_3840__2160 dan kom je vanaf een overclocked 3090 (STRIX!) naar een 4090 FE uit bij zo'n 70% (rasterization only) op 4K en Hardware Unboxed komt voor hun 4090 FE uit op zo'n 73% op 4K voor rasterization.

Daarmee zit deze release zeker niet beneden de gemiddelden van de afgelopen jaren. Ik denk dat voor de afgelopen 20 jaar (langer dan dat volg ik zelf deze industrie niet en ik zeg denk, want ik heb 't niet voor iedere serie uitgerekend) deze uplift bij de betere helft van upgrade/uplift percentages zal behoren.

Mijn klachten voor de 4000 series zijn dat ook allemaal niet gericht op de 4090, immers is het een goede upgrade en is 6.66667% meer vragen voor het topmodel niet zo gek gezien de wafer prijzen en inflatie en valt daarmee zelfs wel mee als je de inflatie als benchmark zou nemen. De USD/Euro koers heeft Nvidia geen invloed op.

Het probleem is de rest van de lineup. Helaas zie ik geen enkele andere kaart op de release pipeline die betere prijs / performance gaat bieden.

Afbeeldingslocatie: https://tweakers.net/i/of4dgqwse1EaKWdLfx5jT2zAOcU=/x800/filters:strip_exif()/f/image/674WiKpUieQnAHEOKtv6TH8J.png?f=fotoalbum_large

De 3070 en 3080 stonden onderaan met de 4090 bovenaan. Dit keer ziet deze grafiek er anders uit :-(.

[ Voor 19% gewijzigd door Paprika op 16-10-2022 02:31 ]


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 12:23

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

nvm, was al besproken hier geloof ik..

[ Voor 89% gewijzigd door SAiN ONeZ op 16-10-2022 12:45 ]

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


Acties:
  • +1 Henk 'm!

Verwijderd

Paprika schreef op zondag 16 oktober 2022 @ 02:22:
[...]
En verder, tja, ik zie de 4090 als vervanger van de normale 3090. Er zijn een paar idioten die het pad 1080Ti -> 2080Ti -> 3090 -> 3090Ti zullen hebben bewandeld, maar van de 1% enthusiast shoppers nog eens de 1% pakken die absoluut belachelijke keuzes maken en daarmee rekenen acht ik niet relevant. Zie ook Ram-G-maN in 'Nvidia brengt RTX 3090 Ti met sneller geheugen en 450W-tdp uit voor 2249 euro'.
Ik ben van 780Ti naar 1080Ti bij release gekocht (beste GPU koop ooit!) naar 2080Ti vlak voor 3000 series release gegaan. Ik koop normaal top modellen en sla een generatie over. Daarnaast heb eeen een tweede PC waarop ik software ontwikkel met CUDA en ik schuif kaarten door.

Die 2080Ti kocht ik voor 800 euro en was eigenlijk 'gedwongen' door het overlijden van mijn 780Ti. Achteraf ben ik nog nooit zo blij geweest dat een GPU kapot ging.

Ik heb op dit moment dus zowel een 1080Ti als een 2080Ti in gebruik en voor 1440p gaming is die eerste nog steeds prima bruikbaar als je de details van de nieuwste titels een beetje terug schroeft. Ik heb het ooit eens zitten berekenen en met topmodel om de generatie ben ik goedkoper uit dan een midrange kopen en dan voor de volgende generatie uitkomt al details terug moeten schroeven - wat bij mij betekent nieuwe kaart kopen.

Ik heb nu naast mijn 1440p monitor een 4k monitor staan en wil daar eigenlijk 2x 4k van maken. Door de prijzen zit ik nu sterk te denken aan een tweede hands 3090 of een nieuwe 3090Ti in plaats van de 4090. Ik geef niet zo veel om raytracing en in rasterization zou een 3090(Ti) 4k ook moeten trekken. En die koop je voor minder dan de helft.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Sowieso niks mis met Ti modellen hoor en van Ti naar Ti gaan iedere release idem. Het scenario om specifiek van een 3090 naar een 3090 Ti over te stappen is waar ik naar verwees. Dan heeft men waarschijnlijk de hoofdprijs zitten betalen voor een 3090 én dan nog eens voor 'n bijna ongewilde 3090 Ti. Honderden tot duizenden euro's afschrijven voor een verschil dat je buiten 3DMark niet zou merken, maar goed, soms lijkt het er toch al op dat sommigen meer op de fps teller dan de game zelf letten tijdens het "gamen" :+.

Daarom ben ik ook wel benieuwd naar de DLSS 3 ervaring. Een aantal mensen hadden 't erover dat het door de latency voor hun alleen vanaf 120 fps+ zin zou hebben, maar als je monitor maximaal 120hz aan kan, wat is dan nog het nut? Je monitor kan de smoothing niet weergeven en de instabiele input (lag) is onnodig en eveneens nadelig.

Acties:
  • +1 Henk 'm!

  • INNO3D
  • Registratie: December 2021
  • Laatst online: 09-09 14:35

INNO3D

Bedrijfsaccount INNO3D
dierkx36 schreef op dinsdag 11 oktober 2022 @ 20:03:
Nog even een andere vraag :

Is Inno3D de enigste die de RTX 4090 gaat maken geschikt voor een custom loop (Inno3D RTX 4090 iChill Frostbite)

ik ben nou de grote namen (Asus, Msi en Gigabyte) langs gelezen maar wat ik tot nu toe zie zijn het, als ze al met waterkoeling uitkomen, allemaal AIO's
Goed he:) Zojuist de test kaart uit me systeem gehaald om zelf wat testen te doen. Maandag gaat die naar een reviewer, je zult niet teleurgesteld zijn in deze kaart.

Acties:
  • +1 Henk 'm!

  • UniMatrix
  • Registratie: December 2002
  • Laatst online: 07:16
INNO3D schreef op zondag 16 oktober 2022 @ 19:55:
[...]

Goed he:) Zojuist de test kaart uit me systeem gehaald om zelf wat testen te doen. Maandag gaat die naar een reviewer, je zult niet teleurgesteld zijn in deze kaart.
En de ichill black? Ik zie daar online alleen renders van volgens mij?

EV: 2017 Ioniq Electric | PC: AMD Ryzen 7 5700X | MSI RTX 4090 Gaming Trio | VR: Pico 4


Acties:
  • +1 Henk 'm!

  • INNO3D
  • Registratie: December 2021
  • Laatst online: 09-09 14:35

INNO3D

Bedrijfsaccount INNO3D
UniMatrix schreef op zondag 16 oktober 2022 @ 20:08:
[...]

En de ichill black? Ik zie daar online alleen renders van volgens mij?
Er is al een review van alleen denk ik niet dat tweakers blij is als ik een ander forum post hier, Maar deze kaart komt begin nov en met veel geluk iets eerder,

@de mods mag ik de review posten van een franse website?

[ Voor 11% gewijzigd door INNO3D op 16-10-2022 20:43 ]


Acties:
  • 0 Henk 'm!

  • UniMatrix
  • Registratie: December 2002
  • Laatst online: 07:16
INNO3D schreef op zondag 16 oktober 2022 @ 20:34:
[...]

Er is al een review van alleen denk ik niet dat tweakers blij is als ik een ander forum post hier, Maar deze kaart komt begin nov en met veel geluk iets eerder,

@de mods mag ik de review posten van een franse website?
Review gevonden hoor :)

EV: 2017 Ioniq Electric | PC: AMD Ryzen 7 5700X | MSI RTX 4090 Gaming Trio | VR: Pico 4


Acties:
  • 0 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 12:02
INNO3D schreef op zondag 16 oktober 2022 @ 19:55:
[...]

Goed he:) Zojuist de test kaart uit me systeem gehaald om zelf wat testen te doen. Maandag gaat die naar een reviewer, je zult niet teleurgesteld zijn in deze kaart.
Een review die ik graag wil lezen :)

Wanneer zou de iChill Frostbite verkrijgbaar zijn ?
Van de week las ik ergens december ?

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • +2 Henk 'm!

  • INNO3D
  • Registratie: December 2021
  • Laatst online: 09-09 14:35

INNO3D

Bedrijfsaccount INNO3D
dierkx36 schreef op zondag 16 oktober 2022 @ 21:01:
[...]


Een review die ik graag wil lezen :)

Wanneer zou de iChill Frostbite verkrijgbaar zijn ?
Van de week las ik ergens december ?
eind oct-begin nov als alles mee werkt

Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09:39
Paprika schreef op zondag 16 oktober 2022 @ 14:23:
Sowieso niks mis met Ti modellen hoor en van Ti naar Ti gaan iedere release idem. Het scenario om specifiek van een 3090 naar een 3090 Ti over te stappen is waar ik naar verwees. Dan heeft men waarschijnlijk de hoofdprijs zitten betalen voor een 3090 én dan nog eens voor 'n bijna ongewilde 3090 Ti. Honderden tot duizenden euro's afschrijven voor een verschil dat je buiten 3DMark niet zou merken, maar goed, soms lijkt het er toch al op dat sommigen meer op de fps teller dan de game zelf letten tijdens het "gamen" :+.
Als je een 3090 had, kon je eigenlijk met weinig meerkost upgraden naar een 3090Ti.

Acties:
  • +7 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
NVIDIA GeForce 522.25 Driver Analysis - Gains for all Generations
https://www.techpowerup.c...e-522-25-driver-analysis/

Afbeeldingslocatie: https://tweakers.net/i/Ycmewpcwa0Z1iD-goyK40I3smio=/800x/filters:strip_icc():strip_exif()/f/image/swTxzBDKLHLnSrS5BEd4IjMa.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/s4AjqvP3Y-rNIQD-KYH8t60YSNg=/800x/filters:strip_icc():strip_exif()/f/image/qrM2LsFhBcPLw0mPIN2oLa7A.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/qsAn5XYp4b1qofSG6lKvXVVY4hI=/800x/filters:strip_icc():strip_exif()/f/image/ECcJu0p29zOs0PsKCdAKKRt6.jpg?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Zouden ze de overhead van de cpu in de driver hebben verminderd? Normaal zie je niet vaak namelijk dat je over de hele linie performance erbij krijgt. Doet mij vermoeden dat ze een generiek component hebben aangepakt.

Acties:
  • 0 Henk 'm!

  • AtlAntA
  • Registratie: Maart 2011
  • Laatst online: 12-09 19:44
Sp3ci3s8472 schreef op dinsdag 18 oktober 2022 @ 15:21:
[...]


Zouden ze de overhead van de cpu in de driver hebben verminderd? Normaal zie je niet vaak namelijk dat je over de hele linie performance erbij krijgt. Doet mij vermoeden dat ze een generiek component hebben aangepakt.
Dacht ergens gelezen te hebben dat men een DX12 specifiek dingetje had gewijzigd.

Ah alleen voor 30 serie's blijkbaar: This Game Ready Driver also includes significant DirectX 12 performance optimizations which can dramatically improve performance
for GeForce 30 Series GPUs.

bron: https://videocardz.com/dr...ce-game-ready-522-25-whql

edit: vandaar dat AC valhalla het ook zo goed doet op deze drivers. Weet niet welke DX versie de andere geteste games hebben.

Ben er wel achter gekomen dat met MSI afterburner 4.6.4 de OC scanner het niet lijkt te doen bij deze driver versie.

[ Voor 15% gewijzigd door AtlAntA op 18-10-2022 18:55 ]

Wie goed doet, die goed ontmoet.


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

4090 RTX benchmarks met een vergelijking tussen een 12900k en 5800X:
https://www.techpowerup.c...-5800x-vs-core-i9-12900k/

Snap alleen niet waarom TPU een 5800X neemt en niet de nieuwe 7750X voor een appels met appels vergelijking. Of wacht desnoods een paar weken en doe het gelijk goed met een Raptorlake v.s. Zen4.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
AtlAntA schreef op dinsdag 18 oktober 2022 @ 18:53:
[...]


Dacht ergens gelezen te hebben dat men een DX12 specifiek dingetje had gewijzigd.

Ah alleen voor 30 serie's blijkbaar: This Game Ready Driver also includes significant DirectX 12 performance optimizations which can dramatically improve performance
for GeForce 30 Series GPUs.

bron: https://videocardz.com/dr...ce-game-ready-522-25-whql

edit: vandaar dat AC valhalla het ook zo goed doet op deze drivers. Weet niet welke DX versie de andere geteste games hebben.

Ben er wel achter gekomen dat met MSI afterburner 4.6.4 de OC scanner het niet lijkt te doen bij deze driver versie.
Uit de review...
Why NVIDIA limited its driver changelog to claiming performance gains only with RTX 30-series is anyone's guess—maybe because RTX 20-series and GTX 10-series are end-of-life (except for the RTX 2060 12 GB and GTX 1030 that launched in 2022); or maybe they have a mountain of RTX 30-series cards that they want to sell—we don't know. NVIDIA Release Notes PDFs of late tend to be disorganized, with information scattered across different pages. For example, there's almost always changes that are not listed in the official PDF, but that the NVIDIA Game Ready blog post talks about, so we have to puzzle things together for our news coverage.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
CMT schreef op dinsdag 18 oktober 2022 @ 20:25:
4090 RTX benchmarks met een vergelijking tussen een 12900k en 5800X:
https://www.techpowerup.c...-5800x-vs-core-i9-12900k/

Snap alleen niet waarom TPU een 5800X neemt en niet de nieuwe 7750X voor een appels met appels vergelijking. Of wacht desnoods een paar weken en doe het gelijk goed met een Raptorlake v.s. Zen4.
En weer geen X3D model. Dat is de echte test. 8)7

Wel leuk om te zien dat je dus serieuze verschillen kunt behalen met de juiste CPU. Wel had ik liever raw fps ook gezien. Van 200 naar 220 fps gaan is voor mij niet relevant.

[ Voor 14% gewijzigd door Paprika op 19-10-2022 01:26 ]


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

@Paprika
Ja, vind ik ook! Als reden geven ze aan dat het teveel werk zou zijn geweest om alles opnieuw te testen.
En dat het niet in het testschema zou passen vanwege de grote releases achter elkaar.
Maar ondertussen vinden ze wel tijd om dat allemaal te doen voor de 12900k..?

Dan heb ik zoiets van: wacht dan 2 weken. Bespaart een hoop werk en dan kan men gelijk kiezen met welke platform je verder gaat als referentie.
Het zou ook fijn zijn als ze weer eens de drawcall prestaties erbij betrekken (nu we echt CPU bottlenecks zien). Wat ik gezien heb van RT metingen is dat de rangorde soms om kan draaien.
Zo doet de 7700X het beter dan een 5800X3D met Spiderman remastered + RT.

Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 11-09 19:02
Paprika schreef op woensdag 19 oktober 2022 @ 01:22:
[...]

En weer geen X3D model. Dat is de echte test. 8)7

Wel leuk om te zien dat je dus serieuze verschillen kunt behalen met de juiste CPU. Wel had ik liever raw fps ook gezien. Van 200 naar 220 fps gaan is voor mij niet relevant.
5800x is al tijden zn review setup. Vanwege de kritiek hier op heeft hij even vergeleken met een 12900k en de kritiek was dus terecht, de 5800x is een bottleneck. Gaat verder niet over Intel of AMD.

Zn nieuwe setup zal waarschijnlijk ook wel een 13900k of 7950x worden...

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-09 20:05
Paprika schreef op woensdag 19 oktober 2022 @ 01:22:
[...]

En weer geen X3D model. Dat is de echte test. 8)7

Wel leuk om te zien dat je dus serieuze verschillen kunt behalen met de juiste CPU. Wel had ik liever raw fps ook gezien. Van 200 naar 220 fps gaan is voor mij niet relevant.
Kan iemand een 5800X3D bestellen voor TPU? :D zijn 4k resultaat is helaas niet representatief dit keer...
Ik heb nu de RTX4080 in 4k staan op +80% (hardware unboxed, techspot, 4k 13 game average)

Maar met de Zen4 CPU's van begin volgend jaar (2023 Q1) met 3D V-Cache kan de RTX 4090 zomaar +100% worden, dichter bij de theoretisch max performance increase van +120%.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 12:02
INNO3D schreef op zondag 16 oktober 2022 @ 19:55:
[...]

Goed he:) Zojuist de test kaart uit me systeem gehaald om zelf wat testen te doen. Maandag gaat die naar een reviewer, je zult niet teleurgesteld zijn in deze kaart.
Vergeten te vragen 8)7

Wanneer zou de review van de RTX 4090 iChill Frostbite te lezen zijn ?

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • +1 Henk 'm!

  • INNO3D
  • Registratie: December 2021
  • Laatst online: 09-09 14:35

INNO3D

Bedrijfsaccount INNO3D
dierkx36 schreef op vrijdag 21 oktober 2022 @ 12:36:
[...]


Vergeten te vragen 8)7

Wanneer zou de review van de RTX 4090 iChill Frostbite te lezen zijn ?
De reviewer was iets vertraagt door een beurs en gaat de kaart dit weekend testen, ik zal een link neerzetten zodra die klaar is.

Acties:
  • 0 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 12:02
INNO3D schreef op vrijdag 21 oktober 2022 @ 13:31:
[...]

De reviewer was iets vertraagt door een beurs en gaat de kaart dit weekend testen, ik zal een link neerzetten zodra die klaar is.
Tank u _/-\o_

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Die 800W+ geruchten lijken trouwens niet helemaal onzin te zijn geweest. Ja dat is een 4 slot FE ontwerp. :P
Afbeeldingslocatie: https://cdn.videocardz.com/1/2022/10/NVIDIA-RTX-40-900W-COOLER-1.jpg
Afbeeldingslocatie: https://cdn.videocardz.com/1/2022/10/NVIDIA-RTX-40-900W-COOLER-3.jpg
Afbeeldingslocatie: https://cdn.videocardz.com/1/2022/10/NVIDIA-RTX-40-900W-COOLER-2.jpg
https://videocardz.com/ne...-40-gpu-has-been-pictured

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • INNO3D
  • Registratie: December 2021
  • Laatst online: 09-09 14:35

INNO3D

Bedrijfsaccount INNO3D
toch nog iets meer geduld:P hij ging dit weekend niet redden want hij zat vast op een boot.
dus zou vandaag beginnen met de review.

Acties:
  • 0 Henk 'm!

  • dierkx36
  • Registratie: Juli 2002
  • Laatst online: 12:02
INNO3D schreef op maandag 24 oktober 2022 @ 14:05:
[...]

toch nog iets meer geduld:P hij ging dit weekend niet redden want hij zat vast op een boot.
dus zou vandaag beginnen met de review.
Ik ga nergens naar toe :+

Inhoud : 40% cynisme, 50% sarcasme en 10% caffeine.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Buildzoid over de 12pin connector:

Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Ik heb mijn kaart ook al flink lopen stressen met Metro Exodus want die game trekt met extreme instellingen de meeste watt rond de 2900mhz gemiddeld. Maar hoe weet of de kabel of stekker het aan kan? Als ik de stekker tijdens lang stressen nog beet kan pakken betekend dat dan ook dat er geen brandgevaar is? Of testen ze op YouTube met slechte kabels of voedingen in de filmpjes waar de boel kapot brand, of komt juist door extreem overclocken?

Edit

Z8jn het nu 12 of 16 pins want in mijn geval tel ik er 12 pins plus 4 pins er onder of boven, het is maar net hoe je er tegen aan kijkt :)

[ Voor 14% gewijzigd door ItalianStyle op 24-10-2022 22:12 ]

Pagina: 1 ... 122 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.