Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 11-09 15:01

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

napata schreef op zaterdag 1 oktober 2022 @ 21:14:
[...]

Bijna geen enkele andere AA methode doet iets aan motion artifacts zoals pixel crawling of specular aliasing. TAA voegt inderdaad artifacts toe maar verwijdert er een ton meer dan dat het toevoegt. Eén of andere vorm van TAA (waaronder ook DLSS valt) is noodzakelijk om maar enige degelijke kwaliteit te hebben wanneer er beweging op het scherm plaatsvindt in huidige games. PBR, veel geometrie en foliage maken dit gewoon noodzaklijk.

@PjotrX linkte een tweet van Brian Karis maar die eronder vind ik hier nog beter op z'n plaats. TAA afzetten is een beetje zoals schaduws afzetten.

[Afbeelding]

Ik herinner me nog Bloodborne, een game zonder TAA, en dat was echt afgrijselijk. Zodra je de camera een beetje bewoog begon het hele scherm te flikkeren en te glinsteren.
Maar er zijn vele andere soorten AA, waarvan sommigen kwalitatief gewoon superieur zijn.

TAA gebruik ik zelf alleen als het door m'n strot geduwd wordt. MSAA is praktisch uitgestorven, maar zou ik altijd en overal kiezen als het zou mogen.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 20:15
CMT schreef op zaterdag 1 oktober 2022 @ 21:15:
[...]

Het is al in een paar posts hierboven genoemd, maar de kwaliteit en hoeveelheid marketing hoort niet uit te maken bij een reviewer die kritisch is. Die prikt er dan zoals gezegd doorheen.
Misschien is DF dat dus niet en zijn wel wel oprecht, maar laten ze zich onbewust beïnvloeden.
Een beetje in de zin dat je een bepaalde mening of idee van een goede vriend of vriendin veel eerder zal accepteren dan van een vreemde. Ik geloof verder ook wel dat ze dan met een preview voor AMD zouden komen. Dat ze veel Nvidia materiaal hebben, stoor ik mij niet aan.
Mijn punt is meer dat een outlet in een review best kritisch kan zijn wanneer dat moet, in bijvoorbeeld een review, maar daarnaast ook andere vormen van content kan hebben waarbij dat niet direct hoeft. Als voorbeeld dat ik al gaf, zie Tweakers, je hebt reviews, waarbij ik er even vanuit ga dat ze de waarheid spreken en daarin onafhankelijk zijn.

Maar je hebt ook advertorials op de site en andere vormen van content die wat commerciëler zijn. Ik vind dat elkaar niet direct bijten. LTT heeft dat bijvoorbeeld ook, die doet ook commerciële zaken voor fabrikanten (deed Linus niet het 8K verhaal bij Ampere?, dat was ook zoiets), of gesponsorde items (denk bijv. aan de Intel richt die en die zijn / haar pc kamer in), terwijl ze aan de andere kant onafhankelijke reviews hebben. Daarbij kan je discussiëren over de kwaliteit, maar ik denk wel dat ze wel onafhankelijk zijn. Terwijl ze aan de commerciële kant wel omzet draaien op de fabrikanten waarvan ze producten reviewen.

Ik denk dat DF bijv. in een review best de juiste mate van kritisch nadenkend vermogen kan overbrengen, terwijl ze in een content stuk als dit dat mogelijk wat minder doen.
Stelen is inderdaad niet de juiste benaming, ik had het beter anders kunnen verwoorden. Wegkapen is misschien beter. Het is gewoon zo dat vele kleinere review sites/kanalen afhankelijk zijn van het aantal bezoekers dat ze krijgen. Met zo'n groot product weer veel belangstelling voor is, kan dat behoorlijk uitmaken. Een ander probleem is dat je mensen loopt warm te maken voor iets waardoor sommigen misschien al een voorkeur krijgen die er niet zou zijn geweest als er een mogelijkheid was om dingen te verifiëren (andere reviews/opinies/meetresultaten).
Zou dat elkaar echt zo bijten dan? Ik zie een DLSS 3.0 early access als iets heel anders dan een product review.
Was er hier niet gepost over die DF preview had ik hem waarschijnlijk zelfs niet eens gelezen, omdat ik die site veel minder volg dan andere sites.

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

@PjotrX @napata
Bedankt voor de toelichting. Ik ben zelf niet op de hoogte van de vormen van TAA.
Meestal gebruik ik MSAA 4x of SSAA 2x omdat ik het juist beter uit vind zien bij beweging.

@Dennism
Bij Tweakers is het duidelijk aangeven als het om een advertorial gaat. En bij Linus is het overduidelijk wie de video/review gesponsord heeft. Deze transparantie zie je niet bij DF.

[ Voor 34% gewijzigd door CMT op 01-10-2022 22:20 ]


Acties:
  • +1 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 20:12
napata schreef op zaterdag 1 oktober 2022 @ 21:14:
[...]

Bijna geen enkele andere AA methode doet iets aan motion artifacts zoals pixel crawling of specular aliasing. TAA voegt inderdaad artifacts toe maar verwijdert er een ton meer dan dat het toevoegt. Eén of andere vorm van TAA (waaronder ook DLSS valt) is noodzakelijk om maar enige degelijke kwaliteit te hebben wanneer er beweging op het scherm plaatsvindt in huidige games. PBR, veel geometrie en foliage maken dit gewoon noodzaklijk.

@PjotrX linkte een tweet van Brian Karis maar die eronder vind ik hier nog beter op z'n plaats. TAA afzetten is een beetje zoals schaduws afzetten.

[Afbeelding]

Ik herinner me nog Bloodborne, een game zonder TAA, en dat was echt afgrijselijk. Zodra je de camera een beetje bewoog begon het hele scherm te flikkeren en te glinsteren.
Yep TAA is niet meer optioneel. Sommige effecten zoals haar en shaduwen leunen er tegenwoordig zelfs op. Door je sample pattern elke frame te veranderen kan je verschillende samples over de frames gebruiken. (zie ook slide 68, 87 en 88 uit "Temporal Antialiasing in Uncharted 4"
http://advances.realtimerendering.com/s2016/) In dit geval zal de game dus artifacts bieden als je TAA uit zet. Waarom doen ontwikkelaars dit? Omdat ze dan minder samples kunnen gebruiken en hiermee dus rekenkrach besparen die ze weer ergens anders in kunnen zetten.

En de trend is tegenwoordig om dit samen met upscaling gebruikt wordt (soms ook dynamisch, dat wil zeggen je gebruikt alleen upscaling als er veel op een frame te gebuurt, zoals in een vuurgevecht oid). Dat DLSS ook in feite doet, met hun verschillende profielen. Op consoles is dit bij tripple-A games een beetje standaard geworden. Ja je krijgt soms ghosting maar het scheelt weer rekenkracht die je weer voor iets anders kan inzetten. Op consoles wordt dit dan standaard aangezet en heb je geen keus want de game is getweaked om 30 of 60 fps te halen op bepaalde hardware. Sommige gamers zijn hier op tegen vanwege de ghosting. DF is bij sommige van zijn analyses van spellen wel eens ingegaan op ghosting en upscaling. Ze hebben het heel veel voorbij zien komen in tripple-A games en zeggen dus nu ook terecht dat het een standaard wordt.

Nu over frame-generation. Ik denk dat het op een gegeven moment ook een standaard gaat worden, misschien al wel gedurende de volgende generatie consoles. Precies om dezelfde redenen dat men nu ook TAA met upsampling gebruikt. Het scheelt gewoon rekenkracht wat weer gebruikt wordt om het spel mooier te maken.

En nu over de vraag of het werkt of niet om 30->60 fps conversie te doen en over of het niet te veel artifacts oplevert? Dit is de eerste versie van de techniek en ik denk dat het langzamerhand steeds beter gaat worden (misschien met extra inputs vanuit de game) totdat men liever de artifacts heeft dan minder detail in een spel. Zoals het ook met TAA gegaan is.
Het is trouwens al eerder gedaan, wisten jullie dat? In 2010 heb ik op siggraph een presentatie erover gezien, duurde even voordat ik die terug vond maar hij staat nog online zo te zien: http://and.intercon.ru/releases/talks/rtfrucvg/
Hier gaat het om frame generation voor 'Star Wars: The Force Unleashed 2 ' om van 30 fps naar 60 fps te gaan op xBox360(!). Dit is zonder optical flow gedaan maar alleen met motion vectors die de game berekende aan de hand van camerabeweging. Dit had tot veel artifacts geleid die ze probeerden weg te werken, ook moesten ze motion blur eruit halen omdat dat niet goed met de systeem werkte. Je moet bedenken, dit was in de tijd waar men nog niet goed wist hoe je motion/velocity vectors moest uitrekenen voor dingen als skeletal animation en zo. Op de site staat zowel een presentatie met wat meer info als een filmpje van een voorbeeld, je kan daar de artifacts zien als je weet waar je op moet letten. In het filmpje laten ze zowel 30->60 fps als 15->60 fps voorbeeld zien, zowel in slow-motion als op volledige snelheid. Ik moet zeggen dat bij 30->60 fps op volle snelheid ik me helemaal niet stoor aan de artifacts. Pas bij slow-motion zie je hoe erg deze zijn.

In een interview (https://www.eurogamer.net...60fps-tech-article?page=2) hebben ze gezegd dat de techniek niet in de final build zat omdat ze al ver in de productie waren toen deze tech werd ontworpen en veel van hun workflow al gestemd was op 30 fps met motion blur. Het bleef dus bij een tech-demo.

Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 11-09 17:47
CMT schreef op zaterdag 1 oktober 2022 @ 22:03:
Bij Tweakers is het duidelijk aangeven als het om een advertorial gaat. En bij Linus is het overduidelijk wie de video/review gesponsord heeft. Deze transparantie zie je niet bij DF.
Misschien omdat het geen advertorial is? Linus heeft directe sponsors nodig omdat LTT een veel groter bedrijf is, dat geldt niet voor alle youtubers. DF doet enorm veel videos over allerlei games en gaming hardware, en in geen enkele video hebben ze directe sponsors.

En LTT/Y2C/HUB/GN doen veel meer influencer videos vermomt als reviews of nieuws dan DF. Het gaat bij eerstgenoemden al lang niet meer alleen over hardware, prestaties en kwaliteit, minstens zo veel over welk miljarden bedrijf we lief vinden en welke stom.

Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 11-09 17:47
Blaat schreef op zaterdag 1 oktober 2022 @ 21:46:
[...]


Maar er zijn vele andere soorten AA, waarvan sommigen kwalitatief gewoon superieur zijn.

TAA gebruik ik zelf alleen als het door m'n strot geduwd wordt. MSAA is praktisch uitgestorven, maar zou ik altijd en overal kiezen als het zou mogen.
De vraag is niet of het mag, maar of het kan en of het echt beter is. MSAA werkt heel slecht (niet) bij alpha textures, bij bijvoorbeeld planten. In Forza Horizon 5 zie je daarom heel veel shimmering in jungle locaties. En MSAA werkt niet bij deferred rendering, dus in het overgrote deel van moderne engines. DLAA is beter, maar natuurlijk gelimiteerd tot rtx gpu's. Jammer dat FSR nog geen AA versie heeft zonder upscaling, voor de spellen/resoluties waar upscaling niet nodig is.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

PjotrX schreef op zaterdag 1 oktober 2022 @ 22:58:
[...]
Je moet bedenken, dit was in de tijd waar men nog niet goed wist hoe je motion/velocity vectors moest uitrekenen voor dingen als skeletal animation en zo.
Staat dat ook in de presentatie (heb control+f gedaan :9 )? Want zover ik weet verschillen motion vectors van skeletal animation niet met andere motion vectors. Ik zou eerder denken dat dit voor particles eerder moeilijk zou zijn.
Ben je namelijk niet in de war met IK (inverse kinematics), iets waar we volgens mij toen de rekenkracht niet voor hadden (of goede solvers)? Toen ik op de uni zat begon dat steeds meer aandacht te krijgen en destijds een beetje de holy grail voor animaties in games en robotics.

Ben wel benieuwd hoe ze van plan waren die input lag weg te poetsen met hun voorgestelde techniek. Misschien omdat ze op een console toch aan een vaste framerate target zitten door V-Sync dat dit wel mogelijk is om het daarmee te combineren.
Bij een spel als Star Wars the Force Unleashed lijkt mij input lag nogal funest.

Morgen hoop ik wat tijd te hebben om de presentatie door te gaan, wellicht dat het dan duidelijker wordt.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

PjotrX schreef op zaterdag 1 oktober 2022 @ 22:58:
[...]
Yep TAA is niet meer optioneel. Sommige effecten zoals haar en shaduwen leunen er tegenwoordig zelfs op. Door je sample pattern elke frame te veranderen kan je verschillende samples over de frames gebruiken. (zie ook slide 68, 87 en 88 uit "Temporal Antialiasing in Uncharted 4"
http://advances.realtimerendering.com/s2016/) In dit geval zal de game dus artifacts bieden als je TAA uit zet. Waarom doen ontwikkelaars dit? Omdat ze dan minder samples kunnen gebruiken en hiermee dus rekenkrach besparen die ze weer ergens anders in kunnen zetten.
Het zou meer optioneel kunnen zijn. Alleen is vaak het probleem bij spellen dat dingen zoals specular en normal maps van een veel lagere resolutie zijn 1/8 of 1/4 ten opzichte van de albedo texture. Daarnaast kwam er vaak ook nog eens DXT1 texture compressie overheen wat het er niet mooier op maakte. Volgens mij is die vorm van compressie niet meer nodig toch tegenwoordig omdat gpu's met meer formaten om kunnen gaan?

Misschien met het vele geheugen wat we tegenwoordig hebben dat de normal en specularmaps ook van hogere kwaliteit kunnen zijn.

Doom 3 was voor mij een van de eerste spellen waar die texture "artifacts" echt overduidelijk werden.

Persoonlijk zet ik TAA het liefst uit en doe ik aan supersampling, gebruik ik VSR/DSR of als het wordt ondersteund de ingame resolution slider.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

cnieuweboer schreef op zaterdag 1 oktober 2022 @ 23:43:
[...]


Misschien omdat het geen advertorial is? Linus heeft directe sponsors nodig omdat LTT een veel groter bedrijf is, dat geldt niet voor alle youtubers. DF doet enorm veel videos over allerlei games en gaming hardware, en in geen enkele video hebben ze directe sponsors.

En LTT/Y2C/HUB/GN doen veel meer influencer videos vermomt als reviews of nieuws dan DF. Het gaat bij eerstgenoemden al lang niet meer alleen over hardware, prestaties en kwaliteit, minstens zo veel over welk miljarden bedrijf we lief vinden en welke stom.
En dat zullen we dus niet zeker weten. Overigens is DF meer een game/graphics review site dan gaming hardware an sich. Je weet verder ook niet of ze wel of niet gesponsord worden. Dat kan net zo goed achter gesloten deuren plaats vinden in de vorm van een toegift o.i.d of een exclusieve in ruil voor een positieve review.

Dat LTT/Y2C/HUB/GN aan mening vorming doen ben ik mij zeer bewust, LTT/Y2C wat meer dan HUB en GN imho. HUB en GN laten ook meer meetresultaten zien.
Maar het is heel naïef om te denken dat DF niet net zo goed een 'influencer' is.
De laatste video waar de heisa over ontstaan is, is daar een mooi voorbeeld van.
Nieuwe techniek, procentuele verhoudingen waar geen harde conclusies uit te halen zijn, maar wel een duidelijk mening daarover hebben.
Voor echte reviews kijk ik wel naar Igor's Lab, TPU, Anandtech, Computerbase.

*In het algemeen*
Ik vind het jammer dat de hele discussie is gegaan over DF zelf en niet over de 'trend' argumenten die DF aanvoert voor DSLL3.
Op bijv. de volgende vraag krijg ik geen antwoord:
Maar los daarvan, in welk opzicht hebben we frame generation nodig om hier een verbetering in aan te brengen? Zo ver we hebben kunnen zien voegt het juist artefacten toe.
Dat gaat dus over hun argument nr.3 = trend 3. DSLL3 als vervanging voor TAA. Maar DSLL2 doet AA, dus wat heeft frame generation nu er mee te maken? Ik hoop dat nu wel wordt ingezien dat het een loos argument is.

Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 20:12
Sp3ci3s8472 schreef op zondag 2 oktober 2022 @ 00:58:
[...]
Staat dat ook in de presentatie (heb control+f gedaan :9 )? Want zover ik weet verschillen motion vectors van skeletal animation niet met andere motion vectors. Ik zou eerder denken dat dit voor particles eerder moeilijk zou zijn.
Ben je namelijk niet in de war met IK (inverse kinematics), iets waar we volgens mij toen de rekenkracht niet voor hadden (of goede solvers)? Toen ik op de uni zat begon dat steeds meer aandacht te krijgen en destijds een beetje de holy grail voor animaties in games en robotics.

Ben wel benieuwd hoe ze van plan waren die input lag weg te poetsen met hun voorgestelde techniek. Misschien omdat ze op een console toch aan een vaste framerate target zitten door V-Sync dat dit wel mogelijk is om het daarmee te combineren.
Bij een spel als Star Wars the Force Unleashed lijkt mij input lag nogal funest.

Morgen hoop ik wat tijd te hebben om de presentatie door te gaan, wellicht dat het dan duidelijker wordt.
Het probleem met motion vectors bij character animations is dat je de posities van de vertices van de vorige frame meestal niet meer hebt en je ze opnieuw moet uitrekenen, voor hero-character in een game die tegenwoordig uit 100k+polygonen bestaan is dat kostbaar. Tegenwoordig is dit probleem inderdaad al opgelost maar toen was dit allemaal nieuw. Maar in het algemeen wilde ik zeggen dat motion vectors goed berekenen best wel vel werk is. Statische object zijn makkelijk omdat je gewoon de camera,motion kan pakken. Maar zodra iets beweegt wordt het al moeilijker. Tegenwoordig kan je in een game ook materials hebben met een gekke animaties. Voordat er shader graphs bestonden werden shaders handmatig geschreven, dat betekend dat je voor elke shader/materiaal met animatie handmatig ook een shader moet schijven die de motion vectors geeft. Particles zijn inderdaad ook een probleem, je moet dan in je simulatie een stap terug kunnen doen. In Unreal Engine heb je zelfs een optie om TAA per material uit te schakelen in het geval dat het problemen geeft.

Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 20:12
CMT schreef op zondag 2 oktober 2022 @ 09:03:
[...]
Dat gaat dus over hun argument nr.3 = trend 3. DSLL3 als vervanging voor TAA. Maar DSLL2 doet AA, dus wat heeft frame generation nu er mee te maken? Ik hoop dat nu wel wordt ingezien dat het een loos argument is.
Hier ben ik al op ingegaan. Zoals ik al zei game developers zou dit om dezelfde reden gebruiken waarvoor ze nu taa+upscaling voor gebruiken. Het geeft extra performance winst en dat wordt weer ingezet om het spel op andere vlakken mooier te maken. Dus straks krijg je taa+upscaling+frame generation. Op dit moment maken game makers een bewuste keuze om soms niet voor 60 fps op consoles te gaan zodat ze hun spel mooier kunnen maken als hun target 30 fps is. Met frame generation zouden ze wel 30 fps kunnen targetten en dan frame generation zijn werk laten doen om toch op 60fps uit te komen.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@Werelds Whitepaper staat online. :)
https://www.nvidia.com/en...ture-whitepaper-download/

Neem gerust de tijd want er staat eigenlijk niks in. Zelfs over de uitbreiding van 6MB naar 96MB L2 cache gaan ze maar snel overheen zonder details. Ze spenderen ook meer tekst aan AV1 encoding dan DLSS3.0

Het gaat voornamelijk over RT. Er zit weer eens 2x ray triangle intersection verbetering in, net zoals Ampere op Turing. Maar het gaat voornamelijk over Opacity Micromaps en Displaced Micromeshes. Dat is ook meteen het enige interessante. Met name die laatste zou BvH voor complexe objecten uiteraard veel sneller moeten maken. Het idee lijkt te zijn om de creatie van complexe BvH te vervangen voor een uiterst simpele BvH + displacement map. Vervolgens ga je meteen naar RT triangle intersection testing.
Afbeeldingslocatie: https://tweakers.net/i/EiwGMOyoqbb64W_UWra5vvhcvV8=/800x/filters:strip_icc():strip_exif()/f/image/3HVN7lnNqkYrWM42GP9Nwksk.jpg?f=fotoalbum_large

Dit zou afhankelijk moeten zijn van game implementatie, maar dat maken ze niet expliciet. Omdat ze spreken over een specifiek stukje hardware, Displaced Micromesh Engine, weet ik ook niet zo zeker of dit echt zo "open source" is zoals de Nvidia website claimt. Hoe het precies geïmplementeerd word is alleen de vraag. Ik kan me namelijk voorstellen dat een reguliere SIMD eenheid dit op zich ook heel goed zouden kunnen doen, maar een aparte RT core die daarbinnen al hun BvH + RT doet niet. Mijn vermoeden is dat AMD kan dit waarschijnlijk wel implementeren (en misschien ook wel goed) en Intel niet. Turing en Ampere kunnen dit zeker niet. Ook krijg ik het vermoeden dat dit relevanter is voor RT based rendering dan specifiek gaming waar alles real time moet zijn en je beperkt bent in hoeveel RT je kan doen. Misschien is het juist voor AMD wat relevanter om hun BvH te versnellen. Ze doen immers BvH in hun SIMD met RDNA2. RDNA3 blijft onduidelijk, maar het zou kunnen dat ze zo doorgaan voor hun BvH.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Novacore
  • Registratie: November 2021
  • Niet online
CMT schreef op zondag 2 oktober 2022 @ 09:03:
[...]Je weet verder ook niet of ze wel of niet gesponsord worden.
https://www.youtube.com/u...ry/search?query=sponsored

Het is tegenwoordig verplicht om te vermelden wanneer video's zijn gesponsord, en dat doet DF dus ook wanneer dat zo is.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Even de correcte link: https://images.nvidia.com...-ada-gpu-architecture.pdf :P

Met afstand één van de kortste whitepapers die ze ooit hebben gehad. En dan zit hier nog een berg aan filler materiaal in ook.

Hilarisch hoe ze zeggen dat de L2 "completely revamped" is, maar dat er verder helemaal niets staat. L2 is dus gewoon groter en that's it. Als er iets meer over te zeggen viel, hadden ze dat wel gedaan. De rest van het geheugen "hoofdstuk" is gewoon marketing praat over hoe goed ze wel niet met Micron samen werken voor GDDR6X :')
Het gaat voornamelijk over RT. Er zit weer eens 2x ray triangle intersection verbetering in, net zoals Ampere op Turing. Maar het gaat voornamelijk over Opacity Micromaps en Displaced Micromeshes. Dat is ook meteen het enige interessante. Met name die laatste zou BvH voor complexe objecten uiteraard veel sneller moeten maken. Het idee lijkt te zijn om de creatie van complexe BvH te vervangen voor een uiterst simpele BvH + displacement map. Vervolgens ga je meteen naar RT triangle intersection testing.
[Afbeelding]

Dit zou afhankelijk moeten zijn van game implementatie, maar dat maken ze niet expliciet. Omdat ze spreken over een specifiek stukje hardware, Displaced Micromesh Engine, weet ik ook niet zo zeker of dit echt zo "open source" is zoals de Nvidia website claimt. Hoe het precies geïmplementeerd word is alleen de vraag. Ik kan me namelijk voorstellen dat een reguliere SIMD eenheid dit op zich ook heel goed zouden kunnen doen, maar een aparte RT core die daarbinnen al hun BvH + RT doet niet. Mijn vermoeden is dat AMD kan dit waarschijnlijk wel implementeren (en misschien ook wel goed) en Intel niet. Turing en Ampere kunnen dit zeker niet. Ook krijg ik het vermoeden dat dit relevanter is voor RT based rendering dan specifiek gaming waar alles real time moet zijn en je beperkt bent in hoeveel RT je kan doen. Misschien is het juist voor AMD wat relevanter om hun BvH te versnellen. Ze doen immers BvH in hun SIMD met RDNA2. RDNA3 blijft onduidelijk, maar het zou kunnen dat ze zo doorgaan voor hun BvH.
Mja, dat is precies wat ik afgelopen maandag al zei. Wat die twee stukjes hardware doen is de formats voor beide features in hardware decoderen, niet zo spannend dus en waarschijnlijk iets waar AMD sowieso al meer flexibiliteit voor heeft. Beide goede features en ik hoop oprecht dat "open source" ook echt open source betekent. Dan kunnen AMD en Intel op z'n minst proberen een implementatie er voor te maken. Ik blijf het stiekem wel grappig vinden hoe er nu andere dingen pre-baked worden in plaats van lighting ;)

SER is verder puur een software API waarmee je de driver kunt zeggen dat bepaalde shaders gegroepeerd en in een bepaalde volgorde uitgevoerd moeten worden. Dat is iets wat Nvidia zelf niet uit kan vogelen. Het zal vast wel winst opleveren, maar het is dus wel een Nvidia-specifieke optimalisatie om de problemen van hun geheugen systeem te omzeilen. Zelfs nu het "revamped" is :+

Het hele ding is heel erg on-spannend, zoals verwacht.

Vond deze ook wel leuk:
The Ada AD104 GPU is the perfect entry point for gamers, content creators, and streamers who
want the new features NVIDIA is introducing with the Ada GPU architecture.
Perfect entry point beginnend op $899 (4 cijfers in Europa dus)? Niet naar het nieuws gekeken de afgelopen 2,5 jaar Nvidia? :+

Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 20:12
Werelds schreef op zondag 2 oktober 2022 @ 13:29:
[...]
SER is verder puur een software API waarmee je de driver kunt zeggen dat bepaalde shaders gegroepeerd en in een bepaalde volgorde uitgevoerd moeten worden. Dat is iets wat Nvidia zelf niet uit kan vogelen. Het zal vast wel winst opleveren, maar het is dus wel een Nvidia-specifieke optimalisatie om de problemen van hun geheugen systeem te omzeilen. Zelfs nu het "revamped" is :+
Dit is niet hoe ik het lees, er staat:
SER is fully controlled by the application through a small API, allowing developers to easily apply
reordering where their workload benefits most.
door het woord 'controlled' ik lees het als het is wel iets in hardware waar je de SER API voor gebruikt om toegang te verkrijgen tot de functies. Ik heb even verder gezocht en het is onderdeel van NVAPI https://developer.nvidia....tracing/nvapi/get-started) een API waarmee nvidia toegang geeft tot features van hun kaarten die niet standaard in directx of opengl zitten. Zoals quadro-sync en stereoscopic rendering.

Shader divergence is ook niet een Nvidia iets en heeft niet direct met het geheugen te maken maar met het feit dat de cores op de gpu in groepen verdeeld worden en binnen een groep de cores allemaal hetzelfde instructie moeten uitvoeren (maar dan op andere data). Alle GPU's hebben er last van en ray tracing maakt het probleem groter. Men heeft bij ray tracing (niet voor games maar pakketten als vray en mental ray en zo) een tijd geleden ontdekt dat als je een extra stap midden in zet voor ray of material packing en reordering. Dat dit performancewinst kan opleveren. Dit is counter intuïtief aangezien je eigenlijk extra berekeningen aan het doen bent en ook tussentijds data op moet slaan. Je kan hier er meer over lezen: https://jacco.ompf2.com/2019/07/18/wavefront-path-tracing/
Tot nu toe werd deze stap altijd in software gedaan in een compute shader. Als nvidia er een hardwareuit voor heeft kan ik dat alleen maar toejuichen. Het heeft niet alleen voor games nut maar ook software als vray zou er van profiteren.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

PjotrX schreef op zondag 2 oktober 2022 @ 09:38:
[...]

Hier ben ik al op ingegaan. Zoals ik al zei game developers zou dit om dezelfde reden gebruiken waarvoor ze nu taa+upscaling voor gebruiken. Het geeft extra performance winst en dat wordt weer ingezet om het spel op andere vlakken mooier te maken. Dus straks krijg je taa+upscaling+frame generation. Op dit moment maken game makers een bewuste keuze om soms niet voor 60 fps op consoles te gaan zodat ze hun spel mooier kunnen maken als hun target 30 fps is. Met frame generation zouden ze wel 30 fps kunnen targetten en dan frame generation zijn werk laten doen om toch op 60fps uit te komen.
Ik heb even terug gescrolled en zie inderdaad dat je eerder daarover sprak. Gemist omdat het niet aan mij gericht was.
Waar je over spreekt zijn dus wel de consolespellen en bijgevolg gelimiteerde hardware. Daarbij kan ik mij goed voorstellen dat DLSS3 een groot voordeel kan geven. Maar hoe ver is dat van toepassing op PC spellen en hardware? Ik zit er persoonlijk niet op te wachten, wanneer game developers besluiten een propiertary DLSS3 (en dus DSLL2 met 1/4 native rendering) als uitgangspunt gaan nemen voor een PC FPS budget om daarmee een spel speelbaar te houden.
Het upscaling en AA aspect van DSLL2 vind ik mooi, maar alleen als het ingezet wordt om van een hogere resolutie terug te gaan naar native.

Dat TAA dus soms ingebouwd blijkt te zijn, verklaart voor mij i.i.g. dan waarom ik mij aan sommige spellen stoor aan de wazigheid rondom bepaalde textures en randen ongeacht welke settings gebruikt worden. Alsof er een laagje vaseline over gesmeerd is. Ik nam altijd aan dat de oorzaak bij het gebruik van lage kwaliteit textures lag.
Novacore schreef op zondag 2 oktober 2022 @ 13:16:
[...]

https://www.youtube.com/u...ry/search?query=sponsored

Het is tegenwoordig verplicht om te vermelden wanneer video's zijn gesponsord, en dat doet DF dus ook wanneer dat zo is.
Okee, helder. Bedankt ;).

Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 20:12
CMT schreef op zondag 2 oktober 2022 @ 14:22:
Ik heb even terug gescrolled en zie inderdaad dat je eerder daarover sprak. Gemist omdat het niet aan mij gericht was.
Waar je over spreekt zijn dus wel de consolespellen en bijgevolg gelimiteerde hardware. Daarbij kan ik mij goed voorstellen dat DLSS3 een groot voordeel kan geven. Maar hoe ver is dat van toepassing op PC spellen en hardware? Ik zit er persoonlijk niet op te wachten, wanneer game developers besluiten een propiertary DLSS3 (en dus DSLL2 met 1/4 native rendering) als uitgangspunt gaan nemen voor een PC FPS budget om daarmee een spel speelbaar te houden.
Het upscaling en AA aspect van DSLL2 vind ik mooi, maar alleen als het ingezet wordt om van een hogere resolutie terug te gaan naar native.
Ik denk niet dat ze dlss 3 als uitgangspunt nemen want dat beperkt nu je afzetmarkt. Maar als in de toekomst AMD en Intel ook een versie hebben van frame generation dan zie ik het wel geburen dat er graag gebruik van wordt gemaakt. Verder denk ik dat op de PC je altijd nog opties zal hebben om upscaling en frame generation (maar niet taa) uit kan zetten. Dit voor mensen met high end GPU, of voor als men 10 jaar later het spel nog een keer wil spelen dan zou het handig zijn om dit uit te kunnen zetten aangezien de hardware al veel beter is geworden.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op zondag 2 oktober 2022 @ 13:29:
[...]

Even de correcte link: https://images.nvidia.com...-ada-gpu-architecture.pdf :P

Met afstand één van de kortste whitepapers die ze ooit hebben gehad. En dan zit hier nog een berg aan filler materiaal in ook.
Yup en ik link niet zo graag direct links dus. :)
Hilarisch hoe ze zeggen dat de L2 "completely revamped" is, maar dat er verder helemaal niets staat. L2 is dus gewoon groter en that's it. Als er iets meer over te zeggen viel, hadden ze dat wel gedaan. De rest van het geheugen "hoofdstuk" is gewoon marketing praat over hoe goed ze wel niet met Micron samen werken voor GDDR6X :')
Ik vraag me eigenlijk af hoe die L2 is geimplementeerd omdat Nvidia er niks over wil zeggen. AMD was maar wat trots op hun L3 cache implementatie en met reden. Nvidia lijkt het af te doen als gewoon iets, terwijl we allebei weten dat het enorm veel ruimte zal innemen. Ik vraag me dus af hoe efficiënt het gaat zijn qua transistordichtheid, latency, uplift etc. Zeker omdat Nvidia dus niks wil zeggen.
[...]

Mja, dat is precies wat ik afgelopen maandag al zei. Wat die twee stukjes hardware doen is de formats voor beide features in hardware decoderen, niet zo spannend dus en waarschijnlijk iets waar AMD sowieso al meer flexibiliteit voor heeft. Beide goede features en ik hoop oprecht dat "open source" ook echt open source betekent. Dan kunnen AMD en Intel op z'n minst proberen een implementatie er voor te maken. Ik blijf het stiekem wel grappig vinden hoe er nu andere dingen pre-baked worden in plaats van lighting ;)
Dat weet ik, maar met het plaatje is het waarschijnlijk voor anderen ook veel duidelijker wat het idee is. :)
Ik denk verder dat die twee vooral heel erg slim zijn. Waarom ga je apart een BvH rond een object bouwen in de GPU als het shader programma toch al weet hoe het object eruit moet zien? Maak dan een mapping van het object in de 3D engine die je relatief snel kan inladen en ga vervolgens direct je RT triangle intersections doen.
SER is verder puur een software API waarmee je de driver kunt zeggen dat bepaalde shaders gegroepeerd en in een bepaalde volgorde uitgevoerd moeten worden. Dat is iets wat Nvidia zelf niet uit kan vogelen. Het zal vast wel winst opleveren, maar het is dus wel een Nvidia-specifieke optimalisatie om de problemen van hun geheugen systeem te omzeilen. Zelfs nu het "revamped" is :+
Tja het is denk ik ook relevanter voor GCI rendering met veel complexere RT. Ik denk toch al steeds meer dat de RT verbeteringen meer daarvoor zijn dan gaming. Heel Lovelace lijkt eigenlijk meer op workstation GPU's die toevallig ook rasterisation kunnen doen.
Het hele ding is heel erg on-spannend, zoals verwacht.

Vond deze ook wel leuk:

Perfect entry point beginnend op $899 (4 cijfers in Europa dus)? Niet naar het nieuws gekeken de afgelopen 2,5 jaar Nvidia? :+
Ik kijk eigenlijk meer naar AD106/107. Die chips zijn klein en zelfs Nvidia lijkt ze niet erg te waarderen. Zeker AD107 zie ik naar de laptops gaan, maar AD106 zou het nieuwe 60 segment moeten vormen. Dit klinkt alleen niet er veelbelovend omdat Nvidia je zo al naar AD104 wil duwen. Volle chip is $899. :+ :P

[ Voor 5% gewijzigd door DaniëlWW2 op 02-10-2022 18:28 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Wat ik mij afvraag is wanneer de youtubers de 4000 kaarten in hun handen te krijgen om te testen etc...
Meestal is dit toch een week voordat het in de winkels verkocht mag worden?

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • Vachan
  • Registratie: Februari 2011
  • Laatst online: 15:43
Xtr3me4me schreef op zondag 2 oktober 2022 @ 20:14:
Wat ik mij afvraag is wanneer de youtubers de 4000 kaarten in hun handen te krijgen om te testen etc...
Meestal is dit toch een week voordat het in de winkels verkocht mag worden?
Bij de 30 series kwamen de reviews een dag eerder uit. Dus ik verwacht dit keer ook op/rond 11 oktober de eerste reviews te zien

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Vachan schreef op zondag 2 oktober 2022 @ 20:49:
[...]


Bij de 30 series kwamen de reviews een dag eerder uit. Dus ik verwacht dit keer ook op/rond 11 oktober de eerste reviews te zien
Ugh beetje aan de late kant. Ben echt nieuwsgiering (eigenlijk TE) of ik de 3090 moet vervangen voor een 4090 a 2k + euro en of dit het wel waard wordt qua raw performance t.o.v. de 3090 op 4K gaming.

Krijg je dan net niet genoeg tijd om goed na te denken, aangezien ik dag 1 al de beslissing wil nemen of het laat droppen en mijn PC los van de videokaart maar gewoon upgrade.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Xtr3me4me schreef op zondag 2 oktober 2022 @ 21:44:
[...]


Ugh beetje aan de late kant. Ben echt nieuwsgiering (eigenlijk TE) of ik de 3090 moet vervangen voor een 4090 a 2k + euro en of dit het wel waard wordt qua raw performance t.o.v. de 3090 op 4K gaming.

Krijg je dan net niet genoeg tijd om goed na te denken, aangezien ik dag 1 al de beslissing wil nemen of het laat droppen en mijn PC los van de videokaart maar gewoon upgrade.
Als je twijfelt kan je toch altijd de kaart kopen en doorverkopen als het niks is?
Persoonlijk zou ik sowieso een maand wachten om te zien wat AMD doet.

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Sp3ci3s8472 schreef op zondag 2 oktober 2022 @ 22:33:
[...]


Als je twijfelt kan je toch altijd de kaart kopen en doorverkopen als het niks is?
Persoonlijk zou ik sowieso een maand wachten om te zien wat AMD doet.
Ik kan altijd de kaart kopen, proberen en is het amper verschil dan is het weer retour en geld terug.
Maar ik dacht dat reviewers altijd ongeveer zo'n 3-4 dagen voor de launch datum die kaarten al kregen.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
PjotrX schreef op zondag 2 oktober 2022 @ 14:06:
door het woord 'controlled' ik lees het als het is wel iets in hardware waar je de SER API voor gebruikt om toegang te verkrijgen tot de functies. Ik heb even verder gezocht en het is onderdeel van NVAPI https://developer.nvidia....tracing/nvapi/get-started) een API waarmee nvidia toegang geeft tot features van hun kaarten die niet standaard in directx of opengl zitten. Zoals quadro-sync en stereoscopic rendering.
Het is de feature die je "controlled", meer staat er niet. NVAPI is niet enkel controle over/toegang tot (I2C zit er ook in weet ik uit ervaring :P) hardware, ook software. Stereoscopic rendering is bijvoorbeeld geen speciale hardware voor, quadro-sync is een geheel aparte AIC. En je hebt ook dingen rondom displays of licenties in NVAPI zitten :)

Nvidia doet qua scheduling relatief weinig in hardware; hun compiler en driver doen het grootste deel van het werk. Dat is waarom hun "game ready" drivers vaak zo veel meer effect hebben dan die van AMD, Nvidia is veel afhankelijker van hun driver. Dat is met DX12/Vulkan minder, maar nog steeds heel erg aanwezig.
Shader Execution Reordering (SER) is a new scheduling system that reorders shading work on-the-fly for better execution and data locality. Years of research and development have been invested in SER in order to minimize overheads and maximize its effectiveness. The Ada hardware architecture was designed with SER in mind and includes optimizations to the SM and memory system specifically targeted at efficient thread reordering.

SER is fully controlled by the application through a small API, allowing developers to easily apply reordering where their workload benefits most. The API additionally introduces new flexibility around the invocation of ray tracing shaders to the programming model, enabling more streamlined ways to structure renderer implementations while taking advantage of reordering. Furthermore, we are adding new features to the NSight Graphics shader profiler to help developers optimize their applications for SER. Developers can initially use NVIDIA-specific NVAPI extensions to implement SER in their code. [i]We are also working with Microsoft and others to extend the standard graphics APIs with SER.[/i]
Er zijn al meerdere scheduling methodes, deze komt gewoon in die lijst er bij. Ada is verder "ontworpen met SER in gedachten" - met andere woorden, als er een specifiek hardware blok verantwoordelijk voor zou zijn, zouden ze dat echt wel gemeld hebben. Net zoals ze dat doen voor de twee blokjes in de RT core. Het is wel Nvidia waar we het over hebben ;)

Als laatste gaan ze het in DX12 proberen te krijgen, wat ook weer een teken is dat het vooral om het vooraf groeperen van shaders gaat zodat de schedulers, compilers en drivers minder moeite daarvoor hoeven te doen.
Shader divergence is ook niet een Nvidia iets en heeft niet direct met het geheugen te maken maar met het feit dat de cores op de gpu in groepen verdeeld worden en binnen een groep de cores allemaal hetzelfde instructie moeten uitvoeren (maar dan op andere data). Alle GPU's hebben er last van en ray tracing maakt het probleem groter. Men heeft bij ray tracing (niet voor games maar pakketten als vray en mental ray en zo) een tijd geleden ontdekt dat als je een extra stap midden in zet voor ray of material packing en reordering. Dat dit performancewinst kan opleveren. Dit is counter intuïtief aangezien je eigenlijk extra berekeningen aan het doen bent en ook tussentijds data op moet slaan. Je kan hier er meer over lezen: https://jacco.ompf2.com/2019/07/18/wavefront-path-tracing/
Tot nu toe werd deze stap altijd in software gedaan in een compute shader. Als nvidia er een hardwareuit voor heeft kan ik dat alleen maar toejuichen. Het heeft niet alleen voor games nut maar ook software als vray zou er van profiteren.
Je hoeft me niet uit te leggen dat GPU's met warps/waves werken of dat divergence/branching pijn doet ;)

Dit is ook een onderwerp waar we het onlangs in één van de twee topics over gehad hebben.

In Nvidia's geval zit het probleem dat ze hier op proberen te lossen echter wel grotendeels in hun geheugen systeem. Ze hebben er geen melding van gemaakt, dus Ada kan nog steeds niets rechtstreeks delen tussen SM's zonder L2 (wat Hopper wel kan, tot op zekere hoogte). Wat betekent dat elke partitie (en RT core) nog steeds toegang heeft tot 128 KB aan L1 binnen die SM; maar in de praktijk is dat heel specifiek opgedeeld. De exacte verdeling weet ik niet uit m'n hoofd; iets van 64 KB graphics, 16 KB voor scalars, enzovoort. Het is in elk geval niet de volle 128 KB. De L2 moet dus heel regelmatig aangesproken worden en die zit vrij ver weg. Het lijkt er niet op dat ze dat met Ada verbeterd hebben (nogmaals, daar zouden ze wel expliciet melding van hebben gemaakt, want dat zou een heel ingrijpende verandering zijn en latencies geweldig verminderen). Gevolg is dat Nvidia's SM's veel memory latency stalls hebben en hun bezetting dus vrij ruk is. Zodra je boven die 64-128 KB gaat heb je al bijna even veel latency als je bij AMD hebt als je naar de IC/L3 (!) moet. Dat is hoe ver weg die L2 zit.

Wat SER voor hen dus op lost, is dat shaders beter gegroepeerd worden, wat zal zorgen voor minder stalls. Blijkbaar zijn workgroups daar niet genoeg voor. Met CUDA hebben ze dat probleem niet omdat alles dan al veel beter gegroepeerd zit. Sterker nog, hun aanpak is juist waarom CUDA zo verdomd effectief is.

AMD heeft dat probleem uiteraard ook (in de zin dat je shaders bij elkaar wil laten draaien om zo optimaal gebruik te maken van caches), echter is AMD's geheugen systeem veel robuuster. Hun L1 is 128 KB , volledig toegewijd aan graphics data én gedeeld tussen meerdere WGP's. Binnen WGP's zijn er ook meer manieren om data te delen tussen de 4 SIMD's. Tussen Nvidia en AMD is L1 latency grofweg gelijk, met als groot verschil dus dat dat bij Nvidia per SM (4 partities, 192/"128" ALU's) geldt, terwijl dat voor AMD voor een hele shader array is (8 of 10 WGP's, afhankelijk van de chip; 1024 of 1280 ALU's). En hun L2 zit veel dichterbij.

Het gevolg is dat Nvidia moeite heeft met hun SM's actief te houden - ze lopen tegen te veel stalls aan. Dat is deels waarom ze met zo veel meer ALU's en theoretische performance AMD toch niet geweldig veel voor kunnen blijven (het andere deel zijn die 64 extra FP32 ALU's die maar een deel van de tijd gebruikt kunnen worden). En nu Ada zo veel groter en breder is geworden, wordt dat probleem alleen maar erger. Enkel een grotere L2 lost dat niet op als de latency zo hoog is. Ze verminderen wel de druk op het geheugen, maar veel meer dan dat niet.


Wat overigens de hardware schedulers betreft, ook daar doen de twee het geheel anders. Geheel ander onderwerp, maar de korte versie is dat Nvidia een enkele, heel brede scheduler (los van de warp schedulers in SM's) heeft die gericht is op het efficiënt verdelen van de binnenkomende groepen maar er verder niet veel werk van maakt om die te splitsen, dat is al vooraf gebeurd. AMD daarentegen heeft tegenwoordig 3 schedulers (wederom, los van de wave schedulers in WGP's), elk met hun eigen verantwoordelijkheden en zij splitsen juist veel op hardware niveau. Wat beide in hardware doen, is uitbreidingen binnen de pipeline door-schedulen. Nvidia kan dus veel meer analyse doen in hun driver (en dat doen ze ook), terwijl AMD veel meer leunt op een "one size fits all" aanpak. Nvidia's aanpak zou niet werken met hun architecturen.

Nu ik er over na denk...Nvidia was er rond de tijd van Volta mee bezig om die (de GigaThread Engine) om te gooien naar RISC-V, ik moet eigenlijk eens op zoeken wat daar van gekomen is.

Acties:
  • 0 Henk 'm!

  • Zuvio
  • Registratie: Mei 2004
  • Laatst online: 16-08 07:53
Xtr3me4me schreef op zondag 2 oktober 2022 @ 21:44:
[...]


Ugh beetje aan de late kant. Ben echt nieuwsgiering (eigenlijk TE) of ik de 3090 moet vervangen voor een 4090 a 2k + euro en of dit het wel waard wordt qua raw performance t.o.v. de 3090 op 4K gaming.

Krijg je dan net niet genoeg tijd om goed na te denken, aangezien ik dag 1 al de beslissing wil nemen of het laat droppen en mijn PC los van de videokaart maar gewoon upgrade.
Ik heb geen concreet bewijs maar gezien de huidige economische slechtere situatie tov 2020 en het feit dat er geen mining en covid meer is, verwacht ik dat de 4090 normaal beschikbaar is voor mensen die 2K willen neertellen. Het wordt dus pre-orderen/kopen op dag 1 en retour sturen mocht het ding niet aan de hoge eisen voldoen.

Maar laten we eerlijk wezen, de 4090 gaat het beste van het beste zijn totdat nvidia zelf met een 4090ti uitkomt. Maar ik wil geen 4090ti want ik wil geen gpu die meer dan 450w moet trekken om een paar % hoger uit te vallen dan de 4090.

Ik verwacht ~60% verbetering tov de 3090 in rasterization dus dat zou gemiddeld 91 * 1,6 = 144 fps moeten opleveren op 4K Ultra. Gebaseerd op de gemiddelde 4K scores van Hardware Unboxed. Als we dan ook nog eens foefjes zoals DLSS3 en betere RT hebben, dan ben ik wel verkocht. Heb tenslotte al 2,5 jaar kunnen sparen voor een nieuwe gpu...

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Xtr3me4me schreef op zondag 2 oktober 2022 @ 22:46:
[...]


Ik kan altijd de kaart kopen, proberen en is het amper verschil dan is het weer retour en geld terug.
Maar ik dacht dat reviewers altijd ongeveer zo'n 3-4 dagen voor de launch datum die kaarten al kregen.
Er gaat wel wat tijd overheen tussen ontvangst en de review embargo.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Xtr3me4me schreef op zondag 2 oktober 2022 @ 21:44:
[...]
Krijg je dan net niet genoeg tijd om goed na te denken, aangezien ik dag 1 al de beslissing wil nemen of het laat droppen en mijn PC los van de videokaart maar gewoon upgrade.
Je hoeft alleen maar de review van TPU te openen en naar de performance summary chart te kijken als het bedrag en verbruik niet relevant is. De laatste twee weten we immers al.

[ Voor 4% gewijzigd door Paprika op 03-10-2022 09:13 ]


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 19:23
TPU is ook mijn go-to site, zijn er nog betere reviewers? Vooral de grafieken zijn daar zeer overzichtelijk.

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

meljor schreef op maandag 3 oktober 2022 @ 10:02:
TPU is ook mijn go-to site, zijn er nog betere reviewers? Vooral de grafieken zijn daar zeer overzichtelijk.
GamersNexus en Igor's lab vind ik goed en prettig. Anandtech ook nog steeds wel, zeker in het verhaal eromheen, maar die zijn wat minder actief tegenwoordig. Computerbase maar dan moet je wel het Duits beheersen.

Actually Hardcore Overclocking besteed veel aandacht aan kwaliteit stroomvoorziening / buildquality PCB van videokaarten en mobo's.

Er zijn er nog wel een paar maar met deze krijg je wel een goed inzicht. Nadeel van GamersNexus is dat het vooral Youtube is en je dus filmpjes moet kijken.

[ Voor 7% gewijzigd door Help!!!! op 03-10-2022 10:14 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 19:23
Help!!!! schreef op maandag 3 oktober 2022 @ 10:11:
[...]

GamersNexus en Igor's lab vind ik goed en prettig. Anandtech ook nog steeds wel, zeker in het verhaal eromheen, maar die zijn wat minder actief tegenwoordig. Computerbase maar dan moet je wel het Duits beheersen.

Actually Hardcore Overclocking besteed veel aandacht aan kwaliteit stroomvoorziening / buildquality PCB van videokaarten en mobo's.

Er zijn er nog wel een paar maar met deze krijg je wel een goed inzicht. Nadeel van GamersNexus is dat het vooral Youtube is en je dus filmpjes moet kijken.
Thanx! Igor wel vaker gehoord maar dacht dat dat ook YT was, die voeg ik toe aan m'n lijstje.

YT vind ik vervelend voor reviews, en de vele reclames maakt het nog erger...

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Paprika schreef op maandag 3 oktober 2022 @ 09:13:
[...]

Je hoeft alleen maar de review van TPU te openen en naar de performance summary chart te kijken als het bedrag en verbruik niet relevant is. De laatste twee weten we immers al.
Call me crazy maar TPU = ?

Ik kijk meestal naar Hardware Unboxed of Gamersnexus voor reviews.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Xtr3me4me schreef op maandag 3 oktober 2022 @ 12:50:
[...]


Call me crazy maar TPU = ?
TechPowerUp?

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09:39
Blaat schreef op zaterdag 1 oktober 2022 @ 21:46:
[...]


Maar er zijn vele andere soorten AA, waarvan sommigen kwalitatief gewoon superieur zijn.

TAA gebruik ik zelf alleen als het door m'n strot geduwd wordt. MSAA is praktisch uitgestorven, maar zou ik altijd en overal kiezen als het zou mogen.
MSAA doet niets tegen temporal aliasing. Het is helemaal geen alternatief voor TAA want het lost enkel het jaggie gedeelte op en doet dus maar een deel van wat TAA doet. Het komt er eigenlijk op neer dat er niet heel veel alternatieven zijn. Voor jaggies ja maar dat is maar 1 van de vele vormen van aliasing. Het kan natuurlijk zijn dat het shimmeren en pixel crawling je niet opvalt of dat je niets geeft om deze artifacts. Ik vermoed dat dit ook het geval is bij jou want enkel dan zou je MSAA zien als alternatief. Als ik het zo de reacties eens lees dan kom ik tot de conclusie dat men aliasing gewoon vaak gelijkstelt aan jaggies en eigenlijk niet weten welke vormen er allemaal zijn. Ze zien dan misschien wel de artifacts en storen er zich aan maar weten niet dat TAA dit juist oplost.

Moest je in m'n voorbeeld van Bloodborne MSAA toevoegen dat zou dit niets van m'n klachten oplossen en zou het hele scherm nog steeds vol ruis zitten bij elke beweging.

Er zijn er wel kwalitatief betere oplossingen zoals SSGSAA maar die halveren bij wijze van spreken dan ook je prestaties. DLAA is dan waarschijnlijk nog de beste kwaltieit/prestaties.
zijn.

Acties:
  • +1 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 11-09 15:01

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

napata schreef op maandag 3 oktober 2022 @ 13:08:
[...]

MSAA doet niets tegen temporal aliasing. Het is helemaal geen alternatief voor TAA want het lost enkel het jaggie gedeelte op en doet dus maar een deel van wat TAA doet. Het komt er eigenlijk op neer dat er niet heel veel alternatieven zijn. Voor jaggies ja maar dat is maar 1 van de vele vormen van aliasing. Het kan natuurlijk zijn dat het shimmeren en pixel crawling je niet opvalt of dat je niets geeft om deze artifacts. Ik vermoed dat dit ook het geval is bij jou want enkel dan zou je MSAA zien als alternatief. Als ik het zo de reacties eens lees dan kom ik tot de conclusie dat men aliasing gewoon vaak gelijkstelt aan jaggies en eigenlijk niet weten welke vormen er allemaal zijn. Ze zien dan misschien wel de artifacts en storen er zich aan maar weten niet dat TAA dit juist oplost.

Moest je in m'n voorbeeld van Bloodborne MSAA toevoegen dat zou dit niets van m'n klachten oplossen en zou het hele scherm nog steeds vol ruis zitten bij elke beweging.

Er zijn er wel kwalitatief betere oplossingen zoals SSGSAA maar die halveren bij wijze van spreken dan ook je prestaties. DLAA is dan waarschijnlijk nog de beste kwaltieit/prestaties.
zijn.
Je hebt helemaal gelijk. Dit is ook sterk onderhevig aan persoonlijke voorkeur. Ik haat de bewegingsonscherpte die TAA oplevert want voor mij staat scherpte op de eerste plek. Daarom heb ik ook helemaal niks met FXAA of SMAA, want die leveren een wolliger beeld op. Hetzelfde geldt helaas ook voor DLAA, welke in beweging nog wel eens foutjes maakt.

Super sampling en MSAA doen dat echter niet. Dat zijn twee (zware) vormen van AA die in geen enkele vorm ten koste gaan van scherpte. Dus ik zal mijn "kwalitatief superieur" statement nuanceren; qua verlies in scherpte doen de "goedkopere" vormen van AA het in de regel iets minder goed, waar ik zelf niet zo goed tegen kan...

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Blaat schreef op maandag 3 oktober 2022 @ 13:30:
Je hebt helemaal gelijk. Dit is ook sterk onderhevig aan persoonlijke voorkeur. Ik haat de bewegingsonscherpte die TAA oplevert want voor mij staat scherpte op de eerste plek. Daarom heb ik ook helemaal niks met FXAA of SMAA, want die leveren een wolliger beeld op. Hetzelfde geldt helaas ook voor DLAA, welke in beweging nog wel eens foutjes maakt.
SMAA is echter doorgaans SMAA 1x tenzij expliciet anders aan gegeven, ik raad je aan om andere vormen van SMAA eens te proberen. De laatste Tomb Raider heeft FXAA, SMAA, TAA, SMAA T2x en SMAA 4x. In volgorde van oplopende scherpte, aflopende prestaties. De middelste 3 zitten heel dicht op elkaar qua prestaties, maar die laatste heeft mijn voorkeur tegenover de andere twee vanwege dezelfde reden als jij aan geeft; SMAA 4x is dan weer een stap te ver qua performance impact.
Super sampling en MSAA doen dat echter niet. Dat zijn twee (zware) vormen van AA die in geen enkele vorm ten koste gaan van scherpte. Dus ik zal mijn "kwalitatief superieur" statement nuanceren; qua verlies in scherpte doen de "goedkopere" vormen van AA het in de regel iets minder goed, waar ik zelf niet zo goed tegen kan...
Daarom vind ik al dit gedoe veel boeiender in de vorm van DLDSR. Dat is daadwerkelijk supersamplen (overigens ook iets waar ik me aan erger bij DLSS, want het is helemaal geen supersampling, maar dat terzijde :P). Maar voordat dat werkt moet je op native resolutie al genoeg frames kunnen renderen. Op native renderen (zonder AA), fijn via DL naar 4x upscalen en dat vervolgens weer downscalen naar native. Ze komen met DLSS dichtbij genoeg dat dat alsnog veel beter uit ziet dan TAA. Helaas heb je dan weer problemen met LOD bias en dergelijke, dus dat werkt niet in elke game even goed (en heeft soms ook flinke impact, terwijl dat niet zou moeten).

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Werelds schreef op maandag 3 oktober 2022 @ 14:04:
[...]
Dat is daadwerkelijk supersamplen (overigens ook iets waar ik me aan erger bij DLSS, want het is helemaal geen supersampling, maar dat terzijde :P).
Dat is het wel. Supersamplen betekent slechts dat je meerdere samples gebruikt per pixel, wat gedaan wordt bij DLSS.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Allen hierboven,

Goed dat jullie weer wat helderheid in de AA discussie brengen. Met al die varianten is het best onoverzichtelijk geworden. Ik ga meestal voor ingame slider of msaa of ssaa. Onscherpte is mij ook altijd een doorn in het oog.
meljor schreef op maandag 3 oktober 2022 @ 12:48:
[...]


Thanx! Igor wel vaker gehoord maar dacht dat dat ook YT was, die voeg ik toe aan m'n lijstje.

YT vind ik vervelend voor reviews, en de vele reclames maakt het nog erger...
Graag gedaan. Ik begrijp dat je YT alsmede reclames niet ideaal vindt echter GN is wel een prima kanaal qua testmethodes maar ook lijkt hij mij oprecht op het gebied van reviewethiek. En het zijn natuurlijk maar een paar video's bij cpu / gpu launches. Meestal inclusief timecodes. Misschien toch een keer een kans geven.

Actually Hardcore Overclocking/Buildzoid is helaas ook YT, echter wel supergoed om bij GPU's/ mobo's op het gebied van pcb/stroomvoorziening/vrm het kaf van het koren te scheiden.

Het is helaas nl. geen garantie dat als een bepaalde subserie mobo's/gpu's goed was bij de vorige generatie dat dat nu weer het geval is. En soms lijkt de vrm obv de marketing en prijs geweldig maar is het in werkelijkheid maar matig. Toch belangrijk en helemaal als je wilt overclocken of een zwaardere multicore cpu installeert.

[ Voor 49% gewijzigd door Help!!!! op 03-10-2022 16:07 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Actually Hardcore Overclocking is inderdaad behoorlijk goed op technisch vlak, maar wel gigantisch slecht in het maken van een strakke video. Hij ratelt maar door.

Volgens hem zijn de VRMs zwaar overkill op de X670E borden. Dat komt trouwens wel overeen met mijn beeld van de bovenkant van de mobo-markt, waar ze heel veel dingen op de borden stoppen die er goed uitzien, maar waar je weinig aan hebt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

meljor schreef op maandag 3 oktober 2022 @ 12:48:
[...]


Thanx! Igor wel vaker gehoord maar dacht dat dat ook YT was, die voeg ik toe aan m'n lijstje.

YT vind ik vervelend voor reviews, en de vele reclames maakt het nog erger...
Zowel ActuallyHardwareOverclocking (Buildzoid) en HardwareUnboxed zitten ook op Odysee (LBRY) waar je geen reclames hebt. Ik probeer zoveel mogelijk daar te volgen ipv YT.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Ludewig schreef op maandag 3 oktober 2022 @ 16:00:
Actually Hardcore Overclocking is inderdaad behoorlijk goed op technisch vlak, maar wel gigantisch slecht in het maken van een strakke video. Hij ratelt maar door.
Klopt :p.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Ludewig schreef op maandag 3 oktober 2022 @ 14:15:
[...]


Dat is het wel. Supersamplen betekent slechts dat je meerdere samples gebruikt per pixel, wat gedaan wordt bij DLSS.
Ja en nee, het is multisampling :)

In beide gevallen heb je meerdere samples per pixel. Het verschil is dat je bij supersampling de pixel shader voor élk sample uit voert en het gemiddelde neemt voor de uiteindelijke output, terwijl je dat bij multisampling slechts één keer doet. Het is een optimalisatie van traditioneel supersampling.

Technisch gezien is het dus wel een vorm van supersampling, maar het is geen puur supersampling. Even los van het feit dat supersampling in de volksmond al 30 jaar slaat op het downsamplen van frames op hogere resolutie ;)

Acties:
  • +1 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Eerste rasterization performance cijfers van lovelace.

Link

Afbeeldingslocatie: https://tweakers.net/i/NH1iGmqPMU6av1RUX145iKT1q5c=/800x/filters:strip_icc():strip_exif()/f/image/8B4DCeMBNcdOmCo5r8inOvhL.jpg?f=fotoalbum_large


Het komt direct van nvidia, dus neem het met een korreltje zout.

Ook deze cijfers laten (imho) weer zien dat nvidia de RTX4080 12GB gewoon RTX4070 had moeten noemen, met een bijbehorend prijskaartje. Prima performance uplift van zo'n 50% vergeleken met de RTX3070.

Alleen slaat het nu nergens meer op door die videokaart 4080 te noemen en de prijs zo te verhogen. Sowieso vraag ik me dan af wat voor performance de 4070 (AD106?) gaat laten zien? Vergelijkbaar met een 3080 zou mijn inschatting nu zijn.

[ Voor 26% gewijzigd door Tyranium op 05-10-2022 12:36 ]


Acties:
  • 0 Henk 'm!

  • Zuvio
  • Registratie: Mei 2004
  • Laatst online: 16-08 07:53
NVIDIA Reflex Compatible Monitors? Wat is dat nu weer, werkt reflex niet op alle monitoren?

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

Tyranium schreef op woensdag 5 oktober 2022 @ 12:24:
Eerste rasterization performance cijfers van lovelace.

Link

[Afbeelding]


Het komt direct van nvidia, dus neem het met een korreltje zout.

Ook deze cijfers laten (imho) weer zien dat nvidia de RTX4080 12GB gewoon RTX4070 had moeten noemen, met een bijbehorend prijskaartje. Prima performance uplift van zo'n 50% vergeleken met de RTX3070.

Alleen slaat het nu nergens meer op door die videokaart 4080 te noemen en de prijs zo te verhogen. Sowieso vraag ik me dan af wat voor performance de 4070 (AD106?) gaat laten zien? Vergelijkbaar met een 3080 zou mijn inschatting nu zijn.
En welke 3080 is dat? De 10gb of de 12gb?
Dat is helemaal treurig, de 12gb is best wel een tikkie sneller namelijk door zijn uplift in cuda cores. Scheelt zo een 3 tot 5%. Dit is uiteraard niet veel maar toch.
De 3080 12gb ligt dus nog dichter bij de 4080 12gb.

Overwatch 2 zou ook DLSS 3 ondersteunen. Het is mij niet helemaal duidelijk of dit nu aan staat of niet (van wat ze hebben gepubliceerd)

[ Voor 5% gewijzigd door OMD op 05-10-2022 13:21 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • +1 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 11-09 17:47
Zuvio schreef op woensdag 5 oktober 2022 @ 12:37:
NVIDIA Reflex Compatible Monitors? Wat is dat nu weer, werkt reflex niet op alle monitoren?
Reflex verlaagt latency, dat staat los van je muis of beeldscherm. Daarnaast kan Relfex de latency meten van muisklik tot reactie op je scherm. Om die latency te meten heb je een Reflex compatible muis en beeldscherm nodig.

Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 11-09 17:47
OMD schreef op woensdag 5 oktober 2022 @ 13:18:
[...]
Overwatch 2 zou ook DLSS 3 ondersteunen. Het is mij niet helemaal duidelijk of dit nu aan staat of niet (van wat ze hebben gepubliceerd)
DLSS3 verdubbeld fps bijna. Als die cijfers met DLSS3 zouden zijn, zou een RTX4080 zonder DLSS3 ongeveer 40% trager zijn dan een RTX3080. En bij tests waar DLSS3 gebruikt is staat dat bij de configuratie onder de grafiek.

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

cnieuweboer schreef op woensdag 5 oktober 2022 @ 13:47:
[...]


DLSS3 verdubbeld fps bijna. Als die cijfers met DLSS3 zouden zijn, zou een RTX4080 zonder DLSS3 ongeveer 40% trager zijn dan een RTX3080. En bij tests waar DLSS3 gebruikt is staat dat bij de configuratie onder de grafiek.
Zijn wel een hoop aannames (wat logisch is). Het is echter we zo dat ik niet zie gebeuren dat de 4080 12GB 400+fps gaat halen met dlss3, dat is in principe wat je zegt.

NVidia zijn marketing skills zijn bewonderenswaardig en ik denk dat we het beste even kunnen afwachten tot 12 oktober :)

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Tyranium schreef op woensdag 5 oktober 2022 @ 12:24:
Eerste rasterization performance cijfers van lovelace.

Link

[Afbeelding]


Het komt direct van nvidia, dus neem het met een korreltje zout.

Ook deze cijfers laten (imho) weer zien dat nvidia de RTX4080 12GB gewoon RTX4070 had moeten noemen, met een bijbehorend prijskaartje. Prima performance uplift van zo'n 50% vergeleken met de RTX3070.

Alleen slaat het nu nergens meer op door die videokaart 4080 te noemen en de prijs zo te verhogen. Sowieso vraag ik me dan af wat voor performance de 4070 (AD106?) gaat laten zien? Vergelijkbaar met een 3080 zou mijn inschatting nu zijn.
Leuke cijfertjes, maar ik zie vooral keiharde diminishing returns. Van 11 naar 8 ms gaat geen mens merken, en je betaalt er wel nog eens 900 euro voor. Lekker blijven zitten met je 3080.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

Tyranium schreef op woensdag 5 oktober 2022 @ 12:24:
Eerste rasterization performance cijfers van lovelace.

Link

[Afbeelding]


Het komt direct van nvidia, dus neem het met een korreltje zout.

Ook deze cijfers laten (imho) weer zien dat nvidia de RTX4080 12GB gewoon RTX4070 had moeten noemen, met een bijbehorend prijskaartje. Prima performance uplift van zo'n 50% vergeleken met de RTX3070.

Alleen slaat het nu nergens meer op door die videokaart 4080 te noemen en de prijs zo te verhogen. Sowieso vraag ik me dan af wat voor performance de 4070 (AD106?) gaat laten zien? Vergelijkbaar met een 3080 zou mijn inschatting nu zijn.
Tering. Die 4080 12GB ligt dichterbij de 3080 dan de 4080 16GB. Hoe is het een 'generational leap' t.o.v. de 3080 en krijgt dit ding dezelfde naam als de 4080 16GB 8)7. Begrijp me niet verkeerd, die 4080 12GB zal een prima kaart zijn, maar voor 1100 (!) euro belachelijk duur en de naam 4080 niet waard. Ik wacht zelf AMD af, maar zou best een 4080 willen voor mijn eerste game desktop sinds tijden. Ik kan mezelf er alleen echt niet toe zetten om 1100 euro voor een verkapte 4070 neer te tellen en 1500 euro voor de 'echte' 4080 vind ik ook te veel. Aan de andere kant is het hopen dat AMD wat moois uitbrengt, want het is het m.i. ook (nog) niet waard om te settlen voor een 30**. Daarvoor moeten de prijzen wat meer zakken.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Jeroenneman schreef op woensdag 5 oktober 2022 @ 13:57:
[...]


Leuke cijfertjes, maar ik zie vooral keiharde diminishing returns. Van 11 naar 8 ms gaat geen mens merken, en je betaalt er wel nog eens 900 euro voor. Lekker blijven zitten met je 3080.
Dat komt omdat FPS op die framerate weinig uitmaakt. Met die FPS verwacht ik dat andere componenten de vertragende factor zijn. Denk aan USB polling, het scherm etc.

Lijkt met die cijfers (er van uitgaande dat het de RTX 3080 10GB betreft) de 4080 12GB trager is dan de 3090Ti en dat de 4090 70% sneller is dan de 3090Ti. Dat is tenminste als ze geen rare DLSS dingen doen.
Daarnaast komen de cijfers van Nvidia dus wacht ik nog wel even voordat ik conclussies trek, want wc eend :+

Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Thomas schreef op woensdag 5 oktober 2022 @ 14:41:
[...]


Tering. Die 4080 12GB ligt dichterbij de 3080 dan de 4080 16GB.
Bij hoge fps lijkt me ook dat er ook een CPU bottleneck is waar door je de GPU's niet goed kunt vergelijken.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Thomas schreef op woensdag 5 oktober 2022 @ 14:41:
[...]


Tering. Die 4080 12GB ligt dichterbij de 3080 dan de 4080 16GB. Hoe is het een 'generational leap' t.o.v. de 3080 en krijgt dit ding dezelfde naam als de 4080 16GB 8)7. Begrijp me niet verkeerd, die 4080 12GB zal een prima kaart zijn, maar voor 1100 (!) euro belachelijk duur en de naam 4080 niet waard. Ik wacht zelf AMD af, maar zou best een 4080 willen voor mijn eerste game desktop sinds tijden. Ik kan mezelf er alleen echt niet toe zetten om 1100 euro voor een verkapte 4070 neer te tellen en 1500 euro voor de 'echte' 4080 vind ik ook te veel. Aan de andere kant is het hopen dat AMD wat moois uitbrengt, want het is het m.i. ook (nog) niet waard om te settlen voor een 30**. Daarvoor moeten de prijzen wat meer zakken.
Volgens mij zei ik je dat een paar weken geleden al. :P
Het gaat gewoon een RTX3080Ti worden die 65W minder verbruikt. Het is in een vacuüm geen slechte chip, maar de prijs is gewoon bijna twee keer te hoog. Laat Nvidia er maar $500/€620 van maken. Nog steeds fors, maar redelijker dan wat ze nu durven te vragen...


Nvidia lijkt weer eens een unboxing NDA te hebben gedaan. RTX4090 FE is eigenlijk een nog dikkere RTX3090 FE.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Jups leuk al die unboxing video's. Mijn geld ligt al klaar voor de Asus OC model, aangezien ik de Zotac nergens kan vinden.
De jeuk om het in mijn systeem te plaatsen begint al.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • Zuvio
  • Registratie: Mei 2004
  • Laatst online: 16-08 07:53
Die unboxing held raadt naast een 4090 ook een nieuwe 5.0 psu aan wegens *drumroffle* mooiere cablemanagement zonder die adapterkabel!

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Kijk deze dan:



Vooral naar de Gigabyte Aorus Master. 9:56 minuut. Dat ding is pas echt maaaaaassive :D

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Werelds schreef op maandag 3 oktober 2022 @ 14:04:
[...]

SMAA is echter doorgaans SMAA 1x tenzij expliciet anders aan gegeven, ik raad je aan om andere vormen van SMAA eens te proberen. De laatste Tomb Raider heeft FXAA, SMAA, TAA, SMAA T2x en SMAA 4x. In volgorde van oplopende scherpte, aflopende prestaties. De middelste 3 zitten heel dicht op elkaar qua prestaties, maar die laatste heeft mijn voorkeur tegenover de andere twee vanwege dezelfde reden als jij aan geeft; SMAA 4x is dan weer een stap te ver qua performance impact.
En waar in dit rijtje zit (nvidia) TXAA :? Dit kom ik bijv. tegen in GTA V maar daar zit ook al FXAA en MSAA in. Je kunt het ook nog eens allemaal gelijktijdig aan zetten.... :?

[ Voor 7% gewijzigd door Help!!!! op 05-10-2022 16:05 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Zuvio

Er is volgens mij nu nog maar 1 echte ATX 3.0 PSU met native de nieuwe connector te koop, de Thermaltake Toughpower GF3. En dan nog heb je de keuze uit slechts 1 wattage.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Help!!!! schreef op woensdag 5 oktober 2022 @ 16:01:
[...]

En waar in dit rijtje zit TXAA :? Dit kom ik bijv. tegen in GTA V.
Op heel vreemde plekken :p

TXAA is/was MSAA met temporal samples. Lichter dan puur MSAA, maar lost ook niet alle problemen van MSAA op en heeft wel de "problemen" van de meeste temporal AA (lichting ghosting + shimmering). Ik heb het al heel lang niet meer gebruikt, dus hoe zich dat zou verhouden qua performance weet ik niet. Qua beeldkwaliteit is het heel erg polariserend; wat mij betreft is het ten alle tijde beter dan FXAA, maar dat is vooral omdat ik niet tegen de vaseline van FXAA kan. Anderen zullen dan weer zeggen dat TXAA op sommige plekken jaggies heeft waar FXAA dat niet heeft.

Acties:
  • 0 Henk 'm!

  • Zuvio
  • Registratie: Mei 2004
  • Laatst online: 16-08 07:53
Xtr3me4me schreef op woensdag 5 oktober 2022 @ 16:01:
Kijk deze dan:


Vooral naar de Gigabyte Aorus Master. 9:56 minuut. Dat ding is pas echt maaaaaassive :D
Yup, 11 oktober zitten we allemaal urenlang bijna dezelfde videos te kijken om een beslissing te maken welke we nemen!

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

ItalianStyle schreef op woensdag 5 oktober 2022 @ 15:23:
[...]


Bij hoge fps lijkt me ook dat er ook een CPU bottleneck is waar door je de GPU's niet goed kunt vergelijken.
Gezien dat de 4090 wel 507FPS haalt lijkt me dat niet het geval. Daarnaast zijn de 5800x, 3D 12900k, 7700x zo snel dat ik niet vermoed dat je daarmee tegen een cpu bottleneck gaat aanlopen in 99% van de spellen.

Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Zuvio schreef op woensdag 5 oktober 2022 @ 16:35:
[...]
Yup, 11 oktober zitten we allemaal urenlang bijna dezelfde videos te kijken om een beslissing te maken welke we nemen!
Het is een kleine minderheid die een 4090 gaat kopen, zeker niet 'allemaal.'

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

DaniëlWW2 schreef op woensdag 5 oktober 2022 @ 15:34:
[...]


Volgens mij zei ik je dat een paar weken geleden al. :P
Het gaat gewoon een RTX3080Ti worden die 65W minder verbruikt. Het is in een vacuüm geen slechte chip, maar de prijs is gewoon bijna twee keer te hoog. Laat Nvidia er maar $500/€620 van maken. Nog steeds fors, maar redelijker dan wat ze nu durven te vragen...


Nvidia lijkt weer eens een unboxing NDA te hebben gedaan. RTX4090 FE is eigenlijk een nog dikkere RTX3090 FE.
[YouTube: So the RTX 4090 is massive.]
Ik vind het erg lastig. Voor iemand als ik die een nieuwe PC wil bouwen (en niks ouds heeft) is zo’n 4080 12GB een prima kaart. Ik heb de kracht van een 16GB of een 4090 gewoonweg niet nodig, maar vind het zonde om nog een kaart van de vorige generatie te kopen. Maar de prijs… 1100 euro (op z’n minst). Ik had het lachend uitgegeven als ik er een 4080 16GB voor kreeg, en 700-800 euro had ik prima gevonden voor een 12GB model. AMD is aan zet.

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

NVidia aan board partners “gevraagd” dat ze minimaal 1 kaart op msrp leveren?
https://videocardz.com/ne...pricing-from-1600-to-1700

Als dat waar is dan zijn ze dus begonnen met winst bepalen voor de board partners. Smerige zaak dan and the shit keeps on stacking.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 11-09 17:47
OMD schreef op woensdag 5 oktober 2022 @ 22:52:
NVidia aan board partners “gevraagd” dat ze minimaal 1 kaart op msrp leveren?
https://videocardz.com/ne...pricing-from-1600-to-1700

Als dat waar is dan zijn ze dus begonnen met winst bepalen voor de board partners. Smerige zaak dan and the shit keeps on stacking.
Dat doen Nvidia en AMD al jaren. Het lijkt er op dat je naar dingen op zoek bent.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

OMD schreef op woensdag 5 oktober 2022 @ 22:52:
NVidia aan board partners “gevraagd” dat ze minimaal 1 kaart op msrp leveren?
https://videocardz.com/ne...pricing-from-1600-to-1700

Als dat waar is dan zijn ze dus begonnen met winst bepalen voor de board partners. Smerige zaak dan and the shit keeps on stacking.
Ik zou als boardpartner overwegen het meest minimale dat functioneerd uit te bregen en daarnaast een aantal mooie kaarten.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

OMD schreef op woensdag 5 oktober 2022 @ 22:52:
NVidia aan board partners “gevraagd” dat ze minimaal 1 kaart op msrp leveren?
https://videocardz.com/ne...pricing-from-1600-to-1700

Als dat waar is dan zijn ze dus begonnen met winst bepalen voor de board partners. Smerige zaak dan and the shit keeps on stacking.
Dat deed Nvidia ook al voor de RTX30 series.
En nee, AMD doet dat niet. Kijk alleen al naar Sapphire die vaak net boven MSRP gaan zitten voor hun Pulse modellen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

cnieuweboer schreef op donderdag 6 oktober 2022 @ 00:01:
[...]


Dat doen Nvidia en AMD al jaren. Het lijkt er op dat je naar dingen op zoek bent.
Kan het mij niet herinneren en ik koop al nVidia kaarten sinds een jaartje of wat. De goedkoopste versies zoals de evga basis model zat altijd rond msrp maar meestal een dollar of 20 er boven. Maar ik wist dit dus niet. Ik weet niet alles zoals jij.

Ik heb nog nooit gelezen dat nVidia nadrukkelijk heeft gemeld dat er 1 kaart op msrp verkocht dient te worden.

Ik zeg toch ook nadrukkelijk “als dat waar is”. Het staat op de website dit ik meerdere keren per dag bezoek dus op zoek zijn ernaar is niet helemaal fair. AMD doet dit dus als het goed is niet.

[ Voor 22% gewijzigd door OMD op 06-10-2022 08:42 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

DaniëlWW2 schreef op donderdag 6 oktober 2022 @ 06:17:
[...]

Dat deed Nvidia ook al voor de RTX30 series.
En nee, AMD doet dat niet. Kijk alleen al naar Sapphire die vaak net boven MSRP gaan zitten voor hun Pulse modellen.
Nooit geweten in ieder geval en nooit ook ergens gelezen dat het zo openlijk was. Je leert elke dag bij :+

[ Voor 25% gewijzigd door OMD op 06-10-2022 08:39 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

Eerste (gelekte) benchmarks voor de 4080:
https://videocardz.com/ne...nchmarks-have-been-leaked

Zelfs iets sterker dan wat nVidia beweerde. Stuk rapper dan de 3090ti (in synthetische benchmarks) ik verwacht ook wel dat deze kaart van boardpartners wat meer headroom krijgen voor wat hogere clocks. Ben benieuwd.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

OMD schreef op donderdag 6 oktober 2022 @ 08:31:
[...]


Nooit geweten in ieder geval en nooit ook ergens gelezen dat het zo openlijk was. Je leert elke dag bij :+
Daar was twee jaar geleden heel wat gedoe over omdat die MSRP modellen blijkbaar totaal geen marge hadden. Dat ging zover dat de AIB partners dat gingen vertellen. Dus werden in het begin voornamelijk alleen de duurdere modellen gemaakt en was iedereen boos op elkaar. We weten ook via EVGA dat het zeker geen lose speculatie was. En toen begon de mining pas echt...
Thomas schreef op woensdag 5 oktober 2022 @ 22:27:
[...]


Ik vind het erg lastig. Voor iemand als ik die een nieuwe PC wil bouwen (en niks ouds heeft) is zo’n 4080 12GB een prima kaart. Ik heb de kracht van een 16GB of een 4090 gewoonweg niet nodig, maar vind het zonde om nog een kaart van de vorige generatie te kopen. Maar de prijs… 1100 euro (op z’n minst). Ik had het lachend uitgegeven als ik er een 4080 16GB voor kreeg, en 700-800 euro had ik prima gevonden voor een 12GB model. AMD is aan zet.
Het is gelukkig best wel simpel. Nvidia heeft dit probleem weggenomen door qua rasterisation gewoon Ampere te blijven gebruiken. Wel hebben ze enorme tensor cores toegevoegd en waarschijnlijk is de RT ook iets beter. Los daarvan kan ik werkelijk niemand dit aanraden voor omgerekend €1100. Daarvoor zou ik iets exceptioneels willen zien, niet een RTX3080Ti met betere RT waarbij de DLSS verbetering ook een groot twijfelpunt zijn. Want die kant gaat het op. Dat is $500/€600 materiaal, niet $900/€1100.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Cloggs
  • Registratie: April 2004
  • Laatst online: 10-09 19:12
OMD schreef op donderdag 6 oktober 2022 @ 08:54:
Eerste (gelekte) benchmarks voor de 4080:
https://videocardz.com/ne...nchmarks-have-been-leaked

Zelfs iets sterker dan wat nVidia beweerde. Stuk rapper dan de 3090ti (in synthetische benchmarks) ik verwacht ook wel dat deze kaart van boardpartners wat meer headroom krijgen voor wat hogere clocks. Ben benieuwd.
Nvidia heeft zelf al officiële Overwatch 2 benches gepresenteerd. Pure raster performance. De 4080 kaarten zijn nog belachelijker geprijsd dan al verwacht. Helemaal de 12 GB variant wat wederom overduidelijk een 4070 kaart is die nog geen 20% beter is dan de 3080 voor een 30% hogere prijs.

https://www.nvidia.com/en...orce-rtx-reflex-high-fps/

[ Voor 8% gewijzigd door Cloggs op 06-10-2022 09:10 ]


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

Cloggs schreef op donderdag 6 oktober 2022 @ 09:08:
[...]

Nvidia heeft zelf al officiële Overwatch 2 benches gepresenteerd. Pure raster performance. De 4080 kaarten zijn nog belachelijker geprijsd dan al verwacht. Helemaal de 12 GB variant wat wederom overduidelijk een 4070 kaart is die nog geen 20% beter is dan de 3080 voor een 30% hogere prijs.

https://www.nvidia.com/en...orce-rtx-reflex-high-fps/
Klopt, alleen dat wij van wc eend adviseren wc eend ben ik altijd een beetje voorzichtig mee. Liever benchmarks van een derde partij.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Cloggs schreef op donderdag 6 oktober 2022 @ 09:08:
[...]

Nvidia heeft zelf al officiële Overwatch 2 benches gepresenteerd. Pure raster performance. De 4080 kaarten zijn nog belachelijker geprijsd dan al verwacht. Helemaal de 12 GB variant wat wederom overduidelijk een 4070 kaart is die nog geen 20% beter is dan de 3080 voor een 30% hogere prijs.

https://www.nvidia.com/en...orce-rtx-reflex-high-fps/
RTX3080Ti dus. ;)
Dit is ook zo voorspelbaar omdat Nvidia dit altijd doet.
GTX780Ti = GTX970
GTX980Ti = GTX1070
GTX1080Ti = RTX2070S
RTX2080Ti = RTX3070
RTX3080Ti = :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09:39
DaniëlWW2 schreef op donderdag 6 oktober 2022 @ 09:31:
[...]


RTX3080Ti dus. ;)
Dit is ook zo voorspelbaar omdat Nvidia dit altijd doet.
GTX780Ti = GTX970
GTX980Ti = GTX1070
GTX1080Ti = RTX2070S
RTX2080Ti = RTX3070
RTX3080Ti = :P
Het kan zijn dat je uiteindelijk gelijk hebt want het komt van Nvidia maar met 19% bovenop de 3080 zitten we eerder op de 3090Ti. Het is dus een slecht voorbeeld om te zeggen "RTX3080Ti dus".

Afbeeldingslocatie: https://tweakers.net/i/usWoqxc-KDDCsurLvUiwgVF2rWI=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/sbPJaP5RJdvu8ZeBspToZm0p.png?f=user_large

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 20:15
DaniëlWW2 schreef op donderdag 6 oktober 2022 @ 09:31:
[...]


RTX3080Ti dus. ;)
Dit is ook zo voorspelbaar omdat Nvidia dit altijd doet.
GTX780Ti = GTX970
GTX980Ti = GTX1070
GTX1080Ti = RTX2070S
RTX2080Ti = RTX3070
RTX3080Ti = :P
Kijkende naar de getoonde benchmark zou dat wat laag geschat zijn.
HUB heeft bijv. de 3080Ti als 5% sneller dan de 3080 en 2% langzamer dan de 3090, terwijl je in de gelinkte test +-20% over de RTX 3080 ziet. Een 3080Ti zit normaal gesproken niet zo ver boven de 3080.

Je zit dan eerder te kijken naar 3090ti achtige performance in deze specifieke benchmark, wat normaal gesproken ook meer in lijn zou liggen voor een full fat x04 die, zoals hier gebruikt. Het is echter natuurlijk wel een Nvidia benchmark, dus neem ook even een pak zout in :P

[ Voor 16% gewijzigd door Dennism op 06-10-2022 09:55 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

napata schreef op donderdag 6 oktober 2022 @ 09:49:
[...]

Het kan zijn dat je uiteindelijk gelijk hebt want het komt van Nvidia maar met 19% bovenop de 3080 zitten we eerder op de 3090Ti. Het is dus een slecht voorbeeld om te zeggen "RTX3080Ti dus".

[Afbeelding]
1) Stiekem is de GTX1070 ook iets sneller dan de GTX980Ti en noemt Nvidia deze RTX4070 geen RTX4070 meer. ;)
2) De RTX3080Ti is een erg vervelende GPU om te vergelijken. Die is gevoelig voor games en resolutie tegenover de RTX3080 waardoor je nooit echt een heel duidelijk beeld krijgt. Ik hou het zelf op 10%, maar het kan alle kanten opgaan. Je kan met die ook zo makkelijk de resultaten manipuleren dat de RTX3080 en RTX3080Ti eigenlijk vrijwel hetzelfde presteren of juist het gat opentrekken richting de 20%. Dat doe je met game selectie en resolutie. Neem hieruit een paar games op de verschillende resoluties.
YouTube: GeForce RTX 3080 Ti Review, Nvidia Fails to Read the Room
3) We kijken nu naar een kleinere chip met hogere clocks peeds vs. grotere chip met lagere clock speeds. Daar is altijd variatie in waarbij de ene game het beter doet op de ene dan de andere. Er zullen ook games zijn die juist minder gaan.
4) Ik geef ook weinig om een paar procent en we hebben ook al eerdere resultaten gezien van Nvidia die suggereren dat de RTX4080 12GB juist onder de RTX3090Ti blijft en dan zit je op RTX3080Ti niveau.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
napata schreef op donderdag 6 oktober 2022 @ 09:49:
[...]

Het kan zijn dat je uiteindelijk gelijk hebt want het komt van Nvidia maar met 19% bovenop de 3080 zitten we eerder op de 3090Ti. Het is dus een slecht voorbeeld om te zeggen "RTX3080Ti dus".
De verschillen aan de top van Ampere (3080 tot 3090 Ti) waren relatief klein, dus zijn deze vergelijkingen niet zo nuttig wat mij betreft en raak je dan een beetje verstrikt in de logica van Jensen.

De segmentering van Ada is een stuk minder genereus en het logische gevolg daarvan is dat de 4080 12 GB relatief dicht bij de 3090 (Ti) zit, maar dat reflecteert meer dat de 3090 (Ti) een slechte deal was, dan dat de 4080 12 nu zo'n goede deal is.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Ik zocht op Chiphell maar kreeg geen highlighting. Ik geef de schuld aan de WiFi in Azië. :+

[ Voor 79% gewijzigd door Paprika op 06-10-2022 10:30 ]


Acties:
  • +1 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

Paar posts boven je :+

@DaniëlWW2

Hebben we het nu steeds over de 3080 10gb of de 12gb? Daar is het verschil met de Ti nog minder namelijk.

[ Voor 23% gewijzigd door OMD op 06-10-2022 10:30 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

OMD schreef op donderdag 6 oktober 2022 @ 10:29:
@DaniëlWW2

Hebben we het nu steeds over de 3080 10gb of de 12gb? Daar is het verschil met de Ti nog minder namelijk.
Oh die twee zijn pas echt erg. }:|
Maar ik reken met de 10GB omdat de 12GB niet erg relevant is. Punt is en blijft alleen dat het verschil tussen de RTX3080 en RTX3080Ti niet erg duidelijk of uniform is.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 20:15
DaniëlWW2 schreef op donderdag 6 oktober 2022 @ 10:36:
[...]


Oh die twee zijn pas echt erg. }:|
Maar ik reken met de 10GB omdat de 12GB niet erg relevant is. Punt is en blijft alleen dat het verschil tussen de RTX3080 en RTX3080Ti niet erg duidelijk of uniform is.
Daarom zou ik, waar mogelijk, ook kijken naar de verschillen bij HUB over meerdere games die ik al aanhaalde en die jij nu ook aanhaalt. Hier is dat dan een 12 game sample, wat opzich voor hun soms nog best laag is, vooral de 30 of 50 game samples van HUB zijn voor 'across the board' vergelijkingen altijd wel prettig.

Al moet je natuurlijk voor aankoopadvies altijd inzoomen op je eigen workloads.

Ik moet zeggen dat ik de 12GB 3080 eigenlijk ook altijd negeer, en eigenlijk altijd vergelijk met de initiële 3080.

[ Voor 7% gewijzigd door Dennism op 06-10-2022 11:05 ]


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

DaniëlWW2 schreef op donderdag 6 oktober 2022 @ 10:36:
[...]


Oh die twee zijn pas echt erg. }:|
Maar ik reken met de 10GB omdat de 12GB niet erg relevant is. Punt is en blijft alleen dat het verschil tussen de RTX3080 en RTX3080Ti niet erg duidelijk of uniform is.
Bij TechpowerUp is de review wel grappig van de 3080 12gb (Asus TUF). Dat scheelt op 1440p dus maar maximaal 2%. Sommige titels is de 3080 12gb net zo snel, als in letterlijk dezelfde fps.
Ik vraag me af of ze deze generatie weer zo gaan kloten. 4070 8gb en 10gb model zou ik niet raar van opkijken. Als ze een 4070 12gb model uitbrengen is het helemaal mooi.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 20:15
Ik vraag me trouwens ook af in hoeverre resolutie nog een rol zal spelen.

Volgens mij is immers RTX 3070 = RTX 2080Ti ook niet helemaal correct, afhankelijk van resolutie.

Mogelijk dat ik het mis heb, maar er staat me iets bij dat op 1080P de RTX 3070 over het algemeen won / gelijk was. Dat op 1440P de RTX 2080 Ti al meer begon te winnen, en dat op 4K de 2080Ti eigenlijk nog altijd de betere kaart was.

[ Voor 36% gewijzigd door Dennism op 06-10-2022 11:18 ]


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Dennism schreef op donderdag 6 oktober 2022 @ 11:16:
Ik vraag me trouwens ook af in hoeverre resolutie nog een rol zal spelen.

Volgens mij is immers RTX 3070 = RTX 2080Ti ook niet helemaal correct, afhankelijk van resolutie.

Mogelijk dat ik het mis heb, maar er staat me iets bij dat op 1080P de RTX 3070 over het algemeen won / gelijk was. Dat op 1440P de RTX 2080 Ti al meer begon te winnen, en dat op 4K de 2080Ti eigenlijk nog altijd de betere kaart was.
https://www.techpowerup.c...-founders-edition/35.html

Overal gelijk bij launch.

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Nu online

OMD

Dennism schreef op donderdag 6 oktober 2022 @ 11:16:
Ik vraag me trouwens ook af in hoeverre resolutie nog een rol zal spelen.

Volgens mij is immers RTX 3070 = RTX 2080Ti ook niet helemaal correct, afhankelijk van resolutie.

Mogelijk dat ik het mis heb, maar er staat me iets bij dat op 1080P de RTX 3070 over het algemeen won / gelijk was. Dat op 1440P de RTX 2080 Ti al meer begon te winnen, en dat op 4K de 2080Ti eigenlijk nog altijd de betere kaart was.
Om TechPowerUp er maar weer even bij te halen:

De 3070 deed het zelfs iets beter op 1440p en 4k. Op 1080p was het gelijk.
Performance per watt daarentegen scheelde zo een 15 tot 20% (in favor van de 3070 uiteraard)
De 3070 is op het initiele prijspunt ook echt wel een sterke kaart. De Ti was alleen crap.

Afbeeldingslocatie: https://tpucdn.com/review/nvidia-geforce-rtx-3070-founders-edition/images/relative-performance_2560-1440.png
Afbeeldingslocatie: https://tpucdn.com/review/nvidia-geforce-rtx-3070-founders-edition/images/relative-performance_3840-2160.png

[ Voor 9% gewijzigd door OMD op 06-10-2022 11:25 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

OMD schreef op donderdag 6 oktober 2022 @ 11:12:
[...]


Bij TechpowerUp is de review wel grappig van de 3080 12gb (Asus TUF). Dat scheelt op 1440p dus maar maximaal 2%. Sommige titels is de 3080 12gb net zo snel, als in letterlijk dezelfde fps.
Ik vraag me af of ze deze generatie weer zo gaan kloten. 4070 8gb en 10gb model zou ik niet raar van opkijken. Als ze een 4070 12gb model uitbrengen is het helemaal mooi.
Je bedoelt de RTX4080 10GB en RTX4080 8GB. :+
Maar ik zou het niet weten, ook niet hoe dit gaat presteren. Je gaat bus breedte missen, maar in hoeverre het uitmaakt is de vraag. GA102 is een gevoelige en onvoorspelbare chip die constant verrassende resultaten geeft. Nu we weten dat Lovelace eigenlijk hetzelfde is qua rasterisation, gaat het echt afhangen waar de bottlenecks precies zitten. Ik denk dat data fetchback beter zal gaan omdat je nu zoveel meer L2 cache hebt. Leuk voor RT en wat rasterisation die afhankelijk is van al berekende data, maar ik weet niet hoe doorslaggevend het gaat zijn. Want het vermoeden is dat de problemen meer in scheduling en occupency zitten waar ze dus niks aan lijken te doen.

Tweede is dat er ook nog eens de vraag speelt wat er gaat gebeuren met de processoren. Het is bekend dat Nvidia een grotere CPU overhead heeft en meer op single thread hangt. Qua CPU gaan we alleen niet erg vooruit met Raptor Lake en Zen 4 over de 5800X3D en Alder Lake. Het is dus ook de vraag of die CPU's afdoende zijn. Derde is wat GPU clock speeds gaan doen in dit verhaal. Ik zie het zo gebeuren dat de verschillen groter gaan worden als je bijvoorbeeld een RX6900XT als basispunt neemt. De ene game loopt uit, de ander zakt weg en qua resoluties kan het ook nog leuk worden.


Het is gewoon tijd voor benchmarks. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

*knip* offtopic

[ Voor 94% gewijzigd door br00ky op 06-10-2022 14:29 ]

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +5 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19:58

XanderDrake

Build the future!

Afbeeldingslocatie: https://preview.redd.it/pw4tqrwmv0s91.jpg?width=640&crop=smart&auto=webp&s=f7766d8020e010932bf05ae3f4cf4cb7a50fc792
Naast de Xbox Series S, een complete console :+

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
*knip* offtopic

@XanderDrake

Ook niet zo vreemd, want de XBox is een APU. Vanuit het perspectief van een systeem met een APU en unified memory, is een desktop PC met een discrete videokaart dubbel uitgevoerd. Je hebt twee xPU's en 2 keer een bak geheugen.

[ Voor 39% gewijzigd door br00ky op 06-10-2022 14:29 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09:39
DaniëlWW2 schreef op donderdag 6 oktober 2022 @ 11:38:
[...]

Tweede is dat er ook nog eens de vraag speelt wat er gaat gebeuren met de processoren. Het is bekend dat Nvidia een grotere CPU overhead heeft en meer op single thread hangt. Qua CPU gaan we alleen niet erg vooruit met Raptor Lake en Zen 4 over de 5800X3D en Alder Lake. Het is dus ook de vraag of die CPU's afdoende zijn. Derde is wat GPU clock speeds gaan doen in dit verhaal. Ik zie het zo gebeuren dat de verschillen groter gaan worden als je bijvoorbeeld een RX6900XT als basispunt neemt. De ene game loopt uit, de ander zakt weg en qua resoluties kan het ook nog leuk worden.


Het is gewoon tijd voor benchmarks. :+
Mja, PCGH deed hier recent een redelijk uitgebreide vergelijking over in hun 7950x review door alles zowel te testen op AMD als Nvidia GPUs. Kan je hier vinden. En ze testen wel echt CPU bottlenecks door zo laag mogelijk te gaan qua resolutie.

Voor de 5800x3D en 12900k had je 1% verschil en voor de 7950x 4% in het voordeel van AMD. Ik zou het haast gelijk noemen want gemiddeld zijn het verwaarloosbare verschillen. Wel zijn er soms uitschieters maar dat kan in beide richtingen gaan. Als je bvb naar Spider-man kijkt is het 20% in voordeel van Nvidia.

Afhankelijk van welke games je test kan je dus makkelijk een bepaalde verhaallijn creëren door bvb 4 uitschieters te kiezen in het voordeel van AMD of Nvidia terwijl als je het over 20 willekeurige games doet er amper nog verschil is.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

XanderDrake schreef op donderdag 6 oktober 2022 @ 13:08:
[Afbeelding]
Naast de Xbox Series S, een complete console :+
Volgens mij zijn de AIB modellen nog groter. Je hebt als tweaker geen baksteen meer nodig als je iets door de ruiten wilt gooien. Wat een bakbeesten.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Steve is er preventief klaar mee en sloopt de boel gewoon. :+


Serieus dan. Deze is leuk omdat iemand van Nvidia ingaat op koelontwerpen alsmede zaken zoals ventilatoren. :)

[ Voor 21% gewijzigd door DaniëlWW2 op 06-10-2022 18:11 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +4 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Sp3ci3s8472 schreef op donderdag 6 oktober 2022 @ 17:09:
[...]


Volgens mij zijn de AIB modellen nog groter. Je hebt als tweaker geen baksteen meer nodig als je iets door de ruiten wilt gooien. Wat een bakbeesten.
Jay met de nieuwe Strix + Lian-Li Lancool.

Afbeeldingslocatie: https://p198.p4.n0.cdn.getcloudapp.com/items/8Lu11w9W/d2d35b07-d130-4a05-a298-9e5a3c301fd1.png?source=viewer&v=d5cbf42c85e390d151a3926eb507cb8d

Dit gaat gewoon echt te ver 8)7

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

*knip* offtopic

[ Voor 82% gewijzigd door br00ky op 07-10-2022 13:40 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

DaniëlWW2 schreef op donderdag 6 oktober 2022 @ 09:08:
[...]


Daar was twee jaar geleden heel wat gedoe over omdat die MSRP modellen blijkbaar totaal geen marge hadden. Dat ging zover dat de AIB partners dat gingen vertellen. Dus werden in het begin voornamelijk alleen de duurdere modellen gemaakt en was iedereen boos op elkaar. We weten ook via EVGA dat het zeker geen lose speculatie was. En toen begon de mining pas echt...


[...]

Het is gelukkig best wel simpel. Nvidia heeft dit probleem weggenomen door qua rasterisation gewoon Ampere te blijven gebruiken. Wel hebben ze enorme tensor cores toegevoegd en waarschijnlijk is de RT ook iets beter. Los daarvan kan ik werkelijk niemand dit aanraden voor omgerekend €1100. Daarvoor zou ik iets exceptioneels willen zien, niet een RTX3080Ti met betere RT waarbij de DLSS verbetering ook een groot twijfelpunt zijn. Want die kant gaat het op. Dat is $500/€600 materiaal, niet $900/€1100.
Nouja, 600 euro... Een 3080Ti koop je ook niet voor 600 euro, maar voor minimaal 1000 euro. Die DLSS vind ik an sich een mooie upgrade; ik was na het zien van de screenshots met artefacts huiverig, maar zie het in beweging domweg niet (obv de analyse van Digital Foundry). Ja, in een perfecte wereld was deze GPU niet zo duur (en de 3080Ti ook fors goedkoper), maarja. De realiteit is anders.

Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Amateurs bij ASUS zeg. Dit is pas een grote videokaart :P
Afbeeldingslocatie: https://tweakers.net/i/SVYfeWxrsEnate2vkYV0_JzoN84=/800x/filters:strip_icc():strip_exif()/f/image/T843HV9BhCNfnm8K592m99LV.jpg?f=fotoalbum_large

Gigabyte:
L=358.5 W=162.8 H=75.1 mm

ASUS:
357.6 x 149.3 x 70.1mm

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ItalianStyle
  • Registratie: Juni 2022
  • Laatst online: 05-04-2023
Wat een enorm grote koelers maar zo op het eerste oog gaat het makkelijk in mijn kast passen met radiator er voor.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Thomas schreef op donderdag 6 oktober 2022 @ 20:45:
[...]


Nouja, 600 euro... Een 3080Ti koop je ook niet voor 600 euro, maar voor minimaal 1000 euro. Die DLSS vind ik an sich een mooie upgrade; ik was na het zien van de screenshots met artefacts huiverig, maar zie het in beweging domweg niet (obv de analyse van Digital Foundry). Ja, in een perfecte wereld was deze GPU niet zo duur (en de 3080Ti ook fors goedkoper), maarja. De realiteit is anders.
offtopic:
En sinds wanneer geef ik iets om multinationals hun winstmarges? :P
Het kan me niks schelen wat Nvidia denkt dat iets waard is. Of het nu de RTX4080 12GB of de RTX3080Ti die kunstmatig maar net boven de €1000 blijft. Het gaat erom wat jij als consument denkt dat het waard is. Ik zie je terecht vraagtekens plaatsen bij de prijzen van Nvidia en daarom hamer ik hier nu ook op. De enige logische gedachte is dan ook wachten. Je hebt twee jaar om er alsnog een te kopen, maar eerst maar eens kijken of Nvidia dit vol gaat houden. FOMO bestaat hier niet. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +9 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
2020: Moet een nieuwe voeding kopen voor mijn 3090
2022: Moet een nieuwe kast kopen voor mijn 4090
2024: Moet een nieuw huis kopen voor mijn 5090
2026: Ik ga maar in mijn 6090 wonen

[ Voor 3% gewijzigd door Ludewig op 06-10-2022 22:38 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 14:54
zal wel aardig aan het pci-e slot gaan hangen.

Mechwarrior Online: Flapdrol

Pagina: 1 ... 118 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.