Acties:
  • +2 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 18-07 21:58
CMT schreef op vrijdag 22 september 2023 @ 11:52:
@PjotrX
Maar als settings niet werden toegepast dan moet dat gelijk zichtbaar zijn in de vergelijking.
Tot nu toe heb ik duidelijke verschillen gezien tussen Native, DLSS en DLSS+RR.
Kan het niet gewoon zijn dat de denoiser veel te aggressief is i.c.m. RR?
TPU geeft verder zelf ook aan dat er veel gedoe is met settings, dus ze zijn op de hoogte van de quirks en 'bugs'.

Voor de conclusie veranderd er echter niets. Wanneer de afbeeldingen met elkaar vergeleken worden is de statement die TPU maakt is gewoon onwaar. Ik zou haast denken dat de titel clickbait is of dat ze op de DLSS bandwagon gesprongen zijn.

Maar RR schijnt ook een flinke beperking te hebben op dit moment:

[...]


Wat bij mij de vraag oproept waarom het niet op Native werkt als RR de denoiser alleen 'intelligenter' maakt met patroon herkenning?
Dit is speculatie, maar ik gok dat ze verschillende neurale netwerken gebruiken voor verschillende mate van upscaling en ze gewoon nog geen neurale netwerk hebben getraind voor geen upscaling. Data verzamelen en trainen kost immers tijd. Ze hebben eerst upscaling geprioriteerd omdat je Cyberpunk met path tracing niet echt kan draaien zonder upscaling.

Als ik zo zie welke effecten er fout gaat is de meerendeel niet echt te weiten aan denoising zoals ik dat ken. Dat van de licht in de container bijvoorbeeld is gewoon een missend asset. Dit is ook te zien in de promo van nvidia zelf (in de laatste afbeelding verdwijnen de light-flares) Ook mist de wamte/turbelance-effect van de trommel onder de container en zijn er bomen anders belicht in de laatste afbeelding. En mist er inderdaad een texture in de reflectie. Een te aggresieve denoiser zou dit echt niet doen en zou alles juist meer blurry moeten maken. Ook zou het instabiel zijn in de tijd, als je bijvoorbeeld dicht bij zou komen zou de effect ineens wel moeten renderen omdat het te groot is om te denoisen en dat zou echt enorme pop-in introduceren en het spel gewoon onspeelbaar maken.

De vraag is nu eerder of Cyberpunk wel een goede test-case is. Als je een verbetering of een verslechtering ziet, je weet niet of dat komt door ray-reconstruction omdat het spel nog te veel bugs heeft en beide rendering-paths duidelijk niet hetzelfde zijn en soms zelfs andere assets lijken te gebruiken. Ook met die settings, TPU noemt dat soms de sharpening slider van positie veranderd, of dat dlss op auto wordt gezet. Dan vraag je je af of uiteindelijk de settings in de menu wel dezelfde settings zijn waar het spel op draait, ook na een restart.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 14:46
PjotrX schreef op vrijdag 22 september 2023 @ 12:59:
[...]

Dit is speculatie, maar ik gok dat ze verschillende neurale netwerken gebruiken voor verschillende mate van upscaling en ze gewoon nog geen neurale netwerk hebben getraind voor geen upscaling. Data verzamelen en trainen kost immers tijd. Ze hebben eerst upscaling geprioriteerd omdat je Cyberpunk met path tracing niet echt kan draaien zonder upscaling,
Hmm dan is mij niet duidelijk hoe RR nu precies werkt, want de denoising vind plaats voor de upscaling.
En zo ver mij duidelijk is, is de denoising resolutie onafhankelijk omdat er alleen ruis zichtbaar is.
Als ik zo zie welke effecten er fout gaat is de meerendeel niet echt te weiten aan denoising zoals ik dat ken. Dat van de licht in de container bijvoorbeeld is gewoon een missend asset. Dit is ook te zien in de promo van nvidia zelf (in de laatste afbeelding verdwijnen de light-flares) Ook mist de wamte/turbelance-effect van de trommel onder de container en zijn er bomen anders belicht in de laatste afbeelding. En mist er inderdaad een texture in de reflectie. Een te aggresieve denoiser zou dit echt niet doen en zou alles juist meer blurry moeten maken. Ook zou het instabiel zijn in de tijd, als je bijvoorbeeld dicht bij zou komen zou de effect ineens wel moeten renderen omdat het te groot is om te denoisen en dat zou echt enorme pop-in introduceren en het spel gewoon onspeelbaar maken.
Oh ik bedoelde het ook meer in de zin van textures die veel details verliezen.
Op de 1e afbeelding is het grond reliëf effect veel beter met RR, maar de muur rechts op de afbeelding veel slechter. Ik geloof dus wel dat RR wat kan toevoegen, maar ze moeten dat los van DLSS beoordelen imho.
En niet met native vergelijken, maar met standaard PT.

Acties:
  • +1 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 18-07 21:58
CMT schreef op vrijdag 22 september 2023 @ 13:56:
[...]


Hmm dan is mij niet duidelijk hoe RR nu precies werkt, want de denoising vind plaats voor de upscaling.
En zo ver mij duidelijk is, is de denoising resolutie onafhankelijk omdat er alleen ruis zichtbaar is.
De denoising en upscaling vind in RR tegelijk plaats. Als je namelijk iets denoised haal je alle hoge frequenties uit je signaal waarna je ze niet meer kan reconstrueren met upscaling. RR is dus een aanpassing aan de bestaande upsampling van dlss, die houdt nu rekening mee met dat er enorm veel ruis in de aangeleverde beelden zit.
Wat game engine normaal doen is idd wel dat ze eerst een beetje denoisen(of eigenlikk blurren want de veel denoisers in games zijn niet meer dan dat) en de rest van de ruis laten ze over aan dlss of taa om eruit te filteren.

Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
GN zegt ook dat DLSSQ+FG zijn voordelen en nadelen heeft en beter is dan native maar op andere vlakken weer slechter. Native is dus niet meer het beste als het gaat om de grafische kwaliteit.

YouTube: Cyberpunk 2.0 Ray Reconstruction Comparison, DLSS 3.5, & Benchmarks

Ik denk dat als ik op de bank zit en ga gamen op de TV dat ik geen verschil ga zien. De tests die worden gedaan is meestal een statisch beeld met vergroting.

[ Voor 44% gewijzigd door 3DEXP op 22-09-2023 14:23 ]


Acties:
  • +2 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 14:46
Laat ik het zo stellen, wanneer je DLSSQ met Native vergelijkt, dan vergelijk in principe ook DLAA met TAA.
RR staat er los van, want daar is geen upscaling voor nodig (en dus geen DLSS).
Dat wordt ook aangegeven bij GN:


Ik hekel daarom uitspraken als DLSS2Q (+RR / +FG) is beter dan Native, want dat is te kort door de bocht genomen. Je vergelijkt een pakket aan upscaling oppoetsmiddelen met in de regel TAA + native resolutie.
Beiden hebben positieve en negatieve punten, maar een duidelijke winnaar is er niet naar mijn mening.
Dat zou Native + DLAA > Native + TAA zijn.

Maargoed Nvidia zal waarschijnlijk nooit DLAA werkbaar maken voor native, want ze zetten vol in op DLSS omdat anders RT niet speelbaar is met zoveel Rays.

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 29-06 10:36
CMT schreef op vrijdag 22 september 2023 @ 11:52:
Wat bij mij de vraag oproept waarom het niet op Native werkt als RR de denoiser alleen 'intelligenter' maakt met patroon herkenning?
RR is niet alleen een wat betere denoiser, het is volledig geintegreerd in DLSS upscaling. Upscaling en denoising hebben invloed op elkaar. Als je eerst upscaling doet, moet je denoiser rekening houden met wat je upscaler doet met raytracing noise. Als je eerst denoising doet heeft de upscaler minder informatie, en doe je de upscaling ook op denoiser artifacts. Daarom wordt nu RR en upscaling door hetzelfde algoritme gedaan. "Native" (DLAA) komt later, RR is overduidelijk nog een WIP.

Acties:
  • +5 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 25-07 12:04
CMT schreef op donderdag 21 september 2023 @ 17:40:
Ik heb de plaatjes vergeleken, maar beter dan native is erg wensvol of ze hebben een MyFi definitie van wat beter is. Er zijn bepaalde objecten die er 'beter' uitzien, maar dat kan ook vanwege een soort sharpening effect komen/inkleuren van 'schaduw'.
Sp3ci3s8472 schreef op vrijdag 22 september 2023 @ 01:19:
Rare conclussie van TPU want soms zijn de reflecties inderdaad scherper
In al die conclusies gebruiken ze het woord "beter", maar bedoelen ze "scherper". Maar scherper is niet altijd beter. De reflecties worden op veel plaatsen inderdaad scherper, maar dat is vaak juist slechter omdat het om een diffuus oppervlak gaat en je in de echte wereld daar helemaal geen scherpe reflectie zou zien. Vervolgens wordt er ook DLSS* toegepast, met sharpening, waardoor er ook veel objecten over-sharpened zijn (en je ineens aliasing krijgt), wat wederom niet beter is.

"Better than native" bestaat gewoon niet, mits native ook daadwerkelijk hetzelfde resultaat rendert, wat niet zo is. Ze krijgen niet dezelfde post processing en zien er alleen al daardoor anders uit. Ik grijp gewoon weer terug naar Control, omdat dat het eerste spel was waarbij men dat zei. En daar was het waar, met DLSS zag het er beter uit - maar alleen omdat de native render zo godvergeten lelijk was, met een berg vaseline die er in de upscaled versie simpelweg niet overheen ging (maar vervolgens wel sharpening kreeg).

Dit wordt veel boeiender wanneer je het zonder DLSS (wat dus wel met DLAA wordt) kunt gebruiken, zodat je daadwerkelijk kunt vergelijken. Dan heb je hetzelfde aantal pixels, hetzelfde aantal rays, hetzelfde aantal bounces en ga je dáár op proberen te verbeteren. In de huidige toestand is RR slechts de zoveelste pleister op de wonde die "verplicht" upscalen heeft veroorzaakt.


* wanneer ik DLSS zeg, heb ik het altijd over de upscaling techniek. De naam DLSS is sowieso al fout voor die techniek (het is geen supersampling :E), maar al die andere technieken noem ik wanneer nodig gewoon bij hun eigen naam en horen wat mij betreft simpelweg niet onder dezelfde noemer.

Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 14:46
@Werelds
Dat probleem speelt ook bij FSR2.0 helaas. Er wordt door sommige game developers scheutig gebruik gemaakt van de FSR sharpening filter voor het upscaling wauw effect. Terwijl DLSS dan bijv. geen sharpening heeft in de game of heel weinig. Maar dat maakt alles ook erg kunstmatig tot aan nep toe en beter dan 'native' wordt dan een filosofische discussie. Velen zullen om die reden dan echter FSR er beter vinden uitzien dan DLSS of native.

Maarja er zijn velen, waaronder de tweakers hier, die de kleuren van de eigen monitor geweldig vinden en 'mooi', niet realiserend dat ze naar een dik oververzadigd scherm zitten te kijken (SDR sRGB content bekijken op een scherm dat bijna de DCI-P3 kleurruimte dekt). Gaan ze terug naar een scherm dat de kleuren wel correct weergeeft (zoals het overeenkomt met de werkelijkheid), dan is het opeens een slecht scherm met vale kleuren..

@Help!!!!
:z Wordt een beetje saai zo om de voorspelling van jaren geleden te zien uitkomen. Ik denk dat AMD en Intel ook in het AI bootje gaan meevaren omdat de doorsnee consument alleen maar in FPS geïnteresseerd is.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Wat ik zo typerend aan de discussie vind, is hoe erg Nvidia hun marketing in staat is geweest om Nvidia hun visie tot de standaard te maken. En dat hebben ze gedaan omdat Nvidia eigenlijk al vanaf 2018 een droom verkoopt die ze niet waar kunnen maken. Die droom is ray tracing.

De hardware kan alleen stelselmatig de beloften van marketing niet aan. Vervolgens is het telkens hetzelfde patroon:
-Nvidia marketing belooft zaken.
-Hardware kan het niet aan.
-Er worden software oplossingen bedacht ter compensatie.
-Software oplossingen zijn meestal in een zeer beperkt aantal games beschikbaar en/of functioneren ook niet zonder compromis.

Maar ondertussen gaat het constant over RT dit, RT dat, je moet Nvidia hebben etc.
Je kan simpelweg bijna geen discussie over RT in games hebben zonder Nvidia hun marketing, beloften, software features etc. Ze domineren de gehele discussie zo volledig dat elk alternatief bijna per definitie verdrongen is. Het is "the Nvidia way or no way".

En dat vind ik teleurstellend en tot op zekere hoogte ook kwalijk. Want ik ben niet bepaald onder de indruk van hoe Nvidia dit aanpakt. De nadruk ligt er constant op concepten en implementaties die de meeste van hun eigen hardware niet eens aankan. Uiteraard kan de huidige generatie hun high end, het nieuwste net aan. Dus RTX2080Ti, RTX3090 en RTX4090. De rest trekt het vaak al niet. Het is een doodlopend spoor voor iedereen die niet elke keer weer een dergelijk kostbare videokaart wil kopen.

Ondertussen zijn er zoveel alternatieven te bedenken. Niet alles moet hardware RT zijn om er goed uit te zien. Je hebt genoeg andere vormen van ray tracing en gerelateerde technieken. Ook is er nauwelijks ruimte voor fundamentele keuzes waar je wel en geen ray tracing voor toepast. Er zijn te veel "RTX" games die een harde scheiding aanbrengen tussen wel of geen RT. Intelligentie toepassing van raster en RT technieken is vaak ver te zoeken. Dit voor belichting, shadows en reflections. Je hebt geen RT nodig als je het verschil toch niet of nauwelijks kan zien tegenover een raster techniek die een fractie van de rekenkracht kost. En dat kan gewoon. UE5 Lumen is er het voorbeeld van.

Maar zo heb je we steeds de "noodzaak" van upscalers, interpolatie, latency reductie en andere algoritmen. Zaken die allemaal niet zonder hun eigen nadelen zijn. Deze komen voort uit de wens om je ray tracing hardware ook te kunnen gebruiken in games.
Ik hoef alleen maar te kijken naar wie dit organiseerde en wie wel en niet uitgenodigd zijn.
Klassiek voorbeeld van "sponsored content"...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Lumen is tot nu toe nog zwaarder dan RT in tech demo's wat ik heb ervaren. HW RT gaat wat rapper.

Edit

De meeste RT games hebben hebben ook wel een RT low, medium of high setting.

[ Voor 31% gewijzigd door 3DEXP op 25-09-2023 21:54 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 29-07 22:34

Sp3ci3s8472

@ 12 graden...

3DEXP schreef op maandag 25 september 2023 @ 21:32:
Lumen is tot nu toe nog zwaarder dan RT in tech demo's wat ik heb ervaren. HW RT gaat wat rapper.

Edit

De meeste RT games hebben hebben ook wel een RT low, medium of high setting.
Wat bedoel je? Lumen is er zowel op software niveau en ook op hardware niveau waar gewoon gebruik wordt gemaakt van RT hardware.
Indien Lumen van de RT hardware gebruik maakt is het mooier, maar ook zwaarder. Het is alleen goed om te zien dat je 90% van het resultaat al kan halen met software Lumen. Ik pak dit percentage even uit de lucht gezien het een tijd geleden is dat ik de vergelijkingen heb gezien.

Dus mijn vraag wat bedoel je met HW RT gaat wat rapper? Heb je een vergelijking waar Lumen met RT wordt vergeleken waarbij "HW RT" beter presteerd of er beter uit ziet? Als je met bepaalde claims komt dan moet je ze ook onderbouwen.


Edit: geen tijd om het nu te kijken gezien de tijd, maar voor andere geinteresseerden:


Mocht je een vergelijking pakken, waarin Lumen met RT wordt vergeleken; pak er dan wel een waar de nieuwste versie van de engine wordt gebruikt, gezien Lumen ondertussen ook weer beter is geworden...

[ Voor 19% gewijzigd door Sp3ci3s8472 op 26-09-2023 01:56 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 29-07 22:34

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op maandag 25 september 2023 @ 13:00:
Wat ik zo typerend aan de discussie vind, is hoe erg Nvidia hun marketing in staat is geweest om Nvidia hun visie tot de standaard te maken. En dat hebben ze gedaan omdat Nvidia eigenlijk al vanaf 2018 een droom verkoopt die ze niet waar kunnen maken. Die droom is ray tracing.

De hardware kan alleen stelselmatig de beloften van marketing niet aan. Vervolgens is het telkens hetzelfde patroon:
-Nvidia marketing belooft zaken.
-Hardware kan het niet aan.
-Er worden software oplossingen bedacht ter compensatie.
-Software oplossingen zijn meestal in een zeer beperkt aantal games beschikbaar en/of functioneren ook niet zonder compromis.

Maar ondertussen gaat het constant over RT dit, RT dat, je moet Nvidia hebben etc.
Je kan simpelweg bijna geen discussie over RT in games hebben zonder Nvidia hun marketing, beloften, software features etc. Ze domineren de gehele discussie zo volledig dat elk alternatief bijna per definitie verdrongen is. Het is "the Nvidia way or no way".

En dat vind ik teleurstellend en tot op zekere hoogte ook kwalijk. Want ik ben niet bepaald onder de indruk van hoe Nvidia dit aanpakt. De nadruk ligt er constant op concepten en implementaties die de meeste van hun eigen hardware niet eens aankan. Uiteraard kan de huidige generatie hun high end, het nieuwste net aan. Dus RTX2080Ti, RTX3090 en RTX4090. De rest trekt het vaak al niet. Het is een doodlopend spoor voor iedereen die niet elke keer weer een dergelijk kostbare videokaart wil kopen.

Ondertussen zijn er zoveel alternatieven te bedenken. Niet alles moet hardware RT zijn om er goed uit te zien. Je hebt genoeg andere vormen van ray tracing en gerelateerde technieken. Ook is er nauwelijks ruimte voor fundamentele keuzes waar je wel en geen ray tracing voor toepast. Er zijn te veel "RTX" games die een harde scheiding aanbrengen tussen wel of geen RT. Intelligentie toepassing van raster en RT technieken is vaak ver te zoeken. Dit voor belichting, shadows en reflections. Je hebt geen RT nodig als je het verschil toch niet of nauwelijks kan zien tegenover een raster techniek die een fractie van de rekenkracht kost. En dat kan gewoon. UE5 Lumen is er het voorbeeld van.

Maar zo heb je we steeds de "noodzaak" van upscalers, interpolatie, latency reductie en andere algoritmen. Zaken die allemaal niet zonder hun eigen nadelen zijn. Deze komen voort uit de wens om je ray tracing hardware ook te kunnen gebruiken in games.


[...]


Ik hoef alleen maar te kijken naar wie dit organiseerde en wie wel en niet uitgenodigd zijn.
Klassiek voorbeeld van "sponsored content"...
8K gaming :+ :+ :

Acties:
  • 0 Henk 'm!

  • Cidious
  • Registratie: Mei 2005
  • Laatst online: 04-07 15:14

Cidious

The Bloody Gent

4080 dan toch maar vervangen voor 4090. Heb nu 200 uur op de klok met Starfield vind de texture mods wel erg fijn spelen... Maar die vullen heel makkelijk 16GB VRAM buffer en dan krijg ik zwarte schermen met alleen de hud zichtbaar haha.

Ik ga de 4080 wel missen. Die draait tijdens games meestal tussen de 250-280W en amper hoorbaar met FE koeler. De 4090 is een ander verhaal.. 400W+

4080 efficiency koning. Maar goed heb nu een kaart die een tijdje mee kan met 24GB en ben aan het wachten op ARK Survival Ascended UE5.3.

@CMT Nu hebben we wel bijna exact dezelfde setup haha.

R7 9800X3D + ASUS ROG STRIX X870E-E + RTX 4090 FE + 48GB TG Xtreem 8200 CL38


Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Sp3ci3s8472 schreef op dinsdag 26 september 2023 @ 01:41:
[...]


Wat bedoel je? Lumen is er zowel op software niveau en ook op hardware niveau waar gewoon gebruik wordt gemaakt van RT hardware.
Indien Lumen van de RT hardware gebruik maakt is het mooier, maar ook zwaarder. Het is alleen goed om te zien dat je 90% van het resultaat al kan halen met software Lumen. Ik pak dit percentage even uit de lucht gezien het een tijd geleden is dat ik de vergelijkingen heb gezien.

Dus mijn vraag wat bedoel je met HW RT gaat wat rapper? Heb je een vergelijking waar Lumen met RT wordt vergeleken waarbij "HW RT" beter presteerd of er beter uit ziet? Als je met bepaalde claims komt dan moet je ze ook onderbouwen.


Edit: geen tijd om het nu te kijken gezien de tijd, maar voor andere geinteresseerden:
[YouTube: Fortnite's Unreal Engine 5 Upgrade Reviewed - Lumen/Nanite at 60FPS - PS5 vs Xbox Series X/S + PC!]

Mocht je een vergelijking pakken, waarin Lumen met RT wordt vergeleken; pak er dan wel een waar de nieuwste versie van de engine wordt gebruikt, gezien Lumen ondertussen ook weer beter is geworden...
Je zal eerst op de claims van @DaniëlWW2 moeten wachten :) Ik zal vanavond eens kijken of ik tijd heb om te testen. Er zijn tech demo's genoeg maar niemand durft de performance te vergelijken.

8k gaming lukt aardig maar je moet wel wat instellingen terug draaien. Gisteren heb ik SWJS nog op 8k gespeeld met gemiddeld 70 fps waar bij RT aan staat en de rest ook voluit.

Fort Solis is de eerste Unreal Engine 5.2 game met nanite en lumen die ook echt mooi is en al een tijdje is te spelen. De game komt meer over als een tech demo. De game is wel erg zwaar.

YouTube: Fort Solis - Official Launch Trailer | gamescom 2023

[ Voor 8% gewijzigd door 3DEXP op 26-09-2023 08:15 ]


Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 25-07 12:04
3DEXP schreef op dinsdag 26 september 2023 @ 07:56:
[...]


Je zal eerst op de claims van @DaniëlWW2 moeten wachten :) Ik zal vanavond eens kijken of ik tijd heb om te testen. Er zijn tech demo's genoeg maar niemand durft de performance te vergelijken.
Welke claims? Hij zegt alleen dat niet alle RT in hardware (specifiek in een fixed pipeline) hoeft, wat Lumen inmiddels heeft bewezen. Lumen maakt verder wel gebruik van die hardware wanneer mogelijk.

Is RT doorgaans sneller in "hardware" dan in "software"? Ja duh, water is ook nat. Maar Lumen is helemaal niet in "software". Software renderen gebruiken we doorgaans voor het renderen op een CPU, dat is niet wat Lumen doet - althans niet geheel, maar dat geldt ook voor "hardware" RT. Lumen maakt gretig gebruik van compute shaders en blijft dus gewoon gebruik maken van je GPU. Het verschil zit hem vooral in hoe ze bepalen wat er belicht moet worden, de "software" aanpak is daar minder accuraat (werkt niet op triangles maar meshes) en ondersteunt minder typen meshes.

De stap daarna is in beide gevallen gewoon op dezelfde ALU's. Dit is een dingetje dat hartstikke verkeerd begrepen wordt door de meeste mensen, net zoals dat bij PhysX het geval was, waar velen dachten dat "GPU PhysX" allerlei dingen deed die het helemaal niet deed (de belangrijkste physics hebben altijd op de CPU gedraaid). Het daadwerkelijk belichten van een triangle en berekenen van het kleurtje dat een pixel moet krijgen wordt niet in de RT hardware gedaan. De RT units zijn er enkel om bij te houden waar dingen zijn en welke rays iets raken. En dat is het stukje dat Lumen dus met een benadering (van de benadering van de benadering...nee, ik heb hier geen typo gemaakt :p) aan pakt op GPU's zonder RT units, zodat die GPU's toch nog een vorm van RT kunnen krijgen. Heb je wel RT units in je GPU? Dan gebruikt Lumen die gewoon.

En dat is @DaniëlWW2's andere punt: veel RT implementaties gooien hun baked lighting er bijna helemaal uit, of hebben een implementatie daarvan die slechter is dan games van 10 jaar geleden. Dat maakt de RT on/off vergelijking uiteraard volstrekt oneerlijk, maar betekent ook dat je zonder RT ineens een verrekt lelijk spel voor je neus krijgt. Met Lumen is ook dat niet het geval, dat degradeert veel netter dan veel andere implementaties. Het is geen RT on/off situaties, maar het is meer/minder RT.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En dan nog een laatste toevoeging. :)
Wat mij dwars zit is dat RTX implementaties zo vaak gericht zijn om net te werken op de beste huidige RTX videokaart, vaak met de hele lijst aan Nvidia exclusieve features. Bijna niemand die het dus aan kan zetten. Dat hekel ik omdat het niet nodig is. Ik wil een aanpak zien die gamers met "mindere" videokaarten (nota bene is een beetje acceptabele midrange videokaart tegenwoordig €500 of meer :X ), ook in staat stelt om tenminste bepaalde RT settings te kunnen gebruiken.

Vervolgens zijn er voor zowel Cyberpunk als Witcher 3 dus mods die de boel enorm optimaliseren voor minimaal verlies in kwaliteit. Niet alleen voor oudere Nvidia generatie hardware zijn de uplifts in de tientallen procenten, voor Radeon is het vaak nog veel meer. Dat zegt mij dat het niet goed in elkaar zit. Ook moet ik constateren dat de fijnmazigheid qua settings ook wel eens te wensen over laat. Mijn interesse in RT ligt voornamelijk bij GI. Dat is de grootste winst voor de relatief minste impact. Maar alleen GI aanzetten kan al niet in Cyberpunk. Er komen dingen mee. Ook kan ik niet instellen dat ik GI wil beperken tot de directe speelwereld en niet op grote afstanden wil, waar de meerwaarde van RT sterk gereduceerd word. Dat doen die mods dus mede.

En dan zie ik wat Lumen kan qua GI met voornamelijk "software RT". Dat is echt een totaal andere ervaring en het is er perfect voor, omdat GI over het algemeen niet die extreme precisie vraagt. De precisie van hardware RT kan en moet je naar mijn mening bewaren voor waar het nodig is. Reflections en zaken direct in je directe zichtveld. Denk aan een zaklamp of laser op je geweer in een fps of een spiegel of een open stuk water waarmee je wat doet qua gameplay waardoor reflections wat toevoegen. GI is namelijk zeker een duidelijke impact op gameplay. Je ziet het meteen en het verschil is enorm. Reflections zijn dat zeker niet. Shadows zit ertussen. Je kan heel ver komen met baked light, maar er zijn shadows die software RT of zelfs hardware RT vragen. Daarin moet een balans gevonden worden omdat hardware RT een uiterst beperkt middel is.

Hebben we ook nog "RT gerelateerde" technieken zoals ray marching.
YT compressie verpest het effect, maar dit had je al in 2019. Dit is zeker niet mis qua belichting, zeker voor een inmiddels oudere game. Hier heb je geen RT hardware voor nodig.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 18-07 21:58
Werelds schreef op dinsdag 26 september 2023 @ 08:40:
[...]
En dat is @DaniëlWW2's andere punt: veel RT implementaties gooien hun baked lighting er bijna helemaal uit, of hebben een implementatie daarvan die slechter is dan games van 10 jaar geleden. Dat maakt de RT on/off vergelijking uiteraard volstrekt oneerlijk, maar betekent ook dat je zonder RT ineens een verrekt lelijk spel voor je neus krijgt. Met Lumen is ook dat niet het geval, dat degradeert veel netter dan veel andere implementaties. Het is geen RT on/off situaties, maar het is meer/minder RT.
Een groot punt wat men altijd mist in de discussie om het nut ray-tracing is dat het alleen het gebruik van rasterization veel meer werk van een team verwacht. Je hebt namelijk een opeenstapeling van workarounds op workarounds. (Er is een reden dat de filmindustrie over gegaan is op ray-tracing, dan hoefden ze niet honderden fill-lights in scene's te proppen en eindeloos te tweaken.) Niet elk team heeft de mankracht en kennis van CD Project RED of Naughty Dog, daarom zie je bij Cyberpunk minder verschil in ray-tracing on/off dan bij een ander game die door een kleiner team gemaakt is. En het gaat niet alleen maar om mankracht, maar ook om kennis. De game-industrie is enorm gegroeid maar om al de kennis op te doen heb je tientallen jaren ervaring nodig. Gevolg is dat teams hun senior posities moeilijk kunnen vullen.
Ook brengt het limitaties op de art-direction, je hebt ineens veel meer statische scene's, of de zon komt altijd van dezelfde kant en noem maar op. Neem nu Starfield, die doet niet aan ray-tracing maar gebruikt wel veel procgen. Gevolg is nu dat de belichting enorm slecht is sommgie delen van het spel. Ander voorbeeld is Jedi Survivor. Deze had ingezet voor ray-tracing aan het begin en dus heeft ie een art-direction met veel reflecties. Ze hebben laatst een patch toegevoegd met een performance-mode zonder ray-tracing voor consoles, resultaat is dat er overal ssr artifacts te zien zijn. Andere spellen die niet inzetten op ray-tracing kiezen bewust voor een art-direction met minder reflecties. Dit hebben wij als consumenten niet door, maar in de studios balen veel ontwikkelaars dat x en x en x niet kan omdat er wordt gewerkt met baked lighting.
Lumen van epic is impressive maar ik zie het nog steeds als een tussenstap. De software-versie van Lumen heeft namelijk best wel enorme beperkingen. Geen reflecties van characters, geen procgen en zo. Ook geeft het beperkingen aan je level want het is nog steeds mogelijk om light leaking te krijgen en dat betekend weer workaround op workaround (nu is full path-tracing ook niet zonder beperkingen maar die hebben veel minder impact). Het werkt goed in Fortnite omdat de art-direction er voor leent maar zal in een spel als Cyberpunk uit elkaar vallen zonder een hoop workarounds en effort van een groot team. En zelfs in Fortnite hebben ze veel omwegen moeten nemen om het goed uit te laten zien. Verder is Lumen epic-only en verreist het enorme engine en editor integratie en het gebruik van dingen zoals nanite en VSM om echt goed naar voren te komen. Andere ontwikkelaars hebben de mankracht en kennis niet echt om dit van de grond te krijgen maar zouden wel ray/path tracing in hun in-house engine kunnen inbakken.
En ik weet nog niet of Lumen wel zo netjes downscaled, als voorbeeld hebben we nu Fortnite maar die heeft een art-direction die goed werkt en heeft al een redelijk uitziend non-lumen variant. Als je nu kijkt naar spellen als Immortals of Aveum, dat is echt een drama. Bij Remnant 2 hebben ze wel gekozen voor het gebruik van Nanite maar gek genoeg geen Lumen gebruikt.

Acties:
  • +1 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
DaniëlWW2 schreef op dinsdag 26 september 2023 @ 10:07:
En dan nog een laatste toevoeging. :)
Wat mij dwars zit is dat RTX implementaties zo vaak gericht zijn om net te werken op de beste huidige RTX videokaart, vaak met de hele lijst aan Nvidia exclusieve features. Bijna niemand die het dus aan kan zetten. Dat hekel ik omdat het niet nodig is. Ik wil een aanpak zien die gamers met "mindere" videokaarten (nota bene is een beetje acceptabele midrange videokaart tegenwoordig €500 of meer :X ), ook in staat stelt om tenminste bepaalde RT settings te kunnen gebruiken.

Vervolgens zijn er voor zowel Cyberpunk als Witcher 3 dus mods die de boel enorm optimaliseren voor minimaal verlies in kwaliteit. Niet alleen voor oudere Nvidia generatie hardware zijn de uplifts in de tientallen procenten, voor Radeon is het vaak nog veel meer. Dat zegt mij dat het niet goed in elkaar zit. Ook moet ik constateren dat de fijnmazigheid qua settings ook wel eens te wensen over laat. Mijn interesse in RT ligt voornamelijk bij GI. Dat is de grootste winst voor de relatief minste impact. Maar alleen GI aanzetten kan al niet in Cyberpunk. Er komen dingen mee. Ook kan ik niet instellen dat ik GI wil beperken tot de directe speelwereld en niet op grote afstanden wil, waar de meerwaarde van RT sterk gereduceerd word. Dat doen die mods dus mede.

En dan zie ik wat Lumen kan qua GI met voornamelijk "software RT". Dat is echt een totaal andere ervaring en het is er perfect voor, omdat GI over het algemeen niet die extreme precisie vraagt. De precisie van hardware RT kan en moet je naar mijn mening bewaren voor waar het nodig is. Reflections en zaken direct in je directe zichtveld. Denk aan een zaklamp of laser op je geweer in een fps of een spiegel of een open stuk water waarmee je wat doet qua gameplay waardoor reflections wat toevoegen. GI is namelijk zeker een duidelijke impact op gameplay. Je ziet het meteen en het verschil is enorm. Reflections zijn dat zeker niet. Shadows zit ertussen. Je kan heel ver komen met baked light, maar er zijn shadows die software RT of zelfs hardware RT vragen. Daarin moet een balans gevonden worden omdat hardware RT een uiterst beperkt middel is.

Hebben we ook nog "RT gerelateerde" technieken zoals ray marching.
YT compressie verpest het effect, maar dit had je al in 2019. Dit is zeker niet mis qua belichting, zeker voor een inmiddels oudere game. Hier heb je geen RT hardware voor nodig.
[YouTube: Rain walk at night in Saint Denis | Red Dead Redemption 2 | Third Person View | 4K 60 FPS]
Cherry picking, want de meeste games met RT kom je prima weg met een RTX 3080, RTX 4060 Ti en hoger met DLSS 2 of FSR. 4k niet meegenomen.

Edit

Zelf de RTX 2070 Ti 3070 op 1080p. Ik weet niet of tweakers hier ook DLSS gebruikt.

review: Videokaart Best Buy Guide - De beste gpu's in september 2023

[ Voor 4% gewijzigd door 3DEXP op 26-09-2023 14:55 ]


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 25-07 12:04
PjotrX schreef op dinsdag 26 september 2023 @ 10:55:
Lumen van epic is impressive maar ik zie het nog steeds als een tussenstap.
Maar dat is de hardware nu ook, en dat zal voorlopig nog zo blijven :)

Dat is waar de schoen wringt. Je kunt een engine niet volledig op RT omschakelen als de hardware niet snel of wijd verspreid genoeg is en tegelijkertijd moet de hardware ook nog met rasterisation om kunnen gaan totdat alle engines op RT over zijn gegaan. Kip, ei.

De hardware is nog verre van compleet en snel genoeg. Portal RTX doet maar 25 SPP, tot maximaal 8 bounces (200 RPP totaal, kom ik zometeen op terug). Wil je dan 60 FPS halen, kun je met een 4090 niet verder dan 1080p gaan (dus voor 2160p is dat DLSS Performance). 1920 * 1080 * 200 = ~415 miljoen rays per frame, maal 60 geeft 24,9 "gigarays per seconde". Als ik je nu eens zeg dat een 2080 Ti volgens Nvidia "10 gigarays/sec" zou moeten kunnen doen? In de praktijk haalde men toen al slechts 3-4 op dat ding, omdat je na een hit allerlei ander werk moet doen en de RT cores dus simpelweg niet constant aan het werk kunnen blijven. De RT cores in Ada doen volgens Nvidia 4x zo veel per stuk; dus een 4090 zou zogenaamd 10 * 4 * (128 / 68) * (2505 / 1545) = ~122 gigarays/sec moeten kunnen doen. We halen er dus nog geen 5e uit. Waarom zou Nvidia toch niet meer met harde cijfers komen? ;)

En dat komt deels weer doordat er veel nog in "software" (lees: CPU) moet, er is 0,0 coherency in de RT units en hiërarchie zit volledig aan de CPU kant.

Om dan terug te komen op RPP, wanneer het niet realtime hoeft, gaat men doorgaans ruim over de 500 (vaak zelfs 1000+) heen met random sampling en gaat er dan pas een denoiser over heen (denoisers zijn altijd nodig, zelfs al zouden we 10000 RPP kunnen doen). Dus we zijn er nog *lang* niet. Wat dus ook betekent dat er hybride engines en GPU's moeten blijven. En zoals ik onlangs in het AMD draadje zei, kan dat met de huidige GPU ontwerpen niet echt vooruit.

En dan komen we bij het grootste probleem: beschikbaarheid. De realiteit is dat het allemaal te duur is voor het grootste deel van de PC gamers. En zolang het niet wijd verspreid is, zal het ook niet de kern van een engine worden, want daarmee beperk je jezelf tot een veel te kleine markt. Het maakt geen reet uit dat een 4060 Ti of 3070 grotendeels acceptabel presteert, want ze zijn veel te duur. Als Ampère en Ada (en daarmee ook RDNA3) dezelfde positionering hadden gehad als bijvoorbeeld Pascal (of zelfs Turing), was het marktaandeel van RT-capabele GPU's nu misschien wel zinvol geweest. In plaats daarvan heeft nu (5 jaar na de release van Turing) hooguit 25-30% van de markt toegang tot RT met zinvolle prestaties. En reken maar dat een groot deel van die GPU's al meerdere eigenaars gehad hebben.

Dingen zoals Lumen zijn hard nodig, waarbij RT niet lukraak toegepast wordt, maar enkel waar zinvol. Dat RT de ontwerpers veel tijd kan besparen is waar, maar in veel van die gevallen is de verbetering met RT ook nihil (als die er al is).
3DEXP schreef op dinsdag 26 september 2023 @ 14:37:
Cherry picking, want de meeste games met RT kom je prima weg met een RTX 3080, RTX 4060 Ti en hoger met DLSS 2 of FSR. 4k niet meegenomen.
Cherry picking? Cyberpunk en Witcher 3 zijn de paradepaardjes van Nvidia voor hun RT marketing, dus wat moet je anders kiezen? De mods hebben inmiddels laten zien dat er nauwelijks geoptimaliseerd is, waardoor het onevenredig veel slechter loopt op AMD en oudere Nvidia RTX GPU's. Zelfde soort onzin als met tessellation 12-13 jaar geleden.

Acties:
  • 0 Henk 'm!

  • Schip
  • Registratie: September 2023
  • Laatst online: 26-09-2023
*knip* hier is het forum nadrukkelijk niet voor bedoeld.

[ Voor 78% gewijzigd door Blaat op 26-09-2023 19:14 ]


Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Werelds schreef op dinsdag 26 september 2023 @ 16:50:
[...]
Cherry picking? Cyberpunk en Witcher 3 zijn de paradepaardjes van Nvidia voor hun RT marketing, dus wat moet je anders kiezen? De mods hebben inmiddels laten zien dat er nauwelijks geoptimaliseerd is, waardoor het onevenredig veel slechter loopt op AMD en oudere Nvidia RTX GPU's. Zelfde soort onzin als met tessellation 12-13 jaar geleden.
Metro Exodus Enhanced en Spiderman zijn ook Nvidia's paradepaardjes ik geloof Tombraider en Battlefield 1 ook. Gameontwikkelaars optimaliseren vaak niet zo best voor de PC. Er is ook nooit echt hard bewijs voor geweest dat Nvidia er achter zit, net zo min als dat AMD DLSS tegen houd met een zak geld, achteraf kunnen ze veel roepen.

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 14:46
@3DEXP
De benchmark suite van Tweakers is wel beperkt. Kijk liever bij Computerbase.de, waar ze met een veel breder pakket testen en waarbij ook individuele benchmarks zichtbaar zijn:

https://www.computerbase...._raytracing_in_1920__1080

Globaal gezien, kom je er niet met een 3060Ti of 3070. Vanaf een 3080 zou het kunnen, zij het kantje boord met een globaal 60 fps gemiddelde. Geen fijne speelervaring voor spellen die eronder duiken.
HardwareUnboxed test soms ook met een groot (40!) pakket aan spellen, maar die zetten de RT resultaten helaas niet apart en TPU test net als Tweakers met een beperkt games pakket voor RT.
Maar je noemt ook het sleutelwoord; DSSL/FSR en dat staat los van de RT vs Lumen (RT) discussie.

In mijn vriendengroep hebben ze allemaal een 1440p scherm en zijn het voor de rest redelijke casual gamers / weekend warriors (middelbare leeftijd werkenden). Absoluut niet van het type dat de "latest and greatest" hardware heeft, dus typische middenmoot. Dan is een 3080Ti toch wel het minimale voor RT zonder DSSL. Liever vanaf een 4070Ti/3090Ti voor een prettige speelervaring. Kaarten die > €800 kosten.

Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 18-07 21:58
Werelds schreef op dinsdag 26 september 2023 @ 16:50:
[...]

Dingen zoals Lumen zijn hard nodig, waarbij RT niet lukraak toegepast wordt, maar enkel waar zinvol. Dat RT de ontwerpers veel tijd kan besparen is waar, maar in veel van die gevallen is de verbetering met RT ook nihil (als die er al is).
Maar RT wordt niet lukraak toegepast, het wordt juist toegepast bij de meest belangrijke dingen zoals het vervangen van SSR, SSAO en shadow maps. Dit kan zelfs al op consoles, al dan wel in 30 fps modus. Ik ben niet eens dat de verbeteringen nihil zijn, Jedi Survivor laat zien dat je alleen daarmee al mooi spel kan maken met een nieuwe art direction. En hoewel de pc-poort enorm slecht was, waren de prestaties op de consoles best wel prima.
Ik ben ook niet helemaal eens dat we er lang niet zijn, Cyberpunk met PT en RR bewijst juist dat er al zijn. Kijk maar in de Cyberpunk forum van tweakers naar hoeveel mensen blij zijn met RT in het spel. Maar je hebt gelijk dat het alleen niet voor iedereen beschikbaar is, alleen maar voor de mensen met de nieuwste kaart. Maar daar is niets mis mee en dat betekend niet dat we volledig PT niet moeten verkennen. Als ontwikkelaar ben ik juist blij dat mensen dat doen en dat Nvidia daar aan trekt. Want als niemand dat nu doet dan komt er ook geen onderzoek en ontwikkeling in en zitten we met de volgende generatie consoles op iets dat het net niet is. RT is niet een switch die je omzet, je moet dat geleidelijk toevoegen en of dat via Lumen software gebeurt of dat je feature voor feature vervangt zoals in Cyberpunk, hangt van het spel af en je art direction en je team, want niet ieder team kan iets als Lumen in elkaar zetten. Maar uiteindelijk moet de kennis ergens mee opgedaan worden en moet je ook de hardware beschikbaar hebben.
Ik zie het maar zo, als de RT-hardware en generatie later beschikbaar was gekomen en Nvidia er minder aan had getrokken hadden we nu geen PT-versie van Cyberpunk gehad en was er pas zoiets 2 jaar later op de markt gekomen. Maar ik kan je verzekeren dat alle discussies rondom de nut van RT precies hetzelfde waren geweest. Ik ben dus blij dat Nvidia er eerder mee kwam dan later.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 14:46
Van de community moet je het hebben: https://videocardz.com/ne...a-with-ray-reconstruction
Bron: https://www.nexusmods.com/cyberpunk2077/mods/7415

Er is dus een mod dat DLAA op native mogelijk maakt met zelfs RR daarbij!
Ik heb helaas geen tijd om dit rustig te bekijken en vergelijkingen te doen in Cyberpunk (o.a. omdat ik het spel nog moet spelen). Voor mij persoonlijk zou het op z'n vroegst pas rond kerst zijn.
Maar als iemand daar wat beeldkwaliteit vergelijkingsmateriaal van zou willen posten, dan zou ik dat super vinden _/-\o_. Ben zeer benieuwd hoe DLSS zich nu echt verhoudt tot 'DLAA native'.

Acties:
  • 0 Henk 'm!

  • Cidious
  • Registratie: Mei 2005
  • Laatst online: 04-07 15:14

Cidious

The Bloody Gent

Cidious schreef op dinsdag 26 september 2023 @ 03:32:
4080 dan toch maar vervangen voor 4090. Heb nu 200 uur op de klok met Starfield vind de texture mods wel erg fijn spelen... Maar die vullen heel makkelijk 16GB VRAM buffer en dan krijg ik zwarte schermen met alleen de hud zichtbaar haha.

Ik ga de 4080 wel missen. Die draait tijdens games meestal tussen de 250-280W en amper hoorbaar met FE koeler. De 4090 is een ander verhaal.. 400W+

4080 efficiency koning. Maar goed heb nu een kaart die een tijdje mee kan met 24GB en ben aan het wachten op ARK Survival Ascended UE5.3.

@CMT Nu hebben we wel bijna exact dezelfde setup haha.
Sorry! verkeerde topic lol. FF niet goed gekeken.

R7 9800X3D + ASUS ROG STRIX X870E-E + RTX 4090 FE + 48GB TG Xtreem 8200 CL38


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 25-07 12:04
3DEXP schreef op dinsdag 26 september 2023 @ 17:26:
[...]


Metro Exodus Enhanced en Spiderman zijn ook Nvidia's paradepaardjes ik geloof Tombraider en Battlefield 1 ook. Gameontwikkelaars optimaliseren vaak niet zo best voor de PC. Er is ook nooit echt hard bewijs voor geweest dat Nvidia er achter zit, net zo min als dat AMD DLSS tegen houd met een zak geld, achteraf kunnen ze veel roepen.
Spiderman dat ook op AMD hardware moet draaien en dus niet op dezelfde manier over-the-top gaat ;)

TR, Metro en Battlefield zijn allemaal games die op de allereerste generatie RT hardware moesten draaien, dus ook maar bar weinig doen vergeleken met nieuwere games. Maar in Exodus Enhanced haal je het ook niet met een 3070.
PjotrX schreef op dinsdag 26 september 2023 @ 17:46:
Maar RT wordt niet lukraak toegepast, het wordt juist toegepast bij de meest belangrijke dingen zoals het vervangen van SSR, SSAO en shadow maps.
AO kan heel goed met baked lighting. Kost het meer tijd voor de artists? Absoluut, maar met RT kost het te veel voor 0,0 verschil 95% van de tijd.

RT Reflecties in plaats van SSR? Absoluut waar. Maar dat is juist wat @DaniëlWW2 zegt (en wat ik 5 jaar geleden al zei): uitgerekend GI hoeft niet 100% correct berekend te worden om al een groot verschil te maken, dus daar kun je met een hybride oplossing, waar je je RT ops frontload, een flinke visuele impact hebben met een veel kleinere performance impact. Reflecties daarentegen zijn juist iets waar je wél 100% accuraat wil zijn, én meer bounces wil hebben. Wederom moet dat echter met een hybride oplossing, omdat we simpelweg niet genoeg ray/pixel capaciteit hebben, dus moet je specifiek voor de reflecties RT doen.

Daarnaast is RT ook niet 100% tijdwinst, want de denoisers tweaken en de juiste keuzes voor de rays maken kost ook veel tijd om uit te vogelen. Zie W3, waar de mods juist de variabelen aanpassen omdat ze (gelukkig) wel bestaan.
Ik ben niet eens dat de verbeteringen nihil zijn, Jedi Survivor laat zien dat je alleen daarmee al mooi spel kan maken met een nieuwe art direction. En hoewel de pc-poort enorm slecht was, waren de prestaties op de consoles best wel prima.
Heb je wel eens gekeken naar de verbeteringen van RT in dat spel, of de technische implementatie? Ze gebruiken het voor AO en GI, maar enkel voor specifieke objecten (merendeel van AO/GI is gewoon baked), en voor sommige reflecties. Die eerste twee zie je vaak helemaal niet (wat vooral een ode is aan de baked kant van de engine, geweldig werk van de artists) en als je het wel ziet is het verschil miniem. Wederom zijn die reflecties wel overduidelijk - maar ook daar gebruiken ze gewoon SSR in veel gevallen. Ondanks dit alles, lever je alsnog 25% van je performance in - ik zou wel eens willen zien hoe het draait met enkel de reflecties via RT.
Ik ben ook niet helemaal eens dat we er lang niet zijn, Cyberpunk met PT en RR bewijst juist dat er al zijn. Kijk maar in de Cyberpunk forum van tweakers naar hoeveel mensen blij zijn met RT in het spel. Maar je hebt gelijk dat het alleen niet voor iedereen beschikbaar is, alleen maar voor de mensen met de nieuwste kaart. Maar daar is niets mis mee en dat betekend niet dat we volledig PT niet moeten verkennen. Als ontwikkelaar ben ik juist blij dat mensen dat doen en dat Nvidia daar aan trekt. Want als niemand dat nu doet dan komt er ook geen onderzoek en ontwikkeling in en zitten we met de volgende generatie consoles op iets dat het net niet is. RT is niet een switch die je omzet, je moet dat geleidelijk toevoegen en of dat via Lumen software gebeurt of dat je feature voor feature vervangt zoals in Cyberpunk, hangt van het spel af en je art direction en je team, want niet ieder team kan iets als Lumen in elkaar zetten. Maar uiteindelijk moet de kennis ergens mee opgedaan worden en moet je ook de hardware beschikbaar hebben.
Ik zie het maar zo, als de RT-hardware en generatie later beschikbaar was gekomen en Nvidia er minder aan had getrokken hadden we nu geen PT-versie van Cyberpunk gehad en was er pas zoiets 2 jaar later op de markt gekomen. Maar ik kan je verzekeren dat alle discussies rondom de nut van RT precies hetzelfde waren geweest. Ik ben dus blij dat Nvidia er eerder mee kwam dan later.
Cyberpunk ziet er goed uit vanuit technisch standpunt (persoonlijk vind ik het te "shiny"; veel van de reflecties zijn volstrekt onrealistisch), zeker als je gaat pixel peepen. Maar als 1080p vervolgens enkel op een 4090 met 60+ te doen is en 1440p al te veel is, trek ik de conclusie dat het te ver door is geslagen.

Dit is niet de eerste keer dat we zo'n nieuwe techniek krijgen. Maar voorheen was zo'n feature te tweaken (tessellation kon altijd aan of uit, met verschillende sample counts; MSAA idem dito) en werd er geoptimaliseerd voor de gangbare resolutie op midrange GPU's. Het probleem is echter dat midrange GPU's nu bijna de prijzen van enthusiast GPU's hebben en het prijs punt waar die GPU's vroeger zaten bijna dood is. 1080p is nog steeds de meest gangbare resolutie, dus als iets daar al bagger op draait en ongein als DLSS vereist voor acceptabele framerates zit er iets mis. We hebben al meer dan 20 jaar 1920x1080 (of toen nog x1200 op CRT :P) en 15 jaar geleden mocht je dat nog als "hoge" resolutie beschouwen (1680x1050/1200 of zelfs 1440x900 was toen het meest gangbaar denk ik), maar tegenwoordig zou 1080p als het absolute minimum beschouwd moeten worden. 1080p60 met goede visuals zou het streven moeten zijn, en dan op midrange GPU's (ik gebruikte bijna het woord betaalbaar, maar dat kan niet meer voor die groep gamers). Let op dat ik het hier niet over "ultra", "extra high" en dergelijke heb. Dat die presets als dikke stront door een trechter lopen mag, dat is altijd zo geweest. Die presets waren voor dezelfde groep mensen die een Mars/Ares of later Titan een goede koop vonden en dat is nu nog zo. Want juist die laatste preset sprong is waar je toen ook op de pixels in moest zoomen om verschil te zien. Maar RT on/off doet dat nu vaak niet, zet je het volledig uit dan wordt het vaak ineens wel erg lelijk - en er is dus niets tussenin.

Laat ik het anders stellen: dit is (visueel) waarschijnlijk de grootste sprong voorwaarts sinds Crysis (althans, dat zou het kunnen zijn). Trek je echter de vergelijking met wat dat spel toentertijd deed, vallen een aantal dingen op. Ten eerste moet je nu in veel gevallen pixel peepen om de verschillen te zien en zal 90% van de gamers de verbeteringen überhaupt niet zien, ook al vinden ze RT "geweldig". AO is het perfecte voorbeeld, want ik weet 100% zeker dat de meeste gamers niet eens weten wat dat is, dus weten ze ook niet dat ze moeten letten op de schaduw onder een bankje waar nu misschien een kleurtje van een lamp in de buurt doorlekt dankzij RT. Leg Crysis naast eender welk spel uit die tijd en de vooruitgang is meteen duidelijk - textures waren veel beter, volumetric lighting, dynamische schaduw, foliage met transparency (sprites begone! mostly :p), depth of field. En dat was allemaal met een berg aan physics en destruction (twee dingen die nu vaak missen :|). Toen was er ook veel meer te tweaken aan de settings; die dingen konden allemaal aan/uit of hadden meerdere niveaus. Nu is het in de meeste gevallen RT aan of uit, punt. Soms mag je AO, GI en reflecties apart aan/uit zetten, maar er is 0,0 controle over SPP of bounces.


Het grootste probleem is echter het gebrek aan coördinatie tussen de (nu 3) chip fabrikanten. Ze hebben elk hun eigen idee over wat en hoe er versneld moet worden, met als gevolg dat de daadwerkelijke RT implementatie niet te optimaliseren is voor alle 3. Maar geen van de 3 heeft daadwerkelijk vooruitgang geboekt met de versnelling van RT in z'n algemeen; ja, meer "x" per sec, maar ook meer niet dan dat, de missende RT elementen missen nog steeds. Box/triangle intersections, BVH, coherency, etc doen ze allemaal anders (of niet :D) en je kunt je engine dus onmogelijk voor allemaal optimaliseren.

Daarnaast is er het probleem van de GPU architecturen zelf. Daar heb ik het in het andere topic over gehad, met name Nvidia's architectuur is simpelweg niet schaalbaar, althans niet efficiënt, enkel met bruteforce. Die GPU's liggen ontzettend veel stil, hun volgende generatie moet flink op de schop, op 3nm of we gaan naar de 10 vierkante centimeter voor een GPU. Op N5/4N werkt hetzelfde truukje niet meer :)

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

PjotrX schreef op dinsdag 26 september 2023 @ 17:46:

Ik ben ook niet helemaal eens dat we er lang niet zijn, Cyberpunk met PT en RR bewijst juist dat er al zijn. Kijk maar in de Cyberpunk forum van tweakers naar hoeveel mensen blij zijn met RT in het spel. Maar je hebt gelijk dat het alleen niet voor iedereen beschikbaar is, alleen maar voor de mensen met de nieuwste kaart. Maar daar is niets mis mee en dat betekend niet dat we volledig PT niet moeten verkennen. Als ontwikkelaar ben ik juist blij dat mensen dat doen en dat Nvidia daar aan trekt. Want als niemand dat nu doet dan komt er ook geen onderzoek en ontwikkeling in en zitten we met de volgende generatie consoles op iets dat het net niet is. RT is niet een switch die je omzet, je moet dat geleidelijk toevoegen en of dat via Lumen software gebeurt of dat je feature voor feature vervangt zoals in Cyberpunk, hangt van het spel af en je art direction en je team, want niet ieder team kan iets als Lumen in elkaar zetten. Maar uiteindelijk moet de kennis ergens mee opgedaan worden en moet je ook de hardware beschikbaar hebben.
Ik wil dit er even uithalen. Niet om je er negatief eruit te halen, maar omdat ik het illustratief vind voor het (perceptie) probleem. :)

Ik heb met mijn RX7900XT dus ook Cyberpunk met een optimalisatie mod gedraaid. Ook PT + FSR2.
En ja, dat zie je echt wel, zelfs met 1 bounce in plaats van 2. Maar kijk eens naar hoe HWU eens wat vergelijkingen voor Cyberpunk haar RT lightning naast elkaar zet. Er zitten genoeg voorbeelden tussen waar je het niet of nauwelijks ziet. En dat is ook mijn ervaring. Er zijn plekken waar je echt de GI van Psyco RT ziet en veel plekken waar je RT net zo goed uit kan laten.


Stukje terug kan je ook reflections zien en daar is het wel duidelijk wat RT kan. Zeker omdat het alsnog minder zwaar is dan Psycho SSR in Cyberpunk.

Maar wat ik ook altijd zie bij Cyberpunk is hoe matig andere dingen zijn. Texture resolutie, object detail en complexiteit zijn niet in verhouding tot de belichting. Het ligt duidelijk achter, in het bijzonder buiten je directe zicht. Ja je wapen is hoge resolutie, maar heel veel dingen niet. De game zit vol met lage resolutie en platte textures, shortcuts, kleine dingetjes die de wereld levendiger zouden maken etc. De reden is om de game binnen 8GB aan VRAM te houden. Maar ik merk het wel.

Wat ik misschien nog liever zou willen in Cyberpunk dan weer een RT setting, zijn serieus hoge resolutie textures of zelfs een instelbare render resolutie functie. Want ik zou de game eigenlijk liever op een hogere resolutie dan 1440p renderen dan RT reflections aanzetten. Want die reflections vallen meestal niet echt op en doen weinig voor de ervaring. Render resolutie wel. Maar dit kan helaas niet omdat alle tech die word toegevoegd aan Cyberpunk, render resolutie verlaagt en native rendering verder verstoord. Mijn laatste hoop is gevestigd op FSR2 native mode (AMD DLAA tegenhanger) die hopelijk ook komt. FSR3 komt namelijk ook, maar ik zie er de meerwaarde niet echt van in. Want van TAA word ik ook niet vrolijk en zowel FSR2 als XeSS zijn ook niet bepaald goed getuned in Cyberpunk.
Ik zie het maar zo, als de RT-hardware en generatie later beschikbaar was gekomen en Nvidia er minder aan had getrokken hadden we nu geen PT-versie van Cyberpunk gehad en was er pas zoiets 2 jaar later op de markt gekomen. Maar ik kan je verzekeren dat alle discussies rondom de nut van RT precies hetzelfde waren geweest. Ik ben dus blij dat Nvidia er eerder mee kwam dan later.
En die PT demo kan me dus eigenlijk gestolen worden. ;)
Mooi is het zeker, maar totaal irrelevant voor 99%+ van alle PC gamers, laat staan ook de meerderheid van gamers met hun consoles. Het is ook niet iets dat snel zal veranderen gezien de enorme vertraging van prestatieverbeteringen in de lagere segmenten. Ik kan niet helpen dan me afvragen wat de meerwaarde hiervan is over de fundamenten van rasterisation verder verbeteren.

Want als ik het vergelijk met Unrecord, dan lijkt Cyberpunk gewoon totaal achterhaald en gedateerd met wat leuke lichteffecten die niet eens overal goed werken. Het verschil is gigantisch omdat hier alles opgewaardeerd is tot een coherente ervaring en niet een element is toegevoegd terwijl de rest is achtergelaten.


Persoonlijk moet ik er niet aan denken dat je hierover DLSS2 (upscaling) DLSS3 (interpolatie) en DLSS3.5 (ray reconstruction) gaat leggen. Dat zie ik dit namelijk geen goed doen. :|

En het laat ook zien dat het allemaal niet nodig is. Dit is voornamelijk rasterisation. En op deze manier kijk je echt naar een "Crysis moment". Iets dat er opeens zo enorm veel beter eruit ziet omdat het gebouwd is op een zeer goede technische basis. Dit sluit ook veel beter aan bij de realiteit van moderne (high end) videokaarten. Ze zijn ontiegelijk snel, maar hun rasterisation performance word nauwelijks goed benut terwijl hun RT performance niet eens in de buurt komt van de verwachtingen die worden opgewekt door met name Nvidia.

En zo zijn we weer terug bij mijn eerste reactie. Dit hekel ik namelijk. De "visie" van Nvidia die deze discussie verstikt en waar het bewijs dat dit de toekomst is, maar niet komt. Heel bot, maar ik beschouw DLSS2, DLSS3 en DLSS3.5 voor wat het is. Compensatie voor gebrekkige rendering hardware, zowel rasterisation en in het bijzonder RT. Het idee dat je voor een zeer kostbare, high end videokaart, voor je extra features, je render resolutie moet verlagen en moet upscalen en ook nog interpolatie moet gaan toepassen, tja dat gaat er bij mij gewoon niet in. Ik begrijp waarom het er is en waarom mensen het willen hebben, maar de cognitieve dissonantie is typerend. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 18-07 21:58
DaniëlWW2 schreef op dinsdag 26 september 2023 @ 21:04:

Ik wil dit er even uithalen. Niet om je er negatief eruit te halen, maar omdat ik het illustratief vind voor het (perceptie) probleem. :)

Ik heb met mijn RX7900XT dus ook Cyberpunk met een optimalisatie mod gedraaid. Ook PT + FSR2.
En ja, dat zie je echt wel, zelfs met 1 bounce in plaats van 2. Maar kijk eens naar hoe HWU eens wat vergelijkingen voor Cyberpunk haar RT lightning naast elkaar zet. Er zitten genoeg voorbeelden tussen waar je het niet of nauwelijks ziet. En dat is ook mijn ervaring. Er zijn plekken waar je echt de GI van Psyco RT ziet en veel plekken waar je RT net zo goed uit kan laten.
[YouTube: Cyberpunk 2077 Phantom Liberty Optimization, The Best Settings to Change on PC!]
Zie mijn eerde opmerking dat Cyberpunk niet de beste spel is om PP en RT te vergelijken omdat er nog veel bugs zitten. Maar om te laten zien wat PT kan is het verder wel een goede test case en het geeft veel mensen die 'wow' moment. Als je het verschil tussen PT en hun vorige GI methode wil zien dan is er toevallig een hele siggraph course paar dagen gelden online verschenen. Daar zit een presentatie tussen over gebruik van ReSTIR in Cyberpunk waar een technical lighting artist van CR Project RED de verchillen laat zien. Je hoeft niet de hele presentatie door te lezen maar alleen slide 2 is belangrijk, daar zit namelijk een video van 7 minuten in die alles covered (die persoon was namelijk niet aanwezig en heeft zijn gedeelte opgenomen) . In de video zitten ook voorbeelden in hoe ze hun vorige GI model moesten tweaken om uit te laten zien zoals de PT versie, dit door extra lichtbronnen te plaatsen of lichtbronnen van sterkte te laten veranderen (en dit moest dus gedaan worden voor veel verschillende tijden van de dag). Hadden ze dat niet gedaan dan zouden er nu veel meer verschillen opvallen in reviews van de game.
DaniëlWW2 schreef op dinsdag 26 september 2023 @ 21:04:
Stukje terug kan je ook reflections zien en daar is het wel duidelijk wat RT kan. Zeker omdat het alsnog minder zwaar is dan Psycho SSR in Cyberpunk.

Maar wat ik ook altijd zie bij Cyberpunk is hoe matig andere dingen zijn. Texture resolutie, object detail en complexiteit zijn niet in verhouding tot de belichting. Het ligt duidelijk achter, in het bijzonder buiten je directe zicht. Ja je wapen is hoge resolutie, maar heel veel dingen niet. De game zit vol met lage resolutie en platte textures, shortcuts, kleine dingetjes die de wereld levendiger zouden maken etc. De reden is om de game binnen 8GB aan VRAM te houden. Maar ik merk het wel.
Dit merkte ik ook maar het is een groot open wereld (en neemt trouwens nu al 80GB disk space in) en als ze uit de 8GB VRAM zouden lopen dan staan mensen meteen klaar hun helemaal af te branden (ook in dit topic) en te review bommen. Je kan dus niet alles hebben :)
DaniëlWW2 schreef op dinsdag 26 september 2023 @ 21:04:
En zo zijn we weer terug bij mijn eerste reactie. Dit hekel ik namelijk. De "visie" van Nvidia die deze discussie verstikt en waar het bewijs dat dit de toekomst is, maar niet komt. Heel bot, maar ik beschouw DLSS2, DLSS3 en DLSS3.5 voor wat het is. Compensatie voor gebrekkige rendering hardware, zowel rasterisation en in het bijzonder RT. Het idee dat je voor een zeer kostbare, high end videokaart, voor je extra features, je render resolutie moet verlagen en moet upscalen en ook nog interpolatie moet gaan toepassen, tja dat gaat er bij mij gewoon niet in. Ik begrijp waarom het er is en waarom mensen het willen hebben, maar de cognitieve dissonantie is typerend. :/
Dit is inderdaad waar het mee begon maar wat ik toen probeerde te zeggen is dat dit niet alleen een visie van nvidia was die het door iedereen strot probeert te drukken, ik snap wel dat dit zo lijkt. Maar dit is ook waar de game-developers om vroegen. De huidige manier van alles doen is namelijk niet schaalbaar en vooral niet voor sommige spellen zoals open world games.
Hetzelfde voor upscalers zoals DLSS en FSR. Die waren er ook voor dat nvidia er mee begon, vooral op consoles. Killzone (5 jaar voor dlss, maar gebruikt het maar voor een deel van hun effecten) en Horizon (gebruikt upscalig voor hele frame en sommige effecten worden zelfs nog agressiever geupscaled) maken er groot gebruik van op de playstation. COD is ook een grote gebruiker van upscaling. Die spellen zouden veel minder impressive uit zien zonder al deze upscalers. Dat dlss toevallig na de introductie van ray-tracing geïntroduceerd werd is gewoon toeval, dit was al de trend maar niet alle game developers waren in staat om goede upscalers te maken. Nvidia zag dus een kans om deze game developers van een upscaler te voorzien die alleen op Nvidia kaarten werkt.
Niet RT gerelateerd dus, maar met de introductie van dlss en fsr is de techniek eenmaal ook in handen gekomen voor kleinere en jongere teams. Maar deze teams hebben niet de budget of techniek in huis om kwa art-direction en optimalisatie te concurreren met teams die dat door de jaren heen hebben opgebouwd. Bij deze kleinere teams lijkt upscaling ineens een lapmiddel en dit is jammer want sommige grote titels hebben laten zien dat upscaling weer winst oplevert.
Ik denk dat upscaling ook wel een net win is en dat als er iemand nu met een toverstaafje zwaait en upscaling uit alle spellen haalt. Maar daarbij ook de graphics downgrade om dezelfde fps te halen als met upscaling er ineens veel gamers zouden huilen en alle titels zouden review-bommen :)

Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 18-07 21:58
DaniëlWW2 schreef op dinsdag 26 september 2023 @ 21:04:
Want als ik het vergelijk met Unrecord, dan lijkt Cyberpunk gewoon totaal achterhaald en gedateerd met wat leuke lichteffecten die niet eens overal goed werken. Het verschil is gigantisch omdat hier alles opgewaardeerd is tot een coherente ervaring en niet een element is toegevoegd terwijl de rest is achtergelaten.
[YouTube: Unrecord - Official Early Gameplay Trailer]
Ik heb deze trailer al een tijd terug gezien en was eigenlijk niet onder indruk. Het lijkt gewoon een met photogrammetry ingescande omgeving, helemaal statisch. Er lijkt totaal geen bounce lighting te komen van de zaklamp en de karakters die worden doodgeschoten lijken geen schaduw te werpen en ontvangen hele platte belichting ala Starfield. Maar goed zo'n art-style is misschien genoeg voor een spel met een shaky camera. Maar hoe dan ook, laat het spel maar eerst uitkomen voordat ik er echt een ondeel over werp want van deze filmpje wordt je niet echt wijs.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

fwiw:

TPU: NVIDIA Chief Scientist Reaffirms Huang's Law

n a talk, now available online, NVIDIA Chief Scientist Bill Dally describes a tectonic shift in how computer performance gets delivered in a post-Moore's law era. Each new processor requires ingenuity and effort inventing and validating fresh ingredients, he said in a recent keynote address at Hot Chips, an annual gathering of chip and systems engineers. That's radically different from a generation ago, when engineers essentially relied on the physics of ever smaller, faster chips.

The team of more than 300 that Dally leads at NVIDIA Research helped deliver a whopping 1,000x improvement in single GPU performance on AI inference over the past decade (see chart below). It's an astounding increase that IEEE Spectrum was the first to dub "Huang's Law" after NVIDIA founder and CEO Jensen Huang. The label was later popularized by a column in the Wall Street Journal.
Etc.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 26-07 21:33

SG

SG surft naar info hardewaren

Denk wel dat nV game partners er misbruik van moeten maken. GPU is nu keuze van rasteration power vs RT en AI power. Dat Die real-estate waar chip bakkers moeten kiezen. Zelfde als toen testalatie. Enorm veel meer units vs wat redelijk is. Waar je simple balk 6 quad naar iets met zooi nullen complexer maakt. Zodat concurrent inkakt.
Dat RT load fix gecombineerd of beperkt instelbaar is houd in dat die met meest scheve balans in die space opgeoffert voor RT DLLS grootste voordeel haalt en concurrenten zich daar in verslikken.

De film industrie is full complex diepgaande RT gangbaar. Maar ja daar is geen realtime eis. Maar renderfarm investering of allocatie bepaald of in dag of maand gerenderd kan worden.
Doet mij ook denken aan Larabee waar doel was om alternatieve render methoden te promoten. Maar in industrie die fps performance driven is is dat stap terug. Ik herinner mij nog de novalogic voxel methode waar CPU belangrijker was dan de gpu. Helaas is die ultieme flexibiliteit ook stap terug als rasteration was meer in hardware uitgewerkt en dus FPS voorsprong. Wat mogelijk zou zijn een meer pure RT waar maximaal op RT hardware versnelling wordt ingezet.
GPU maker zoeken naar juiste balans en waar dat in de toekomst naar toe verschuift. Mits er merk sterk inzet en out of balans dat extreem gaat pushen. Wordt dat inschatten stuk lastiger.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 31-07 20:09
Bij deze de laatste geruchten over een mogelijk Nvidia RTX 4000 Super/Ti refresh.
(Nog geen release date, mogelijk CES 2024?).

YouTube: DON'T BUY RTX 40 YET! Refresh MASSIVELY Bumps Specs | Details & Info
https://videocardz.com/ne...4070-super-graphics-cards
https://videocardz.com/ne...16gb-memory-and-ad103-gpu

Samenvatting:

Onderliggende chip en max aantal SM's
  • verkrijgbaar VRAM - SMs - MSRP
  • (gerucht VRAM - SM - MSRP vermoeden?)
AD102 max = 144 (12x12)
  • (4090 Ti 24GB - 142 SM - $1999?)
  • 4090 24GB - 128 SM - $1599
  • (4080 Ti 16GB - 100 SM - $1399?)
AD103 max = 80 (12x7-4)
  • 4080 16GB - 76 SM - $1199
  • (4070 Ti 16GB - 68 XM - $999?)
AD104 max = 60 (12x5)
  • 4070 Ti 12GB - 60 SM - AD104 - $799
  • (4070 Super 12GB - 52 SM - $699?)
  • 4070 12GB - 46 SM - AD104 - $599
  • (4060 Ti 12GB - 38SM - $449?)
AD106 max = 36 (12x3)
  • 4060 Ti 8/16GB - 34 SM - AD106 - $399/499
AD107 max = 24 (12x2)
  • 4060 8GB - 24 SM - AD107 - $299

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Cloggs
  • Registratie: April 2004
  • Laatst online: 30-07 21:13
Mmm. Zat te twijfelen om toch maar de 4070 te gaan kopen aangezien ik sowieso Alan Wake 2 wil spelen maar als die Super uit komt binnen 2-3 maandjes dan kan ik nog wel even wachten. 50 series komt als ik Nvidia's earnings call moet geloven toch pas in 2025.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 25-07 12:04
sunsmountain schreef op vrijdag 20 oktober 2023 @ 20:19:
Bij deze de laatste geruchten over een mogelijk Nvidia RTX 4000 Super/Ti refresh.
(Nog geen release date, mogelijk CES 2024?).

YouTube: DON'T BUY RTX 40 YET! Refresh MASSIVELY Bumps Specs | Details & Info
https://videocardz.com/ne...4070-super-graphics-cards
https://videocardz.com/ne...16gb-memory-and-ad103-gpu

Samenvatting:

Onderliggende chip en max aantal SM's
  • verkrijgbaar VRAM - SMs - MSRP
  • (gerucht VRAM - SM - MSRP vermoeden?)
AD102 max = 144 (12x12)
  • (4090 Ti 24GB - 142 SM - $1999?)
  • 4090 24GB - 128 SM - $1599
  • (4080 Ti 16GB - 100 SM - $1399?)
AD103 max = 80 (12x7-4)
  • 4080 16GB - 76 SM - $1199
  • (4070 Ti 16GB - 68 XM - $999?)
AD104 max = 60 (12x5)
  • 4070 Ti 12GB - 60 SM - AD104 - $799
  • (4070 Super 12GB - 52 SM - $699?)
  • 4070 12GB - 46 SM - AD104 - $599
  • (4060 Ti 12GB - 38SM - $449?)
AD106 max = 36 (12x3)
  • 4060 Ti 8/16GB - 34 SM - AD106 - $399/499
AD107 max = 24 (12x2)
  • 4060 8GB - 24 SM - AD107 - $299
Een 4070 Ti 16GB die zowel de 4080 als 4070 Ti 12GB belachelijk maakt en een 4060 Ti 12 GB die datzelfde met beide bestaande 4060 Ti's doet?

Klinkt als Nvidia :Y

Die 4060 Ti 12 GB zou net iets sneller zijn dan beide 4060 Ti's, dan zouden ze AD106 niet meer kwijt komen. Dat gaat uiteraard niet gebeuren, dus:
A: die 38 SM's moeten flink omlaag geklokt worden
B: dat ding krijgt gewoon 34 SM's
C: dat ding komt er niet

Die 4070 Ti 16 GB past perfect in Nvidia straatje, waar ze 2 SKU's zinloos maken. Enige probleem is echter dat ze dat voorheen bewust deden om die bestaande SKU's vervolgens uit de handel te nemen, wat met de bestaande 4070 Ti uiteraard niet gaat gebeuren omdat ze dan de goede AD104's niet kwijt komen.

Acties:
  • 0 Henk 'm!

  • Sjonniebwoi
  • Registratie: December 2014
  • Laatst online: 27-07 10:54
4080S /ti wel interessabt indien genoeg cuda en ok prijs +/- 1200 euro?

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sjonniebwoi schreef op maandag 23 oktober 2023 @ 10:51:
4080S /ti wel interessabt indien genoeg cuda en ok prijs +/- 1200 euro?
Fors uitgeklede bus met maar 16GB VRAM over. Ik zou er niet zo zeker van zijn dat die zo geweldig is.
Ligt uiteraard aan je workload, maar je gaat behoorlijk krap zitten qua geheugenbrandbreedte. Ik vermoed verder ook dat een deel van de L2 cache uitgezet zal worden op een dergelijke chip.


In het algemeen lijkt me van dit lijstje, eigenlijk alleen de "RTX4070Ti Super" me logisch. Er zijn weinig AD103 configuraties en er is een overduidelijk gat tussen de RTX4070Ti en RTX4080. In dat gat zitten nu de RX7900XT en RX7900XTX die gewoon beter zijn. Maar ik moet nog zien of een dergelijke "RTX4070Ti Super" ook echt wat toevoegt. Die zal zeker wat sneller zijn en de 16GB aan VRAM is zeer wenselijk voor high end gaming deze dagen, maar die komt tegenover de RX7900XT te staan en prijs is ook belangrijk.

Verder lijkt het me vooral een lijstje van Nvidia die met zichzelf concurreert, wat helaas ook zo is. Het doet zo niks aan het gegeven dat AMD in de gaming markt, met de RX6700XT, RX7700XT en RX7800XT, eigenlijk de betere videokaarten voor (veel) betere prijzen heeft. In dat opzicht is een Super refesh ook niet erg interessant. Het enige interessante zijn (forse) prijsdalingen, maar wie gelooft daar nog in?


Wat ik wel interessant vind is dat de RTX4090 nu echt verboden gaat worden om geëxporteerd te worden naar landen zoals China, Rusland etc. De RTX4090 productie kan ook niet meer plaatsvinden in China en dat zal snel gebeuren. Er zal wel smokkel optreden, maar er lijkt van wat ik vaag had begrepen, ook al enorm gehamsterd te worden op die videokaarten in China voor de AI capaciteiten. Het is en blijft een prijstechnisch goede videokaart om modellen op te trainen. Maar nu deze ook in de ban gaat, en zeker de professionele modellen, is het even aankijken wat er nu gebeurd. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Igor: Smoldering Headers on NVIDIA’s GeForce RTX 4090 – New Insights, Measurements and (Un)known Causes of the 12VHPWR and 12V-2×6 Issue

Summary

I view today’s article as a logical addition to the already known sources of error, not as a sensational report, especially since it addresses the header that has so far received little attention. But it is definitely not the only reason why failures sometimes occur (but not always). The PCI SIG has already made a significant step in the right direction with the specifications of CEM 5.1, but still left many points open. While the proper seat can now be monitored and ensured through the modified pins, and the cable plugs and the cables along with bending radii and cross-sections have been more precisely specified, the headers are still a possible cause for total failures, as the pins and the wires used for them need to be better standardized and also inspected later by the manufacturer.

This concerns both the material, i.e., the appropriate alloy instead of pure copper, as well as the definition of the galvanization layer thicknesses, the processing of the wire pieces (cutting, bending), and their positioning (pressing) in the housing. In addition, I miss a strict specification for the minimum contact area and spring pressure on the spring contacts. All these are important factors that are primarily essential for the right connection and should not be left to chance or to the individual manufacturers (which amounts to the same thing).

Afbeeldingslocatie: https://tweakers.net/i/8Wf2yGCw3wc5Rd64dDykR29QobM=/800x/filters:strip_exif()/f/image/AixVum3k6LH7IDDFOz8jQ3Tr.png?f=fotoalbum_large

Not much more can be investigated or written about connectors, as I took the liberty to tackle the last remaining puzzle piece. The number of tested headers and the consistent damage patterns are surely a statistically secured evidence that the connectors can and must be improved.

Conclusion

This connector, whether it’s 12VHPWR or the more recent 12V-2×6, remains a rather fragile entity, even though it has been possible to reduce potential defects with precaution and reworking the standards. Because one factor will always have to be included: quality defects from the manufacturers of the connectors. Additionally, negative influences from the circuit board layout of the graphics cards are present, where the pins are often unnecessarily heated by the board. Here, the graphics card manufacturers have a duty to increase the distance of the pins from the hotspots on the board or to cool them.

My thanks go explicitly to KrisFix, who has supplied me with many defective connectors, as well as to the users who sent me their cards for examination. Moreover, CableMod has contributed significantly to the gain of knowledge, as the countless test samples that I was able to examine here have also led me to the result. Taking into account all these findings here in the lab, it is interesting to see that the new adapters now have no higher failure rate after over 8,000 units sold than the normal, native cables from the power supply manufacturers. I patiently waited for this point before writing this article. And yes, I am indeed pathologically curious when something triggers me.

I am done with this connector for the time being, as there will hardly be anything else to investigate or optimize. And I honestly admit: I still don’t quite like this part because it operates far too close to physical limits, making it extremely susceptible to possible influences, no matter how minor they may seem. It is and remains a tightrope walk, right at the edge of what is physically justifiable and without any real reserves. If the quality control also fails in parts, then that’s it for the connector. You just don’t build something like that. At least not like this.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Cloggs
  • Registratie: April 2004
  • Laatst online: 30-07 21:13
Nvidia gaat een presentatie houden aan de vooravond van CES. Op basis van alle geruchten die momenteel rond gaan zullen ze waarschijnlijk Super varianten van enkele 40 serie kaarten gaan aankondigen.

Acties:
  • 0 Henk 'm!

  • MacCollac
  • Registratie: September 2013
  • Laatst online: 29-12-2024
Ik ben van plan een 4070 aan te schaffen. Deze gaan nu voor rond de 600,-.
Denken jullie dat er nog kortingen komen (i.v.m. black friday)?

Acties:
  • 0 Henk 'm!

  • mmxmmx
  • Registratie: December 2000
  • Laatst online: 28-07 12:40
GPU driver zo maar gede-installeerd.

Kaart wordt wel herkent en heb hem gewoon weer opnieuw geïnstalleerd
Heel raar dit want als ik zelf de driver wil uninstallen is het vaak een hoop werk.

Asus RTX 5090 OC - AMD 7-9800X3D en DDR5 G-Skill 64GB Ram


Acties:
  • +1 Henk 'm!

  • Cloggs
  • Registratie: April 2004
  • Laatst online: 30-07 21:13
MacCollac schreef op donderdag 9 november 2023 @ 14:00:
Ik ben van plan een 4070 aan te schaffen. Deze gaan nu voor rond de 600,-.
Denken jullie dat er nog kortingen komen (i.v.m. black friday)?
Als je echt een kaart nodig hebt nu dan is de 4070 wel de beste optie. Zou zeker niet meer dan 600 euro gaan uitgeven nu. Nvidia gaat in januari nieuwe kaarten aankondigen die ongetwijfeld voor wat verschuiving gaan zorgen. Als je 2 maanden kan wachten dan ga je misschien nog wat besparen maar zal geen enorm bedrag zijn.

Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 31-07 20:09
MacCollac schreef op donderdag 9 november 2023 @ 14:00:
Ik ben van plan een 4070 aan te schaffen. Deze gaan nu voor rond de 600,-.
Denken jullie dat er nog kortingen komen (i.v.m. black friday)?
Black Friday is meer voor kortingen op vorige generaties, d.w.z. RTX 3000 en RX 6000 kaarten.

Als je 2 maanden kan wachten tot Januari CES, worden er nieuwe RTX 4000 Super kaarten aangekondigd, met betere prijzen en waarschijnlijk een prijsdaling voor de RTX 4070 naar iets van 500,-. Of voor 600,- een ~20% krachtigere RTX 4070 Super.

https://videocardz.com/ne...ing-its-debut-at-ces-2024


Update op m'n eerdere lijst:

Bij deze de laatste geruchten over een mogelijk Nvidia RTX 4000 Super/Ti refresh.
Release date, waarschijnlijk CES 2024.

https://videocardz.com/ne...ing-its-debut-at-ces-2024

Samenvatting:

Onderliggende chip en max aantal SM's
  • verkrijgbaar VRAM - SMs - MSRP / MSRP vermoeden?
  • (gerucht VRAM - SM - MSRP vermoeden?)
AD102 max = 144 (12x12)
  • 4090 24GB - 128 SM - $1599
AD103 max = 80 (12x7-4)
  • (4080 Super 16GB - 80 SM - $1199?)
  • 4080 16GB - 76 SM - $999?
  • (4070 Ti Super 16GB - 66 SM - $799?)
AD104 max = 60 (12x5)
  • 4070 Ti 12GB - 60 SM - AD104 - $699?
  • (4070 Super 12GB - 56 SM - $599?)
  • 4070 12GB - 46 SM - AD104 - $499?
AD106 max = 36 (12x3)
  • 4060 Ti 8/16GB - 34 SM - AD106 - $349/449?
AD107 max = 24 (12x2)
  • 4060 8GB - 24 SM - AD107 - $299

[ Voor 44% gewijzigd door sunsmountain op 12-11-2023 00:50 ]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 15:18
Na vele jaren van doom voorspellingen voor Nvidia, waaronder hier op Tweakers, is dit ergens toch wel mooi. Dat je werkgever zo succesvol is dat er mensen opeens miljonair zijn terwijl ze er, relatief gezien aan de gemiddelde pensioenleeftijd, pas net werken. Overigens lees je op verschillende tech job fora (dus werknemers van dergelijke bedrijven onder elkaar) dat het artikel het wel heel erg slecht presenteert. De meesten ervaren hun collega's nog altijd als zeer gedreven, alleen zijn een aardig aantal financieel gezien al met pensioen, of hebben ze op z'n minst de optie om een leuke woning in cash te kopen, zelfs voor een dure regio als de Bay area.

Het gaat natuurlijk ook wel hard met een package uit 2019 van bv een "simpele" 160k (voor die regio nog aan de lage kant) die over een periode van 4 jaar vest (40k per jaar dus) en die nu opeens zo'n 10 a 12x zoveel waard is. Maak er een medio tot senior engineer van met bv 100k per jaar en je zit op ruim een miljoen per jaar :+.

In an internal meeting, Nvidia's CEO addressed a question about employees in 'semi-retirement' mode as unusual tension grows

Nvidia's success is making some now-wealthy employees complacent
Why work hard when you're sitting on a fortune in stock?
In brief: Is it possible for a company to be too successful and overly caring when it comes to employee well-being? It sounds strange, but that's the unusual position Nvidia finds itself in, with many long-term workers watching the value of their stock increase as they coast along in "semi-retirement" mode.
Nvidia's stock has increased around 1,200% over the last five years. That's great news for long-term employees whose compensation is partly made up of company stock, but sitting on a fortune has been making some of these workers complacent. The situation has been annoying other Nvidia staff to the point where it was brought up during an internal all-hands meeting with CEO Jensen Huang.
No CEO is as beloved by their employees as much as Huang. He topped the most popular CEO survey in October with an approval rate of 96%, 8% higher than second-place Walmart boss Doug McMillon. Huang's popularity is helped by his reluctance to implement layoffs. In the summer of last year, back when Nvidia missed earnings expectations and the economy was even worse, Huang assured employees there would be raises, not layoffs, at the company. The last formal job cuts the company made were during the 2008 financial crisis.
https://www.businessinsid...blem-insiders-say-2023-12 en https://www.techspot.com/...employees-complacent.html

[ Voor 18% gewijzigd door Paprika op 22-12-2023 06:59 ]


Acties:
  • +2 Henk 'm!

  • JDx
  • Registratie: Januari 2007
  • Laatst online: 20-10-2024

JDx

Ben ik ^

Kreeg net dit artikel aanbevolen in Chrome
https://www.pcgamer.com/i...ries-gpus-in-2024-or-not/

Blijkbaar ligt het dus aan AMD of de 5090 nog wel in 2024 gaat verschijnen, ik verwacht het bijna niet.

Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts


Acties:
  • 0 Henk 'm!

  • sacaji
  • Registratie: Januari 2009
  • Laatst online: 31-07 21:26
JDx schreef op zaterdag 23 december 2023 @ 13:53:
Kreeg net dit artikel aanbevolen in Chrome
https://www.pcgamer.com/i...ries-gpus-in-2024-or-not/

Blijkbaar ligt het dus aan AMD of de 5090 nog wel in 2024 gaat verschijnen, ik verwacht het bijna niet.
Naja we gaan het zien, de 4090 komt als het weer rond 1900 is, en anders sparen voor de 5090 😂

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
JDx schreef op zaterdag 23 december 2023 @ 13:53:
Kreeg net dit artikel aanbevolen in Chrome
https://www.pcgamer.com/i...ries-gpus-in-2024-or-not/

Blijkbaar ligt het dus aan AMD of de 5090 nog wel in 2024 gaat verschijnen, ik verwacht het bijna niet.
Tja, zoals het er nu naar uitziet komt er geen high-end RDNA 4 chip. Wat voor nut heeft een RTX 5090 dan nog als er geen concurrentie meer is in dat segment.

[ Voor 10% gewijzigd door XWB op 24-12-2023 00:16 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • JDx
  • Registratie: Januari 2007
  • Laatst online: 20-10-2024

JDx

Ben ik ^

XWB schreef op zondag 24 december 2023 @ 00:15:
[...]


Tja, zoals het er nu naar uitziet komt er geen high-end RDNA 4 chip. Wat voor nut heeft een RTX 5090 dan nog als er geen concurrentie meer is in dat segment.
Dit bericht is verplaatst uit het prijzentopic of iemand zou wachten op de 50-serie omdat de 40-serie overpriced is, zou er dus inderdaad niet op wachten als je een nieuwe PC wil bouwen.

Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 29-07 00:32
Amd verwacht voor de rdna4 wel iets snellers nog dan de 7900xt (xtx wordt niet genoemd), aldus geruchten.

Dat zou betekenen dat de xtx misschien nog lange tijd de snelste Amd is en de 4090 nog lang buiten schot blijft.

De 4090 dan uitbrengen met alle cores unlocked en iets hoger geklokt lijkt dan al ruim meer dan voldoende voor de 5090..... Appeltje eitje voor Nvidia

Acties:
  • 0 Henk 'm!

  • Koldur
  • Registratie: Juni 2003
  • Laatst online: 13:13
JDx schreef op zaterdag 23 december 2023 @ 13:53:
Kreeg net dit artikel aanbevolen in Chrome
https://www.pcgamer.com/i...ries-gpus-in-2024-or-not/

Blijkbaar ligt het dus aan AMD of de 5090 nog wel in 2024 gaat verschijnen, ik verwacht het bijna niet.
Lijkt mij ergens wel logisch, maar weet Nvidia dat zeker? AMD zou zomaar met een topkaart kunnen komen. Hoop het wel, maar als het niet zo is en Nvidia is daarvan op de hoogte, dan zal in de 50 series niet veel verbeterd worden inderdaad. Dat gevoel (het blijft natuurlijk speculatie) wordt versterkt door alle AI winsten die momenteel gemaakt worden.

i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 25-07 12:04
Ik zou niet te veel waarde aan zulke geruchten hechten. Vergeet niet dat Kepler_L2 ook zei dat RDNA3 3,5 GHz ging doen en er 384 MB stacked IC op de "7950XT3D" (of hoe het ding ook zou gaan heten) zou zitten :)

Vergeet ook niet dat AD102 even 100+ TF FP32 zou gaan doen, met een andere SM indeling zou komen (128 + 64), GDDR7 kreeg, enzovoort, enzovoort. Ik wacht ook nog steeds op GA103, die moet onderhand toch wel eens uit komen :+

Dit is de realiteit: het ligt al lang vast wat er wel of niet uit gaat komen. Als (als!) Nvidia (of AMD) van plan is komend jaar iets uit te brengen, dan zitten ze nu midden in de laatste validatie cyclus (voor een december lancering), of wordt die nu ongeveer afgerond (voor een september lancering). De microarchitecturen en layouts liggen al vast. Daar is dan een hoop geld in gaan zitten en daar willen ze iets uit halen. Belangrijker nog: de productiecapaciteit is al lang ingekocht bij TSMC. Ze kunnen dat niet zomaar gaan verschuiven.

Verder zijn alle geruchten zoals gewoonlijk weer 100% tegenstrijdig en soms ronduit onzinnig. Blackwell zou enerzijds een MCM ontwerp gaan krijgen, maar vervolgens zouden ze er qua aantallen ook exact uit zien als een geüpscalede AmpAda, wat onlogisch is. En dan zou dat op N3 geproduceerd worden, wat extreem vroeg zou zijn.

Ik heb het al zo vaak gezegd, maar er kan in het jaar vóór een lancering maar bar weinig gewijzigd worden aan een GPU (of CPU). Het ontwerp ligt 18-24 maanden vóór release al vast; als daar iets mis mee is, loop je vertraging op (zie Fermi). Het jaar voor een release bestaat uit een laatste validatie run (dat duurt 3-6 maanden), vervolgens moet alles met partners gedeeld worden, moeten de productie runs gestart worden (één run duurt makkelijk 4-6 weken), samples naar de partners, moet voorraad opgebouwd worden, enzovoort.

Wat er in 2024 ook komt (als er iets komt, waar ik helemaal niet zo zeker van ben), dat ligt nu al vast. Voor Nvidia, voor AMD en voor Intel. Ze weten veel beter wat de anderen uit gaan brengen dan enige leakers en daar zijn hun eigen release cycles op gebaseerd. Voor Intel zal het vooral om hun prijsstelling gaan, die zijn nog niet zo bezorgd om de high-end concurrentie.

En zelfs zonder dit alles, door even logisch na te denken besef je al gauw dat dit verhaal van MLID nergens op slaat. N3 gaat 95% zeker weten niet gebeuren. Apple heeft pas net het eerst high-volume product op N3 gelanceerd, met N5 was dat 2 jaar vóór desktop GPU's. Ik zei daarvan toen ook al (en later wederom met N4) dat die geruchten toen waarschijnlijk niet klopten, omdat het zo gewoon nooit heeft gewerkt. Daarnaast is N3 wederom significant duurder dan "5nm" (N5/N4(P)), zo'n 25%, wat niet goed voor de marges is. Dus laten we dat even buiten beschouwing laten.

Het maakt Nvidia geen reet uit wat AMD doet. Blackwell kan enerzijds een luie AmpAda² zijn, waardoor ze weinig tot niets kunnen winnen met N4P en dus geen "5080" op 4090-niveau kúnnen produceren en een "5090" willen voor de complete lineup. Anderzijds kan het een volledig nieuwe architectuur (MCM of niet is verder irrelevant) zijn, wat betekent dat die op de markt móet komen om de gemaakte kosten er uit te halen - en wederom gaan ze geen sidegrade 4090 -> 5080 doen zonder iets er boven voor de marges. Als AMD zich beperkt tot het "mid segment" (wat dat ook betekent) is dat alleen maar gunstig voor Nvidia's high-end, want daar kunnen ze dan moeiteloos hun marges op blijven handhaven.

Mocht er onverhoopt toch iemand nu al op N3 gaan zitten, komt dat gewoon uit. Dat is veel te duur om er vervolgens niets uit te halen. Een high-end 600+mm² chip laten vallen zou betekenen dat ze iets van 55% meer van de ~400mm² chip moeten verkopen om de ingekochte capaciteit kwijt te komen. Op 10k wafers zijn dat een half miljoen stuks. Dat lukt echt niet met de marges die ze nu handhaven ;)

Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 31-07 15:55
[b]Werelds in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"Ik wacht ook nog steeds op GA103, die moet onderhand toch wel eens uit komen :+
Hier is ie met 5 SKUs :+. Het was Kopite die GA103 eerst lekte en later melde dat de 3080 op GA103 geschrapt hadden.

Volgens mij kan je trouwens een release gemakkelijk een paar maanden achteruit schuiven. Zo vast liggen datums meestal niet. Het zou dus best mogelijk zijn dat er van Q4 '24 naar Q1 '25 geschoven wordt.

[ Voor 12% gewijzigd door napata op 24-12-2023 17:03 ]


Acties:
  • +1 Henk 'm!

  • JDx
  • Registratie: Januari 2007
  • Laatst online: 20-10-2024

JDx

Ben ik ^

ASUS GeForce RTX 4070 SUPER DUAL with 12GB memory has been leaked
https://videocardz.com/ne...gb-memory-has-been-leaked

Afbeeldingslocatie: https://i.imgur.com/nI94QRk.png

Helaas staan alle prijzen nog op TBC, wat betekent dat eigenlijk, to be continued? In Nederland zou er denk ik staan NNB, nog nader te bepalen, maar dan zou het TBD zijn to be determined ofzo? to be confirmed.

Afbeeldingslocatie: https://i.imgur.com/wlIAWhM.png

Modbreak:Let even op waar je je bericht plaats. Dit is nu in een week tijd het tweede bericht (na JDx in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56") van jou dat ik van het levertijden topic naar hier heb moeten verplaatsen.

[ Voor 29% gewijzigd door br00ky op 26-12-2023 12:51 ]

Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 25-07 12:04
napata schreef op zondag 24 december 2023 @ 17:00:
[...]

Hier is ie met 5 SKUs :+. Het was Kopite die GA103 eerst lekte en later melde dat de 3080 op GA103 geschrapt hadden.

Volgens mij kan je trouwens een release gemakkelijk een paar maanden achteruit schuiven. Zo vast liggen datums meestal niet. Het zou dus best mogelijk zijn dat er van Q4 '24 naar Q1 '25 geschoven wordt.
Wat schuiven, ja. Maar een hele SKU laten vallen (en dan vooral de grootste chip)? Nee, dat doen ze niet zomaar. Dat is al lang besloten, want die capaciteit moet al lang ingekocht zijn en de chip moet al in z'n laatste validatie cyclus zitten. Een kleine chip laten vallen is veel minder een probleem, omdat je die extra capaciteit makkelijker op kunt vangen met de grotere chips. Maar zelfs dat doen ze niet zomaar.

Acties:
  • 0 Henk 'm!

  • Cloggs
  • Registratie: April 2004
  • Laatst online: 30-07 21:13
Wat betreft die 4070 Super Dual. Vrij lachwekkend dat ze de cooler downgraden maar dan wel de PCIE 8 Pin connector vervangen voor een 12VHPWR connector.

Edit:

MSI & Gigabyte modellen zijn ook gelekt.

Aantal van de gelekte specs worden bevestigd. Het is allemaal niet heel interessant behalve de 4070 Ti Super die naar 16GB gaat.

[ Voor 58% gewijzigd door Cloggs op 28-12-2023 08:47 ]


  • napata
  • Registratie: Oktober 2020
  • Laatst online: 31-07 15:55
Werelds schreef op dinsdag 26 december 2023 @ 22:50:
[...]

Wat schuiven, ja. Maar een hele SKU laten vallen (en dan vooral de grootste chip)? Nee, dat doen ze niet zomaar. Dat is al lang besloten, want die capaciteit moet al lang ingekocht zijn en de chip moet al in z'n laatste validatie cyclus zitten. Een kleine chip laten vallen is veel minder een probleem, omdat je die extra capaciteit makkelijker op kunt vangen met de grotere chips. Maar zelfs dat doen ze niet zomaar.
Een chip laten vallen zal niet evident zijn. SKUs kunnen in mijn ogen wel relatief laat geannuleerd worden. Nvidia kan echt wel een nieuw doel vinden voor die chips.
Kijk bijvoorbeeld naar de GA103 SKUs en je ziet dat daar geen enkele volledige chip bij zit. Ik vermoed dat daar ooit wel de intentie was om een volledige GA103 te verkopen want anders zouden ze die chip niet ontworpen hebben maar toch heeft Nvidia hem niet uitgebracht. Die chips zullen zeker niet zijn weggegooid maar waarschijnlijk als lagere chips verkocht zijn.

Kijk ook hoe snel Nvidia met een nieuwe AD012 SKU kan komen voor China om zo de wet tegen de verkoop van 4090s te omzeilen. Daar hadden ze maar 2 maanden voor nodig.

Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 25-07 12:04
napata schreef op donderdag 28 december 2023 @ 16:12:
[...]

Een chip laten vallen zal niet evident zijn. SKUs kunnen in mijn ogen wel relatief laat geannuleerd worden. Nvidia kan echt wel een nieuw doel vinden voor die chips.
Kijk bijvoorbeeld naar de GA103 SKUs en je ziet dat daar geen enkele volledige chip bij zit. Ik vermoed dat daar ooit wel de intentie was om een volledige GA103 te verkopen want anders zouden ze die chip niet ontworpen hebben maar toch heeft Nvidia hem niet uitgebracht. Die chips zullen zeker niet zijn weggegooid maar waarschijnlijk als lagere chips verkocht zijn.

Kijk ook hoe snel Nvidia met een nieuwe AD012 SKU kan komen voor China om zo de wet tegen de verkoop van 4090s te omzeilen. Daar hadden ze maar 2 maanden voor nodig.
Een geknipte SKU laten vallen, ja. Maar de hele chip niet meer produceren? Gaat echt niet gebeuren. En ze gaan ook niet zo lang voorraad op bouwen voor de duurste SKU, want daar verkopen die niet genoeg voor. En onnodig knippen doen ze ook niet, dat is al helemaal te duur :)

Wat GA103 betreft, dat zal eerder met timing en yields te maken hebben. Die chip is pas later ontwikkeld en dus ook later geproduceerd. Als je naar geheel Ampère kijkt moet je eens goed kijken naar de datums van de volledige chips. Allemaal heel laat op de markt gekomen, als ze überhaupt uit zijn gekomen (GA106 bijvoorbeeld niet). Daarnaast kwam GA103 dusdanig laat dat Ada al in z'n afrondingsfase zat.

Zo'n dingetje als de 3080 (dwz, bizar veel geknipt) hoeven we ook echt niet meer te verwachten, dat was de eerste én laatste keer omdat ze zichzelf daarmee in de voet hebben geschoten. De grootste chip krijgen we doorgaans bij release in slechts één SKU; Ampère was, zoals gezegd, een uitzondering en Turing ook. In de generaties daarvoor moet je alweer terug naar Fermi voordat we de grote chip meteen in meerdere SKU's te zien kregen.

Dat fabeltje van onnodig defectloze, goed presterende chips knippen is iets waar veel te veel in geloofd wordt. Ik heb het al eerder gezegd, maar "yields" gaat niet om "werkende" en "kapotte" chips. Van zo'n chip als GA102 krijg je er maar een stuk of 80 uit een wafer, waarvan er zelfs met lage defect rates al gauw een kwart een defect hebben. Een deel van die 20 zal te redden zijn door delen uit te schakelen; dat zijn de 3080's. De rest van die 20 zijn niet te redden. De overige 60 zullen echter ook niet allemaal geschikt zijn om in een 3090 Ti te stoppen, ook al hebben ze 0 defecten. Sterker nog, de kans is groot dat het merendeel níet de beoogde kloksnelheden en spanningen kan behalen, zónder een deel uit te schakelen. Een 3090 is dus geen chip met een defect, maar een chip die simpelweg niet dezelfde performance kan behalen als een chip die uiteindelijk in een 3090 Ti terecht komt. "Yield" is een veel flexibelere term dan velen denken, het is geen simpel ja/nee verhaal. De laatste jaren zijn beide fabrikanten hier veel nauwkeuriger mee dan vroeger, je hebt nu geen golden samples meer (zoals mijn 5870 die doodleuk 975 MHz op stock spanning deed terwijl de meesten amper 925 haalden :p).

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Cloggs schreef op woensdag 27 december 2023 @ 12:53:
Wat betreft die 4070 Super Dual. Vrij lachwekkend dat ze de cooler downgraden maar dan wel de PCIE 8 Pin connector vervangen voor een 12VHPWR connector.
Ach, deze hele generatie is best wel lachwekkend. Dit past er gewoon bij. :P
Maar ik zou toch nog eens beter kijken naar de RTX4070S. Die lijkt behoorlijk wat extra SM's te hebben. Bijna de volle AD104 chip. De RTX4070Ti zie ik ook EOL gaan waar de RTX4070 misschien nog in productie blijft.
Edit:

MSI & Gigabyte modellen zijn ook gelekt.

Aantal van de gelekte specs worden bevestigd. Het is allemaal niet heel interessant behalve de 4070 Ti Super die naar 16GB gaat.
Yup en deze was ook wel nodig vanuit Nvidia hun perspectief. De RTX4080 12GB/RTX4070Ti was meteen een vreemde keuze omdat ze AD104 namen, geen ruimte voor tweede AD103 SKU lieten, 12GB aan VRAM gewoon karig was en niet 50% gen over gen haalde. Dat gaan ze nu denk ik wel halen. Ik denk dat de RTX4070Ti Super (wat een stomme naam :P) daarmee ook een stuk competitiever tegenover de RX7900XT zal worden. Idem voor de RTX4080S die waarschijnlijk dat kleine verschil in raster ook goedmaakt op de RX7900XTX.

In het algemeen denk ik dat deze refreshes een combinatie van de ronduit slechte RTX40 launch en het relatieve succes van de RX7900XT(X) en in het bijzonder de RX7800XT zijn. Denk zo dat het een stuk competitiever gaat worden en als we de prijzen weten, dan is het vrij makkelijk te raden of AMD hun prijzen gaat verlagen. Zou toch grappig zijn als videokaarten iets minder duur worden of iets beter presteren voor deze prijzen. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • nzall
  • Registratie: Januari 2022
  • Laatst online: 14:24
PCJR schreef op dinsdag 16 januari 2024 @ 11:01:
[...]


Dan gaat het toch een 7800xt worden, kunt wel blijven wachten steeds, elke 3 maanden is wel weer wat nieuw in pc wereld...

7800xt of een 4070super... volgende week beslis ik eigenlijk, was het plan, als de benchmarrks er dan zijn
Benchmarks zijn er om 3 uur deze namiddag.

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


Acties:
  • 0 Henk 'm!

  • PCJR
  • Registratie: September 2010
  • Laatst online: 24-07 22:30

|| Solar 7.4kwp oostwest + 850wp zuid + Deye 12K-SG04LP3-EU + 50kWh LiFePo4 || EHVX08S23EJ9W + ERGA06EAV3H ||


Acties:
  • +2 Henk 'm!

  • nzall
  • Registratie: Januari 2022
  • Laatst online: 14:24
Laat ik het anders zeggen: review embargo loopt af om 3 uur deze namiddag. Maar zo'n review embargo is alleen van toepassing op een select groepje mensen: professionele reviewers zoals Tweakers, LTT, Gamer's Nexus, HWUB,... Deze groepen krijgen gratis review samples opgestuurd van nieuwe producten onder de voorwaarde dat ze zich houden aan dit embargo. Er zijn hier 3 redenen voor:

1. Nvidia kan hiermee ervoor zorgen dat alle reviews op hetzelfde tijdstip uitkomen wereldwijd, waardoor de gesprekken hierover geconcentreerd zijn op hetzelfde moment, waardoor er een hogere kans is dat het een trending topic wordt op sociale media;
2. Nvidia kan hiermee ervoor zorgen dat alle reviewers wereldwijd zich niet moeten haasten om het product te reviewen en hun review te schrijven, waardoo deze over het algemeen accurater zijn en meer diepgaand;
3. Nvidia kan hiermee ervoor zorgen dat klanten een ruim assortiment hebben aan reviews op het moment dat ze waarschijnlijk willen kopen.

Maar als een reviewer op een andere manier een kaart kan bemachtigen, zoals pakweg een verkoper die zich niet aan de officiële releasedatum houdt, een geschenk van iemand die in de fabriek werkt, of zelfs gewoon ordinaire diefstal, dan is deze niet onderhevig aan dit embargo. Nvidia kan niet verplichten dat de hele wereld zich aan een embargo houdt. Ten hoogste kunnen ze zeggen dat mensen die zich niet aan het embargo houden in de toekomst geen nieuwe kaarten zullen krijgen.

9800X3D | Gigabyte 4070 Gaming OC | 32GB DDR5 | 5 TB storage | MSI B850 Tomahawk Max Wifi | Fractal Meshify 2 Compact | Windows 11 Pro


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 25-07 12:04
Ja.

De text-to-speech stem moet het al weg geven, laat staan de cijfers die niet overeenkomen met alle andere reviews. Er zijn talloze van dit soort channels op YT.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
En daar is de RTX 4070 Ti Super dan. Niet veel bijzonders, maar voor dezelfde MSRP als de RTX 4070 Ti toch een enkele procentjes extra performance.

Afbeeldingslocatie: https://tpucdn.com/review/asus-geforce-rtx-4070-ti-super-tuf/images/relative-performance-2560-1440.png
https://www.techpowerup.c...4070-ti-super-tuf/32.html

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Jay-v
  • Registratie: Januari 2002
  • Niet online

Jay-v

Uhhhh......

XWB schreef op dinsdag 23 januari 2024 @ 16:46:
En daar is de RTX 4070 Ti Super dan. Niet veel bijzonders, maar voor dezelfde MSRP als de RTX 4070 Ti toch een enkele procentjes extra performance.

[Afbeelding]
https://www.techpowerup.c...4070-ti-super-tuf/32.html
Meh dan bespaar ik liever wat centjes en ga voor een 4070S of een 2e hands 4070Ti. Of geef 200,- meer uit aan een 4080S waarschijnlijk.

Deze kaart is t in ieder geval net niet voor mij :).

Acties:
  • 0 Henk 'm!

  • JDx
  • Registratie: Januari 2007
  • Laatst online: 20-10-2024

JDx

Ben ik ^

XWB schreef op dinsdag 23 januari 2024 @ 16:46:
En daar is de RTX 4070 Ti Super dan. Niet veel bijzonders, maar voor dezelfde MSRP als de RTX 4070 Ti toch een enkele procentjes extra performance.

[Afbeelding]
https://www.techpowerup.c...4070-ti-super-tuf/32.html
Zelfde MSRP ja, maar hij begint pas bij 889 en de non-Super al bij 799
https://www.notebooksbill..._8308_2816%5B%5D=15619908

https://www.notebooksbill..._cc8=httpswwwgputrackereu

[ Voor 18% gewijzigd door JDx op 23-01-2024 17:09 ]

Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts


Acties:
  • 0 Henk 'm!

  • JDx
  • Registratie: Januari 2007
  • Laatst online: 20-10-2024

JDx

Ben ik ^

Jay-v schreef op dinsdag 23 januari 2024 @ 17:05:
[...]


Meh dan bespaar ik liever wat centjes en ga voor een 4070S of een 2e hands 4070Ti. Of geef 200,- meer uit aan een 4080S waarschijnlijk.

Deze kaart is t in ieder geval net niet voor mij :).
Die 4070 Super zit toch wel flink boven de non-Super, daar gaat nu ook mijn voorkeur naar uit.

Dacht eerst misschien kan je straks de non-Super wel goedkoop oppikken ergens, maar dat valt nog tegen.

Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Tja niks bijzonders. Het is een refresh waar veel te veel hoop op gevestigd werd. Het enige noemenswaardige is de 16GB aan VRAM. En dat komt met een verhoging van verbruik. Resultaat is net wat sneller want meer geheugenbrandbreedte en 6 extra SM's.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Nu online

XanderDrake

Build the future!

DaniëlWW2 schreef op dinsdag 23 januari 2024 @ 17:46:
Tja niks bijzonders. Het is een refresh waar veel te veel hoop op gevestigd werd. Het enige noemenswaardige is de 16GB aan VRAM. En dat komt met een verhoging van verbruik. Resultaat is net wat sneller want meer geheugenbrandbreedte en 6 extra SM's.
Ik ben toch verbaast dat een verhoging van bijna 50% mbt de VRAM bandbreedte maar zo weinig doet met de performance.
In de T.net review heeft men het over een nieuwe driver die echt net voor het einde van het embargo binnen kwam en niet is behandeld. Ligt het daar aan?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XanderDrake schreef op dinsdag 23 januari 2024 @ 19:47:
[...]

Ik ben toch verbaast dat een verhoging van bijna 50% mbt de VRAM bandbreedte maar zo weinig doet met de performance.
In de T.net review heeft men het over een nieuwe driver die echt net voor het einde van het embargo binnen kwam en niet is behandeld. Ligt het daar aan?
De videokaart heeft ook maar 10% meer SM's en een bredere bus met meer geheugen. En als ik snel kijk, dan lijkt TDP ook niet hoger te zijn. Ook lijkt steeds gemist te worden dat de L2 cache nog steeds 48MB is. Alles bij elkaar zal je al snel naar een daling in clock speed kijken. Geen vergelijkingen gemaakt, maar dat vermoed ik wel.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • JDx
  • Registratie: Januari 2007
  • Laatst online: 20-10-2024

JDx

Ben ik ^

DaniëlWW2 schreef op dinsdag 23 januari 2024 @ 20:50:
[...]


De videokaart heeft ook maar 10% meer SM's en een bredere bus met meer geheugen. En als ik snel kijk, dan lijkt TDP ook niet hoger te zijn. Ook lijkt steeds gemist te worden dat de L2 cache nog steeds 48MB is. Alles bij elkaar zal je al snel naar een daling in clock speed kijken. Geen vergelijkingen gemaakt, maar dat vermoed ik wel.
Viel mij ook meteen op dat ze beide draaien op 285W, dan is het lastig om daar meer uit te halen, in zo'n korte tijd hebben ze de technologie echt nog niet zo verbeterd dat je met even veel stroom veel meer performance kan halen. Bij de 4070 Super ga je al van 200 naar minimaal 220, vaak meer.

Dingen als Games & Music enzo | En 3D/AI/PS hier | CivitAI Models en Prompts


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 25-07 12:04
DaniëlWW2 schreef op dinsdag 23 januari 2024 @ 17:46:
Tja niks bijzonders. Het is een refresh waar veel te veel hoop op gevestigd werd. Het enige noemenswaardige is de 16GB aan VRAM. En dat komt met een verhoging van verbruik. Resultaat is net wat sneller want meer geheugenbrandbreedte en 6 extra SM's.
Die 2 extra modules trekken samen maar liefst 4-5W ;)

Dat extra verbruik komt doordat het een flink geknipte AD103 is. Lekt waarschijnlijk behoorlijk en daarom moest hij gecastreerd worden.
XanderDrake schreef op dinsdag 23 januari 2024 @ 19:47:
Ik ben toch verbaast dat een verhoging van bijna 50% mbt de VRAM bandbreedte maar zo weinig doet met de performance.
DaniëlWW2 schreef op dinsdag 23 januari 2024 @ 20:50:
Ook lijkt steeds gemist te worden dat de L2 cache nog steeds 48MB is.
Bandbreedte doet er niet toe als je het niet kunt verzadigen, er is al jaren meer bandbreedte dan ze data kunnen verwerken. De L2 vangt al een hoop mid-size data op en die bandbreedte is veel hoger. Wat er verder uit VRAM moet komen zie je niet terug in framerates, omdat dat gestreamed wordt terwijl er andere dingen gedaan worden. Tegelijkertijd zit de L2 nog steeds behoorlijk ver weg en is de latency hoog, waardoor de grotere L2 weinig doet voor het gros van het rekenwerk waar de data binnen de L1$/L2$ blijft., want daarvoor doet meer bandbreedte er weer niet toe. Dat wil niet zeggen dat de grotere L2 niets doet, maar het effect is voor graphics vele malen minder dan velen denken.

Daarom heeft AD102 met 48 meer SM's dan AD103 (de volle chips) slechts 8 MB meer L2$. Die 64 is gewoon al overkill en loopt al lang tegen afnemend rendement aan.

Sterker nog, in Chips and Cheese's benchmark rondom release bleek toen dat de L2 ook niet totaal niet uniform is; de eerste 32 MB van AD102's L2 hadden een stabiele latency, maar vanaf 32 MB schoot de latency zo'n beetje lineair omhoog, tot 2,5x hoger tegen de tijd dat je aan 72 MB zat. De L2 functioneert meer als een L2 + L2,5.

Ik dacht overigens wel dat dit ding gewoon de volle 64 MB zou krijgen, aangezien dat op allerlei plekken vermeld werd maar @sdk1985 maakte me er op attent dat dat niet het geval is.

[ Voor 4% gewijzigd door Werelds op 23-01-2024 21:57 ]


Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Nvidia heeft ook een nieuwe AI HDR feature toegevoegd voor SDR video's met de nieuwe 551.23 drivers onder het tabje van RTX super resolutie. Het werkt op zich goed. SDR video's met Windows HDR aan zag er altijd kleurloos en mat uit en nu is dat veel beter om aan te zien met de toevoeging van AI HDR. Nvidia heeft met deze driver ook Ultra Low Latency toegevoegd voor DX12 games.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik verwachte al weinig veel van de RTX4080S, maar dit is nog slechter dan mijn minste verwachtingen. Gemiddeld 1-3% sneller dan de RTX4080. Verlaag dan gewoon de prijs van de RTX4080 en kom niet met een "refresh". :N

[ Voor 13% gewijzigd door DaniëlWW2 op 31-01-2024 19:23 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 29-07 00:32
DaniëlWW2 schreef op woensdag 31 januari 2024 @ 18:53:
Ik verwachte al weinig veel van de RTX4080S, maar dit is nog slechter dan mijn minste verwachtingen. Gemiddeld 1-3% sneller dan de RTX4080. Verlaag dan gewoon de prijs van de RTX4080 en kom niet met een "refresh". :N
Ik snap hem ook niet. Om hiervoor allerlei dingen qua fabricage te veranderen plus allerlei afbeeldingen op de kaarten en volledig nieuwe verpakkingen te maken....?

En ik maar denken dat ze de xtx in ieder geval voorbij moesten qua raster, zelfs dat niet eens En waarom niet? Gat naar de 4090 is dan nog steeds groot genoeg lijkt me.

Het snelste en duurste geheugen er op ook nog. Bijzonder dit.

Leuk van de prijsverlaging, dat wel. Trekt waarschijnlijk de xtx wel wat mee naar beneden.
Kunnen de bizar dure 2e hands kaarten ook weer 5 euro zakken.... :)

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

meljor schreef op woensdag 31 januari 2024 @ 20:06:
[...]


Ik snap hem ook niet. Om hiervoor allerlei dingen qua fabricage te veranderen plus allerlei afbeeldingen op de kaarten en volledig nieuwe verpakkingen te maken....?

En ik maar denken dat ze de xtx in ieder geval voorbij moesten qua raster, zelfs dat niet eens En waarom niet? Gat naar de 4090 is dan nog steeds groot genoeg lijkt me.

Het snelste en duurste geheugen er op ook nog. Bijzonder dit.

Leuk van de prijsverlaging, dat wel. Trekt waarschijnlijk de xtx wel wat mee naar beneden.
Kunnen de bizar dure 2e hands kaarten ook weer 5 euro zakken.... :)
Dat natuurlijk ook nog. Dit is de volledige AD103 en sneller geheugen. Niet dat het Nvidia heel veel meer zal kosten, waarschijnlijk maken ze van de net niet perfecte AD103 chips nu "RTX4090" (mobile) maar toch. De winst is vrijwel compleet te verwaarlozen. Het is gewoon een prijsverlaging die een jaar geleden al had moeten plaatsvinden. Alleen is het nog steeds te veel.

Als ik snel bij TPU kijk, dan hebben ze wel het FE PCB nog iets meer uitgekleed.
RTX4080 Super
Afbeeldingslocatie: https://www.techpowerup.com/review/nvidia-geforce-rtx-4080-super-founders-edition/images/front.jpg

RTX4080
Afbeeldingslocatie: https://www.techpowerup.com/review/nvidia-geforce-rtx-4080-founders-edition/images/front.jpg

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Nvidia boekte vorig jaar opnieuw forse groeicijfers:

nieuws: Nvidia verdubbelde jaaromzet in 2023 door AI en groei van datacenterd...
Nvidia meldt opnieuw recordomzetten. De jaaromzet van het bedrijf verdubbelde in 2023 ruim 60,9 miljard dollar, of 56 miljard euro. Volgens de chipmaker heeft dit met name te maken met enorme vraag naar AI-toepassingen en de daarvoor benodigde chips. Vooral de datacenterdivisie groeide.

Nvidia zag zijn omzet in het vierde kwartaal stijgen naar 22,1 miljard dollar of 20,3 miljard euro. Dat ios een groei van 265 procent ten opzichte van hetzelfde kwartaal een jaar eerder. Dat is slechts een van de records die Nvidia dit kwartaal meldde. Ook de jaaromzet, die met 126 procent steeg, is een nieuw record, net als de kwartaalomzet uit het Data Center-platform. Dat platform draaide een omzet van 18,4 miljard dollar of 16,9 miljard euro, 409 procent hoger dan een jaar eerder.
Ook gaming doet het goed:
Tot slot is ook de omzet uit gaming toegenomen. In het vierde kwartaal kwam die omzet uit op 2,9 miljard dollar of 2,67 miljard euro. Dat is 56 procent hoger dan dezelfde periode een jaar eerder. De gaming-omzet over het gehele jaar steeg met 15% naar 10,4 miljard dollar of 9,6 miljard euro.

March of the Eagles


  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Dat zou ik wel met een opscheplepel zout nemen, want de 4090's tellen als gamingkaarten, maar we weten dat ze ondermeer in China massaal worden ingezet voor AI. Door de tekorten aan professionele AI-kaarten worden 4090's zelfs omgebouwd naar rack-servers.

Met de 4090-prijzen heb je al snel een flinke omzet als die kaart goed verkoopt, veel sneller dan wanneer je meer 4060 en 4070's verkoopt. Maar dat zijn wel de kaarten die normaliter de bulk vormen van de verkoop aan gamers. Als je naar de Steam survey kijkt dan blijven de verkopen van die kaarten wel flink achter bij eerdere generaties. Van zowel de 3060, 2060 en 1060 zijn er volgens Steam veel meer in gebruik dan de 4060. En de 4070 is de helft zo vaak in gebruik als de 3070.

Dus alles lijkt erop te wijzen dat 'gamer'-kaarten goed verkopen aan AI-gebruikers en wellicht ook de 'prijs geen bezwaar'-gamers, maar de mainstream-gamers lijken veel minder te kopen dan vroeger.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 31-07 09:16
Ludewig schreef op donderdag 22 februari 2024 @ 13:54:
[...]


Dat zou ik wel met een opscheplepel zout nemen, want de 4090's tellen als gamingkaarten, maar we weten dat ze ondermeer in China massaal worden ingezet voor AI. Door de tekorten aan professionele AI-kaarten worden 4090's zelfs omgebouwd naar rack-servers.

Met de 4090-prijzen heb je al snel een flinke omzet als die kaart goed verkoopt, veel sneller dan wanneer je meer 4060 en 4070's verkoopt. Maar dat zijn wel de kaarten die normaliter de bulk vormen van de verkoop aan gamers. Als je naar de Steam survey kijkt dan blijven de verkopen van die kaarten wel flink achter bij eerdere generaties. Van zowel de 3060, 2060 en 1060 zijn er volgens Steam veel meer in gebruik dan de 4060. En de 4070 is de helft zo vaak in gebruik als de 3070.

Dus alles lijkt erop te wijzen dat 'gamer'-kaarten goed verkopen aan AI-gebruikers en wellicht ook de 'prijs geen bezwaar'-gamers, maar de mainstream-gamers lijken veel minder te kopen dan vroeger.
Ik denk dat het percentage gamer kaarten die naar andere doelen gaat je momenteel wel kunt wegstrepen binnen de marge. Dat zal bij de concurrent net zo goed meetellen. Bij de crypto gekte vorige generatie was het veel duidelijker, omdat er echt geen kaart te krijgen was. Nu is dat echt geen issue.

Steam survey klopt wel, maar daar moet je ook in meenemen dat het percentage van een gelopen generatie zal lang hoog blijven tegenover een nieuwere generatie die blijft groeien tot er weer iets nieuws komt. De 30 serie liep ook lang achter op de 20 serie etc. Een oude kaart verdwijnt niet gelijk bij een nieuwe aankoop, maar gaat vaak door naar een ander. Pas als deze niet meer mee kunnen komen (of sneuvelen) zie je een scherpe daling in % gebruik.

Ongetwijfeld zal de hoge prijs wel impact hebben, maar mensen blijven toch nieuw kopen als het moet. Kijk je naar het percentage 4090 kaarten op Steam, dan zie ik duidelijk dat ze echt niet allemaal naar China gaan of dat ze te duur zijn. Een 4090 doet het op Steam beter dan een 4080 of een 6700xt (mind blown) :o

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Een wonder:

https://www.nvidia.com/en-us/software/nvidia-app/
https://www.nvidia.com/en...nvidia-app-beta-download/


NVIDIA GeForce 551.61 WHQL with RTX HDR Released, NVIDIA Finally Has a Modern Control Panel

NVIDIA today released the latest version of GeForce drivers. While the actual driver package of the new GeForce 551.61 is WHQL, it also includes a beta version of the NVIDIA App.

This is NVIDIA's take on a modern control panel application that combines functionality of the classic NVIDIA Control Panel that hasn't quite changed in 20+ years; and the GeForce Experience application that not everyone likes to have installed.

The new NVIDIA App has a lot in common with the AMD Radeon Software application, in that you can configure your displays, monitor and tune your GPU, as well as manage and optimize your installed games.

The app also helps gather and present software update options spanning both the main drivers and application profiles for DLSS and other technologies.

Most importantly, the NVIDIA App provides a comprehensive performance overlay suite. We will be doing an article detailing the NVIDIA App before the weekend.

NVIDIA is also debuting RTX HDR, a technology that adds HDR capability to games that otherwise lack it. It does so by utilizing Tensor cores and an AI model that attempts to add HDR to SDR content. The driver adds optimization and optimal settings for Granblue Fantasy: Relink, Nightingale, Pacific Drive, and Skull and Bones. A stability issue with Tom Clancy's Rainbow Six Siege running using the Vulkan API has been fixed. Among the general issues fixed concern incorrect tone mapping for RTX Video HDR; poor SDR video playback quality in Chromium-based web-browsers with Windows HDR setting enabled; filter settings not carrying over with NVIDIA Freestyle; and a couple of bugs with Adobe Substance 3D.

[ Voor 79% gewijzigd door Help!!!! op 23-02-2024 08:34 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@sjekneck

Het was toch overduidelijk dat de 4090's in Q4 massaal naar China zijn vervoerd om de nieuwe sancties voor te zijn, waardoor de prijzen van de 4090's hier omhoog spoten en ze slecht verkrijgbaar waren. Dat begint nu pas langzaam weer te zakken.

Als de 4090's die eigenlijk voor Q1 2024 waren bedoeld massaal in Q4 2023 zijn verkocht, dan hebben ze eigenlijk een voorschot genomen op de toekomst en zou je verwachten dat de Q1 resultaten van de gamer-divisie gaan tegenvallen.

En dat de 30-serie achterliep was natuurlijk omdat daarmee massaal gemined werd. Nadat mining ophield gingen die kaarten massaal naar gamers, dus liep het weer in. Dat is nu niet het geval, dus lijkt het mij niet waarschijnlijk dat de 40-serie het gat gaat dichten, tenzij de 40-serie kaarten straks in de uitverkoop gaan.

@Help!!!!

Eindelijk. Het zag er echt niet meer uit.

Nu nog voltage/clock-aanpassingen kunnen doen in de GUI ipv Afterburner daarvoor nodig te hebben.

[ Voor 13% gewijzigd door Ludewig op 22-02-2024 16:49 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 31-07 09:16
Ludewig schreef op donderdag 22 februari 2024 @ 16:48:
@sjekneck

Het was toch overduidelijk dat de 4090's in Q4 massaal naar China zijn vervoerd om de nieuwe sancties voor te zijn, waardoor de prijzen van de 4090's hier omhoog spoten en ze slecht verkrijgbaar waren. Dat begint nu pas langzaam weer te zakken......
Ik ontken niet dat dit korte tijd zo was, maar jij stuurt naar winst vanwege China, dat is echt wel een flinke claim die je echt niet met een relatief lage geproduceerde kaart als de 4090 gaat kunnen onderbouwen. Steam laat namelijk zien dat er meer dan genoeg 4090 kaarten naar gamers gaan. En ik maar hopen dat deze dure kaarten (ook AMD) het slecht zouden doen... Niet dus.

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@sjekneck

Ik heb het bij de 4090 specifiek over Q4 2023, dus het heeft niet zoveel zin om de Steam survey daarvoor aan te halen, want daaraan kun je niet zomaar zien wanneer de kaarten zijn verkocht.

Het is toch echt overduidelijk dat er in Q4 2023 iets gebeurd is waardoor de prijzen voor de 4090's omhoog spoten in het Westen (zie onderste tabel):

https://www.3dcenter.org/news/news-des-16-februar-2024

Stijgende prijzen is de logische consequentie als de leveringen ophouden en de vraag/aanbod-curve dus heel anders komt te liggen. Wat is er toch gebeurd tussen 20 augustus en 26 oktober? Kijk, dat is precies het moment waarop de VS nieuwe sancties hebben afgekondigd:

https://www.reuters.com/t...exports-china-2022-08-31/
https://videocardz.com/ne...kes-effect-on-november-17

En volgens de media heeft Nvidia inderdaad de kaarten snel naar China gestuurd en daarbij extra veel 4090's geproduceerd:

https://www.techpowerup.c...efore-export-restrictions
https://www.techspot.com/...ed-rtx-4090-cards-ai.html

[ Voor 5% gewijzigd door Ludewig op 22-02-2024 18:17 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 31-07 09:16
Maar wat moeten we dan met een lading zout nemen dan? De operationele winst zit echt niet alleen in export van èèn gpu soort, dat zit eerder in vraag en algeheel hogere prijzen die ze vragen aan gamers.

Nogmaals ik ontken niet dat het gebeurde, ik trek alleen jouw statement over waar de gestegen winst vandaan komt sterk in twijfel. Nvidia doet het al jaren uitstekend op bijna alle vlakken. Dat is echt niet een kwestie van uitzondering op uitzondering.

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sjekneck schreef op donderdag 22 februari 2024 @ 18:35:
Maar wat moeten we dan met een lading zout nemen dan?
Allereerst dat de gamer-divisie echt zo goed draait. Als er sprake is van het naar voren halen van winsten en een eenmalige meevaller doordat men nog snel dingen verkoopt vlak voordat de sancties ingaan, dan is dat niet per se een teken dat die divisie echt goed loopt.

Sowieso is het vrij normaal bij bedrijven dat ze ook cijfers presenteren zonder bepaalde eenmalige mee- en tegenvallers, omdat investeerders vaak niet zozeer geïnteresseerd zijn in de behaalde korte termijnresultaten, maar meer de onderliggende trend. Maar situaties zoals deze zijn vrij abnormaal, dus in dit geval worden deze meevallers gerapporteerd alsof het niet eenmalig is.

Wanneer een bedrijf exportbeperkingen opgelegd krijgt, kun je de situatie krijgen dat dit op korte termijn juist de winst opstuwt, omdat men nog snel daarvoor wil inkopen, maar dat zijn dan meestal slechts vervroegde inkopen. Dus elk extra product dat je eerder verkoopt, verkoop je dan later niet.

Mijn tweede bezwaar met de opmerking dat de gamer-divisie goed draait is dat Nvidia deze divisie een misleidende naam heeft gegeven, omdat een deel van de verkopen van 'gamer'-kaarten helemaal niet naar gamers gaan, maar naar AI-gebruikers, video render-farms en dergelijke.

Sterker nog, we hebben bewijs dat China, die door de sancties geen professionele kaarten meer kan kopen, (tijdelijk) overstapte naar omgebouwde 4090's die ze in servers stoppen. Dan gaan ze dus niet naar gamers. We weten dat er een massale AI-boom is en als je dan net doet alsof kaarten die in werkelijkheid naar AI render-farms gaan, aan gamers worden verkocht, dan trek je de verkeerde conclusies.

De reden waarom ik dit wil opmerken, is omdat ik regelmatig mensen totaal verkeerde conclusies zie trekken. Zo zie ik nog steeds regelmatig dat het beweerd wordt dat het de schuld van gamers is dat Nvidia de prijs/prestatie heeft laten stagneren omdat gamers zogenaamd massaal hoge prijzen hebben betaald tijdens de mining boom. Alles wijst erop dat dit helemaal niet zo is, maar toch blijven mensen het beweren omdat ze niet doorhebben wie de kaarten nu werkelijk kocht.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Ludewig schreef op donderdag 22 februari 2024 @ 16:48:
@sjekneck

Ik heb het bij de 4090 specifiek over Q4 2023, dus het heeft niet zoveel zin om de Steam survey daarvoor aan te halen, want daaraan kun je niet zomaar zien wanneer de kaarten zijn verkocht.

Het was toch overduidelijk dat de 4090's in Q4 massaal naar China zijn vervoerd om de nieuwe sancties voor te zijn, waardoor de prijzen van de 4090's hier omhoog spoten en ze slecht verkrijgbaar waren. Dat begint nu pas langzaam weer te zakken.
De omzetstijging uit gaming is echter al eerder ingezet:
Gaming

- First-quarter revenue was $2.24 billion, down 38% from a year ago and up 22% from the previous quarter.
Gaming

- Second-quarter revenue was $2.49 billion, up 11% from the previous quarter and up 22% from a year ago.
Gaming

- Third-quarter revenue was $2.86 billion, up 15% from the previous quarter and up 81% from a year ago.
En ondanks de RTX 4090 exodus naar China was de omzet in Q4 afgevlakt.
Gaming

- Fourth-quarter revenue was $2.9 billion, flat from the previous quarter and up 56% from a year ago. Full-year revenue rose 15% to $10.4 billion.
Het algemene beeld is dat de omzet uit gaming toch een stijgende trend laat zien; in Q3 FY23 zat Nvidia nog in een dal.

Afbeeldingslocatie: https://tweakers.net/i/_-WrRO5n9MwdcppBg-h_RSvYZ0g=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/Bvkwu87wSCztRXAvJ9SNwwJ8.png?f=user_large

Over de toekomst ga ik natuurlijk niet speculeren! :)
Als je naar de Steam survey kijkt dan blijven de verkopen van die kaarten wel flink achter bij eerdere generaties. Van zowel de 3060, 2060 en 1060 zijn er volgens Steam veel meer in gebruik dan de 4060. En de 4070 is de helft zo vaak in gebruik als de 3070.
Ja, dat is heel logisch. De RTX 4060 is nog geen jaar op de markt, de oudere series zijn zijn ongeveer twee tot drie verkocht geweest. Beter kan je vergelijken hoe de 3060, 2060 en 1060 in de eerste 12 maanden verkocht zijn. Het is alleen lastig om die cijfers terug te vinden.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Expanse
  • Registratie: Januari 2024
  • Laatst online: 25-06-2024
Help!!!! schreef op donderdag 22 februari 2024 @ 16:00:
Een wonder:

https://www.nvidia.com/en-us/software/nvidia-app/
https://www.nvidia.com/en...nvidia-app-beta-download/


NVIDIA GeForce 551.61 WHQL with RTX HDR Released, NVIDIA Finally Has a Modern Control Panel

NVIDIA today released the latest version of GeForce drivers. While the actual driver package of the new GeForce 551.61 is WHQL, it also includes a beta version of the NVIDIA App.

This is NVIDIA's take on a modern control panel application that combines functionality of the classic NVIDIA Control Panel that hasn't quite changed in 20+ years; and the GeForce Experience application that not everyone likes to have installed.

The new NVIDIA App has a lot in common with the AMD Radeon Software application, in that you can configure your displays, monitor and tune your GPU, as well as manage and optimize your installed games.

The app also helps gather and present software update options spanning both the main drivers and application profiles for DLSS and other technologies.

Most importantly, the NVIDIA App provides a comprehensive performance overlay suite. We will be doing an article detailing the NVIDIA App before the weekend.

NVIDIA is also debuting RTX HDR, a technology that adds HDR capability to games that otherwise lack it. It does so by utilizing Tensor cores and an AI model that attempts to add HDR to SDR content. The driver adds optimization and optimal settings for Granblue Fantasy: Relink, Nightingale, Pacific Drive, and Skull and Bones. A stability issue with Tom Clancy's Rainbow Six Siege running using the Vulkan API has been fixed. Among the general issues fixed concern incorrect tone mapping for RTX Video HDR; poor SDR video playback quality in Chromium-based web-browsers with Windows HDR setting enabled; filter settings not carrying over with NVIDIA Freestyle; and a couple of bugs with Adobe Substance 3D.
Ik gebruik altijd GFE om drivers te downloaden maar moet ik nu de driver voor de nieuwe app apart downloaden en GFE en drivers verwijderen?

мы идем к победе


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ik weet niet of de app al alle functionaliteit van Geforce Experience heeft die jij gebruikt. Zelf gebruik ik GE niet.

De app moet je sowieso apart downloaden. Ik heb deze naast de driver geinstalleerd want de driver had ik al.

Volgensmij zou het moeten werken dat je alles uninstalled, de app installeert en die gaat dan ook de goede driver installeren.

Wellicht kun je bij uninstall GE aangeven dat de driver niet uninstalled wordt. Dat zou ook moeten werken.

Maar goed, probeer het gewoon eens :)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Expanse
  • Registratie: Januari 2024
  • Laatst online: 25-06-2024
Helaas heeft de app niet alle functies. Bijvoorbeeld het uitzenden naar youtube/Twitch of fb is niet mogelijk.

мы идем к победе


Acties:
  • 0 Henk 'm!

  • Loft
  • Registratie: Augustus 2000
  • Laatst online: 10:54
Ludewig schreef op donderdag 22 februari 2024 @ 18:13:
@sjekneck

Ik heb het bij de 4090 specifiek over Q4 2023, dus het heeft niet zoveel zin om de Steam survey daarvoor aan te halen, want daaraan kun je niet zomaar zien wanneer de kaarten zijn verkocht.

Het is toch echt overduidelijk dat er in Q4 2023 iets gebeurd is waardoor de prijzen voor de 4090's omhoog spoten in het Westen (zie onderste tabel):

https://www.3dcenter.org/news/news-des-16-februar-2024

Stijgende prijzen is de logische consequentie als de leveringen ophouden en de vraag/aanbod-curve dus heel anders komt te liggen. Wat is er toch gebeurd tussen 20 augustus en 26 oktober? Kijk, dat is precies het moment waarop de VS nieuwe sancties hebben afgekondigd:

https://www.reuters.com/t...exports-china-2022-08-31/
https://videocardz.com/ne...kes-effect-on-november-17

En volgens de media heeft Nvidia inderdaad de kaarten snel naar China gestuurd en daarbij extra veel 4090's geproduceerd:

https://www.techpowerup.c...efore-export-restrictions
https://www.techspot.com/...ed-rtx-4090-cards-ai.html
Ik weet niet of ik het eens of oneens met je mag zijn. Ik heb niet alle data. (hoef ik ook niet)
Je bent in mijn ogen wel te stelling om deze informatie als causaal verband te stellen. Volgens mij hebben wij niet alle data (ik vermoed jij ook niet ;) )

ik neig meer naar @sjekneck , @XWB. Er zal vast iets zijn, maar je schrijft wel in heel veel aannames en stellingheden.

If I agreed with you, we'd both be wrong.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Loft

Ik zie allerlei informatie uit verschillende bronnen die naar hetzelfde wijzen, dus dat er massaal 4090's naar China zijn verscheept vindt ik zelf nogal duidelijk. Ik zie ook niemand met een andere verklaring komen waarom bijvoorbeeld de prijzen van de 4090's omhoog schoten, en de beschikbaarheid omlaag, precies rond de tijd toen de sancties werden aangekondigd.

De exacte effecten op de omzet van de 'game' divisie van Nvidia is natuurlijk wel speculatief. De enige die weet hoe dat echt zit zijn de boekhouders van Nvidia. Maar daar heb ik dan ook geen stellige uitspraken over gedaan, maar heb ik slechts beweerd dat je moet oppassen om daaruit te concluderen dat de verkopen aan gamers goed lopen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 25-07 12:04
Gaming doet het helemaal niet goed, in Q4 weer keihard gestagneerd en ze zitten nog steeds niet op het niveau van 2021 (FY22) . Met die 15% YoY groei is het maar net genoeg om ze weer op FY20 (2019 dus) niveau te brengen qua marges. In 20 (Turing+1) was dat een procentpunt meer dan het jaar ervoor, in 21 (Ampère) kwam er 4,1 procentpunt bij, in 22 (Amp + 1) ging dat omhoog met 6,6 procentpunt, waarna het in 23 (Ada) kelderde met 15,3 procentpunt. Nu (Ada + 1) is er weer 5 procentpunt bij gekomen, maar dat is dus minder vooruitgang dan met Ampère nadat die in de tweede helft van z'n levenscyclus kwam en algeheel zitten ze nog steeds onder het Turing niveau.

Belangrijkste is echter de kleine lettertjes lezen: de marges zijn omhoog gegaan omdat ze bestaande voorraad hebben weg gewerkt en ondanks dat zitten ze nog steeds met een hoger overschot dan vorig jaar. Verder is de gaming omzet van Q3 naar Q4 vlak gebleven, ondanks de launch van de Supers. Met Ampère werd de stijgende lijn sneller in gezet en bleef die vrij constant - over 1-2 kwartalen gaat die omzet waarschijnlijk weer kelderen, dus dat niveau gaan ze waarschijnlijk niet meer halen. Zo lekker gaat dat dus niet, ze zijn duidelijk een stap te ver gegaan met de prijzen, want het verkoopt gewoon stukken minder dan ze willen.

Wat het China verhaal betreft: lees de 10-K gewoon? Cijfers (totaal/VS/Taiwan/China/RoW) in miljarden (of Amerikaanse miljoenen :P):
- FY22 (2021): 26,914 / 4,349 / 8,544 / 7,111 / 6,910
- FY23 (2022): 26,974 / 8,292 / 6,986 / 5,785 / 5,911
- FY24 (2023): 60,922 / 26,966 / 13,405 / 10,306 / 10,245

De omzet in de VS is in 2 jaar tijd meer dan verzesvoudigd, mag wel duidelijk zijn waar dat zit. Taiwan is een klein beetje harder gegroeid dan de andere twee, dat zal ook vooral datacenter zijn want Taiwan is geen gigantische afzet markt voor gaming GPU's (ik betwijfel of daar nu 10% van de bevolking aan een 4090 hangt ;)). China is even hard gegroeid als RoW, niet veel bijzonders dus. Onthoud wel dat de consumenten afzetmarkt daar kleiner is dan in RoW - wat realistisch gezien vooral Europa + Australië + Canada is voor de producten met de gewenste marge. Dus ja, daar zullen aardig wat 4090's naartoe gegaan zijn, maar de 4090D zal de voorraad elders juist geholpen hebben omdat dat chips zijn die toch nooit voor "onze" 4090's gebruikt zouden worden.




Halleluja, eindelijk eens nieuwe software. Ik heb hem nog niet geïnstalleerd, maar van wat ik zo lees is het stukken sneller dan het oude CP én soepeler dan GFE én geen login-wall meer. Zou eens tijd worden. Kan ik ook Shadowplay weer eens gaan gebruiken :+

Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 31-07 15:55
Werelds schreef op vrijdag 23 februari 2024 @ 16:59:
Gaming doet het helemaal niet goed, in Q4 weer keihard gestagneerd en ze zitten nog steeds niet op het niveau van 2021 (FY22) . Met die 15% YoY groei is het maar net genoeg om ze weer op FY20 (2019 dus) niveau te brengen qua marges. In 20 (Turing+1) was dat een procentpunt meer dan het jaar ervoor, in 21 (Ampère) kwam er 4,1 procentpunt bij, in 22 (Amp + 1) ging dat omhoog met 6,6 procentpunt, waarna het in 23 (Ada) kelderde met 15,3 procentpunt. Nu (Ada + 1) is er weer 5 procentpunt bij gekomen, maar dat is dus minder vooruitgang dan met Ampère nadat die in de tweede helft van z'n levenscyclus kwam en algeheel zitten ze nog steeds onder het Turing niveau.
MIjn eerste indruk toen ik dit las was: heeft Werelds op een onbewoond eiland gezeten in 2021-2022? Toen zijn er inderdaad veel "gaming" GPUs verkocht ja.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 25-07 12:04
napata schreef op zaterdag 24 februari 2024 @ 09:18:
[...]

MIjn eerste indruk toen ik dit las was: heeft Werelds op een onbewoond eiland gezeten in 2021-2022? Toen zijn er inderdaad veel "gaming" GPUs verkocht ja.
Ik denk dat je me verkeerd begrijpt. In 2022 is Nvidia's omzet uit gaming gehalveerd en @XWB's grafiek laat juist zien dat de stijgende lijn gestagneerd is. De fiscale jaren lopen een jaar "voor" en de kwartalen zijn een maand verschoven; Q1 is feb t/m april, Q2 is mei t/m juli, Q3 is augustus t/m oktober en Q4 is november t/m januari.

Van Q1'23 naar Q3'23 (2022 dus, februari t/m eind oktober) is de omzet uit gaming meer dan gehalveerd, ondanks het feit dat in oktober de launch van de 4080 was. Vergeet niet dat hun omzet gebaseerd is op leveringen aan partners, niet aan ons consumenten, dus ze hebben toen weinig geleverd, de 4080 telt weldegelijk mee voor Q3. In Q4 kwam er slechts enkele honderden miljoenen bij. Dat is anderhalf kwartaal waar Ada dus geen zoden aan de dijk zette. De kwartalen daarvoor zou je zeggen dat de omzet wellicht zakt omdat de consument op de nieuwe generatie wacht, maar dat is niet zo, het is meestal zo dat het dan stagneert.

Vergelijk bijvoorbeeld met FY21: Q1 naar Q2 was een stijging - niet veel (310 miljoen) maar alsnog meer dan dat eerste hele kwartaal van Ada (Q4, 260 miljoen). Dit is het laatste kwartaal van Turing, helemaal aan het eind van de cyclus! Van Q2 naar Q3 (Ampère launch) zie je een sprong bijna 40% (620 miljoen) en daarna is het 3 kwartalen lang een stijging: 230, 260 en 300 miljoen, telkens zo'n 10% er bij. Je zit nu een jaar na de launch en het zakt wat in, maar de stijging zet zich nog eens 3 kwartalen voort met 5% elke keer (160, 200, 200 in miljoenen). Dan komt de crash.

Ada's eerste kwartaal is gewoon slecht, 17% stijging, maar dat komt dus uit een heel diep dal én ze zitten nu met een gemiddeld hogere MSRP dan bij Ampère, dus het volume is kleiner. Q1'24 is op zich wel aardig met een stijging van 22%, maar die twee kwartalen zijn samen goed voor 670 miljoen stijging. Dat is maar 50 miljoen meer dan Ampère's eerste kwartaal op zich zelf - en Ampère was nauwelijks leverbaar. En vervolgens kakt het in naar een niveau dat vergelijkbaar is met Ampère's latere kwartalen, tot Q4, waar het volledig stagneert.

Wederom: ze hebben nu gemiddeld hogere prijzen, dus voor dezelfde omzet hoeven ze minder eenheden te verkopen, dus zo lekker loopt het helemaal niet. En dat is wat ik dus ook aanhaal, ze geven aan dat ze met meer overschot zitten.

Zijn het gezonde cijfers? Ja. Kan ook niet anders met hun marktaandeel en mindshare. Maar "goed" moet je in Nvidia's geval wel in perspectief zetten tot hun eerdere resultaten en dan doet Ada het gewoon niet goed. Met Ampère wisten ze, ondanks de leveringsproblemen en hogere prijzen, hun omzet en vooral marge daarop flink op te krikken. Dat zijn ze nu kwijt. Het feit dat Q3 -> Q4 vlak was, is niet al te best, maar wel te verklaren doordat men op de Supers wachtte. Het is te hopen dat ze dat oude nu in Q1 wel kwijt raken, want anders blijft dat nog een flinke tijd hangen en moet het ergens afgeschreven worden.

Of we krijgen de "RTX 5070" met AD103-300 ;)

Acties:
  • +3 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:40
Ludewig schreef op donderdag 22 februari 2024 @ 13:54:
Als je naar de Steam survey kijkt dan blijven de verkopen van die kaarten wel flink achter bij eerdere generaties. Van zowel de 3060, 2060 en 1060 zijn er volgens Steam veel meer in gebruik dan de 4060. En de 4070 is de helft zo vaak in gebruik als de 3070.
die kaarten zijn echter ook een stuk korter verkrijgbaar, en daar houdt de Steam survey geen rekening mee. Dat is een gewoon een percentage van de install base op het meetmoment uit mijn hoofd.

Neem je dat wel mee, valt het allemaal wel redelijk mee voor de 4000 generatie kaarten in jouw voorbeeld.
De 4070 is nu zo'n 10 maand op de markt, en de laatste survey geeft 1.50% van de install base voor deze kaart.
Kijk je naar de 3070, die zat 10 maand na release op 1.55% van de install base.

Dat doet elkaar op hetzelfde moment in de lifecycle dus bijna niets.

Kijk je naar de 4060, die is nu 8 maand uit, met een percentage van 1.18% gemeten in de Steam install base.
Op ongeveer dat zelfde moment in de lifecycle zat de 3060 op 1.09% van de install base
Kijk je naar de 2060 was dat 1.48%

De 1060 kan ik niet na gaan, want oudere Steam Survey's hebben deze onderverdeling zo lijkt het niet.

Al met al had dus alleen de 2060 een duidelijk hoger percentage van de install base op hetzelfde moment in de lifecycle.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Dennism

Ik vind een vergelijking met de 30-serie vrij nutteloos, want toen zaten we in de miningboom, waarbij veel kaarten naar miners gingen, in systemen waar uiteraard geen Steam op stond. Die kaarten zijn later massaal voor normale prijzen de 2e hands markt op gegaan, waardoor de cijfers uiteindelijk redelijk genormaliseerd zijn.

Ik zie geen enkele reden om aan te nemen dat de 40-serie het komende jaar heel goed gaat verkopen. Voor de 4060 zou je bijvoorbeeld grofweg een verdriedubbeling moeten zien in het tweede jaar ten opzichte van het eerste jaar om de huidige stand van de 3060 te evenaren.

Als je heel creatief rekent met het feit dat de 3060 ook nog werd verkocht na de lancering van de 4060 en dat de 4060 nog geen jaar op de markt is, dan kun je misschien beredeneren dat een verdubbeling ook voldoende zijn. Maar dan nog zie ik die kaart echt niet opeens de winkel uitvliegen, tenzij er een flinke prijsaanpassing komt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

NVIDIA Accused of Acting as "GPU Cartel" and Controlling Supply

World's most important fuel of the AI frenzy, NVIDIA, is facing accusations of acting as a "GPU cartel" and controlling supply in the data center market, according to statements made by executives at rival chipmaker Groq and former AMD executive Scott Herkelman.

In an interview with the Wall Street Journal, Groq CEO Jonathan Ross alleged that some of NVIDIA's data center customers are afraid to even meet with rival AI chipmakers out of fear that NVIDIA will retaliate by delaying shipments of already ordered GPUs. This is despite NVIDIA's claims that it is trying to allocate supply fairly during global shortages.

"This happens more than you expect, NVIDIA does this with DC customers, OEMs, AIBs, press, and resellers. They learned from GPP to not put it into writing. They just don't ship after a customer has ordered. They are the GPU cartel, and they control all supply," said former Senior Vice President and General Manager at AMD Radeon, Scott Herkelman, in response to the accusations on X/Twitter.

The comments reference the NVIDIA GeForce Partner Program (GPP) from 2018, which was abandoned following backlash over its exclusivity requirements. Herkelman suggests NVIDIA has continued similar practices but avoided written agreements.

The Wall Street Journal report also hinted that major tech companies like Microsoft, Google, and Amazon are developing their own AI accelerators but downplaying them as NVIDIA competitors. This further points to an environment where NVIDIA is seen as controlling access to key technology for AI development.

NVIDIA currently powers around 80% of AI development worldwide, giving it incredible influence over strategic technology. The accusations from Groq and Herkelman suggest the company is willing to leverage that market position aggressively to protect its dominance.

NVIDIA has not officially responded to the latest accusations. But the reports have fueled speculation about anticompetitive practices just as regulatory scrutiny grows over the market power of tech giants. NVIDIA will likely face pressure to transparently address whether its supply allocation favors some customers over others based on relationships with rival chipmakers.

Sources: The Wall Street Journal, Scott Herkelman (X/Twitter), via VideoCardz

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Het is sowieso niet gezond dat een enkel bedrijf een zo groot marktaandeel heeft, want dan hebben ze teveel macht om vieze trucjes uit te halen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

The comments reference the NVIDIA GeForce Partner Program (GPP) from 2018, which was abandoned following backlash over its exclusivity requirements. Herkelman suggests NVIDIA has continued similar practices but avoided written agreements.
Niemand opgevallen dat er voor RDNA3, helemaal geen ASUS ROG Strix modellen meer zijn? Of geen AORUS voor Gigabyte? Of dat MSI alleen een oudere versie van hun Gaming lijn heeft voor RDNA3, die nauwelijks te krijgen zijn en er nog steeds geen Navi 32 videokaarten van MSI zijn? :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 29-07 22:34

Sp3ci3s8472

@ 12 graden...

DaniëlWW2 schreef op woensdag 28 februari 2024 @ 11:23:
[...]


Niemand opgevallen dat er voor RDNA3, helemaal geen ASUS ROG Strix modellen meer zijn? Of geen AORUS voor Gigabyte? Of dat MSI alleen een oudere versie van hun Gaming lijn heeft voor RDNA3, die nauwelijks te krijgen zijn en er nog steeds geen Navi 32 videokaarten van MSI zijn? :z
Geen idee, ik koop liever Sapphire of PowerColor :P.

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 31-07 09:16
DaniëlWW2 schreef op woensdag 28 februari 2024 @ 11:23:
[...]


Niemand opgevallen dat er voor RDNA3, helemaal geen ASUS ROG Strix modellen meer zijn? Of geen AORUS voor Gigabyte? Of dat MSI alleen een oudere versie van hun Gaming lijn heeft voor RDNA3, die nauwelijks te krijgen zijn en er nog steeds geen Navi 32 videokaarten van MSI zijn? :z
Komt dat door Nvidia, of komt dat omdat de afzetmarkt van AMD gewoon mager is? GPP lijkt me onwaarschijnlijk na de backlash en lekken van deze strategie door de board partners zelf.

Veel prijsbewuste AMD kopers gaan echt vaak voor de lagere prijs, daar past ook een afgeslankt aanbod bij lijkt me. Wat dat betreft zou het goed zijn als AMD eindelijk weer eens een echt goede chip maakt met een volledige top to bottom lineup zonder concessies. Als ze succes boeken, komen de aib modellen ook.

Je ziet wel dat in de afgelopen jaren dat de meeste koeloplossingen van open board partners ontwikkeld zijn met Nvidia als uitgangspunt. Krijgen ze het zonder al teveel herrie ook op AMD, dan doen/deden ze dat ook. Al heb je dan soms wel negatieve uitschieters die niet goed contact maken zoals bij MSI en ook bij Asus etc. Wat dat betreft kun je nu beter voor dedicated partners gaan bij AMD.
Pagina: 1 ... 132 ... 135 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.