Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

Sp3ci3s8472 schreef op dinsdag 20 september 2022 @ 23:47:
Let's agree to disagree. (is er een Nederlandse equivalent?)
Eens met het oneens zijn ;).

Acties:
  • +1 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 20:46

OMD

Wat een mooie chart. Walgelijk eigenlijk. Ik hoop echt dat de gaming community deze kaarten meer links laten liggen dan gebruikelijk.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
De ramp zou voor Nvidia compleet zijn als ze straks een recall moeten doen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

OMD schreef op maandag 26 september 2022 @ 08:36:
[...]


Wat een mooie chart. Walgelijk eigenlijk. Ik hoop echt dat de gaming community deze kaarten meer links laten liggen dan gebruikelijk.
Die grafiek zegt natuurlijk niet alles. Het verschil is weergegeven "per generatie" maar niet elke twee generaties lagen even ver van elkaar qua tijdsspanne, en het maakt ook uit wat de concurrentie (c.q. AMD) deed.

De GTX480 komt er bijvoorbeeld belachelijk goed uit op het gebied van vooruitgang in prijs/prestaties t.o.v. de GTX280, maar de GTX280 was bij introductie relatief erg duur, de GTX285 zat daar nog tussen als tussenstap omdat de GTX280 het aflegde tegen de HD4870, en de GTX480 kwam als mosterd na de maaltijd (HD5870) waardoor de prijs daarvan relatief heel laag moest zijn.

Dat gezegd hebbende is de RTX3080 er nu al een hele tijd, dus bovenstaande maakt het niet per se beter. :P Een deel zit hem natuurlijk ook in de kostprijs per chip. Die was voor een groot deel van deze GPU's min of meer constant, of in ieder geval was de toename in kostprijs niet significant. Dat is op de laatste TSMC-nodes wel anders.

[ Voor 12% gewijzigd door bwerg op 26-09-2022 09:39 ]

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
Ik denk voornamelijk dat niemand deze situatie in de wereld 2-3 jaar geleden had kunnen voorspellen toen Nvidia en AMD deze generatie chips gingen ontwikkelen.

Nvidia gaat nu mogelijk de pech hebben dat de economische hoogconjunctuur niet doorgezet heeft en ze de dus voor de huidige markt met relatief dure chips moeten komen terwijl we kampen met inflatie, oorlog, een energie crisis en ga zo maar door en daarnaast is mining compleet dood op in ieder geval dit moment, terwijl AMD mogelijk het geluk heeft (ik verwacht immers ook niet dat AMD deze situatie voorzien) heeft dat ze exact op het juiste moment met de chiplets komen.

[ Voor 5% gewijzigd door Dennism op 26-09-2022 09:49 ]


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
OMD schreef op maandag 26 september 2022 @ 08:36:
[...]


Wat een mooie chart. Walgelijk eigenlijk. Ik hoop echt dat de gaming community deze kaarten meer links laten liggen dan gebruikelijk.
Qua prestaties per dollar (vergeleken met previous gen), over de afgelopen 10 jaar, vergelijken ze op reddit de nieuwe GTX 4080 kaarten met de GTX 780.

[ Voor 14% gewijzigd door HugoBoss1985 op 26-09-2022 10:01 ]


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Dennism schreef op maandag 26 september 2022 @ 09:48:
Ik denk voornamelijk dat niemand deze situatie in de wereld 2-3 jaar geleden had kunnen voorspellen toen Nvidia en AMD deze generatie chips gingen ontwikkelen.
De exacte situatie is natuurlijk nooit te voorspellen, maar het was onvermijdelijk dat de mining-markt een keer zou instorten, zoals ook al een keer tijdelijk gebeurde in 2018. Proof of Stake is ook langer dan 3 jaar geleden aangekondigd.

Laag-conjunctuur is ook niet iets zonder precedent. Sterker nog, vanuit de economie is bekend dat de conjunctuur cyclisch is, dus moet je juist tijdens een periode van voorspoed rekening houden met een mogelijke recessie (en omgekeerd tijdens een recessie rekening houden met toekomstige groei).

AMD heeft natuurlijk wel geluk gehad, maar dat komt ook omdat ze voorlopen, want chiplets worden door de hele industrie gezien als de oplossing om de toenemende kosten voor chips in de hand te houden. Dit komt nu iets eerder uit dan verwacht, maar AMD is er al klaar voor.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Waarom heeft AMD geluk gehad :? Het is niet dat nvidia of intel nog nooit van chiplets gehoord hadden.

Het moet allemaal niet gekker worden, zelfs als AMD goede/slimme keuzes maakt is het ineens geluk 8)7

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Help!!!! schreef op maandag 26 september 2022 @ 11:23:
Waarom heeft AMD geluk gehad :? Het is niet dat nvidia of intel nog nooit van chiplets gehoord hadden.
Omdat het door de chipcrisis voordeliger is dan eerder verwacht om nu al een chiplet-ontwerp te kiezen, maar AMD had deze keuze al gemaakt voordat de crisis aanbrak.

Nvidia had verwacht dat het verschil niet zo groot zou zijn en ook nog in het voordeel van monoliet, wat in normale omstandigheden misschien ook zo was.

[ Voor 3% gewijzigd door Ludewig op 26-09-2022 11:45 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
Help!!!! schreef op maandag 26 september 2022 @ 11:23:
Waarom heeft AMD geluk gehad :? Het is niet dat nvidia of intel nog nooit van chiplets gehoord hadden.

Het moet allemaal niet gekker worden, zelfs als AMD goede/slimme keuzes maakt is het ineens geluk 8)7
Dat geluk zit hem in de timing van het op de markt komen in combinatie met de omstandigheden in de markt, niet in de keuzes voor chiplets an sich. Een mogelijk 'perfect storm' verhaal.
Zoals @Ludewig ook aangeeft.

[ Voor 3% gewijzigd door Dennism op 26-09-2022 11:38 ]


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op maandag 26 september 2022 @ 09:48:
Ik denk voornamelijk dat niemand deze situatie in de wereld 2-3 jaar geleden had kunnen voorspellen toen Nvidia en AMD deze generatie chips gingen ontwikkelen.

Nvidia gaat nu mogelijk de pech hebben dat de economische hoogconjunctuur niet doorgezet heeft en ze de dus voor de huidige markt met relatief dure chips moeten komen terwijl we kampen met inflatie, oorlog, een energie crisis en ga zo maar door en daarnaast is mining compleet dood op in ieder geval dit moment, terwijl AMD mogelijk het geluk heeft (ik verwacht immers ook niet dat AMD deze situatie voorzien) heeft dat ze exact op het juiste moment met de chiplets komen.
Nee, nee nee.
Dit gaat niet om economische omstandigheden voorspellen. Dit gaat om fundamentele keuzes in architectuur waarbij Nvidia ervoor gekozen heeft om rasterization alsmede efficiëntie in verbruik, formaat en productiekosten van de chip te negeren in ruil voor veel veel capabele tensor cores waar gamers, de primaire afnemers van die chips, bijna niks aan hebben. Dat is een keuze van Nvidia die ze nu dreigt op te breken omdat ze totaal niet geanticipeerd hebben op het idee dat mensen niet in de rij zouden staan voor een $900 RTX4070 met nauwelijks noemenswaardige verbeteringen in rasterisation over de oude, goedkopere RTX3080. Want die kant gaat het op. Ze wisten absoluut hoe duur N5 was, maar hebben niks met die kennis gedaan anders dan manieren bedenken om mensen die nog veel hogere prijzen te laten betalen. En opeens konden mensen het niet meer betalen, want dat is zeker een deel van de grote afkeur naar Nvidia nu.

Het "geluk" van AMD hier lijkt te worden dat ze daar wel hun zaken wel op orde hebben. Die lijken juist al hun middelen gestoken te hebben in hun chips zo klein en efficient mogelijk te maken. AMD gaat verder absoluut voor de kroon en daarom is er een monsterchip in N31. Voor de reguliere high end gamers is er N32 en de mainstream heeft N33. Dat Nvidia nu botweg niet komt opdagen met een echt nieuwe architectuur die hiertegenover komt te staan, maakt het alleen maar makkelijker voor AMD. Komt bij dat AMD waarschijnlijk veel makkelijker hun prijzen kunnen aanpassen op marktomstandigheden, lager dus. Ook kan AMD veel makkelijker schuiven met wafer allocatie omdat ze zo'n breed portfolio hebben, mocht het echt zover komen. Dit is dus geen geluk. Dit is wederom AMD die laat zien hoe goed de technische leiding van het bedrijf is.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Dennism schreef op maandag 26 september 2022 @ 11:37:
[...]


Dat geluk zit hem in de timing van het op de markt komen in combinatie met de omstandigheden in de markt, niet in de keuzes voor chiplets an sich. Een mogelijk 'perfect storm' verhaal.
Zoals @Ludewig ook aangeeft.
Dat is onzin. Er was al lang een relatief kostenvoordeel met chiplets dus dat is sowieso best handig in een wereld waar dingen ook tegen kunnen zitten. Zeker als je weet dat produktiekosten van chips alleen maar toe gaan nemen doordat je steeds dichter op de rand van fysieke mogelijkheden komt te zitten.

Daarnaast iedereen die nadenkt weet dat hoe langer Central Bank QE e.d. duren hoe groter de kans op inflatie is. Mining is een mega volatiele onzekere sector, dat is ook geen nieuwtje.

Chiplets hadden intel en nvidia ook kunnen doen, zoiets heet innoveren. Intel heeft jarenlang zitten melken en is op zijn lauweren blijven zitten en nvidia heeft bewuste keuze gemaakt om grote monolitische chips te blijven bouwen.

+ wat Daniël zegt.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op maandag 26 september 2022 @ 11:49:
[...]

Dat is onzin. Er was al lang een relatief kostenvoordeel met chiplets dus dat is sowieso best handig in een wereld waar dingen ook tegen kunnen zitten. Zeker als je weet dat produktiekosten van chips alleen maar toe gaan nemen doordat je steeds dichter op de rand van fysieke mogelijkheden komt te zitten.

Daarnaast iedereen die nadenkt weet dat hoe langer Central Bank QE e.d. duren hoe groter de kans op inflatie is. Mining is een mega volatiele onzekere sector, dat is ook geen nieuwtje.

Innoveren met chiplets hadden intel en nvidia ook kunnen doen, zoiets heet innoveren. Intel heeft jarenlang zitten melken en is op zijn lauweren blijven zitten en nvidia heeft bewuste keuze gemaakt om grote monolitische chips te blijven bouwen.
offtopic:
Dat laatste pick ik eruit. ;)
Intel is al jaren bezig met hun eigen chiplet ontwerpen. Het probleem daar lijkt te zijn dat daadwerkelijke productie alsmede ontwerpcyclus van de processoren dusdanig verstoord is dat het er maar niet van komt. Volgend jaar met Meteor Lake zou het moeten gebeuren voor mainstream consumentenchips. Intel lijkt alleen wel te kiezen voor een complex systeem met meer kleine chiplets. AMD leunt ook heel erg op TSMC hun InFo_oS. Waarschijnlijk gebruikt RDNA3 dat ook.

[ Voor 9% gewijzigd door DaniëlWW2 op 26-09-2022 11:54 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@DaniëlWW2

Het verschil zit natuurlijk niet alleen in Tensor cores, maar ook in RT cores, wat wel degelijk een voordeel is. En Tensor cores worden gebruikt voor DLSS en bij de raytracing.

Maar ik denk dat Nvidia veel meer geloofd in RT dan de meeste gamers en dat ze daardoor behoorlijk overschat hebben in hoeverre men bereid is om meer te betalen voor betere RT en DLSS dat iets beter is dan FSR 2. Ze lijken ook te denken dat DLSS 3 net zo'n succes gaat worden als DLSS 2, waar ik mijn twijfels bij heb.

De meerprijs van een 3080 boven een 6800 XT is nu zo'n 150 euro, maar de 3080 is ook wat sneller. Maar als de 7800 XT de 4080 verslaat in rasterisation en redelijk presteert in RT, en dan ook nog eens een stuk goedkoper wordt, dan wordt het een lastig verhaal voor Nvidia.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op maandag 26 september 2022 @ 12:22:
@DaniëlWW2

Het verschil zit natuurlijk niet alleen in Tensor cores, maar ook in RT cores, wat wel degelijk een voordeel is. En Tensor cores worden gebruikt voor DLSS en bij de raytracing.

Maar ik denk dat Nvidia veel meer geloofd in RT dan de meeste gamers en dat ze daardoor behoorlijk overschat hebben in hoeverre men bereid is om meer te betalen voor betere RT en DLSS dat iets beter is dan FSR 2. Ze lijken ook te denken dat DLSS 3 net zo'n succes gaat worden als DLSS 2, waar ik mijn twijfels bij heb.
Na die RT demo in Cyberpunk moet ik eerst nog zien of Nvidia wel zoveel heeft verbeterd voor RT zonder DLSS. Daar leek het namelijk niet op. Het gaat ook niet om theoretische ray cast rates, maar om praktische. Laat theorie vs. praktijk wel vaker een probleem zijn met Nvidia de laatste tijd. Dus eerst zien, dan geloven :z
De meerprijs van een 3080 boven een 6800 XT is nu zo'n 150 euro, maar de 3080 is ook wat sneller. Maar als de 7800 XT de 4080 verslaat in rasterisation en redelijk presteert in RT, en dan ook nog eens een stuk goedkoper wordt, dan wordt het een lastig verhaal voor Nvidia.
Die RX6800XT doet niet onder voor de RTX3080 in rasterisation. ;)
Verder zie ik N32 eigenlijk weinig moeite hebben met de RTX4080 16GB in rasterisation. Immers zou die eerste 50% groter zijn dan N21, met specifieke verbeteringen in rasterisation en waarschijnlijk clock speeds ook nog erbij. Die laatste is ongeveer RTX3080Ti formaat met meer clock speed en een fors grotere L2 cache in ruil voor minder VRAM geheugenbrandbreedte.

RT blijft de vraag wat AMD precies van plan is. Zeker omdat daar al helemaal niks over lekt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Help!!!!

Nvidia zei in 2019 dat ze chiplets als optie hebben, maar dat monoliet voorlopig nog goedkoper is. De vraag is dan natuurlijk wel of ze achterlopen met de packaging-technologie, waardoor hun eigen chiplet-variant flink duurder is dan die van AMD. In dat geval kan Nvidia gelijk hebben door monoliet te kiezen, want dan is het voor hen wel degelijk duurder.

AMD lijkt een erg intieme relatie te hebben met TSMC waar ze samen geavanceerde nieuwe zaken ontwikkelen. Het zou mij ook niets verbazen als AMD ook een tijdelijk monopolie krijgt op dingen die ze samen ontwikkelen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@DaniëlWW2

6800 XT is misschien iets sneller in 1080p/1440p, maar wel trager in 4K.

Ik betwijfel wel of AMD de Nvidia kaarten ook echt gaat bijhalen in RT. Maar zoals je zegt weten we niet zoveel over wat AMD op dit vlak nu echt doet, dus moeten we het afwachten.

[ Voor 24% gewijzigd door Ludewig op 26-09-2022 12:53 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op maandag 26 september 2022 @ 12:52:
@DaniëlWW2

6800 XT is misschien iets sneller in 1080p/1440p, maar wel trager in 4K.

Ik betwijfel wel of AMD de Nvidia kaarten ook echt gaat bijhalen in RT. Maar zoals je zegt weten we niet zoveel over wat AMD op dit vlak nu echt doet, dus moeten we het afwachten.
Paar procent en paar procent. Ik geef niet veel om een paar procent. ;)
Qua RT weet ik het gewoon niet dus ik wacht af. Ik heb wel vermoedens, maar die kan ik niet hard maken.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Ludewig schreef op maandag 26 september 2022 @ 11:35:
Omdat het door de chipcrisis voordeliger is dan eerder verwacht om nu al een chiplet-ontwerp te kiezen, maar AMD had deze keuze al gemaakt voordat de crisis aanbrak.

Nvidia had verwacht dat het verschil niet zo groot zou zijn en ook nog in het voordeel van monoliet, wat in normale omstandigheden misschien ook zo was.
Dennism schreef op maandag 26 september 2022 @ 11:37:
Dat geluk zit hem in de timing van het op de markt komen in combinatie met de omstandigheden in de markt, niet in de keuzes voor chiplets an sich. Een mogelijk 'perfect storm' verhaal.
Zoals @Ludewig ook aangeeft.
Volstrekt mee oneens, omdat de stijgende productie kosten al jaren gaande zijn en voorspeld werden. De omstandigheden in de wereld (zowel huidig als de afgelopen 2,5 jaar) hebben daar niet veel aan veranderd; althans niet qua halfgeleider productie, dat zit meer in transport en dergelijke. Sterker nog, de halfgeleider productie doet het waarschijnlijk beter dan men 10-15 jaar geleden verwacht had. En uitgerekend Intel had hier op voorbereid moeten zijn, zij hebben met 22/20 zelf ondervonden hoe veel lastiger het ineens werd.

AMD is er ook al veel langer mee bezig. Zen 1 was wellicht niet opgebouwd uit chiplets, ze waren toen wel al bezig met uitvogelen hoe dat het beste kon. Vandaar ook dat Zen 2 al een aparte I/O die had. Dat is inmiddels 3 jaar geleden, wat betekent dat ze een jaar eerder al wel een idee hadden van hoe goed het wel of niet werkte...en dat ze al zeker 6 jaar geleden besloten hebben MCM eens serieus in de praktijk toe te passen. De beslissing om dat ook op GPU's toe te passen is echt niet pas 3 jaar geleden genomen. Het zal eerder zo zijn dat ze het bewust nog niet hebben gedaan omdat ze eerst hun architectuur op orde wilden hebben.

Vergeet ook niet dat TSMC's N5 al begin 2019 in risk is gegaan, wat betekent dat zowel Nvidia als AMD al in 2018 (zoniet eerder) hebben geweten wat N5 zo'n beetje zou gaan kosten. En het was al veel langer bekend dat het met EUV zou gebeuren, wat de foundries uiteraard een hoop R&D heeft gekost die terug verdiend moest worden. Kijk voor de gein eens naar TSMC's R&D budget; ze zitten nu op zo'n beetje het dubbele van waar ze een jaar of 10 geleden op zaten, en dat is vooral de afgelopen 5-6 jaar gebeurd. Waar dat met de overgang naar FinFET nog opgevangen kon worden door de early adopters (lees: Apple, Qualcomm en deels ook Samsung vanwege de interne productie), is dat nu niet meer het geval.




Ik ga voor de verandering eens iets positiefs over Nvidia's nieuwste speelgoed zeggen. Ik heb inmiddels een aardig idee van hoe hun Frame Generation in z'n werk gaat, het is even afwachten tot de docs echt uit zijn voor we dat zeker weten. Maar nee, dat is niet waar ik iets positiefs over ga zeggen, want het is nog steeds niet meer dan een intelligentere en snellere vorm van motion smoothing, iets waar iedereen altijd over valt maar toch zijn diezelfde personen nu wel positief over deze zooi. Het mag wat mij betreft ook echt niet bij "FPS" gerekend worden, we hebben straks twee statistieken nodig. Ik presenteer: FRPS en FPPS, waarbij de grotere peepee van die laatste geheel toevallig is :+

Nee, hun Displaced Micro-Mesh en Opacity Micro-Map SDK's verdienen meer aandacht. De informatie is tot nu toe heel summier (hun eigen pagina heeft niet veel), dus het is vooral gebaseerd op wat men uit hun PR mensen heeft kunnen persen. Het eerste is waarschijnlijk het makkelijkste te beschrijven als een soort van Nanite, maar dan heel erg op RT gericht. Voor zover ik het nu begrijp (nogmaals: het is wachten op de daadwerkelijke docs) is het tegelijkertijd een vorm van compressie voor high-poly meshes en een optimalisatie voor RT omdat juist de low-res versie voor RT gebruikt kan worden, wat die berekeningen uiteraard simpeler maakt.

Het tweede is eigenlijk nog boeiender en als je er nu over na denkt, eigenlijk hartstikke logisch. Heel fijn detail (foliage, hekwerk) is funest voor RT. Een ray kan een blad van een plant raken, tussen twee bladeren in vallen, de steel raken, enzovoort. En dat kan allemaal binnen een enkele pixel gebeuren. Het betekent dat je voor een enkele ray dus ontzettend veel tests moet uitvoeren om te kijken wat hij wel of niet raakt, terwijl het maar een heel klein dingetje is. Met die Opacity Micro-Maps sla je vooraf op welke delen geheel transparant zijn en dus overgeslagen kunnen worden. Dat kan een behoorlijke versnelling voor RT betekenen.

Ze zijn er een beetje ambigu over, maar volgens mij worden beide open source. Het is even afwachten of het daadwerkelijk beide SDK's zijn en of het open source of "open source" wordt, maar dat is wel een beter teken dan we gewend zijn van Nvidia. Misschien dat ze eindelijk beseffen dat dit soort dingen nooit van de grond raakt als het niet breed ondersteund kan worden. Vervolgens is de vraag in hoeverre AMD en Intel die dingen dan ook kunnen gebruiken om het geheel te versnellen.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Werelds schreef op maandag 26 september 2022 @ 16:09:
[...]
Kijk voor de gein eens naar TSMC's R&D budget; ze zitten nu op zo'n beetje het dubbele van waar ze een jaar of 10 geleden op zaten, en dat is vooral de afgelopen 5-6 jaar gebeurd. Waar dat met de overgang naar FinFET nog opgevangen kon worden door de early adopters (lees: Apple, Qualcomm en deels ook Samsung vanwege de interne productie), is dat nu niet meer het geval.
Afbeeldingslocatie: https://3s81si1s5ygj3mzby34dq6qf-wpengine.netdna-ssl.com/wp-content/uploads/2022/01/tsmc-q4-2021-rev-income-cash.jpg

Maar gelukkig zijn niet alleen hun R&D kosten gestegen. :P

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ludewig schreef op maandag 26 september 2022 @ 12:34:
@Help!!!!

Nvidia zei in 2019 dat ze chiplets als optie hebben, maar dat monoliet voorlopig nog goedkoper is. De vraag is dan natuurlijk wel of ze achterlopen met de packaging-technologie, waardoor hun eigen chiplet-variant flink duurder is dan die van AMD. In dat geval kan Nvidia gelijk hebben door monoliet te kiezen, want dan is het voor hen wel degelijk duurder.

AMD lijkt een erg intieme relatie te hebben met TSMC waar ze samen geavanceerde nieuwe zaken ontwikkelen. Het zou mij ook niets verbazen als AMD ook een tijdelijk monopolie krijgt op dingen die ze samen ontwikkelen.
Het is m.i. geen kwestie van gelijk hebben maar van keuzes maken en die hebben gevolgen. Goedkoper
'nu' is op de lange termijn niet altijd beter. Regeren is vooruitzien.

De keuze van nvidia om bijv bij TSMC weg te gaan hebben ze zelf gemaakt :)
Niemand heeft nVidia tegengehouden om (ook) fors in te gaan zetten op packaging technologie en een goede relatie met de Fab marktleider.

Dat wil niet zeggen dat er geen argumenten zijn voor nvidia's keuzes maar het zijn uiteindelijk wel haar eigen keuzes geweest.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Psyonara
  • Registratie: September 2007
  • Laatst online: 18:32
Vraag me af of de Vram nu ook beter ge-koeld word gezien ze bij de 30 serie best makkelijk op 90 plus graden komen

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Psyonara schreef op maandag 26 september 2022 @ 16:37:
Vraag me af of de Vram nu ook beter ge-koeld word gezien ze bij de 30 serie best makkelijk op 90 plus graden komen
A special focus was put on memory temperature, which has been decreased by 10°C. In collaboration with Micron, NVIDIA selected memory chips fabricated on a new process, and all chips are 16 Gbit (density), which means they all fit on the same side of the PCB, so they can be cooled more effectively.
https://www.techpowerup.c...ew-power-spike-management

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Adored heeft ook een duit in het zakje gedaan:

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +3 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 20:46

OMD

Xtr3me4me schreef op dinsdag 27 september 2022 @ 10:07:
[...]


Wat ik begrepen had is dat de 4090 volgende week naar reviewers gaan. Dus een week/paar dagen voor de 12e gaan we het wel beleven denk ik, of de hype real of fake is.
Had inderdaad wel gevonden dat sommige de kaart zelfs al hebben maar ik kan nergens echt een NDA lift datum vinden. Dat is nogal ongebruikelijk. Meestal zegt één van de youtube kanalen dat wel.
Digital Foundry heeft er in ieder geval al weken eentje en techpowerup heeft er ook één volgens mij maar dat heb ik van reddit en dat is nou niet echt een betrouwbare bron :+

Sowieso is het ongebruikelijk dat Digital Foundry er zeker weten al één heeft en al wat heeft mogen tonen en andere reviewers die veel langer in de business zitten niet. DF is zover ik weer redelijk onpartijdig maar door dit soort dingen word ik altijd een beetje huiverig voor biased reviews.

Nvidia heeft in het verleden natuurlijk al vaker hun ware aard laten zien aan reviewers. Het debakel met Hardware Unboxed is alom bekend:
https://linustechtips.com...t-means-for-the-industry/
( voor diegene die het nog niet wist )
De andere kant op werkt het natuurlijk ook. Jij krijgt een snoepje als je zegt dat het snoepje lekker is.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

OMD schreef op dinsdag 27 september 2022 @ 10:17:
[...]


Had inderdaad wel gevonden dat sommige de kaart zelfs al hebben maar ik kan nergens echt een NDA lift datum vinden. Dat is nogal ongebruikelijk. Meestal zegt één van de youtube kanalen dat wel.
Digital Foundry heeft er in ieder geval al weken eentje en techpowerup heeft er ook één volgens mij maar dat heb ik van reddit en dat is nou niet echt een betrouwbare bron :+

Sowieso is het ongebruikelijk dat Digital Foundry er zeker weten al één heeft en al wat heeft mogen tonen en andere reviewers die veel langer in de business zitten niet. DF is zover ik weer redelijk onpartijdig maar door dit soort dingen word ik altijd een beetje huiverig voor biased reviews.

Nvidia heeft in het verleden natuurlijk al vaker hun ware aard laten zien aan reviewers. Het debakel met Hardware Unboxed is alom bekend:
https://linustechtips.com...t-means-for-the-industry/
( voor diegene die het nog niet wist )
De andere kant op werkt het natuurlijk ook. Jij krijgt een snoepje als je zegt dat het snoepje lekker is.
Gelijk heb je, maar ik koop een product niet op basis van 1 reviewer. Bedoel mag toch hopen de medemens zo snugger is om een product vanuit meerdere meningen te bekijken om dan vervolgens een eigen oordeel erover te geven.

DT ja leuk, maar inderdaad Hardware Unboxed en J2C enz...komen hopelijk nog voor de 12e met hun review. Als je meerdere partijen kan meenemen in je oordeel voor nog de 12e, dan kun je beslissing nemen van doe het voordat het uitverkocht is of ik vind het meh voor die prijs en wacht waar AMD mee aankomt.

Want de angst zit er bij velen nog in dat de boel binnen no-time uitverkocht zal zijn, ondanks dit niet meer is vanwege de crypto ingeklapt is. Maar psychisch zit het nog wel in hun hoofd, dat gevoel van naast het net vissen.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • Zuvio
  • Registratie: Mei 2004
  • Laatst online: 16-08 07:53
Op 12 oktober wordt de 4090 gereleased in het wild en hopelijk hebben we wat dagen daarvoor de grote onafhankelijke reviews gekregen. We zullen dan zien wat de werkelijke rasterization % increase tov de 3090(ti)
zal zijn. Dat samen met je wens voor de nieuwe RT mogelijkheden en DLSS 3.0 moeten bepalen of je 2000+ euro wil gaan uitgeven. Zo zie ik het tenminste. Ik vind het absurd veel geld voor een gpu, maar als ik het idee heb dat je waar voor je geld krijgt en dat je jaren vooruit kan, dan is het wel ok.

Ik ben vooral benieuwd naar de nieuwe RT tech die ze hebben. DF had het er even over in een video en het is echt een stap omhoog op de RT ladder. Ik vind het er wel goed uit zien en snap dat ik DLSS3.0 nodig heb om dan nog goede fps te hebben. Ik hoop dus ook dat de reviewers hier wel aandacht aan gaan schenken. Dus rasterization & RT + DLSS3.0 performance, dat moet bepalen of de prijs het waard is.

Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Xtr3me4me schreef op dinsdag 27 september 2022 @ 10:23:
[...]
Want de angst zit er bij velen nog in dat de boel binnen no-time uitverkocht zal zijn, ondanks dit niet meer is vanwege de crypto ingeklapt is. Maar psychisch zit het nog wel in hun hoofd, dat gevoel van naast het net vissen.
Het logische gevolg is dan een run op de kaarten, waardoor er dan weer paniek ontstaat omdat de kaarten zo snel uitverkocht raken. Dan krijgen we hele dure gescalpede kaarten door die paniek. En 2/3 maanden later is er voldoende voorraad en vraagt iedereen zich af waarom er zoveel paniek was.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 19:04
Zuvio schreef op dinsdag 27 september 2022 @ 10:40:
Ik ben vooral benieuwd naar de nieuwe RT tech die ze hebben. DF had het er even over in een video en het is echt een stap omhoog op de RT ladder. Ik vind het er wel goed uit zien en snap dat ik DLSS3.0 nodig heb om dan nog goede fps te hebben.
Um, ik niet -- als de RT tech zo de bom is moet je toch juist betere FPS halen ook zonder DLSS. Dat je ook met de dikke RT tech nog steeds DLSS nodig hebt zal best zo zijn, maar dat is dan geen voordeel. Dat je er daarbovenop dan ook nog eens frame interpolation bij nodig zou hebben (weer een hele andere tak van sport in pixels verzinnen) al helemaal niet.

Gelukkig gaan we het allemaal zien bij de reviews. Althans, ik hoop dat er ook genoeg reviewers aandacht gaan besteden aan de visuals en zich niet gaan blindstaren op het FPS-tellertje, want dat zegt steeds minder.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Ludewig schreef op dinsdag 27 september 2022 @ 11:28:
[...]


Het logische gevolg is dan een run op de kaarten, waardoor er dan weer paniek ontstaat omdat de kaarten zo snel uitverkocht raken. Dan krijgen we hele dure gescalpede kaarten door die paniek. En 2/3 maanden later is er voldoende voorraad en vraagt iedereen zich af waarom er zoveel paniek was.
Jups, dit omdat mensen trigger happy zijn en koste wat het kost om op dag 1, 1e minuut de kaart gekocht moet hebben want "stel dat..."

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • Zuvio
  • Registratie: Mei 2004
  • Laatst online: 16-08 07:53
MneoreJ schreef op dinsdag 27 september 2022 @ 11:29:
[...]

Um, ik niet -- als de RT tech zo de bom is moet je toch juist betere FPS halen ook zonder DLSS. Dat je ook met de dikke RT tech nog steeds DLSS nodig hebt zal best zo zijn, maar dat is dan geen voordeel. Dat je er daarbovenop dan ook nog eens frame interpolation bij nodig zou hebben (weer een hele andere tak van sport in pixels verzinnen) al helemaal niet.

Gelukkig gaan we het allemaal zien bij de reviews. Althans, ik hoop dat er ook genoeg reviewers aandacht gaan besteden aan de visuals en zich niet gaan blindstaren op het FPS-tellertje, want dat zegt steeds minder.
Ray Tracing is super zwaar voor een systeem. En die nieuwe RT die ze lieten zien in cyberpunk is een stap omhoog van de huidige RT. De huidige RT is zo zwaar, dat je met pure 4K RT geen goede fps haalt. Dus als RT een stap omhoog gaat, gaat de fps alleen nog maar verder omlaag op puur 4K zonder DLSS. Daarom hebben we nu DLSS3.0 met twijfelachtige tech ingebakken om nog betere fps te halen met de nieuwe RT.

Maw, de verwachting betere RT en ook gelijk betere fps zonder hulpmiddel kan echt niet.

Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 19:04
Zuvio schreef op dinsdag 27 september 2022 @ 11:57:
Maw, de verwachting betere RT en ook gelijk betere fps zonder hulpmiddel kan echt niet.
Verwacht ik ook niet. Wat ik graag zou zien is RT en FPS die elkaar in balans houden, dus de RT die er nu al is gewoon sneller renderen nog voor ze met dingen komen die het allemaal nog zwaarder maken.

Mocht DLSS 3 de meest geniale technologie ooit worden die met 99% behoud van aanzicht de RT ook nog eens te behappen maakt dan zou dat natuurlijk geweldig zijn, maar van wat ik er tot nu toe van gezien heb heb ik daar zo mijn twijfels bij. Ik merk zelf dat ik nogal gevoelig ben voor artefacten en rariteiten in het beeld, ook al zie je ze maar kort omdat alles snel gaat, en hele mooie lichteffecten compenseren daar dan niet genoeg voor.

Gelukkig zullen er vast genoeg videootjes verschijnen van mensen die het gaan kopen, kan ik de kat uit de boom kijken. :P

[ Voor 20% gewijzigd door MneoreJ op 27-09-2022 13:43 ]

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Ben het inderdaad eens met wat hij zegt. Hij stipt ook precies aan wat ik aanstipte, alleen de eerste 3 games zijn een eerlijke vergelijking omdat deze niet DLSS 3 gebruiken. Dus je krijgt met de 4080 12GB een kaart die waarschijnlijk trager is dan de huidige 3080 :+. Vroeger kreeg je een kaart die een stuk sneller was dan de vorige Ti variant.
OMD schreef op dinsdag 27 september 2022 @ 10:17:
[...]


Had inderdaad wel gevonden dat sommige de kaart zelfs al hebben maar ik kan nergens echt een NDA lift datum vinden. Dat is nogal ongebruikelijk. Meestal zegt één van de youtube kanalen dat wel.
Digital Foundry heeft er in ieder geval al weken eentje en techpowerup heeft er ook één volgens mij maar dat heb ik van reddit en dat is nou niet echt een betrouwbare bron :+

Sowieso is het ongebruikelijk dat Digital Foundry er zeker weten al één heeft en al wat heeft mogen tonen en andere reviewers die veel langer in de business zitten niet. DF is zover ik weer redelijk onpartijdig maar door dit soort dingen word ik altijd een beetje huiverig voor biased reviews.

Nvidia heeft in het verleden natuurlijk al vaker hun ware aard laten zien aan reviewers. Het debakel met Hardware Unboxed is alom bekend:
https://linustechtips.com...t-means-for-the-industry/
( voor diegene die het nog niet wist )
De andere kant op werkt het natuurlijk ook. Jij krijgt een snoepje als je zegt dat het snoepje lekker is.
Dit zag je ook met de launch van de 3xxx series. De kaarten konden zogenaamd 8k draaien (met DLSS 2).
Linus heeft overigens losgelaten dat Nvidia nogal op hun centen zit als het aankomt op promoties en dat het voor hun het nauwelijks waard is om dat te doen. De vraag is dan, waarom DigitalFoundry het dan wel doet want dit schaadt hun reputatie.

Ik hecht meer waarde aan de analyse van HardwareUnboxed van DLSS 3 waarschijnlijk.

Misschien dat ik niet goed zoek, maar DF is ook de enige die geen video heeft over het launch event van Nvidia. Ze geven wel een reactie op de vragen; maar ze zitten meer van ja, dat heeft Nvidia niet slim aangepakt marketing technisch en als ze A of B hadden gedaan was het beter. Ze lopen een beetje om de vraag heen wat ze zelf vinden van wat ze van de 4080 4070.
Daarna zeggen ze dat AMD inderdaad een kans heeft; maar dat ze niet verwachten dat AMD sneller zal zijn en ze misschien zal matchen in rasterization. Ze moeten een hele groene bril op hebben om niet in te zien dat RDNA 2 al makkelijk mee kan komen in rasterization en het inderdaad verliest in RT. Grote kans dat RDNA 3 een stuk sneller zal zijn in rasterization als de geruchten kloppen. Tenzij DF DLSS 3 mee rekent; alleen vermoed ik dat ze waarschijnlijk de enige reviewer zijn die dat gaan doen.

Acties:
  • +1 Henk 'm!

  • Maudima
  • Registratie: Juni 2013
  • Laatst online: 07-02 19:15
Ben nu echt zo benieuwd naar de reviews van de 4080 12GB, als z'n berekening klopt is deze kaart vanuit een value perspectief echt triest. Moet nog reviews zien van DLSS 3 maar als de implementatie beperkt blijft tot bepaalde titels is het voor mij niet zo'n meerwaarde.

Afbeeldingslocatie: https://tweakers.net/i/kaSzERN58FgEkslkQGvS_QIyoRY=/800x/filters:strip_exif()/f/image/O37YjbPSd45faSQZdvmYAeKM.png?f=fotoalbum_large

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 20:46

OMD

Maudima schreef op dinsdag 27 september 2022 @ 15:07:
[...]

Ben nu echt zo benieuwd naar de reviews van de 4080 12GB, als z'n berekening klopt is deze kaart vanuit een value perspectief echt triest. Moet nog reviews zien van DLSS 3 maar als de implementatie beperkt blijft tot bepaalde titels is het voor mij niet zo'n meerwaarde.

[Afbeelding]
Moet wel zeggen dat ik die grafiek een beetje lame vind. Veel reviewers roepen dat dat eigenlijk de 4070 had moeten zijn, er staat nota bene previous gen flagship (dat klopt al niet, dat was de 3090 maar goed). ze hadden beter de 4080 16gb in die prijs kunnen opnemen. Dat had iets eerlijker geweest in mijn ogen. Of het resultaat dan beter had geweest weet ik uiteraard niet.

[ Voor 4% gewijzigd door OMD op 27-09-2022 15:16 ]

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

OMD schreef op dinsdag 27 september 2022 @ 15:10:
[...]


Moet wel zeggen dat ik die grafiek een beetje lame vind. Veel reviewers roepen dat dat eigenlijk de 4070 had moeten zijn, er staat nota bene previous gen flagship (dat klopt al niet, dat was de 3090 maar goed). ze hadden beter de 4080 16gb in die prijs kunnen opnemen. Dat had iets eerlijker geweest in mijn ogen. Of het resultaat dan beter had geweest weet ik uiteraard niet.
Kijk de video eerst voordat je dat zegt. Je mist de context namelijk; hij vergelijkt elke kaart met of de Ti variant of de 90 variant. De GTX 4080 12GB verliest het van de 3090 Ti variant met 10%. Wat best droevig is want we hebben tot nu toe altijd een snellere kaart gekregen. Laten we niet vergeten dat dit cijfers van Nvidia zelf zijn en dat die waarschijnlijk het meest rooskleurige resultaat laten zien.

Het had gewoon een 4070 moeten zijn of zelfs een 4060 gezien het de AD103 chip is.

Link met timestamp:
YouTube: Nvidia - A New High in Low Morality

Acties:
  • +1 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 20:46

OMD

Sp3ci3s8472 schreef op dinsdag 27 september 2022 @ 16:28:
[...]


Kijk de video eerst voordat je dat zegt. Je mist de context namelijk; hij vergelijkt elke kaart met of de Ti variant of de 90 variant. De GTX 4080 12GB verliest het van de 3090 Ti variant met 10%. Wat best droevig is want we hebben tot nu toe altijd een snellere kaart gekregen. Laten we niet vergeten dat dit cijfers van Nvidia zelf zijn en dat die waarschijnlijk het meest rooskleurige resultaat laten zien.

Het had gewoon een 4070 moeten zijn of zelfs een 4060 gezien het de AD103 chip is.

Link met timestamp:
YouTube: Nvidia - A New High in Low Morality
I stand corrected. Grafiek was niet heel duidelijk (als je hem dus zoals ik verkeerd leest :9 )
Tja, dat de 12GB versie de 4070 had moeten heten daar heb ik me al meerdere malen over uitgesproken. nVidia’s naming scam is wel redelijk duidelijk.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • +1 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

DLSS 3 first look van DF:

YouTube: Nvidia DLSS 3 on RTX 4090 - Exclusive First Look - 4K 120FPS and Beyond

Moet zeggen dat ik dlss 3 er een stuk indrukwekkender uit vind zien dan ik in eerste instantie verwacht had.
Ik had veel meer artifacts/glitches verwacht van een eerste versie van zo'n soort techniek (ala dlss 1).

Nu nog de echte reviews afwachten :Y)

  • t0mmiiiii
  • Registratie: Oktober 2007
  • Laatst online: 20:46
Tyranium schreef op woensdag 28 september 2022 @ 21:18:
DLSS 3 first look van DF:

YouTube: Nvidia DLSS 3 on RTX 4090 - Exclusive First Look - 4K 120FPS and Beyond

Moet zeggen dat ik dlss 3 er een stuk indrukwekkender uit vind zien dan ik in eerste instantie verwacht had.
Ik had veel meer artifacts/glitches verwacht van een eerste versie van zo'n soort techniek (ala dlss 1).

Nu nog de echte reviews afwachten :Y)
Eens inderdaad. Ze benadrukken wel dat de usecase bij een DLSS2-fps van sub 60 minder goed is. Ik verwacht dat de artifacts dan meer opvallen. De latency valt mij ook mee, al verschilt het erg per game.

NVIDIA heeft zijn problemen of klantonvriendelijke acties, maar ze zijn zeker innovatief te noemen. DLSS3 is daar ook weer een mooi voorbeeld van.

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 20:12
Eigenlijk had ik dit verwacht :) Iedereen hier viel over artifacts op stills of slow-motion beeld van de first look filmpje van paar dagen geleden. Op de slow-motion beelden waren de artifacts al moeilijk te zien, laat staan als je het op 120 fps gaat afspelen, wat niet eens kan op youtube.

Wat me vooral opviel is dat het goed in stand houdt tegenover off-line software zoals die van adobe, dat is echt knap werk. Hopelijk komt er een soort van sdk die dit mogelijk maakt om deze interpolatie in dit soort software te gebruiken, dit kan namelijk een enorme performance boost geven aan dit soort software.

Maar echt knap werk en opent de deur naar 120 fps 4k gaming! :D

Edit :Nog iets wat me al eerder opgevallen is. Vroeger had je verschillende DLSS presets van quality tot performance. Toen renderde DLSS de interne frame op verschillende resoluties, afhankelijk van de preset. Dat lijkt nu verdwenen en renderd DLSS al zijn interne frames op 1/4 resolutie. Dat betekend dat Nvidia de upsampling nu goed genoeg vind om op 1/4 resolutie te renderen. Dit is te gek voor woorden, met de frame generation heb je nu 7/8 van je pixels gegenereerd door AI.

[ Voor 26% gewijzigd door PjotrX op 28-09-2022 21:33 ]


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
PjotrX schreef op woensdag 28 september 2022 @ 21:30:
Wat me vooral opviel is dat het goed in stand houdt tegenover off-line software zoals die van adobe, dat is echt knap werk.
Dat komt omdat Nvidia naast de frames ook toegang heeft tot de elementen die het beeld renderen, waar andere tools dat niet hebben.
The DLSS Frame Generation convolutional autoencoder takes 4 inputs – current and prior game frames, an optical flow field generated by Ada’s Optical Flow Accelerator, and game engine data such as motion vectors and depth.
Afbeeldingslocatie: https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/dlss3-ai-powered-neural-graphics-innovations/how-nvidia-dlss-3-works.jpg
Ada’s Optical Flow Accelerator analyzes two sequential in-game frames and calculates an optical flow field. The optical flow field captures the direction and speed at which pixels are moving from frame 1 to frame 2. The Optical Flow Accelerator is able to capture pixel-level information such as particles, reflections, shadows, and lighting, which are not included in game engine motion vector calculations. In the motorcycle example below, the motion flow of the motorcyclist accurately represents that the shadow stays in roughly the same place on the screen with respect to their bike.

Whereas the Optical Flow Accelerator accurately tracks pixel level effects such as reflections, DLSS 3 also uses game engine motion vectors to precisely track the movement of geometry in the scene. In the example below, game motion vectors accurately track the movement of the road moving past the motorcyclist, but not their shadow. Generating frames using engine motion vectors alone would result in visual anomalies like stuttering on the shadow.
Afbeeldingslocatie: https://images.nvidia.com/aem-dam/Solutions/geforce/ada/news/dlss3-ai-powered-neural-graphics-innovations/nvidia-dlss-3-motion-optical-flow-estimation.jpg

https://www.nvidia.com/en...ral-graphics-innovations/

[ Voor 81% gewijzigd door Paprika op 28-09-2022 21:37 ]


  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 20:12
Paprika schreef op woensdag 28 september 2022 @ 21:32:
[...]

Dat komt omdat Nvidia toegang naast de frames ook toegang heeft tot de elementen die het beeld renderen, waar andere tools dat niet hebben.


[...]


[Afbeelding]

https://www.nvidia.com/en...ral-graphics-innovations/
Oh ja, goeie. Had in niet aan gedacht.

  • Chromanin
  • Registratie: Maart 2009
  • Laatst online: 11-09 19:59
Paprika schreef op woensdag 28 september 2022 @ 21:32:
[...]

Dat komt omdat Nvidia naast de frames ook toegang heeft tot de elementen die het beeld renderen, waar andere tools dat niet hebben.


[...]


[Afbeelding]


[...]


[Afbeelding]

https://www.nvidia.com/en...ral-graphics-innovations/
@DMZ gaf wel aan dat hij interpolatie software kent die nog een pak beter presteert als wat Adobe en DLSS 3 kan. Blijkbaar om film te upscalen naar 144hz.

Hij gaf aan dat er echt erg veel interpolatie errors zijn. Maar ik moet wel eerlijk bekennen dat ik het in motion gewoon echt niet kan zien. Enkel als ik de video pauzeer kan ik het zien, maar gewoon de video afspelen, kan ik het echt niet volgen.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Tyranium schreef op woensdag 28 september 2022 @ 21:18:
DLSS 3 first look van DF:

YouTube: Nvidia DLSS 3 on RTX 4090 - Exclusive First Look - 4K 120FPS and Beyond

Moet zeggen dat ik dlss 3 er een stuk indrukwekkender uit vind zien dan ik in eerste instantie verwacht had.
Ik had veel meer artifacts/glitches verwacht van een eerste versie van zo'n soort techniek (ala dlss 1).

Nu nog de echte reviews afwachten :Y)
Vooral dat laatste. De input lag had ik dus goed; en dat is waarschijnlijk ook de grote reden dat ze DLSS 2 op performance zetten omdat ze zo de input lag kunnen "verlagen".

De artifacts vind ik storend, maar wellicht lastiger te zien bij een hoge framerate. Mijn eerste ingeving, dit is alleen bruikbaar als je framerate zonder DLSS 3 zelf al hoger is dan 60FPS en je wilt 90-120 FPS. Op lagere framerates zullen de artifacts een stuk storender en groter worden. Wat we helaas niet in de "review" kunnen zien omdat de framerates zo hoog zijn met DLSS op performance mode.

Des te groter de delta in tijd tussen de frames des te hoger de input lag en des te hoger aanwezigheid van artifacts.

Dan zit ik met de vraag, waar stel je de grens wat betreft dit soort technieken; want je hebt ook al technieken zoals variable rate shading. Beetje in de lijn van, wanneer is het beeld nog echt zoals de makers het bedoelen zeg maar.

Ik ben nog niet verkocht.

[ Voor 3% gewijzigd door Sp3ci3s8472 op 28-09-2022 22:49 ]


  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Sp3ci3s8472 schreef op woensdag 28 september 2022 @ 22:48:
[...]Beetje in de lijn van, wanneer is het beeld nog echt zoals de makers het bedoelen zeg maar.
Ongeacht DLSS denk ik dat maar een zeer summier aantal van de (pc) game industrie de spellen zo te zien krijgt. Naast het gegeven dat het merendeel op lage graphics speelt, zijn de gebruikte monitoren en calibratie vaak ook niet bepaald je van het.

Acties:
  • +1 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:58
Ik had gedacht dat die frame generation op basis van de vorige 2 of meer frames een nieuwe frame zou voorspellen. Maar ik zie dat ze wachten tot de volgende frame af is, en dan een tussenframe uitrekenen en die eerst tonen. Zal dus echt extra latency opleveren.

Mechwarrior Online: Flapdrol


  • Chromanin
  • Registratie: Maart 2009
  • Laatst online: 11-09 19:59
Sp3ci3s8472 schreef op woensdag 28 september 2022 @ 22:48:
[...]


Vooral dat laatste. De input lag had ik dus goed; en dat is waarschijnlijk ook de grote reden dat ze DLSS 2 op performance zetten omdat ze zo de input lag kunnen "verlagen".

De artifacts vind ik storend, maar wellicht lastiger te zien bij een hoge framerate. Mijn eerste ingeving, dit is alleen bruikbaar als je framerate zonder DLSS 3 zelf al hoger is dan 60FPS en je wilt 90-120 FPS. Op lagere framerates zullen de artifacts een stuk storender en groter worden. Wat we helaas niet in de "review" kunnen zien omdat de framerates zo hoog zijn met DLSS op performance mode.

Des te groter de delta in tijd tussen de frames des te hoger de input lag en des te hoger aanwezigheid van artifacts.

Dan zit ik met de vraag, waar stel je de grens wat betreft dit soort technieken; want je hebt ook al technieken zoals variable rate shading. Beetje in de lijn van, wanneer is het beeld nog echt zoals de makers het bedoelen zeg maar.

Ik ben nog niet verkocht.
Nee dat klopt niet, want ze vertragen de video al naar 60fps. De delta in tijd tussen 30 en 60 is net hetzelfde als de delta tussen 60 en 120 / 2 . Ik denk dat wat je misschien kunt stellen, is dat de snelheid in de animaties tussen twee frames een impact kan hebben op de interpolatie, maar dan zit je weer met de motion vectors die daarmee om kunnen.

In ieder geval, wat ze tonen in deze video is ongeveer wat je kan verwachten in een game die draait op 60fps. Op 120fps kan ik het enkel nog beter.

Ben wel wat verbaasd over hoe skeptisch sommigen zijn. Je kan veel over Nvidia zeggen, maar ze doen puik werk op hun software. DLSS heeft het landschap echt radicaal veranderd. Ik zie hier meer van hetzelfde.

  • Chromanin
  • Registratie: Maart 2009
  • Laatst online: 11-09 19:59
haarbal schreef op woensdag 28 september 2022 @ 23:10:
Ik had gedacht dat die frame generation op basis van de vorige 2 of meer frames een nieuwe frame zou voorspellen. Maar ik zie dat ze wachten tot de volgende frame af is, en dan een tussenframe uitrekenen en die eerst tonen. Zal dus echt extra latency opleveren.
Ze berekenen dit in het filmpje, ze gebruiken upscaled images van 1080p (DLSS performance) waar de render tijd al erg sterk gereduceerd is. Dan gebruiken ze daarbovenop Reflex die de CPU en GPU in sync houdt. Hierdoor kunnen ze de latency reduceren.

Als je alles samen gooit krijg je een reductie factor 2 op de latency van native.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Chromanin schreef op woensdag 28 september 2022 @ 23:16:
[...]

Nee dat klopt niet, want ze vertragen de video al naar 60fps. De delta in tijd tussen 30 en 60 is net hetzelfde als de delta tussen 60 en 120 / 2 . Ik denk dat wat je misschien kunt stellen, is dat de snelheid in de animaties tussen twee frames een impact kan hebben op de interpolatie, maar dan zit je weer met de motion vectors die daarmee om kunnen.
Nee, dat klopt niet (het stukje van de delta). Dat is helaas een veelgemaakte fout, de metric frames per seconde is niet echt een goede manier om dat weer te geven. Je moet kijken naar het aantal milliseconden dat het duurt om een frame te genereren.
Om jouw cijfers te nemen:
120 fps - 8.333ms
60 fps - 16.666ms
30 fps - 33.33ms

De delta is twee keer zo groot tussen 30-60fps (16.666ms delta) als tussen 60-120fps (8.333ms delta). In de tijd dat een character zijn hand van links naar rechts beweegt worden er in het geval van 30fps maar 30 moment opnames gemaakt, de delta tussen elke beweging is veel groter dan als je je hand had bewogen op 60fps. Die motion vectors kunnen hoogstwaarschijnlijk een klein gedeelte compenseren maar dat wordt steeds lastiger op lagere framerates.
Hetzelfde met de inputlag, deze is op lagere framerates veel groter.

Hoop dat het zo duidelijker is :9.

Helaas kan ik niet een video terugvinden die dit verschil heel mooi uitlegde. Het ging over game developers die praten over frames per seconden en uiteindelijk aangeven dat ze die bij het bouwen van een spel nagenoeg niet gebruiken. Hun focus is op het aantal milliseconden die het duurt om een frame te genereren. Op deze manier kunnen ze veel makkelijker een budget in aantal ms aan bepaalde operaties geven (denk aan AI, Physics, bepaalde stages in de renderpipeline).
Als indie dev kijk ik ook niet naar het aantal FPS wat ik haal; ik kijk naar hoe lang een bepaalde operatie duurt in ms of ticks. Sommige dingen zoals AI en bepaalde simulaties laat ik express op een lagere tickrate draaien.
In ieder geval, wat ze tonen in deze video is ongeveer wat je kan verwachten in een game die draait op 60fps. Op 120fps kan ik het enkel nog beter.
Dat is ook de reden dat ik stel dat het op hogere framerates wel interessant kan zijn; voor singleplayer spellen. Alleen is de toegevoegde waarde op 120fps+ een stuk kleiner.
Ben wel wat verbaasd over hoe skeptisch sommigen zijn. Je kan veel over Nvidia zeggen, maar ze doen puik werk op hun software. DLSS heeft het landschap echt radicaal veranderd. Ik zie hier meer van hetzelfde.
We zijn skeptisch omdat DLSS 1 ook de wereld zou zijn. Volgens mij is iedereen het er over eens dat dat een grote faal was. Daarnaast is DLSS 3 alleen werkbaar met Reflex aan. Denk dat je met wat settings terugschroeven, DLSS 2 + Reflex een betere ervaring hebt.
Zo zijn er wel meer Nvidia technieken waar we niet heel blij van werden (Hairworks bijvoorbeeld).

@haarbal
Volgens mij was vanaf het eerste moment toch duidelijk dat het om interpolatie ging? Niet dat extrapolatie veel beter was geweest overigens; maar dan had je tenminste wel minder input lag :+.

  • Chromanin
  • Registratie: Maart 2009
  • Laatst online: 11-09 19:59
Sp3ci3s8472 schreef op donderdag 29 september 2022 @ 01:38:
[...]


Nee, dat klopt niet (het stukje van de delta). Dat is helaas een veelgemaakte fout, de metric frames per seconde is niet echt een goede manier om dat weer te geven. Je moet kijken naar het aantal milliseconden dat het duurt om een frame te genereren.
Om jouw cijfers te nemen:
120 fps - 8.333ms
60 fps - 16.666ms
30 fps - 33.33ms
Elke frame op YouTube is niet 8.333ms, maar 16.666ms. Omdat elke frame time verdubbeld is door de vertraging *2 op YouTube.

Dus het effect dat je daar ziet is hetzelfde als dat je 30fps naar 60fps gaat.

Hij toont op een bepaald moment een vergelijking tussen 60fps en 120fps. Maar door de vertraging zag je de de gaps tussen de frames zodat het er uit ziet als 30fps voor de linker helft. Dat is omdat ze voor die 60fps, de frame time van elke frame verlengen van 16.6666 naar 33.3333ms.

Een beter argument is de snelheid van de animaties. Door de 2x vertraging speel je eigenlijk het spel zelf op slow motion, in engine. Maar hierom bestaan de motion vectors, zodat DLSS al in engine tips krijgt waar de animaties naartoe gaan.

[ Voor 27% gewijzigd door Chromanin op 29-09-2022 09:06 ]


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:58
Chromanin schreef op woensdag 28 september 2022 @ 23:23:
Als je alles samen gooit krijg je een reductie factor 2 op de latency van native.
Ten opzichte van native, maar een toename ten opzichte van "gewoon" dlss.

Mechwarrior Online: Flapdrol


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Chromanin schreef op donderdag 29 september 2022 @ 08:04:
[...]

Elke frame op YouTube is niet 8.333ms, maar 16.666ms. Omdat elke frame time verdubbeld is door de vertraging *2 op YouTube.

Dus het effect dat je daar ziet is hetzelfde als dat je 30fps naar 60fps gaat.

Hij toont op een bepaald moment een vergelijking tussen 60fps en 120fps. Maar door de vertraging zag je de de gaps tussen de frames zodat het er uit ziet als 30fps voor de linker helft. Dat is omdat ze voor die 60fps, de frame time van elke frame verlengen van 16.6666 naar 33.3333ms.

Een beter argument is de snelheid van de animaties. Door de 2x vertraging speel je eigenlijk het spel zelf op slow motion, in engine. Maar hierom bestaan de motion vectors, zodat DLSS al in engine tips krijgt waar de animaties naartoe gaan.
Ik snap je punt niet; ik heb het in mijn betogen nooit over youtube en die vertraging die ze daar doen want dat heeft nul invloed op het spel en op mijn analyse.

Waar ik het over heb is dat als je spel op 60FPS loopt zonder DLSS 3 dat je dan met misschien tussen de 90-120FPS gaat halen; alleen zal de input lag minimaal 16.66ms extra zijn tenopzichte van 60 FPS met Reflex.
De interpolatie tussen frames zal het ook minimaal 16.66ms zijn, iets wat via motion vectors waarschijnlijk ok te overbruggen valt met wat artifacts.
Om het 60FPS te illustreren:
Frame 1 <-8.33ms-> Interpolatie Frame 2 <-8.33ms-> Frame 3
_______<-----------------------16.66ms---------------------->

Situatie twee is een spel wat zonder DLSS 3 op 30FPS loopt als je dan DLSS 3 aanzet heb je een extra input lag van minimaal 33.33ms vergeleken met 30FPS en Reflex. Aanvullend zullen de artifacts en fouten veel meer aanwezig zijn omdat de delta tussen de twee frames nu 33.33ms is.
De delta is in dit geval dus twee keer zo groot, daar heeft youtube helemaal niks mee te maken.
Om het 30FPS te illustreren:
Frame 1 <-16.66ms-> Interpolatie Frame 2 <-16.66ms-> Frame 3
_______<-----------------------33.33ms---------------------->

DLSS 3 is dus alleen bruikbaar als je basis FPS met de hulp van DLSS 2 al boven een bepaalde grens ligt. Die grens zal misschien verschillen per persoon; maar ik denk niet dat DLSS 3 een spel speelbaar kan maken op lage framerates. Een situatie waar je juist hoopt dat dat wel kan.
Dat is meteen mijn reden waarom ik de analyse van DF minder vind want ze testen alles met DLSS in performance mode waarmee ze te lage framerates weten te omzeilen.

Nogmaals als jij het alleen over de video hebt dan hebben het beiden over iets anders en kun je dit gerust negeren.

Acties:
  • +5 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Zucht, de Nvidia marketing machine draait weer op volle toeren en het blijkt wel weer te werken. Ik vind het zwak van DF dat ze er op deze manier in mee gaan, het is onprofessioneel. Percentages in plaats van framerates, halve waarheden omtrent input lag. Moeilijk om het echt serieus te nemen.

Ten eerste: noem het toch gewoon wat het is, een intelligentere vorm van motion smoothing. Het verbetert de beeldkwaliteit niet, het rendert niet sneller - het geeft enkel meer frames. Het doet precies hetzelfde wat motion smoothing op je TV doet, met een iets beter resultaat omdat er in games nu eenmaal meer inputs beschikbaar zijn dan uit een video stream. Ik vertik het dan ook om het "DLSS 3" te noemen; DLSS staat voor Deep Learning Super Sampling en Frame Generation heeft niets met Super Sampling te maken. Die 3 staat voor 3 technieken: DLSS 2, Reflex en Frame Generation. En ze hebben al duidelijk gemaakt dat die allemaal apart gebruikt kunnen worden en dat ontwikkelaars aangemoedigd worden ze ook als aparte instellingen te presenteren. Echter is het voor mij ook al duidelijk dat FG zónder Reflex geen pretje zal zijn. En als je framerate zonder DLSS laag is wordt dat alleen maar erger, wat DLSS ook bijna verplicht maakt.

Ten tweede: sodemieter toch een end op met die percentages. Het enige doel daarvan is obfusceren wat het daadwerkelijk doet, omdat de percentages er zo geweldig uit zien. Wat FG geeft over DLSS is hartstikke voorspelbaar: je krijgt constant een extra frame op je scherm te zien. Hoe effectiever DLSS is, des te effectiever FG is. Effectiviteit van FG zelf is echter constant.

Als laatste dan de input lag. Om te zeggen dat het geheel minder input lag heeft dan native heeft niets met de nieuwe techniek te maken. FG voegt hoe dan ook input lag toe, omdat het tweede frame dat al gerenderd is vertraagd op je scherm komt. De grootste vermindering in input lag komt door DLSS, omdat de daadwerkelijke framerate omhoog gaat. Of wellicht accurater: de frametimes gaan omlaag. Vervolgens pas je FG toe en hoe je het ook wendt of keert, het is gewoon onmogelijk dat daar geen extra input lag bij komt kijken omdat er een frame vertraagd wordt. En het "nieuwe" frame bevat 0,0 van jouw inputs, enkel de bestaande inputs die al voor dat tweede frame gebruikt werden. Zonder VRR gaat het ook voor heel vreemde resultaten zorgen als de frametimes niet constant zijn, je gaat dan nog meer rubberbanding in de gepresenteerde frames krijgen dan nu al het geval is met variërende frametimes op hoge refresh rates.

Maar daar hoor je DF niet over, terwijl dát juist iets is waar zij ontzettend kritisch naar zouden moeten kijken. Dit is net zoiets als zeggen dat DLSS "better than native" beelden produceert, wat gewoon niet mogelijk is als beide renders gelijkwaardig zijn. Echter is dat dus niet zo. Het DLSS base frame heeft bijvoorbeeld geen TAA, waardoor het van nature al scherper is en aan het eind gaat er ook nog een sharpening filter overheen. De enige reden dat DLSS in sommige gevallen "better than native" beelden produceert, is omdat de "native" beelden met andere toeters en bellen gerenderd worden. Gooi dat sharpening filter eens over het native frame heen, of gebruik iets beters dan TAA (SMAA T2x bijvoorbeeld) en vergelijk dan maar eens. Zoals in de XeSS video, waar ze er op wijzen dat het net in het water op native verdwijnt; dat is niet omdat DLSS iets magisch doet, dat is omdat DLSS geen TAA over een net van 1-2 pixels breed smeert.

Ik blijf er bij dat deze technieken geen vervanging zijn van daadwerkelijk dingen kunnen renderen op hoge resoluties en framerates, en niet meer dan een tijdelijke oplossing zouden moeten zijn. Maar met de manier waarop Nvidia nu te werk gaat gaan ze er een permanente "oplossing" van maken die vervolgens niet eens bereikbaar is voor een groot deel van de markt.

  • Chromanin
  • Registratie: Maart 2009
  • Laatst online: 11-09 19:59
Sp3ci3s8472 schreef op donderdag 29 september 2022 @ 13:44:
[...]


Ik snap je punt niet; ik heb het in mijn betogen nooit over youtube en die vertraging die ze daar doen want dat heeft nul invloed op het spel en op mijn analyse.
Maar wacht, we praten nu toch over wat we concreet gezien hebben in het test materiaal van DF? Je zegt tragere frames tov welk materiaal precies dan? Want we zien nu heel concreet het effect van interpolatie op 60fps. Dus vanuit een 33.3333ms video signaal.

Daar kan je exact zien hoe goed het werkt. En inderdaad, op 120fps zal het nog beter zijn, maar dat kunnen we nu dus nog niet zien (omdat YouTube geen 120fps ondersteunt).

Ik begrijp zelf ook niet goed waarom ze 120fps/2 hebben gebruikt ipv gewoon 60fps te gebruiken wat veel logischer is. Ik denk dat we dit eerder kunnen schuiven in het hoekje van, dat ze hun test methodology nog niet in orde hebben zoals ze zelf aangeven in hun video.

[ Voor 6% gewijzigd door Chromanin op 29-09-2022 14:42 ]


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 12-09 21:38
Jullie praten echt volledig om elkaar heen en hebben het niet over hetzelfde :+.

[ Voor 79% gewijzigd door Paprika op 29-09-2022 15:39 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Chromanin schreef op donderdag 29 september 2022 @ 14:37:
[...]

Maar wacht, we praten nu toch over wat we concreet gezien hebben in het test materiaal van DF? Je zegt tragere frames tov welk materiaal precies dan? Want we zien nu heel concreet het effect van interpolatie op 60fps.
Nee, want omdat ze de echte FPS niet laten zien is dat niet meer dan een aanname. Daarnaast is 60FPS ingame al met DLSS 2 dus zal de frame interpolatie van "60" naar "120" zijn.
Dus vanuit een 33.3333ms video signaal.
Nee, ze hebben het beeld vertraagd op youtube. Dus DLSS 3 gaat van 16.66ms "60" -> 8.33ms "120" wat voor youtube wordt vertraagd naar 33.33ms en 16.66ms.
Dat heeft zoals ik al heb aangegeven heeft youtube geen invloed op de interpolatie van het spel.
Daar kan je exact zien hoe goed het werkt. En inderdaad, op 120fps zal het nog beter zijn, maar dat kunnen we nu dus nog niet zien (omdat YouTube geen 120fps ondersteunt).
Zijn we het daar over eens. Dat is ook de reden dat ze de FPS naar hun zeggen hebben gehalveerd, om het toonbaar te maken.
Ik begrijp zelf ook niet goed waarom ze 120fps/2 hebben gebruikt ipv gewoon 60fps te gebruiken wat veel logischer is. Ik denk dat we dit eerder kunnen schuiven in het hoekje van, dat ze hun test methodology nog niet in orde hebben zoals ze zelf aangeven in hun video.
Dat is dus het punt wat ik probeer te maken. Waarom hebben ze voor een situatie gekozen met een hoge refreshrate en dus DLSS 2 op performance hebben gezet. De enige reden die ik kan bedenken is omdat dit de meest ideale situatie voor DLSS 3 is; namelijk al een hogere start frame rate. Omdat dit er voor zorgt dat je minder artifacts hebt en minder input lag.
Daarom naast het feit dat @Werelds gelijk heeft met die procenten is dit gewoon een waardeloze analyse omdat ze een scenario kiezen wat DLSS 3 op het best laat zien; anders hadden ze wel gekozen voor DLSS 2 op quality. Ik ben namelijk nog geen spel tegen gekomen waar DLSS 2 op quality met een 3090 Ti geen goede framerates geeft. Het enige spel waar een 3090 TI geen 60 FPS haalt (47 namelijk) op native 4k is Cyberpunk;
Als je dan de situatie neemt dat je niet een 3090 Ti hebt maar een 4090 en je zet DLSS 2 op performance dan heb je al gigantisch veel FPS (of een cpu bottleneck). Je zal dus nooit de impact zien van een lagere framerate op de input lag die DLSS 3 geeft.


Wat uitkomt op het volgende conclussie:
DLSS 3 is niet bruikbaar als je maar 30FPS in een situatie waar DLSS 2 al aanstaat omdat het extra input lag geeft en meer artifacts.

Bron voor 4k van de 3090 Ti:
https://www.techpowerup.c...3090-ti-founders-edition/

Ter referentie:
DLSS 4k:
Quality: 2560x1440p
Balance: 2227x1253p
Performance: 1920x1080p (ze doen hun analyse dus op een 1080p situatie met een 4090 8)7).

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Paprika schreef op donderdag 29 september 2022 @ 15:32:
Jullie praten echt volledig om elkaar heen en hebben het niet over hetzelfde :+.


[...]

Even hierop inhaken:
Ik vind 't logisch dat ze 't niet op volle snelheid afspelen, want anders krijg je niet alle frames te zien, en daarmee wordt 't verschil tussen "native" en "predicted" frames bijna onvergelijkbaar.
Dat vemoeden heb ik ook }:O :+.

Acties:
  • +2 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 20:12
Voor cyberpunk is er een nieuwe ray-tracing setting aangekondigd die overdrive heeft, waar native 4k niet eens 30 fps lijkt te halen. En heb je ook de portal met path tracing mod. Blijkbaar heeft nvidia er vertrouwen in dat dlss 3 ook in deze games goed gaat werken.

Wat ik wel jammer vind ik dat Digital Foundary niet de naar alleen de upscaling tussen dlss 2 en 3 gekeken heeft. Juist omdat nvidia het aandurft om overal waar nodig dit standaard op performance te zetten zegt mij dat ze daar ook verbeteringen hebben doorgevoerd. Ik hoop dan ook dat DF daar ook een vergelijking van doet.

Het hele gedoe over inputlag vind ik trouwens maar onzin. De spellen waar lage inputlag een issue speelt zijn competitieve spellen. Die zijn gemaakt om op low-end hardware te draaien en daar heb je geen dlss nodig om hoge frame rates te behalen. Spellen die baat hebben bij dlss 3 zijn vooral single-player games. Daar opent dlss de weg naar veel gedetailleerde werelden met veel betere belichting en real-time gi. De nieuwe portal is er een voorbeeld van, evenals de nieuwe ray-tracing optie in cyberpunk.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
PjotrX schreef op donderdag 29 september 2022 @ 17:14:
Wat ik wel jammer vind ik dat Digital Foundary niet de naar alleen de upscaling tussen dlss 2 en 3 gekeken heeft. Juist omdat nvidia het aandurft om overal waar nodig dit standaard op performance te zetten zegt mij dat ze daar ook verbeteringen hebben doorgevoerd. Ik hoop dan ook dat DF daar ook een vergelijking van doet.
Alles draait met performance preset, ook wat ze als DLSS 2 labelen. Er is geen DLSS 3 die verder verbeterd is. DLSS "3" is DLSS 2 + Reflex + Frame Generation.
Het hele gedoe over inputlag vind ik trouwens maar onzin. De spellen waar lage inputlag een issue speelt zijn competitieve spellen. Die zijn gemaakt om op low-end hardware te draaien en daar heb je geen dlss nodig om hoge frame rates te behalen. Spellen die baat hebben bij dlss 3 zijn vooral single-player games. Daar opent dlss de weg naar veel gedetailleerde werelden met veel betere belichting en real-time gi. De nieuwe portal is er een voorbeeld van, evenals de nieuwe ray-tracing optie in cyberpunk.
Uitgerekend Portal is een voorbeeld van een non-competitieve game waar input lag weldegelijk je ervaring kan verpesten. Doom bijvoorbeeld ook. En in VR is het ook extreem onwenselijk.

[ Voor 4% gewijzigd door Werelds op 29-09-2022 17:27 ]


Acties:
  • +1 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 20:12
Werelds schreef op donderdag 29 september 2022 @ 17:26:
[...]

Alles draait met performance preset, ook wat ze als DLSS 2 labelen. Er is geen DLSS 3 die verder verbeterd is. DLSS "3" is DLSS 2 + Reflex + Frame Generation.
In het filmpje van DF lieten ze even de settings scherm van Spider-man zien en daar stond de dlss preset op Quality dacht ik. Ik heb trouwens nvidia nergens horen zeggen dat er aan de upscaling niets veranderd is, heb je daar misschien een bron van?
[...]

Uitgerekend Portal is een voorbeeld van een non-competitieve game waar input lag weldegelijk je ervaring kan verpesten. Doom bijvoorbeeld ook. En in VR is het ook extreem onwenselijk.
Je input-latency moet wel heel laag zijn om Portal te verpesten. Vroeger was het normaal om spellen te spelen op monitoren die niet harden konden dan 60hz (en 60fps was toen niet eens hip en zaten we veel signle player games gewoon op 30 fps te draaien), je had ook geen nvidia reflex oh sommige spellen werden zelfs met triple buffering aan gespeeld. En nu kan je monitor harder en heb je nvidia reflex en heb je g-sync of vrr monitoren die de latency verder verlagen en iedereen struikelt ineens over input-lag. Nvidia refelx is maar 2 jaar oud, alle games die je ervoor speelde hadden deze optie niet. Ik heb hier echt het gevoel dan men gewoon dingen zoekt om kritiek op te hebben.

Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 19:23
Vind al dat upscaling echt veel te belangrijk geworden..net als RT (alles is nu een spiegel?)

Gewoon native 4k, en als een game te zwaar is lekker op 1440p zetten, ziet er nog steeds mooi uit en beter dan alle "beeldfoutjes" etc. Die je krijgt bij FSR/DLSS

Upscaling is een extra optie voor mij, maar niet iets wat nu ineens de performance van een nieuwe kaart gaat bepalen.

Ik wacht op de rx 7000, issie minimaal 50 procent sneller dan mijn 6900 voor een 500 euro bijleggen dan koop ik hem. Bij minder blijft ie liggen, al heeft ie FSR 12.

Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
PjotrX schreef op donderdag 29 september 2022 @ 18:15:
In het filmpje van DF lieten ze even de settings scherm van Spider-man zien en daar stond de dlss preset op Quality dacht ik. Ik heb trouwens nvidia nergens horen zeggen dat er aan de upscaling niets veranderd is, heb je daar misschien een bron van?
Afbeeldingslocatie: https://p198.p4.n0.cdn.getcloudapp.com/items/E0uZKmoQ/31e36dd8-8847-4f09-ac16-8a70dafdb79b.png?source=viewer&v=a696063ff0b68c389bcba9449bf6bb5e

Afbeeldingslocatie: https://p198.p4.n0.cdn.getcloudapp.com/items/12uzPQgw/6f220a6c-8d33-44ee-aaff-9597c246b747.png?source=viewer&v=65830c46a10721965efc5a44541a4d63

Afbeeldingslocatie: https://p198.p4.n0.cdn.getcloudapp.com/items/OAujG78d/a57169da-e751-4bb7-ad0d-c6853a07cd44.png?source=viewer&v=3b8f4fc7f8a76c52b35385f108a736b3

Enzovoort :)

En voor dat laatste, Nvidia's eigen woorden. Bijvoorbeeld hier:
DLSS 3 is a revolutionary breakthrough in AI-powered graphics that massively boosts performance, while maintaining great image quality and responsiveness. Building upon DLSS Super Resolution, DLSS 3 adds Optical Multi Frame Generation to generate entirely new frames, and integrates NVIDIA Reflex low latency technology for optimal responsiveness. DLSS 3 is powered by the new fourth-generation Tensor Cores and Optical Flow Accelerator of the NVIDIA Ada Lovelace architecture, which powers GeForce RTX 40 Series graphics cards.
Ze zullen het voortaan over DLSS "3" hebben en dan aparte componenten voor "Super Resolution", Reflex en Frame Generation benoemen, maar "Super Resolution" is wat DLSS 2 nu is.
Je input-latency moet wel heel laag zijn om Portal te verpesten. Vroeger was het normaal om spellen te spelen op monitoren die niet harden konden dan 60hz (en 60fps was toen niet eens hip en zaten we veel signle player games gewoon op 30 fps te draaien), je had ook geen nvidia reflex oh sommige spellen werden zelfs met triple buffering aan gespeeld. En nu kan je monitor harder en heb je nvidia reflex en heb je g-sync of vrr monitoren die de latency verder verlagen en iedereen struikelt ineens over input-lag. Nvidia refelx is maar 2 jaar oud, alle games die je ervoor speelde hadden deze optie niet. Ik heb hier echt het gevoel dan men gewoon dingen zoekt om kritiek op te hebben.
60 Hz absoluut, maar 30 FPS? Nee :p
Triple buffering zetten de meesten ook uit, net als pre-rendering en dergelijke.

Het gaat er niet om dat het iets van input lag toe voegt. Het gaat er om dat Nvidia doet alsof je zonder al dit gebeuren hoge input lag hebt en de input lag die dit veroorzaakt op die manier bagatelliseert. Maar als het native gewoon op een fatsoenlijke framerate kon renderen had je dat probleem überhaupt niet. Los van daarvan is 129ms input lag wel heel veel en is ook al lang bewezen dat je op hoge framerates hetzelfde -zoniet betere- resultaten haalt als met Reflex door gewoon je framerate te cappen en zonder V-Sync te spelen.

Het punt is dat dit soort onzin niet nodig zou moeten zijn. Maar omdat ze de hardware niet genoeg vooruit kunnen laten gaan om daadwerkelijk sneller te renderen, krijg je dit. Denk je dat een Pixar en dergelijke zoiets ooit zouden gebruiken? Want dat was toch altijd het doel, real-time renderen wat er nu offline gedaan wordt? Blijkbaar niet meer dus ;)

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PjotrX schreef op donderdag 29 september 2022 @ 18:15:
[...]

In het filmpje van DF lieten ze even de settings scherm van Spider-man zien en daar stond de dlss preset op Quality dacht ik. Ik heb trouwens nvidia nergens horen zeggen dat er aan de upscaling niets veranderd is, heb je daar misschien een bron van?

[...]

Je input-latency moet wel heel laag zijn om Portal te verpesten. Vroeger was het normaal om spellen te spelen op monitoren die niet harden konden dan 60hz (en 60fps was toen niet eens hip en zaten we veel signle player games gewoon op 30 fps te draaien), je had ook geen nvidia reflex oh sommige spellen werden zelfs met triple buffering aan gespeeld. En nu kan je monitor harder en heb je nvidia reflex en heb je g-sync of vrr monitoren die de latency verder verlagen en iedereen struikelt ineens over input-lag. Nvidia refelx is maar 2 jaar oud, alle games die je ervoor speelde hadden deze optie niet. Ik heb hier echt het gevoel dan men gewoon dingen zoekt om kritiek op te hebben.
Vroeger reed je ook zonder stuurbekrachtiging. Zou je nu ook niet meer accepteren.

Ik vind het prima dat nvidia zaken als DLSS blijft ontwikkelen en op zich interessant om te zien welke richting ze uitdenken. Echter, als ik hoor hoe het werkt dan denk ik mwahh, dat kan nog wel eens tegenvallen. Ik zou ook liever zien dat ze klassieke rendering wat meer aandacht en diespace hadden gegeven dan AI wizardry.

DF heeft niet zo'n goede reputatie als het op deze early nvidia previews aankomt dus ik zie binnenkort wel in de echte reviews hoe het nu echt zit.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • meljor
  • Registratie: November 2004
  • Laatst online: 19:23
Natuurlijk moeten ze het blijven ontwikkelen, maar de basis moet wel belangrijker blijven wat mij betreft.

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 20:12
Help!!!! schreef op donderdag 29 september 2022 @ 18:35:
[...]

Vroeger reed je ook zonder stuurbekrachtiging. Zou je nu ook niet meer accepteren.
Tja het verschil is dat een groot deel van de mensen alleen heeft leren rijden met auto's met stuurbekrachtiging. Nvidia reflex daarentegen bestaat maar 2 jaar, werkt alleen op gpu's vanaf de 900 serie en wordt maar door 60 spellen ondersteund waarvan een deel competitief is. Groote kans dat er mensen hier zijn die deze techniek een week geleden nog helemaal niet kenden. Ook heeft DF in hun tests zelf al laten zien dat de latencyverschil best wel klein is. Maar om je eigen vergelijking te gebruiken, men maakt zich zo druk over de extra latency alsof iemand hun stuurbekrachtiging in hun auto aan het uitschakelen is.

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

DigitalFoundry is altijd pro Nvidia en Intel geweest. Ik kan ze gewoon niet serieus nemen omdat er van onpartijdigheid geen sprake is. Ze promoten Nvidia heel erg, ook al geven ze de schijn van niet biased te zijn door wat nadelen te belichten (maar vervolgens doorgaan over hoe noodzakelijk frame generation is).
Ik meen mij te herinneren dat bij de release van Zen, Intel ook heel erg werd voorgetrokken.

Acties:
  • +1 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09:39
Werelds schreef op donderdag 29 september 2022 @ 14:20:
Ten tweede: sodemieter toch een end op met die percentages. Het enige doel daarvan is obfusceren wat het daadwerkelijk doet, omdat de percentages er zo geweldig uit zien. Wat FG geeft over DLSS is hartstikke voorspelbaar: je krijgt constant een extra frame op je scherm te zien. Hoe effectiever DLSS is, des te effectiever FG is. Effectiviteit van FG zelf is echter constant.
Het is toch overduidelijk dat ze een NDA hebben en dat ze geen absolute waarden mogen geven. Die percentages gebruiken ze niet voor niets. Het is of dat of geen content.
Werelds schreef op donderdag 29 september 2022 @ 14:20:
Dit is net zoiets als zeggen dat DLSS "better than native" beelden produceert, wat gewoon niet mogelijk is als beide renders gelijkwaardig zijn. Echter is dat dus niet zo. Het DLSS base frame heeft bijvoorbeeld geen TAA, waardoor het van nature al scherper is en aan het eind gaat er ook nog een sharpening filter overheen. De enige reden dat DLSS in sommige gevallen "better than native" beelden produceert, is omdat de "native" beelden met andere toeters en bellen gerenderd worden.
Dit klopt niet helemaal. Er zijn voordelen aan DLSS die gewoon niet bij native te krijgen zijn omdat DLSS heel hoge resoluties gebruikt om het netwerk te trainen. Op die manier kunnen er dus details zoals dunne lijntjes beter uitkomen dan native. Als je natuurlijk naar 8K of hoger gaat dan valt dit natuurlijk wel weg maarja dat gaat niemand doen. Haar, hekken en kabels zien er over het algemeen altijd beter uit met DLSS.

Afbeeldingslocatie: https://tweakers.net/i/UaqR9Paw-L-R2AyQWoz6k2mSopQ=/800x/filters:strip_icc():strip_exif()/f/image/GOVxZ1zOLHbKoVEbN36MQRsf.jpg?f=fotoalbum_large

Op native zonder TAA zou het haar ook slechter uitvallen omdat je hier gewoon extreem hoge resoluties voor nodig hebt.
Werelds schreef op donderdag 29 september 2022 @ 14:20:
Gooi dat sharpening filter eens over het native frame heen, of gebruik iets beters dan TAA (SMAA T2x bijvoorbeeld) en vergelijk dan maar eens.
SMAA T2x is toch gewoon een combinatie van SMAA en TAA?

Acties:
  • +1 Henk 'm!

  • t0mmiiiii
  • Registratie: Oktober 2007
  • Laatst online: 20:46
CMT schreef op donderdag 29 september 2022 @ 19:47:
DigitalFoundry is altijd pro Nvidia en Intel geweest. Ik kan ze gewoon niet serieus nemen omdat er van onpartijdigheid geen sprake is. Ze promoten Nvidia heel erg, ook al geven ze de schijn van niet biased te zijn door wat nadelen te belichten (maar vervolgens doorgaan over hoe noodzakelijk frame generation is).
Ik meen mij te herinneren dat bij de release van Zen, Intel ook heel erg werd voorgetrokken.
Zou het kunnen dat jij vooral AMD een warm hart toedraagt, en dat positieve dingen over de concurrentie bij jou blijven hangen, net als negetieve dingen over AMD? Ze hebben immers ook een goede relatie met AMD, zie het fsr-interview.

En waar zeggen ze dat Frame Generation noodzakelijk is?

Ze noemen ook meermaals dat dlss3 vooral profijt kan hebben bij hoge resoluties in combinatie met hoge framerates. En dit is nog maar het eerste stukje content.

Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
napata schreef op donderdag 29 september 2022 @ 21:01:
Het is toch overduidelijk dat ze een NDA hebben en dat ze geen absolute waarden mogen geven. Die percentages gebruiken ze niet voor niets. Het is of dat of geen content.
En dat had het laatste moeten zijn, want de journalistieke waarde hiervan is nihil. Dat is juist mijn punt.
Dit klopt niet helemaal. Er zijn voordelen aan DLSS die gewoon niet bij native te krijgen zijn omdat DLSS heel hoge resoluties gebruikt om het netwerk te trainen. Op die manier kunnen er dus details zoals dunne lijntjes beter uitkomen dan native. Als je natuurlijk naar 8K of hoger gaat dan valt dit natuurlijk wel weg maarja dat gaat niemand doen. Haar, hekken en kabels zien er over het algemeen altijd beter uit met DLSS.
Dat is omdat die hekken en dergelijke op 1-2 pixels gerenderd worden. Vervolgens gaat er de vaseline over heen en hoppa, weg. Die dingen zijn op 1080p ook gewoon 1-2 pixels, maar vervolgens wordt het hele frame upscaled, waardoor ze breder dan 1-2 pixels worden. Er is dus meer data om mee te werken. Vervolgens past DLSS zelf geen volledige TAA toe; niet alle pixels worden in elk frame gesampled, waardoor er minder vaseline overheen gaat.

Is dat beter dan native met TAA? Ja. Maar er zijn betere AA methodes voor native dan TAA, die niet noodzakelijkerwijs veel zwaarder zijn. En als je in beide gevallen geen TAA en/of sharpening filters toe zou passen, zou DLSS er nooit zo goed als native uit zien.
SMAA T2x is toch gewoon een combinatie van SMAA en TAA?
Ja en nee. SMAA T2x is een vorm van temporal anti-aliasing; maar "TAA" zoals het in games zit is een specifieke implementatie die FXAA als basis heeft (daarom zag je het in het begin TXAA genoemd worden). Beide samplen een pixel slechts één keer, maar TAA doet dat dus in meerdere frames. Je kunt het een beetje zien als MSAA over meerdere frames.

SMAA zelf daarentegen is gebaseerd op MLAA, wat het sowieso al een andere basis geeft (denk dat je je de vergelijkingen tussen FXAA en MLAA nog wel kunt herinneren). Een belangrijk verschil is dat SMAA meerdere samples per pixel kan doen. Het "temporal" element is verder net als bij TAA over vorige frames. En dat is wat SMAA T2x is: SMAA met temporal supersampling. Dan heb je ook nog SMAA S2x (spatial multisampling) en SMAA 4x, wat beide doet.

Verder is van de spatial post-processing AA technieken SMAA veruit het beste. FXAA is eigenlijk heel dom en beschouwt het hele frame als hetzelfde. MLAA is al iets kieskeuriger, maar had andere tekortkomingen en mistte soms stukjes die FXAA wel mee pakte. Tussen die 2 hangt het heel erg van het frame af, soms ziet FXAA er beter uit, soms MLAA. SMAA ziet er eigenlijk altijd al beter uit dan die 2. Het is een veel ingewikkelder algoritme, waarbij er naar contrast en vormen wordt gekeken, maar presteert wel ontzettend goed.

Qua performance is SMAA T2x net even iets trager dan TAA; het zal op 2160p misschien 0,2-0,3ms meer kosten, maar het ziet er stukken beter uit. SMAA 4x is uiteraard stukken trager, zie je ook maar zelden in games :p

Acties:
  • +2 Henk 'm!

  • Chromanin
  • Registratie: Maart 2009
  • Laatst online: 11-09 19:59
Werelds schreef op donderdag 29 september 2022 @ 22:32:
[...]

En dat had het laatste moeten zijn, want de journalistieke waarde hiervan is nihil. Dat is juist mijn punt.
Dus omdat jij het niet interessant genoeg vind mag de rest barsten? Ik zie echt wel veel liever die percentages als helemaal niets. Waarom ze geen rauwe data meegeven hebben ze al zo vaak herhaald in hun videos.

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Werelds schreef op donderdag 29 september 2022 @ 22:32:
[...]
Dat is omdat die hekken en dergelijke op 1-2 pixels gerenderd worden. Vervolgens gaat er de vaseline over heen en hoppa, weg. Die dingen zijn op 1080p ook gewoon 1-2 pixels, maar vervolgens wordt het hele frame upscaled, waardoor ze breder dan 1-2 pixels worden. Er is dus meer data om mee te werken.
Dat is juist niet zoals temporal upscaling werkt, maar DLSS 1 en FSR 1.

Bij een temporal upscaler wordt het beeld iets verschoven voor elk beeld dat gerendered wordt op lage resolutie. Daardoor valt dat hek bijvoorbeeld net links van pixel 10 bij beeld A, maar binnen die pixel op beeld B. De gemiddelde kleur van die pixel is dan een stuk lichter bij de pixel van beeld A, want het hek is donkerder dan de rest van van dat deel van het beeld.

Daardoor weet de upscaler op basis van het vergelijken van meerdere gerenderde beeldjes dat er iets donkers zit op subpixel niveau, aan de linker kant van pixel 10. Daardoor kan de upscaler details tonen op een hogere resolutie die helemaal niet zichtbaar zijn op de losse beelden die gerendered zijn op lage resolutie.

Dit werkt trouwens ook als het hek op zich wel zichtbaar is, maar extreem grof op een lage resolutie. Dan kan de upscaler er toch iets moois van maken, ipv wat je krijgt als je dom de pixels verdubbeld.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Chromanin schreef op donderdag 29 september 2022 @ 22:57:
Dus omdat jij het niet interessant genoeg vind mag de rest barsten? Ik zie echt wel veel liever die percentages als helemaal niets. Waarom ze geen rauwe data meegeven hebben ze al zo vaak herhaald in hun videos.
Als jij niet in ziet waarom het weinig journalistieke waarde heeft als één medium slechts een beperkte set data mag laten zien, met deels ook nog eens voorgekauwde cijfers, dan kan ik je niet verder helpen :p

Het gaat er niet om wat ik vind. Het is gewoon geen onafhankelijke, onbevooroordeelde journalistiek.
Ludewig schreef op donderdag 29 september 2022 @ 23:12:
Dat is juist niet zoals temporal upscaling werkt, maar DLSS 1 en FSR 1.
Ik had het dan ook niet over temporal upscaling, maar over AA ;)

De "1080p upscale" opmerking sloeg op DLSS performance mode (omdat dat is wat in de DLSS 3 video gebruikt werd), maar geldt zelfs op Quality nog steeds. Doordat het basis frame lagere resolutie is, upscaled wordt en er dán pas TAA overheen gaat, wordt er iets minder snel iets weg gesmeerd, maar dat ligt aan TAA.

Jitter van 0<x<1 pixel zit overigens in zo'n beetje al deze dingen, juist vanwege hetgeen jij beschrijft.
Dit werkt trouwens ook als het hek op zich wel zichtbaar is, maar extreem grof op een lage resolutie. Dan kan de upscaler er toch iets moois van maken, ipv wat je krijgt als je dom de pixels verdubbeld.
Wat juist mijn punt is, want op hoge resolutie is dat níet grof en als TAA er dan overheen gaat, wordt er veel weg gesmeerd. Maar dat is een probleem van TAA.

Acties:
  • +4 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

t0mmiiiii schreef op donderdag 29 september 2022 @ 22:16:
[...]


Zou het kunnen dat jij vooral AMD een warm hart toedraagt, en dat positieve dingen over de concurrentie bij jou blijven hangen, net als negetieve dingen over AMD? Ze hebben immers ook een goede relatie met AMD, zie het fsr-interview.
Een warm hart toedragen doe ik ook wel, maar dat heeft te maken met de voorgaande sterke anti-concurrentie praktijken van Intel & Nvidia.
Daarnaast heeft AMD zowel op CPU als op GPU vlak gezorgd dat er een stroomversnelling is ontstaan in de ontwikkelingen. 4 jaar geleden was het nog ondenkbaar om in 4k te kunnen spelen en nu is dat mogelijk met pure rekenkracht (als RTX4**** en RX7*** in staat zijn om +50% prestatie te geven).
Ik heb ook op AMD kritiekpunten, met name de marketing die meermaals de consument eigenlijk valse beloften maakt. En de hele affaire omtrent de ondersteuning van nieuwe cpu's op oudere moederborden ben ik ook niet vergeten (deels te wijten aan de moederbord fabrikanten).
Het is dus niet zo dat ik een bril op heb en alleen maar de positieve kanten onthoud van AMD en de negatieve kanten van Nvidia.

Ik heb gewoon een hekel aan misleiding en manipulatie, want dat valt bij onder de noemer van niet eerlijk zijn en daar is DigitalFoundry behoorlijk geslepen in. Je moet goed opletten om het door te hebben.
En waar zeggen ze dat Frame Generation noodzakelijk is?

Ze noemen ook meermaals dat dlss3 vooral profijt kan hebben bij hoge resoluties in combinatie met hoge framerates. En dit is nog maar het eerste stukje content.
Ze zullen het nooit hardop zeggen, daarvoor moet je tussen de regels lezen.
Het begint met de tijdsbalk titel van het stukje over frame generation: "The Practial Reasons Why We Need Frame generation" :https://youtu.be/6pV93XhiC1Y?t=882.
Dat is een behoorlijk stellig en een onafhankelijk reviewer zou dit niet doen. Als goede onderzoeker/reviewer moet je de vraag altijd open houden, dus zou je niet komen met "redenen waarom", maar met de vraag "of" we het nodig hebben en zo ja "waarom" dan.

In dat stuk worden 3 trends als argument aangevoerd, waar zeker wat voor te zeggen valt, maar ook waar dingen op aan te merken zijn. DigitalFondry's beredenering is dat DLSS3 goed is omdat het met die 3 trends goed samen zou vallen:

Trend 1: steeds hogere refreshrate monitoren op de markt, waarin hij suggereert dat meer FPS (DLSS3) wenselijk is voor meer soepelheid in animatie en FPS.

Dat is maar een halve waarheid en niet de hoofdreden!
Als mens zijn wij visueel behoorlijk gevoelig voor frametime variatie.
Ons brein & waarneming werkt namelijk voorspellend en als er een discontinuïteit is, valt dat meteen op. Uitschieters in de frametime zullen dus hoofdzakelijk bepalen hoe soepel de beweging 'aanvoelt'.
Uiteraard is het wel zo dat bij hogere FPS, de globale gpu frametimes lager zijn en dus de variatie ook relatief kleiner is.
Dat moet echter niet verward worden met de hoge refreshrate van monitoren, want de reden dat 60Hz zo schokkerig aanvoelt t.o.v. 100Hz of meer, is de sample & hold functie. Dat zorgt voor een sterke discontinuïteit en daarbij effectief (gpu+scherm) voor flinke frametime variatie.

Met andere woorden, als men met 60 FPS speelt + consistente gpu frametimes, dan zal dat op een 120Hz scherm soepeler aanvoelen, dan op een 60Hz scherm.
De impact van de sample & hold op de visuele frametimes is dan veel minder.

Of DLSS3 de frametime variatie weet te verbeteren, is nog maar de vraag. Dat zal pas uit benchmarks blijken die een frametime-analyse maken. De toename van FPS is daar geen goede maat voor, wat Digital Foundry je dus voorschotelt. Je hebt echt geen 200 FPS nodig om het voordeel in beweging soepelheid van een 200Hz scherm te voelen.

Trend 2: Games die visueel meer ambitieus worden en steeds zwaarder leunen op simulatie -> Ratracing, path tracing, grote menigten & steden die steeds meer eisen van de cpu's en gpu's. Daarbij noemt hij dat DLSS3 framerate generation tot op een bepaalde hoogte voor minder cpu belasting kan zorgen.

Games worden inderdaad meer eisend, maar dat is geen trend te noemen. Dat is altijd al zo geweest sinds de ontwikkeling van spellen. Hardware is tot nu toe altijd een beperking geweest en daar zal DLSS3 niets aan veranderen. Zodra iets mogelijk is geworden, zal er een ander aspect voor in de plaats komen om naartoe te streven.
Games zijn per definitie simulaties die steeds groter en complexer worden. Dus dat argument van zwaarder leunen op 'simulatie' met Raytracing en grote menigten/steden als voorbeeld, is marketing praat.
Raytracing en schaalvergroting/diversiteit zijn gewoon verbeteringen die de simulatie meer realistisch maken. Uiteraard vereist dat meer rekenkracht :+
DLSS3 kan inderdaad wel een uitkomst bieden op systemen met een zwakke cpu, dus in principe kan je daar op besparen. Maar dat is wat anders als de onjuiste suggestie dat hedendaage cpu's zogenaamd niet snel genoeg zijn en de gpu's niet meer kunnen bijbenen..

Trend3: Het gebruik en hergebruik van meerdere frames, waarbij hij TAA als de facto standaard noemt voor het uitsmeren en gladstrijken van game graphics/randjes

Nou dat is ook geen trend hoor! TAA bestaat al zo lang en er zijn alternatieven die veel beter zijn. Dus dat het een de fato standaard is, is een mening van hem.
Ik kan hier verder echt niet uit opmaken hoe framerate generation een voordeel in moet geven.
DLSS2 doet de supersampling wat als bijkomstigheid heeft dat het sommige dingen beter doet dan TAA.

Zie je nu in hoe erg ze bezig zijn om DLSS3 en daarmee framerate generation te legitimeren als iets goeds en 'nodig' omdat het in hun ogen in lijn valt met andere 'trends' op computergebied?

Verderop is DigitalFoundry ook goed bezig met manipulatie, door 54ms latency bij DLSS3, 'far more responsive then Native" te noemen, dan Native latency van 62ms. Een 8ms verschilt, waarbij 3ms in een voorgaande vergelijking tussen DLSS2 en DLSS3 als 'essentially undetectable" wordt omschreven...
Dat de latency waarde van DLSS3 met reflex-off helemaal niet wordt getoond, spreekt ook boekdelen.
*Gecorrigeerd. Kunnen ze uiteraard niet geven, omdat DLSS3 geen reflex-off mogelijkheid heeft*

Daaropvolgend gaan ze weer verder over de kwaliteit van framerate generation en gebruiken ze andere offline 'motion framerate verdubbelaar/interpolatie technieken' als vergelijking. Maar daarbij kiezen ze wel plaatjes uit die heel toevallig alleen flinke artifacten laat zien bij Adobe Pixel Motion of Topaz en minimaal bij DLSS3.
Met als opmerking "DLSS3 does not have that". Frappant want eerder hebben ze ook laten zien dat er behoorlijke artifacten met DLSS3 voorkomen, waarbij zelfs dingen weg gelaten worden door de AI.
De AI in DLSS3 doet het wel beter wat dat betreft, maar op dit punt in de video zijn ze vrij stellig door te zeggen dat smearing niet voorkomt met DLSS3.

*knip* Zwak argument, dat als complot theorie overkwam, weggehaald.

[ Voor 3% gewijzigd door CMT op 30-09-2022 18:18 ]


Acties:
  • +2 Henk 'm!

  • Chromanin
  • Registratie: Maart 2009
  • Laatst online: 11-09 19:59
CMT schreef op vrijdag 30 september 2022 @ 11:04:
[...]

Een warm hart toedragen doe ik ook wel, maar dat heeft te maken met de voorgaande sterke anti-concurrentie praktijken van Intel & Nvidia.
Daarnaast heeft AMD zowel op CPU als op GPU vlak gezorgd dat er een stroomversnelling is ontstaan in de ontwikkelingen. 4 jaar geleden was het nog ondenkbaar om in 4k te kunnen spelen en nu is dat mogelijk met pure rekenkracht (als RTX4**** en RX7*** in staat zijn om +50% prestatie te geven).
Ik heb ook op AMD kritiekpunten, met name de marketing die meermaals de consument eigenlijk valse beloften maakt. En de hele affaire omtrent de ondersteuning van nieuwe cpu's op oudere moederborden ben ik ook niet vergeten (deels te wijten aan de moederbord fabrikanten).
Het is dus niet zo dat ik een bril op heb en alleen maar de positieve kanten onthoud van AMD en de negatieve kanten van Nvidia.

Ik heb gewoon een hekel aan misleiding en manipulatie, want dat valt bij onder de noemer van niet eerlijk zijn en daar is DigitalFoundry behoorlijk geslepen in. Je moet goed opletten om het door te hebben.


[...]

Ze zullen het nooit hardop zeggen, daarvoor moet je tussen de regels lezen.
Het begint met de tijdsbalk titel van het stukje over frame generation: "The Practial Reasons Why We Need Frame generation" :https://youtu.be/6pV93XhiC1Y?t=882.
Dat is een behoorlijk stellig en een onafhankelijk reviewer zou dit niet doen. Als goede onderzoeker/reviewer moet je de vraag altijd open houden, dus zou je niet komen met "redenen waarom", maar met de vraag "of" we het nodig hebben en zo ja "waarom" dan.

In dat stuk worden 3 trends als argument aangevoerd, waar zeker wat voor te zeggen valt, maar ook waar dingen op aan te merken zijn. DigitalFondry's beredenering is dat DLSS3 goed is omdat het met die 3 trends goed samen zou vallen:

Trend 1: steeds hogere refreshrate monitoren op de markt, waarin hij suggereert dat meer FPS (DLSS3) wenselijk is voor meer soepelheid in animatie en FPS.

Dat is maar een halve waarheid en niet de hoofdreden!
Als mens zijn wij visueel behoorlijk gevoelig voor frametime variatie.
Ons brein & waarneming werkt namelijk voorspellend en als er een discontinuïteit is, valt dat meteen op. Uitschieters in de frametime zullen dus hoofdzakelijk bepalen hoe soepel de beweging 'aanvoelt'.
Uiteraard is het wel zo dat bij hogere FPS, de globale gpu frametimes lager zijn en dus de variatie ook relatief kleiner is.
Dat moet echter niet verward worden met de hoge refreshrate van monitoren, want de reden dat 60Hz zo schokkerig aanvoelt t.o.v. 100Hz of meer, is de sample & hold functie. Dat zorgt voor een sterke discontinuïteit en daarbij effectief (gpu+scherm) voor flinke frametime variatie.

Met andere woorden, als men met 60 FPS speelt + consistente gpu frametimes, dan zal dat op een 120Hz scherm soepeler aanvoelen, dan op een 60Hz scherm.
De impact van de sample & hold op de visuele frametimes is dan veel minder.

Of DLSS3 de frametime variatie weet te verbeteren, is nog maar de vraag. Dat zal pas uit benchmarks blijken die een frametime-analyse maken. De toename van FPS is daar geen goede maat voor, wat Digital Foundry je dus voorschotelt. Je hebt echt geen 200 FPS nodig om het voordeel in beweging soepelheid van een 200Hz scherm te voelen.

Trend 2: Games die visueel meer ambitieus worden en steeds zwaarder leunen op simulatie -> Ratracing, path tracing, grote menigten & steden die steeds meer eisen van de cpu's en gpu's. Daarbij noemt hij dat DLSS3 framerate generation tot op een bepaalde hoogte voor minder cpu belasting kan zorgen.

Games worden inderdaad meer eisend, maar dat is geen trend te noemen. Dat is altijd al zo geweest sinds de ontwikkeling van spellen. Hardware is tot nu toe altijd een beperking geweest en daar zal DLSS3 niets aan veranderen. Zodra iets mogelijk is geworden, zal er een ander aspect voor in de plaats komen om naartoe te streven.
Games zijn per definitie simulaties die steeds groter en complexer worden. Dus dat argument van zwaarder leunen op 'simulatie' met Raytracing en grote menigten/steden als voorbeeld, is marketing praat.
Raytracing en schaalvergroting/diversiteit zijn gewoon verbeteringen die de simulatie meer realistisch maken. Uiteraard vereist dat meer rekenkracht :+
DLSS3 kan inderdaad wel een uitkomst bieden op systemen met een zwakke cpu, dus in principe kan je daar op besparen. Maar dat is wat anders als de onjuiste suggestie dat hedendaage cpu's zogenaamd niet snel genoeg zijn en de gpu's niet meer kunnen bijbenen..

Trend3: Het gebruik en hergebruik van meerdere frames, waarbij hij TAA als de facto standaard noemt voor het uitsmeren en gladstrijken van game graphics/randjes

Nou dat is ook geen trend hoor! TAA bestaat al zo lang en er zijn alternatieven die veel beter zijn. Dus dat het een de fato standaard is, is een mening van hem.
Ik kan hier verder echt niet uit opmaken hoe framerate generation een voordeel in moet geven.
DLSS2 doet de supersampling wat als bijkomstigheid heeft dat het sommige dingen beter doet dan TAA.

Zie je nu in hoe erg ze bezig zijn om DLSS3 en daarmee framerate generation te legitimeren als iets goeds en 'nodig' omdat het in hun ogen in lijn valt met andere 'trends' op computergebied?

Verderop is DigitalFoundry ook goed bezig met manipulatie, door 54ms latency bij DLSS3, 'far more responsive then Native" te noemen, dan Native latency van 62ms. Een 8ms verschilt, waarbij 3ms in een voorgaande vergelijking tussen DLSS2 en DLSS3 als 'essentially undetectable" wordt omschreven...
Dat de latency waarde van DLSS3 met reflex-off helemaal niet wordt getoond, spreekt ook boekdelen.

Daaropvolgend gaan ze weer verder over de kwaliteit van framerate generation en gebruiken ze andere offline 'motion framerate verdubbelaar/interpolatie technieken' als vergelijking. Maar daarbij kiezen ze wel plaatjes uit die heel toevallig alleen flinke artifacten laat zien bij Adobe Pixel Motion of Topaz en minimaal bij DLSS3.
Met als opmerking "DLSS3 does not have that". Frappant want eerder hebben ze ook laten zien dat er behoorlijke artifacten met DLSS3 voorkomen, waarbij zelfs dingen weg gelaten worden door de AI.
De AI in DLSS3 doet het wel beter wat dat betreft, maar op dit punt in de video zijn ze vrij stellig door te zeggen dat smearing niet voorkomt met DLSS3.

Wat subtieler is de toon waarop hij praat een stukje verderop: https://youtu.be/6pV93XhiC1Y?t=1675
De tonatie, hoewel erg Amerikaans, was nog niet zo beklemmend. Dat veranderd op het eind wanneer hij het heeft over "when DLSS3 releases as a PROPER product" en komt bij over als onderdrukte frustratie, alsof hij dingen moet zeggen waar hij het niet mee eens is. Het zet bij mij grote vraagtekens in hoe erg dit geregisseerd is.
Ik begrijp deze post niet*knip* flamen doe je maar ergens anders Je hoeft de nieuwe Nvidia helemaal niet te kopen? Als er genoeg mensen zoals jou denken dan gaat de prijs naar beneden en is er geen probleem? Ook de “misleiding” van DF slaat nergens op, DF zijn geen oorlogsverslaggevers die zich super neutraal moeten opstellen. Ze mogen best meegaan met de hype net zoals wij allemaal. En als NV hen een aantal regels oplegt die hen net goed uitkomt then so be it. We weten allemaal dat dit gebeurt, DF zegt het zelf.

Waarom zien we niet dezelfde coverage voor AMD? Omdat zij jammer genoeg niet zo innoverend zijn, ze komen achterna hollen voor feature parity. In plaats daarvan reageren ze, je ziet het hier ook gewoon. Ze wachten vooral af tot na Nvidia hun voorstelling om dan zelf ongeveer hetzelfde aan te bieden maar net niet, en onder de prijs zo ver ze kunnen. Dit soort prijs topics is niet waarom we kijken naar DF, die het vooral moet door door alle innoverende aspecten door te lichten. En over de prijs stelling van NV waren ze bij DF even kritisch als wij allemaal. Van bias is daar helemaal geen sprake.

En DLSS is een geweldig product, geen wonder dat er veel enthousiasme is rond DLSS3.

[ Voor 0% gewijzigd door Blaat op 30-09-2022 20:13 ]


Acties:
  • +2 Henk 'm!

  • t0mmiiiii
  • Registratie: Oktober 2007
  • Laatst online: 20:46
CMT schreef op vrijdag 30 september 2022 @ 11:04:
[Analyse over eigen voorkeur, film en berichtgeving DF]
Dank voor je uitgebreide toelichting. Ik kan me niet vinden in de vooringenomenheid die jij ziet bij DF. Als voorbeeld is het niet terecht dat je een donkere reden ziet achter niet tonen van Reflex uit bij DLSS3. Nvidia heeft reflex verplicht aangezet bij DLSS3. Die kan dus niet uit. En zodra je over tonatie en de manier waarop Alex zaken uitspreekt praat, bevind je je wel op glad ijs.

DF heeft hier geen geld voor gekregen, anders was het wel een sponsored video. En anders hadden ze echt niet die heftige stills van artifacts mogen laten zien.

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 20:46

OMD

t0mmiiiii schreef op vrijdag 30 september 2022 @ 13:29:
[...]

Dank voor je uitgebreide toelichting. Ik kan me niet vinden in de vooringenomenheid die jij ziet bij DF. Als voorbeeld is het niet terecht dat je een donkere reden ziet achter niet tonen van Reflex uit bij DLSS3. Nvidia heeft reflex verplicht aangezet bij DLSS3. Die kan dus niet uit. En zodra je over tonatie en de manier waarop Alex zaken uitspreekt praat, bevind je je wel op glad ijs.

DF heeft hier geen geld voor gekregen, anders was het wel een sponsored video. En anders hadden ze echt niet die heftige stills van artifacts mogen laten zien.
Het feit dat DF ruim 2 tot 4 weken! voor iedereen een 4090 heeft gekregen zegt natuurlijk wel wat. Het feit dat ze ook informatie mogen uitgeven terwijl niemand anders dat mag heeft natuurlijk wel een vreemd luchtje om zich heen. Ik heb DF best hoog zitten maar het neigt een beetje naar verkapte reclame voor nVidia die door nVidia is aangeleverd.

Ik zeg dus niet dat dit zo is want dat weet niemand. Ik baseer mij gewoon op feiten die gegeven zijn. Daar kan je een mening over vormen.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • +4 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Volgensmij was het toch ook DF met een exclusieve 3080 preview die wel erg positief was. Net zoals ook de nvidia presentatie altijd rooskleuriger is dan de reviews.

DF mag doen wat ze willen. Prima als dit de honger naar info bij sommigen stilt.

Ik wacht de reviews van Gamers Nexus, Igor, Computerbase, TPU etc wel even af. Die neem ik een stuk serieuzer.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

Chromanin schreef op vrijdag 30 september 2022 @ 12:25:
[...]

Ik begrijp deze post niet, het zit vol van complot theorieën. En waarom eigenlijk. Je hoeft de nieuwe Nvidia helemaal niet te kopen? Als er genoeg mensen zoals jou denken dan gaat de prijs naar beneden en is er geen probleem? Ook de “misleiding” van DF slaat nergens op, DF zijn geen oorlogsverslaggevers die zich super neutraal moeten opstellen. Ze mogen best meegaan met de hype net zoals wij allemaal. En als NV hen een aantal regels oplegt die hen net goed uitkomt then so be it. We weten allemaal dat dit gebeurt, DF zegt het zelf.

Waarom zien we niet dezelfde coverage voor AMD? Omdat zij jammer genoeg niet zo innoverend zijn, ze komen achterna hollen voor feature parity. In plaats daarvan reageren ze, je ziet het hier ook gewoon. Ze wachten vooral af tot na Nvidia hun voorstelling om dan zelf ongeveer hetzelfde aan te bieden maar net niet, en onder de prijs zo ver ze kunnen. Dit soort prijs topics is niet waarom we kijken naar DF, die het vooral moet door door alle innoverende aspecten door te lichten. En over de prijs stelling van NV waren ze bij DF even kritisch als wij allemaal. Van bias is daar helemaal geen sprake.

En DLSS is een geweldig product, geen wonder dat er veel enthousiasme is rond DLSS3.
Wat begrijp je er niet aan? Het is reactiepost met uitleg, na aanleiding van een vraag van @t0mmiiiii: Waar ik vandaan haal, dat DigitalFoundry frame generation noodzakelijk acht.

Ik heb deze ochtend veel tijd besteed om een grote post te maken, waarin ik dingen quote uit de video van DigitalFoundry en daarbij uitgebreid tegenargumenten geef als ondersteuning van mijn mening.
Nota bene heb ik vetgedrukt wat DigitalFoundry gebruikt als tijdsbalktitel, wanneer het gaat over frame generation: "The Practial Reasons Why We Need Frame generation".
Dat op zich moet al duidelijk aangeven dat er sprake is van een bepaalde bias. Staat er letterlijk zwart op wit door DigitalFoundry.

*knip* Report knop gebruiken, niet op in gaan.

Jij haalt er vervolgens allerlei dingen bij die er in de discussie helemaal niet toedoen.
O.a. over prijsstellingen en dat ik geen Nvidia kaart hoef te kopen. En nog stukje over AMD.
Wat heeft dat allemaal nou te maken met mijn kritiek op DigitalFoundry?

Maargoed, volgens jouw slaat mijn argumentatie helemaal nergens op. Dat mag je uiteraard vinden.
Ik zal jouw mening verder ook respecteren dat een reviewer niet kritisch hoeft te zijn en lekker mee mag gaan op de hypetrain. Hoezeer ik daar ook anders over denk.
t0mmiiiii schreef op vrijdag 30 september 2022 @ 13:29:
[...]

Dank voor je uitgebreide toelichting. Ik kan me niet vinden in de vooringenomenheid die jij ziet bij DF. Als voorbeeld is het niet terecht dat je een donkere reden ziet achter niet tonen van Reflex uit bij DLSS3. Nvidia heeft reflex verplicht aangezet bij DLSS3. Die kan dus niet uit. En zodra je over tonatie en de manier waarop Alex zaken uitspreekt praat, bevind je je wel op glad ijs.

DF heeft hier geen geld voor gekregen, anders was het wel een sponsored video. En anders hadden ze echt niet die heftige stills van artifacts mogen laten zien.
Okidokie. Ieder zijn mening en ik heb in ieder geval aangegeven waarom ik er zo over denk. Ik ken verder Alex niet als persoon, maar vind het wel heel opvallend hoe sterk hij de klemtoon legt op bepaalde woorden. Vooral aan het eind als het gaat over het plaatje van spiderman dat hij gebruikt heeft in een voorgaande vergelijking.

Edit:
@t0mmiiiii
Ik heb eroverheen gelezen dat Reflex niet uit kan bij DLSS3. Sorry! Dat is inderdaad niet terecht dan en zal dat gedeelte van mijn post doorstrepen.

[ Voor 5% gewijzigd door Blaat op 30-09-2022 20:14 ]


Acties:
  • +1 Henk 'm!

  • Chromanin
  • Registratie: Maart 2009
  • Laatst online: 11-09 19:59
*knip* Dit is ook zeer zeker niet constructief.

[ Voor 97% gewijzigd door Blaat op 30-09-2022 20:15 ]


Acties:
  • +4 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Als je je bij de volgende screenshot niet gaat afvragen waarom we die video van DF gewoon slecht vinden dan weet ik het ook niet meer. Ze hebben het erover dat frame interpolation uiteindelijk nodig is. Alleen zie je in de onderstaande afbeelding maar 3ms verschil tussen DLSS 2 en frame interpolation.
Afbeeldingslocatie: https://tweakers.net/i/s4EBXwGKbpxoJbPy5YaGvE94hA0=/800x/filters:strip_exif()/f/image/NLRZV0X8FO50L08k2iSNZMnQ.png?f=fotoalbum_large
Dat kan twee dingen betekenen. Een ze hebben de beste meting voor frame interpolation genomen tegen de slechste meting voor DLSS normaal. Twee de framerate was al zo hoog dat de gpu er maar 3ms over deed om een frame te genereren; dan vraag ik me af waarom heb je dan in godsnaam frame interpolation nodig gezien je al op 300FPS zit.

In beide gevallen zie ik dat niet echt als een goede maatstaaf.

Deze is misschien nog te verdedigen, maar ook hier weer mijn punt we hadden met de 3090 Ti al 47FPS gemiddeld; dat moet die 4090 wel beter kunnen in het minimale geval 70FPS. Waarom zetten we dan DLSS 2 hier op performance mode om dan nog eens extra latency toe te gaan voegen met frame interpolation.
Afbeeldingslocatie: https://tweakers.net/i/758VwHeR_WfH8jLFmd2HI1A1bwE=/800x/filters:strip_exif()/f/image/kYNuyYzTiRYOv7ZoF8VPu1dI.png?f=fotoalbum_large


Volgende is ook een rare:
Afbeeldingslocatie: https://tweakers.net/i/b1si0-TuO4-0DsYxp-kcGPaVEFg=/800x/filters:strip_exif()/f/image/VYEw4KgJANdi2dAYfc55jzrg.png?f=fotoalbum_large
Je hebt een situatie hier waar je een gigantische cpu bottleneck maakt en DLSS 2 op performance mode al nauwelijks winst geeft in het frames. Je gaat in een situatie met een cpu bottleneck ook nog eens frame generation aanzetten terwijl je al over de 60fps haalt en 15ms input lag toevoegen wat je in het geval van een cpu bottleneck dus niet wilt doen.
Je krijgt daarbij een beetje de situatie die je bij oude spellen ook zag waar de main thread ook de render thread is en je bij lagere fps (lees onder de 45FPS) het gevoel krijg alsof je door stroop loopt terwijl het er op het scherm nog relatief soepel uitziet.

Ze slaan in mijn ogen hier gewoon de plank mis of hebben een roze en groene bril op.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Help!!!! schreef op vrijdag 30 september 2022 @ 13:56:
Volgensmij was het toch ook DF met een exclusieve 3080 preview die wel erg positief was. Net zoals ook de nvidia presentatie altijd rooskleuriger is dan de reviews.

DF mag doen wat ze willen. Prima als dit de honger naar info bij sommigen stilt.

Ik wacht de reviews van Gamers Nexus, Igor, Computerbase, TPU etc wel even af. Die neem ik een stuk serieuzer.
Gevonden:
YouTube: Nvidia GeForce RTX 3080 Early Look: Ampere Architecture Performance ...

Deze is dan ook weer jammer van Linus.
Om eerder genoemde redenen ook hun laatste exclusive bij Nvidia :+ :
YouTube: RTX 3090 8K Gaming - FIRST in the WORLD

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

*knip* nogmaals, reportknop

[ Voor 96% gewijzigd door Blaat op 30-09-2022 20:16 ]


Acties:
  • +1 Henk 'm!

  • Novacore
  • Registratie: November 2021
  • Niet online
*knip* offtopic

[ Voor 98% gewijzigd door Blaat op 30-09-2022 20:16 ]


Acties:
  • +1 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Ik zelf ben benieuwd naar de raw performance tussen 3090 non en ti tegen over 4090. Bedoel leuk al die dlss 2 en 3 etc…maar wat doet het puur raw native en liefst 4k met en zonder RT.

Tot op heden is het allemaal hocus pocus behalve de prijs…2k€ + diepe diepe zakken

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Avalaxy
  • Registratie: Juni 2006
  • Laatst online: 12:55
*knip* Zie de topicwaarschuwing. Dit is een nieuws discussie topic. Advies zoals dit is hier nadrukkelijk niet de bedoeling.

[ Voor 87% gewijzigd door Blaat op 30-09-2022 20:19 ]


Acties:
  • +2 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 21:12

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Modbreak:Er zijn een aantal reacties naar de prullenbak verwezen voor wie zich afvraagt waar zijn/haar post is.

Let er op dat een mening hebben prima is, maar dat vriendelijk blijven en je statements onderbouwen non-optioneel is op tweakers.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • +1 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 11-09 17:47
CMT schreef op donderdag 29 september 2022 @ 19:47:
DigitalFoundry is altijd pro Nvidia en Intel geweest. Ik kan ze gewoon niet serieus nemen omdat er van onpartijdigheid geen sprake is. Ze promoten Nvidia heel erg, ook al geven ze de schijn van niet biased te zijn door wat nadelen te belichten (maar vervolgens doorgaan over hoe noodzakelijk frame generation is).
Ik meen mij te herinneren dat bij de release van Zen, Intel ook heel erg werd voorgetrokken.
DF is pro innovatie en strek gefocussed op gaming. Nvidia is veel meer innovatief dan AMD dus krijgt die meer aandacht. En achteraf is Zen 1 geen goede gaming CPU geweest, in tegenstelling tot wat de minder objectieve reviewers beweerden. Pas vanaf de 2de generatie is Zen een goede gaming CPU.
CMT schreef op vrijdag 30 september 2022 @ 11:04:
[...]

Trend 1: steeds hogere refreshrate monitoren op de markt, waarin hij suggereert dat meer FPS (DLSS3) wenselijk is voor meer soepelheid in animatie en FPS.

Dat is maar een halve waarheid en niet de hoofdreden!
Alex zegt nergens dat framerate de enige reden is. Maar er is wel degelijk een enorm verschil tussen 60 of 120 fps voor soepelheid van beweging, zie bv https://www.testufo.com/
En de andere helft los je op een andere manier op.
CMT schreef op vrijdag 30 september 2022 @ 11:04:
[...]
Trend 2: Games die visueel meer ambitieus worden en steeds zwaarder leunen op simulatie -> Ratracing, path tracing, grote menigten & steden die steeds meer eisen van de cpu's en gpu's. Daarbij noemt hij dat DLSS3 framerate generation tot op een bepaalde hoogte voor minder cpu belasting kan zorgen.

Games worden inderdaad meer eisend, maar dat is geen trend te noemen. Dat is altijd al zo geweest sinds de ontwikkeling van spellen.
Dat is prima een trend te noemen. Een trend hoeft niet iets recents of tijdelijks te zijn.
CMT schreef op vrijdag 30 september 2022 @ 11:04:
[...]
Trend3: Het gebruik en hergebruik van meerdere frames, waarbij hij TAA als de facto standaard noemt voor het uitsmeren en gladstrijken van game graphics/randjes

Nou dat is ook geen trend hoor! TAA bestaat al zo lang en er zijn alternatieven die veel beter zijn. Dus dat het een de fato standaard is, is een mening van hem.
TAA wordt is zo veel spellen gebruikt dat je het prima as de facto standaard kunt zien. En zelf los van TAA is de trend dat er telkens meer temporal technieken gebruikt worden, dus DF's punt is gewoon valide.

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

cnieuweboer schreef op vrijdag 30 september 2022 @ 21:29:
[...]


DF is pro innovatie en strek gefocussed op gaming. Nvidia is veel meer innovatief dan AMD dus krijgt die meer aandacht. En achteraf is Zen 1 geen goede gaming CPU geweest, in tegenstelling tot wat de minder objectieve reviewers beweerden. Pas vanaf de 2de generatie is Zen een goede gaming CPU.
AMD is behoorlijk innovatief. Vergeet niet dat ze ook een CPU tak hebben. Ze hebben inderdaad een lange tijd niet voor nieuwe features gezorgd bij de desktop gpu's. Maar dat maakt ze niet minder innovatief dan Nvidia.

Dingen als Radeon Boost, Radeon chill, Enhanced Sync, Color Deficiency Correction (voor kleurenblindheid), Wattman (ingebouwde OC), Telemetrie overlay in games, AMD link (games streamen vanaf de PC) worden nauwelijks tot niet belicht, terwijl het interessante features zijn en voor sommigen echt een uitkomst.
En dat zijn de dingen alleen van AMD gpu's, ik kan ook een lijst opnoemen van de cpu's.

Maar wat ik bedoelde met Pro Nvidia, is dat DF imho Nvidia in een zo goed mogelijk daglicht stelt.
Het is niet de 1e keer dat ze ver van te voren komen met een 'preview' en daarmee alle andere reviewers die zich wel aan de NDA moeten houden in de rug steken. Je steelt daarmee een deel van hun inkomsten (over solidariteit nog niet gesproken)

Ik zal kijken of ik het nog terug kan vinden waar het toen over ging met Zen1.
Het staat mij bij dat er veel op aan te merken was over de test die DF toen gedaan heeft.
Zen1 was inderdaad geen goede gaming cpu, maar ook niet slecht (voordat Intel in recordtempo met de 8700k kwam). De grote reviewers waren daar ook gewoon eerlijk in?
Alex zegt nergens dat framerate de enige reden is. Maar er is wel degelijk een enorm verschil tussen 60 of 120 fps voor soepelheid van beweging, zie bv https://www.testufo.com/
En de andere helft los je op een andere manier op.
Dat klopt, maar hij praat ook nergens over frametime variatie, terwijl dat een belangrijk aspect is wanneer men praat over soepelheid van een beweging. Ik kan mij niet voorstellen dat hij daar niet van op de hoogte is. Je vertekend daarmee het beeld, door ondertussen wel hoge FPS met hoge refreshrate te linken als wenselijk voor verbetering van de bewegings soepelheid. Iedereen die niet goed geïnformeerd is en/of kritisch neemt dat gewoon over en zo kunnen bepaalde denkbeelden ontstaan.

Over de UFO test. Dat heb ik ook niet ontkent. Ik heb gezegd dat je niet meer FPS nodig hebt om toch de toename in bewegings soepelheid te merken van hogere refreshrate. Dus 60fps op een 60Hz naar 120Hz scherm. Wat ook niet verward moet worden is bewegings(on)scherpte met soepelheid. Deze twee aspecten zie je nu samen op de UFO balk.
TAA wordt is zo veel spellen gebruikt dat je het prima as de facto standaard kunt zien. En zelf los van TAA is de trend dat er telkens meer temporal technieken gebruikt worden, dus DF's punt is gewoon valide.
En toch zijn er nog heleboel andere AA opties. Ik kom ook titels tegen die geen TAA optie hebben. Met een de facto standaard verwacht ik dat het overal beschikbaar is.
Maar los daarvan, in welk opzicht hebben we frame generation nodig om hier een verbetering in aan te brengen? Zo ver we hebben kunnen zien voegt het juist artefacten toe.

Acties:
  • +5 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 20:12
CMT schreef op zaterdag 1 oktober 2022 @ 11:29:
En toch zijn er nog heleboel andere AA opties. Ik kom ook titels tegen die geen TAA optie hebben. Met een de facto standaard verwacht ik dat het overal beschikbaar is.
Maar los daarvan, in welk opzicht hebben we frame generation nodig om hier een verbetering in aan te brengen? Zo ver we hebben kunnen zien voegt het juist artefacten toe.
TAA is AA methode van de Unreal Engine gepresenteerd door Brian Karis in 2014. Hij was niet de eerste met een techniek die AA gebuikte met data van meerdere frames (zo had nvidia al TXAA) maar hij had met paar trucjes wel zeer goede resultaten. Sinds zijn presentatie is er een explosie ontstaan van op TAA gebaseerde AA methoden, allen met een ander naam. DLSS is daar ook van afgeleid. Al deze technieken worden meestal gewoon TAA genoemd omdat het makkelijker is uit te spreken als SMAA TU2x (de TAA techniek van CoD).

TAA is nodig gebleken omdat de gamesindustrie overgegaan is PBR en normal maps. Dit heeft tot veel specular aliasing geleid en MSAA kon dat niet filteren omdat het alleen op de randen van polygonen filtert. Ook hebben specular highlights te neiging om heel klein te zijn waardoor ze niet elke frame gerenderd worden en je ze dus ook niet kan filteren met iets als FXAA. Dit probleem is al meer dan 10 jaar bekend (zie ook https://blog.selfshadow.com/2011/07/22/specular-showdown/ )
Games die prebaked lightning gebruiken of cartoonie uitzien hebben minder last van specular aliasing en hebben niet altijd behoefte voor TAA.

Je spel gebruikt soms TAA of een afgeleide ervan zonder dat je het weet omdat er geen optie is om dat uit te schakelen. Soms voor de hele frame, soms voor een deel van de effecten (vooral voor volumetric effects als wolken en mist wordt nu overal temporal AA en upsampling standaard gebruikt, dat is niet vanwege specular aliasing maar omdat een gpu niet sterk genoeg is om deze effecten full-frame en elke frame te renderen. zie bijvoorbeeld de presentatie van killzone hier: http://advances.realtimer...FLECTIONS_AND_VOLUMETRICS)

Dit is wat Brian Karis er zelf over had gezegd in al 2020:
https://twitter.com/BrianKaris/status/1327713565634035712

Unreal Engine 5 gaat er vanuit dat als je Nanite en Lumen gebruikt TSR (hun evolutie van TAA, nu met upsampling) standaard aan staat als je 4k 60 fps wil halen.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
CMT schreef op zaterdag 1 oktober 2022 @ 11:29:
[...]


Maar wat ik bedoelde met Pro Nvidia, is dat DF imho Nvidia in een zo goed mogelijk daglicht stelt.
Het is niet de 1e keer dat ze ver van te voren komen met een 'preview' en daarmee alle andere reviewers die zich wel aan de NDA moeten houden in de rug steken. Je steelt daarmee een deel van hun inkomsten (over solidariteit nog niet gesproken)
Maar is dat omdat ze op de hand zijn van Nvidia, of heeft Nvidia het marketing technisch gewoon beter voor elkaar. Ik kan me eigenlijk niet voorstellen dat wanneer AMD ze bijvoorbeeld een kans zou geven om volgende week met een RDNA 3 preview te komen dat ze dan nee zouden zeggen omwille van het feit dat ze 'op de hand van Nvidia' zijn. Ik denk eerder dat ze dat ook gewoon zouden doen, maar dat AMD simpelweg dat soort marketing middelen minder gebruikt.

Dat inkomsten stelen zie ik ook niet zo (sowieso lijkt me stelen een verkeerde benaming, het komt immers niet in de buurt van wat wij als stelen defineren), daarnaast is een preview / techdemo / advertorial heel wat anders dan een review. Ik zou voor een day 1 review nooit naar DF gaan bijvoorbeeld, daar heb ik de geijkte reviewers voor. Echter voor een preview / techdemoish dingetje zou ik juist weer wel naar DF gaan, en niet naar de geijkte reviewers. Ieder zijn niche denk ik dan.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Dennism schreef op zaterdag 1 oktober 2022 @ 13:56:
[...]
Maar is dat omdat ze op de hand zijn van Nvidia, of heeft Nvidia het marketing technisch gewoon beter voor elkaar.
Ik verwacht juist van reviewers dat ze door de marketing heen (proberen te) prikken. Mijns inziens geef je CMT met deze opmerking gewoon gelijk, in de zin dat DF zich meer gedraagd als extensie van de marketing-afdeling van Nvidia, dan als een onafhankelijke reviewer.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
Ludewig schreef op zaterdag 1 oktober 2022 @ 14:19:
[...]


Ik verwacht juist van reviewers dat ze door de marketing heen (proberen te) prikken. Mijns inziens geef je CMT met deze opmerking gewoon gelijk, in de zin dat DF zich meer gedraagd als extensie van de marketing-afdeling van Nvidia, dan als een onafhankelijke reviewer.
Het een sluit natuurlijk het andere niet uit, kijk ook bijv. naar Tweakers, je vind hier reviews, waar je als outlet onafhankelijk moet zijn, maar ook techdemo's en advertorials, waarbij betaalde content dan weer wel mag, maar niet hoeft.

In een review moet je uiteraard door de marketing heen prikken, bij een advertorial hoeft dat echter weer niet, daar wordt gewoon voor betaald. Ik zie DF dan ook zeker niet als outlet die enkel reviews doet, daarom gaf ik ook al aan dat ik ze voor reviews, zeker op dag 1, eigenlijk niet overweeg. Maar ik zie het niet als 'Anti AMD' als ze zo'n artikel doel, ik zie dat eerder als een gemiste kans van AMD's marketing afdeling wanneer ze dat soort zaken niet doen (al dan niet met DF of andere partner) en betaald of niet (ik weet uiteraard niet of DF betaald is door Nvidia of dat ze enkel early access hebben). Kijk bijv. naar dat Overklok dingetje van GN met AMD in Austin, dat zie ik ook als pure marketing, maar ik neem Steve zijn reviews daardoor niet minder serieus. Ook daar weer, ik weet uiteraard niet of Steve daarvoor betaald is of niet.

[ Voor 23% gewijzigd door Dennism op 01-10-2022 15:23 ]


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10:41

Sp3ci3s8472

@ 12 graden...

Dennism schreef op zaterdag 1 oktober 2022 @ 15:16:
[...]


Het een sluit natuurlijk het andere niet uit, kijk ook bijv. naar Tweakers, je vind hier reviews, waar je als outlet onafhankelijk moet zijn, maar ook techdemo's en advertorials, waarbij betaalde content dan weer wel mag, maar niet hoeft.

In een review moet je uiteraard door de marketing heen prikken, bij een advertorial hoeft dat echter weer niet, daar wordt gewoon voor betaald. Ik zie DF dan ook zeker niet als outlet die enkel reviews doet, daarom gaf ik ook al aan dat ik ze voor reviews, zeker op dag 1, eigenlijk niet overweeg. Maar ik zie het niet als 'Anti AMD' als ze zo'n artikel doel, ik zie dat eerder als een gemiste kans van AMD's marketing afdeling wanneer ze dat soort zaken niet doen (al dan niet met DF of andere partner) en betaald of niet (ik weet uiteraard niet of DF betaald is door Nvidia of dat ze enkel early access hebben). Kijk bijv. naar dat Overklok dingetje van GN met AMD in Austin, dat zie ik ook als pure marketing, maar ik neem Steve zijn reviews daardoor niet minder serieus. Ook daar weer, ik weet uiteraard niet of Steve daarvoor betaald is of niet.
Het is de aanpak waaraan ik mij stoor. Ik linkte eerder ook de video van LTT (die post is door de shotgun aanpak weggehaald :+ ) waar ze de 3080 als een 8k aanprezen, wat een Nvidia advertorial was.
Het is dus niet dat ik alleen DF er op zou wijzen, ook LTT zal ik aanstippen als ik het daar niet mee eens ben. De vorige video van DF was tenminste nog minder storend omdat het niet om een nieuwe techniek ging maar een vergelijking tussen 2 kaarten.

De aanpak waar ik mij aan stoor is het feit dat ze een nieuwe techniek (frame interpolation) aanprijzen die de FPS van die kaarten gaat verhogen. Niks mis mee, dat hebben ze en andere vaker onderzocht. Alleen komen ze zoals ik heb aangegeven (en niet in de herhaling wil vallen) met loze nikszeggende cijfers in scenario's die een normaal persoon nooit zou tegenkomen.
Stel dat die scenario's concreet waren met exacte cijfers dan kan je bepaalde scenario's gebruiken om de extremen te tonen. Alleen krijgen we als kijken alleen maar fantastische percentages en andere vage cijfers te zien.

Als GamersNexus of HardwareUnboxed dit had gedaan dan had je mij hier ook horen zeuren, zei het misschien in mindere mate gezien ik hun nog niet eerder heb zien doen. Alleen vermoed ik dat GamersNexus, HardwareUnboxed en waarschijnlijk LTT dit nooit zouden doen omdat het de consument niet helpt.

Dit begint een beetje offtoic te raken; hoop dat er weer wat echt nieuws is binnenkort!

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Dennism schreef op zaterdag 1 oktober 2022 @ 15:16:
[...]
Kijk bijv. naar dat Overklok dingetje van GN met AMD in Austin, dat zie ik ook als pure marketing, maar ik neem Steve zijn reviews daardoor niet minder serieus. Ook daar weer, ik weet uiteraard niet of Steve daarvoor betaald is of niet.
Daar ben ik het niet mee eens. Steve was vroeger zelf een extreme overklokker en heeft juist de expertise om door eventuele bullshit heen te prikken. Uiteindelijk was het ook een vrij standaard demo en was er dus weinig ruimte voor 'spin.' Een Intel-CPU overklok je op dezelfde manier en uiteindelijk zijn er een paar standaard benchmarks waar de overklokkers proberen om aan de top te komen.

En ik durf er wel een weddenschap op af te sluiten dat Steve hiervoor niet betaald is (en volgens mij doet hij überhaupt niet aan advertorials).
In een review moet je uiteraard door de marketing heen prikken, bij een advertorial hoeft dat echter weer niet, daar wordt gewoon voor betaald.
Ik vindt advertorials überhaupt onethisch.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
Ludewig schreef op zaterdag 1 oktober 2022 @ 18:13:
[...]


Daar ben ik het niet mee eens. Steve was vroeger zelf een extreme overklokker en heeft juist de expertise om door eventuele bullshit heen te prikken. Uiteindelijk was het ook een vrij standaard demo en was er dus weinig ruimte voor 'spin.' Een Intel-CPU overklok je op dezelfde manier en uiteindelijk zijn er een paar standaard benchmarks waar de overklokkers proberen om aan de top te komen.

En ik durf er wel een weddenschap op af te sluiten dat Steve hiervoor niet betaald is (en volgens mij doet hij überhaupt niet aan advertorials).
Dat laatste zou ik ook direct geloven, dat zou zeker wel iets voor Steve zijn, ik zie hem zelfs de onkosten nog wel zelf betalen en een vergoeding daarvan niet aannemen, immers zal hij waarschijnlijk genoeg verdienen aan de youtube weergaves zelf.

Echter ik snap niet direct waarom je dit geen marketing vind, hoe zou jij het gunnen van een interview vlak voor release aan een bekende techjournalist anders omschrijven. Dat is echt gewoon marketing van AMD, hoe je het ook went of keert.
Ik vindt advertorials überhaupt onethisch.
Ik denk dat als je heel sec gaat kijken eigenlijk (vrijwel) iedere vorm van reclame onethisch is, maar als ik er een uit zou mogen pikken die ik echt erg vind, en die van mij per direct verboden zou mogen worden is het wel influencer marketing.

Helaas is reclame heel normaal en dus hebben we het er maar mee te doen. Ik prijs mezelf al gelukkig dat online reclame banners e.d. me eigenlijk vrijwel niet opvallen, en ik dus anders dan anderen die hier heel erg gevoelig voor zijn, niet allerlei noodgrepen met adblockers uit moet halen om een beetje prettig te kunnen browsen.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Dennism schreef op zaterdag 1 oktober 2022 @ 18:47:
[...]
Echter ik snap niet direct waarom je dit geen marketing vind, hoe zou jij het gunnen van een interview vlak voor release aan een bekende techjournalist anders omschrijven.
Eerder zei je 'pure marketing' en dat vindt ik het niet. Uiteraard is het wel marketing, zoals vrijwel elke interactie tussen bedrijven en de pers.

De meest pure marketing is 'u vraagt, wij draaien,' waarbij mensen dingen zeggen die ze niet geloven. Dit zit daar behoorlijk ver vanaf. Op zich is er ook niks mis met marketing, wanneer bedrijven eerlijk vertellen wat ze in de aanbieding hebben. Het gaat fout wanneer ze mensen proberen te misleiden.

En het was trouwens geen interview, maar een techdemo wat al meteen betekend dat het ook echt moet werken.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 09:39
CMT schreef op zaterdag 1 oktober 2022 @ 11:29:
[...]

En toch zijn er nog heleboel andere AA opties. Ik kom ook titels tegen die geen TAA optie hebben. Met een de facto standaard verwacht ik dat het overal beschikbaar is.
Maar los daarvan, in welk opzicht hebben we frame generation nodig om hier een verbetering in aan te brengen? Zo ver we hebben kunnen zien voegt het juist artefacten toe.
Bijna geen enkele andere AA methode doet iets aan motion artifacts zoals pixel crawling of specular aliasing. TAA voegt inderdaad artifacts toe maar verwijdert er een ton meer dan dat het toevoegt. Eén of andere vorm van TAA (waaronder ook DLSS valt) is noodzakelijk om maar enige degelijke kwaliteit te hebben wanneer er beweging op het scherm plaatsvindt in huidige games. PBR, veel geometrie en foliage maken dit gewoon noodzaklijk.

@PjotrX linkte een tweet van Brian Karis maar die eronder vind ik hier nog beter op z'n plaats. TAA afzetten is een beetje zoals schaduws afzetten.

Afbeeldingslocatie: https://tweakers.net/i/d7zH_BB9eyQr6QMM8KLhYW5jR3U=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/5CNzsGICkkSwZVDXL9OGJkGr.png?f=user_large

Ik herinner me nog Bloodborne, een game zonder TAA, en dat was echt afgrijselijk. Zodra je de camera een beetje bewoog begon het hele scherm te flikkeren en te glinsteren.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 04:16

CMT

Dennism schreef op zaterdag 1 oktober 2022 @ 13:56:
[...]


Maar is dat omdat ze op de hand zijn van Nvidia, of heeft Nvidia het marketing technisch gewoon beter voor elkaar. Ik kan me eigenlijk niet voorstellen dat wanneer AMD ze bijvoorbeeld een kans zou geven om volgende week met een RDNA 3 preview te komen dat ze dan nee zouden zeggen omwille van het feit dat ze 'op de hand van Nvidia' zijn. Ik denk eerder dat ze dat ook gewoon zouden doen, maar dat AMD simpelweg dat soort marketing middelen minder gebruikt.

Dat inkomsten stelen zie ik ook niet zo (sowieso lijkt me stelen een verkeerde benaming, het komt immers niet in de buurt van wat wij als stelen defineren), daarnaast is een preview / techdemo / advertorial heel wat anders dan een review. Ik zou voor een day 1 review nooit naar DF gaan bijvoorbeeld, daar heb ik de geijkte reviewers voor. Echter voor een preview / techdemoish dingetje zou ik juist weer wel naar DF gaan, en niet naar de geijkte reviewers. Ieder zijn niche denk ik dan.
Het is al in een paar posts hierboven genoemd, maar de kwaliteit en hoeveelheid marketing hoort niet uit te maken bij een reviewer die kritisch is. Die prikt er dan zoals gezegd doorheen.
Misschien is DF dat dus niet en zijn wel wel oprecht, maar laten ze zich onbewust beïnvloeden.
Een beetje in de zin dat je een bepaalde mening of idee van een goede vriend of vriendin veel eerder zal accepteren dan van een vreemde. Ik geloof verder ook wel dat ze dan met een preview voor AMD zouden komen. Dat ze veel Nvidia materiaal hebben, stoor ik mij niet aan.

Stelen is inderdaad niet de juiste benaming, ik had het beter anders kunnen verwoorden. Wegkapen is misschien beter. Het is gewoon zo dat vele kleinere review sites/kanalen afhankelijk zijn van het aantal bezoekers dat ze krijgen. Met zo'n groot product weer veel belangstelling voor is, kan dat behoorlijk uitmaken. Een ander probleem is dat je mensen loopt warm te maken voor iets waardoor sommigen misschien al een voorkeur krijgen die er niet zou zijn geweest als er een mogelijkheid was om dingen te verifiëren (andere reviews/opinies/meetresultaten).
Pagina: 1 ... 117 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.