Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Maar in de midrange en low-end hoeven de kloks niet zo extreem zo ook mobile en wordt het 5+6 vs 4 tsmc meer een nadeel.
Andersom toch? Juist niet zulke extreme kloks betekend dat wat trager silicon ook prima mee kan komen. Ja nog steeds met wat meer energieverbruik, maar niet op het uiteinde van een hockeystick waarbij voedingen omhoog moeten worden geduwd om maar dat laatste beetje performance eruit te halen.

Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
vectormatic schreef op donderdag 31 augustus 2023 @ 10:06:
[...]


Als ik moet gokken zet ik mn geld op discrepsnties tussen wat de alu designers theoretisch simuleren en wat de driver ontwikkelaars daadwerkelijk voor elkaar krijgen, misschien zit dat achter het dual issue ding. Waar de 50% raytracing winst gebleven is....

Rdna2 op N5 was inderdaad leuker geweest, dan had ik graag een 7700xt gekocht, maar wat het nu is...
Ik dacht eerst ook ALU design en drivers, maar het zit hem meer in het verschil tussen een soft design: theoretisch gemodelleerd, en een hard design: daadwerkelijk een eerste prototype chip draaien en die mooie chiplet ideëen in de praktijk brengen met interposers, verschillende frequentie, power verliezen, etc.

AMD heeft daar nu meters mee gemaakt, Nvidia gaat daar ook meters mee maken voor professionele AI kaarten, maar nog niet voor gamer chips. Die houden zowel AMD met RDNA4 (eind 2024) als Nvidia met Blackwell (begin 2025) de eerstvolgende generaties monolitisch.

N3 capaciteit gaat bij Nvidia eerst naar de professionele AI kaarten, bij AMD ook en natuurlijk Zen5. Dan weet je nu dus al dat RDNA4 op N5/N4 zal zijn. Navi43 en Navi44 kunnen best hoog mikken, ik vermoed 48 CU en 96 CU. Dit omdat APU's al tot 32 CU zullen gaan, het is daarbij niet zo logisch om met jezelf te concurreren. Dat betekent een 8700 XT kaart net zo snel als een 7900 XTX, misschien iets sneller, voor $500. Met hopelijk betere FSR en Ray Tracing dan nu.

Daarmee schuift de RDNA3 chiplet belofte door naar RDNA5 (eind 2026), en dan hebben we het mogelijk over N2 of high NA EUV, waarbij monolitisch geen high-end GPU kan zijn (door de reticle limit van ~400 mm2. Dan moet Nvidia alsnog dat lesgeld betalen, en heb je het over opvolger van Blackwell, met mogelijk flink wat vertraging in 2027.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
Weet iemand wat Scott Herkelman bedoelt met SEP of SEP per dollar? Ik heb geen idee...

https://www.club386.com/s...ing-rx-7800-xt-questions/

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 13:28

vectormatic

Warlock of the doorlock

sunsmountain schreef op zaterdag 2 september 2023 @ 16:41:
Weet iemand wat Scott Herkelman bedoelt met SEP of SEP per dollar? Ik heb geen idee...

https://www.club386.com/s...ing-rx-7800-xt-questions/
Ik ken SEP alleen als Someone Else's Problem :P met dank aan Douglas Adams

EDIT: Also, bah, het is toch echt wel shitty dat de GPU markt ondertussen zo gestagneerd is, generatie cycles zijn langer, en waar "vroegah" een slechte generatie alsnog betere bang/back leverde (Geforce FX bijvoorbeeld), mag je nu blij zijn als je meer mag betalen voor daadwerkelijke performance winst :(

Zat me dus te bedenken dat AMD de 6700XT tier heeft gedelete uit de lineup, de 7600 is nauwelijks sneller dan een 6600xt, de 7700xt zal zo rond de 6800 uitkomen, tada, giga-gat in je lineup, met erg weinig mogelijkheid om het te dichten, 7600 is al full-chip N33, en N32 nog verder opknippen dan 7700XT lijkt me ook niet heel aantrekkelijk.

[ Voor 45% gewijzigd door vectormatic op 03-09-2023 00:47 ]

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
vectormatic schreef op zaterdag 2 september 2023 @ 16:54:
[...]
EDIT: Also, bah, het is toch echt wel shitty dat de GPU markt ondertussen zo gestagneerd is, generatie cycles zijn langer, en waar "vroegah" een slechte generatie alsnog betere bang/back leverde (Geforce FX bijvoorbeeld), mag je nu blij zijn als je meer mag betalen voor daadwerkelijke performance winst :(

Zat me dus te bedenken dat AMD de 6700XT tier heeft gedelete uit de lineup, de 7600 is nauwelijks sneller dan een 6600xt, de 7700xt zal zo rond de 6800 uitkomen, tada, giga-gat in je lineup, met erg weinig mogelijkheid om het te dichten, 7600 is al full-chip N33, en N32 nog verder opknippen dan 7700XT lijkt me ook niet heel aantrekkelijk.
7700XT gaat echt wel zakken net als de 7900XT. In de woorden van Scott zelf: percentage verschil met de kaart erboven is ongeveer hetzelfde. Nou laten we even rekenen dan:

7900 XTX = $1000 €979 (in pricewatch)
7900 XT = $900 (-10%)
verkoop 7900 XT = $750 (-25%) €819 (in pricewatch)


7800 XT = 500 €549
Gecorrigeerd gat met de 7900 XT = 819 / 549 = 149%.

7700 XT = 450 (-10%) €489
https://nl.hardware.info/...idrange-rdna-3-vanaf-e489
verkoop 7700 XT = $375 (-25%) dat zal ~€399 worden binnen een paar maanden. Een nieuwe 6800 kost nog steeds €464 op dit moment (pricewatch).

6700 XT = €339 (pricewatch)
Tijdelijk gat met 7700 XT = 489 / 339 == 144%, gecorrigeerd gat = 399 / 339 = 118%.

Overigens zijn de RX 6000 kaarten nog steeds beschikbaar, en zullen dat nog wel even blijven. De prijzen zakken of blijven gelijk. De RX 7000 kaarten blijven onaantrekkelijk voor upgraden, maar voor een nieuw systeem zullen ze goed zijn als de prijs goed is: oftewel als de markt deze gecorrigeerd heeft.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op zaterdag 2 september 2023 @ 16:39:
[...]
Daarmee schuift de RDNA3 chiplet belofte door naar RDNA5 (eind 2026), en dan hebben we het mogelijk over N2 of high NA EUV, waarbij monolitisch geen high-end GPU kan zijn (door de reticle limit van ~400 mm2.
De 4080 zit al ruim binnen de reticle limit van high NA, en de x080 is de traditionele high-end. Het zou mij niet verbazen als de kleinere chips van de 4000-serie deel zijn van een lange termijnplan om straks een monoliet in de 6090 te stoppen die maar 430 mm2 is of dat ze straks helemaal geen 90-klasse kaarten meer aan consumenten verkopen.
Weet iemand wat Scott Herkelman bedoelt met SEP of SEP per dollar? Ik heb geen idee...
SEP = de adviesprijs.

Maar wat hij bedoelt met SEP per dollar is totaal onduidelijk. Dat slaat nergens op.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
Ludewig schreef op zondag 3 september 2023 @ 15:56:
[...]


De 4080 zit al ruim binnen de reticle limit van high NA, en de x080 is de traditionele high-end. Het zou mij niet verbazen als de kleinere chips van de 4000-serie deel zijn van een lange termijnplan om straks een monoliet in de 6090 te stoppen die maar 430 mm2 is of dat ze straks helemaal geen 90-klasse kaarten meer aan consumenten verkopen.
Dan kunnen ze nog een generatie monolitisch doen, maar alleen als AMD geen ultra high-end GPU maakt. Op zich een redelijke gok, maar Nvidia kan daarmee de kroon verliezen.
[...]


SEP = de adviesprijs.

Maar wat hij bedoelt met SEP per dollar is totaal onduidelijk. Dat slaat nergens op.
Adviesprijs is MSRP.
MSRP, meaning Manufacturer's Suggested Retail Price, is the price that a manufacturer recommends for stores to sell their product. Some retailers may also refer to the MSRP as the "list price."
SEP prijs is uit een andere industrie, heeft Scott die achtergrond?
SEP is the price set by pharmaceutical manufacturers at which a medicine may be sold including VAT and a logistics fee.
Misschien Silicon Engineering Process? Of Scott probeert een andere investeringsterm te gebruiken en slaat de plank (weer) mis.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • ikt
  • Registratie: Juli 2008
  • Laatst online: 09:20

ikt

Weet iemand wat de laatste geruchten over FSR3 zijn? Ik dacht dat deze zou worden gereleased bij de Starfield / RX 7700/7800 XT release, maar we zijn een paar dagen verder en nog niks. Eind van de maand maybe?

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

ikt schreef op zaterdag 9 september 2023 @ 21:19:
Weet iemand wat de laatste geruchten over FSR3 zijn? Ik dacht dat deze zou worden gereleased bij de Starfield / RX 7700/7800 XT release, maar we zijn een paar dagen verder en nog niks. Eind van de maand maybe?
Starfield krijgt voor zover nu bekend, geen FSR3. Waarom niet is mij een raadsel. De game heeft het misschien wel nodig en er de game heeft ook al een DLSS3 mod.

Forspoken, Immortals of Aveum en Cyberpunk lijken de eerste games te zijn die het krijgen. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Ik kan deze tweet moeilijk op waarde schatten, maar het zou wel passen bij het gerucht dat er geen Navi 41 GPU komt.

March of the Eagles


Acties:
  • +1 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 13:21
XWB schreef op maandag 11 september 2023 @ 15:11:
Ik kan deze tweet moeilijk op waarde schatten, maar het zou wel passen bij het gerucht dat er geen Navi 41 GPU komt.

[Twitter]
Jammer voor de AMD fanaat dan. Wel weer zuur dat AMD weer een incomplete line-up heeft in die generatie (als het klopt). Die zullen het weer moeten doen met een midrange kaart als ze echt alleen AMD willen kopen. Dan zal de winst uit de grootste chips ook niet genoeg zijn voor AMD als ze die zo makkelijk kunnen missen. Aan de andere kant zullen de high end chips van Nvidia veel meer verkopen en meer opleveren als je kijkt naar het prijsverschil. Als je grof geld gaat smijten voor een videokaart, dan kom je toch eerder bij een 4090 dan een 7900xtx. Go big or go home is het devies in de uber high end.

Acties:
  • +1 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 14:25

rapture

Zelfs daar netwerken?

XWB schreef op maandag 11 september 2023 @ 15:11:
Ik kan deze tweet moeilijk op waarde schatten, maar het zou wel passen bij het gerucht dat er geen Navi 41 GPU komt.

[Twitter]
De bottleneck is in de packaging dat ze liever spenderen aan heel veel chiplets aan elkaar plakken voor een product met een prijskaartje van een nieuwe auto dan een 1000 dollar GPU.

Nvidia is geen makke Intel en zal altijd hard vechten om de high-end. Veel geld tegen aansmijten en veel risico nemen gecombineerd met software/features-voordeel en mindshare dat hogere prijzen kan vragen.

AMD Radeon's positie is vrij goed door MILD recent uitgelegd. Er moet 30% voordeel tov Nvidia.
  • Ofwel is het 30% sneller op dezelfde prijs.
  • Ofwel is het even snel en 30% goedkoper.
  • Ofwel 15% sneller en 15% goedkoper.
Anders begint 80% van de gamers niet aan AMD Radeon.

Klinkt zoals een Skoda, goedkoper dan Volkswagen en meer ruimte dan Volkswagen. Je koopt het met verstand ipv emotie.

Bij een premium product gaat het om emotie en een merk is eigenlijk een belofte van innovatie, goede drivers, goede softwaresupport, state of the art features,...

Een marketingafdeling is er niet alleen om te adverteren maar ook om producten aan de noden in de markt aan te passen en het doelpubliek warm maken voor producten. Er zijn slechts 2 games (Call of Duty Modern Warfare II en Starfield) waarbij je kan zeggen dat AMD Radeon in het voordeel is.

Nvidia heeft tot aan de AI hype meer geld tegen features/afleidingen gesmeten om de gamers aan zich te binden. Ze gaan op een slinkse wijze met Moore's Law Is Dead.

Van 3nm FinFET naar 2nm Nanosheet kan de verhouding tussen de fabs resetten, de vorige keer was Intel de winnaar bij de overstap van 32nm/28nm planair naar 22nm FinFET. Toen liep de chipindustrie al tegen een muur van oplopende kosten op.

Als we vele jaren op 3nm vastzitten voordat een doorbraak gebeurt, dan worden de grafische kaarten niet sneller zoals tijdens de 5 jaren op 28nm en ze konden alleen de prijzen omlaag zetten. Toen was 20nm slecht voor GPU's, Nvidia en AMD hadden het overgeslagen en gingen voor 16nm/14nm. https://www.guru3d.com/ne...nm-and-jumps-to-14nm.html

Vergeet dat de chipindustrie tegen een muur van oplopende kosten oploopt of dat raster niet veel sneller kan gaan. Laten we performance op een nieuwe manier meten zoals RT, DLSS, frame generation,...

Als een AMD-fanaat kan je wel wachten op 7900XTX of 7900XT performance dat richting 500 dollar afdaalt. Met de overstap van GDDR6 naar GDDR7 kan een 256 bit geheugenbus met GDDR7 de bandbreedte van 384 bit geheugenbus met GDDR6 leveren. 6800XT/7800XT performance verschuift dan naar 192 bit geheugenbus zoals een 6700XT met bijhorende pricing.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

sjekneck schreef op maandag 11 september 2023 @ 17:45:
[...]

Jammer voor de AMD fanaat dan. Wel weer zuur dat AMD weer een incomplete line-up heeft in die generatie (als het klopt). Die zullen het weer moeten doen met een midrange kaart als ze echt alleen AMD willen kopen.
Aan de andere kant is low-end vaak het ondergeschoven kindje, die komen laat en met grote technische concessies (RX6400 / RX6500, RX7600). Voor die consumenten zou een echt goed product ook wel eens leuk zijn, low-end concurrentie op 5nm voor de RTX4060.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • +1 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 14:51
bwerg schreef op dinsdag 12 september 2023 @ 09:27:
[...]

Aan de andere kant is low-end vaak het ondergeschoven kindje, die komen laat en met grote technische concessies (RX6400 / RX6500, RX7600). Voor die consumenten zou een echt goed product ook wel eens leuk zijn, low-end concurrentie op 5nm voor de RTX4060.
Is het nog de moeite voor gamers om op dat niveau in te stappen? Als je eisen dusdanig laag zijn, waarom dan niet meteen een onboard GPU pakken als de 5700G? De 6600 serie was nu niet per sé onbetaalbaar, relatief gesproken dan, maar biedt in dat geval nog een flinke upgrade voor als je meer wilt dan de bekende, reeds op een aardappel draaiende shooters.

Ik denk dat het voor AMD gewoon de productiecapaciteit en marketingmoeite niet waard is daar nog werkelijk op in te willen stappen. Zeker wanneer er voor dat segment reeds een goedkoop apparaat beschikbaar is: De Series S.

Ik heb altijd het idee gehad dat die low-end kaarten vooral veel in OEM builds werden gebruikt, verkocht aan gamers die geen idee hadden wat hen werd aangesmeerd omdat het evenveel GB aan geheugen had als de high end modellen, zonder de performance. Misschien zit ik er naast, maar volgens mij kan zoiets alleen maar bijdragen aan een uitholling van je reputatie.

Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Nou ja, het segment RX6400 is inderdaad niet de meest interessante. Maar dat de RX7600 nog steeds niet op 5nm wordt gebakken is toch weer een gemiste kans, die gaat er niks op vooruit t.o.v. de RX66(0/5)0XT

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dat lage segment is klaar.
Kijk alleen al naar wat voor APU's AMD aan het plannen is alsmede wat Sherkelman er recentelijk over heeft gezegd. In diplomatieke bewoordingen moet je een "slow down" van het segment onder de $200 verwachten.

Dit komt uiteindelijk omdat die kleine monolithische GPU's gewoon niet rendabel meer zijn op de zeer geavanceerde nodes. Je bent langzaam naar een punt aan het gaan waarbij caches en I/O niet meer kleiner worden qua oppervlakte, maar logic wel. Maak je dan een kleine chip, dan krijg je straks de bizarre situatie dat je I/O voor een relatief smalle bus, een fors gedeelte van je chip inneemt en je tussen hele kleine stukjes logic met de ALU's, enorme blokken cache krijgt. Dat presteert vervolgens ook niet goed omdat je de parallelle rekenkracht mist. En zeker RDNA met de veel grotere nadruk op occupency en meer en grotere caches voor minder logic, gaat dat treffen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 13:28

vectormatic

Warlock of the doorlock

Cid Highwind schreef op dinsdag 12 september 2023 @ 09:58:
[...]

Is het nog de moeite voor gamers om op dat niveau in te stappen? Als je eisen dusdanig laag zijn, waarom dan niet meteen een onboard GPU pakken als de 5700G? De 6600 serie was nu niet per sé onbetaalbaar, relatief gesproken dan, maar biedt in dat geval nog een flinke upgrade voor als je meer wilt dan de bekende, reeds op een aardappel draaiende shooters.

Ik denk dat het voor AMD gewoon de productiecapaciteit en marketingmoeite niet waard is daar nog werkelijk op in te willen stappen. Zeker wanneer er voor dat segment reeds een goedkoop apparaat beschikbaar is: De Series S.

Ik heb altijd het idee gehad dat die low-end kaarten vooral veel in OEM builds werden gebruikt, verkocht aan gamers die geen idee hadden wat hen werd aangesmeerd omdat het evenveel GB aan geheugen had als de high end modellen, zonder de performance. Misschien zit ik er naast, maar volgens mij kan zoiets alleen maar bijdragen aan een uitholling van je reputatie.
Mwa, een RX6400 is alsnog 50% sneller dan een 5700g, en heeft geen AM4 bordje en bloedsnel DDR4 nodig. Mijn oudste kiddo heeft momenteel een GTX750 (meer dan genoeg voor minecraft op 1080p), en op zich zou een 6400 oid al een vrij aardige upgrade zijn. Waar het schuurt is de prijs van het ding, de bang/buck tov een RX6600 slaat gewoon echt nergens op.

Ik heb zelf een tijdje zitten nadenken over een RX6400 om een oude SFF optiplex op te frissen tot linux-gamebakkie, uiteindelijk niet aan toegekomen en de optiplex de deur uitgedaan, maar als die 6400jes nu een €99 waren geweest ipv 140-150, hadden ze er aan mij wel een verkocht.

Moet zeggen dat ik nu vooral benieuwd ben wat de prijzen de komende tijd gaan doen, op zich is een 7700xt/7800xt wel een leuke upgrade, maar voorlopig heb ik even geen trek in 500-600 euro GPUs

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En Starfield krijgt DLSS2.
https://bethesda.net/en/g...support-september-13-2023

Jedi Survivor kreeg een week geleden ook al DLSS2 en DLSS3.
https://www.ea.com/games/...jedi-survivor/patch-notes

Is dat ook weer voorbij...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Tuurlijk niet, want nu is het AMD die daar opdracht voor heeft gegeven om hun imago te redden :+

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 11:38
vectormatic schreef op woensdag 13 september 2023 @ 17:44:
[...]


Mwa, een RX6400 is alsnog 50% sneller dan een 5700g, ...
Uh, 5700G zit rond het niveau van een RX550. De RX 6400 is minimaal 3x zo snel.

Graphene; a material that can do everything, except leave the lab. - Asianometry


  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Denk je? AMD kan alsnog verplicht hebben dat FSR een launch feature moest zijn, ten koste van DLSS :9

March of the Eagles


  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 13:28

vectormatic

Warlock of the doorlock

NitroX infinity schreef op woensdag 13 september 2023 @ 21:47:
[...]

Uh, 5700G zit rond het niveau van een RX550. De RX 6400 is minimaal 3x zo snel.
Ah, mn gevoel zei 2x, maar een snel youtube filmpje met wat benches leverde mij ~50%

Afijn, nog meer voordeel voor de baby radeon dus

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op woensdag 13 september 2023 @ 20:12:
[...]

Tuurlijk niet, want nu is het AMD die daar opdracht voor heeft gegeven om hun imago te redden :+
Weet je, inmiddels wil ik eigenlijk de contra complottheorie gaan poneren. Gewoon omdat het kan en omdat het minstens zo goed onderbouwd is. :>

Dit DLSS gedoe komt gewoon omdat Nvidia faalt om games zoals Jedi Survivor en Starfield te optimaliseren. Dus gaan we maar complotten beginnen om te verklaren waarom het niet gaat goed gaat werken, behalve op AMD. Want stel je voor dat AMD misschien gewoon echt beter is. :z

Het is ook echt niet zo dat de afgelopen maanden een grote win voor AMD Radeon waren vanwege de games. Het lijkt erop dat developers langzaam beginnen uit te vogelen hoe je RT nu wel moet toepassen en het resultaat is dat Nvidia hun RT forse voordeel aardig aan het verdampen is met Ada vs. RDNA3. Verder hebben we heel wat "controversiële" games gehad dit jaar die allemaal "niet geoptimaliseerd" waren. Toch grappig hoe ze allemaal wel fatsoenlijk draaide op recente AMD videokaarten en de problemen bij Nvidia lagen. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 14:51
Je bedoelt het sarcastisch, maar ergens zou het ook gewoon onlogisch zijn wanneer Nvidia een voordeel heeft qua architectuur, terwijl spellen sowieso voor een AMD architectuur dienen te worden geoptimaliseerd. Nvidia heeft gewoon een heel klein marktaandeel wat dat betreft zolang consoles de hoofdmoot uitmaken.

RT is wat dat betreft ook gewoon het nieuwe tesselation. Nvidia games worden er mee volgegooid omdat hun hardware daar qua architectuur een voordeel heeft en het AMD's prestaties in doet laten kakken. Pak je er een game bij die het met mate inzet, zoals Resident RemakEvil 4, blijkt het hele "AMD kan geen RT" allemaal wel mee te vallen.

Maar goed, fanboys gonna fanboy en een beetje relativeringsvermogen is soms wel erg veel gevraagd.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:51
Ik vind het issue niet eens de 'complottheorie' an sich, maar (wederom) de wijze waarop AMD het aangepakt heeft. Als er niets aan de hand is en het allemaal onzin was uit de grote dikke duim was, hadden ze dat heel simpel moeten kunnen ontkrachten op het moment dat ergens in juni dat artikel live kwam. Maar in plaats van met een 'to the point' statement zoals Nvidia hebben ze maanden om de hete brei heen gedraaid met halfslachtige niets zeggende statements, kwamen ze laatst als nog met een iets minder half slachtig statement op o.a. The Verge en komt er nu wel ineens DLSS in Starfield.

Of het nu waar is of niet dat AMD al dan niet contractuele beperkingen had opgelegd aan de dev's, dit hadden ze echt veel beter moeten aanpakken in plaats van het bijna 2.5-3 maand laten door sudderen

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 03-10 12:52
DaniëlWW2 schreef op donderdag 14 september 2023 @ 08:33:
[...]
Verder hebben we heel wat "controversiële" games gehad dit jaar die allemaal "niet geoptimaliseerd" waren. Toch grappig hoe ze allemaal wel fatsoenlijk draaide op recente AMD videokaarten en de problemen bij Nvidia lagen. :z
Draaien ze fatsoenlijk op AMD? Ik heb daar toch een heel andere mening over.
Afbeeldingslocatie: https://tweakers.net/i/KWDR8jk9JQKBYpV4kjmjuWzj9uU=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/98OsWpRcZa0sFq5ggiU4oyEj.png?f=user_large

De 7800xt haalt niet een een consisente 60fps op 1080p en om eerlijk te zijn ziet er ook niet echt indrukwekkend uit. Je hebt eigenlijke een 7900xt of 7900xtx nodig voor 1080p en zelfs dan zijn de framerates niet al te hoog. Volgens mij haalt een 7900xt niet eens overal 60fps op 1080p.

Het is eigenlijk weer een game waar je standaard verwacht wordt om upscaling te gebruiken, zelfs op 1080p voor de meeste kaarten. Zodra dit de standaard is dan ben je eigenlijk beter gesteld met een Nvidia kaart omdat ze daarin voorlopen. In Starfield is het verschil tussen FSR en DLSS behoorlijk groot.

Jedi Survivor loopt ook absoluut niet fatsoenlijk, ongeacht welke hardware je ook hebt. Het stottert constant op alle hardware.

Ik zou sowieso niet te veel focussen op gesponserde games van beide kanten. Was het ook een complot toen Nvidia gesponsorde games 20-30% beter liepen op Nvidia terwijl dit niet het geval was bij neutrale games waardoor er dus toch wel een geurtje aan hing? Nu zijn de rollen gewoon omgedraaid. Wel grappig hoe de argumenten en standpunten nu ook omgedraaid worden.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

napata schreef op donderdag 14 september 2023 @ 11:01:
[...]

Draaien ze fatsoenlijk op AMD? Ik heb daar toch een heel andere mening over.
[Afbeelding]

De 7800xt haalt niet een een consisente 60fps op 1080p en om eerlijk te zijn ziet er ook niet echt indrukwekkend uit. Je hebt eigenlijke een 7900xt of 7900xtx nodig voor 1080p en zelfs dan zijn de framerates niet al te hoog. Volgens mij haalt een 7900xt niet eens overal 60fps op 1080p.

Het is eigenlijk weer een game waar je standaard verwacht wordt om upscaling te gebruiken, zelfs op 1080p voor de meeste kaarten. Zodra dit de standaard is dan ben je eigenlijk beter gesteld met een Nvidia kaart omdat ze daarin voorlopen. In Starfield is het verschil tussen FSR en DLSS behoorlijk groot.

Jedi Survivor loopt ook absoluut niet fatsoenlijk, ongeacht welke hardware je ook hebt. Het stottert constant op alle hardware.

Ik zou sowieso niet te veel focussen op gesponserde games van beide kanten. Was het ook een complot toen Nvidia gesponsorde games 20-30% beter liepen op Nvidia terwijl dit niet het geval was bij neutrale games waardoor er dus toch wel een geurtje aan hing? Nu zijn de rollen gewoon omgedraaid. Wel grappig hoe de argumenten en standpunten nu ook omgedraaid worden.
Ten eerste was er een zekere mate van sarcasme in mijn reactie. En dat was dus precies hierom.

Waarom moet dit toch steeds dat elke keer als ik in dit topic iets zeg, er meteen microanalyse toegepast moet worden in de zoektocht naar een contrair voorbeeld, waarbij de complete essentie van mijn reactie genegeerd word? Het is niet persoonlijk naar jou bedoeld, want je bent niet de enige. Maar dit maakt discussie onmogelijk. :/



Starfield is een Todd Howard game. Natuurlijk ging het relatief aan andere games, voor geen ene meter draaien met vreemde problemen die voornamelijk aan de CPU kant lijken te liggen. Zo gaat het elke keer met Bethesda...
Maar ik vermoed ook dat AMD heel veel werk heeft gestoken om er nog iets van te maken. Er lijken namelijk ook bepaalde settings te zijn die voor gigantische problemen zorgen bij niet AMD videokaarten. Voor wat je kon verwachten, doet AMD het behoorlijk in Starfield.

En zo gaat het steeds de afgelopen maanden. Het hele Hogwarts Legacy drama met de enorme frame drops vanwege 8GB aan VRAM. Een RX6700XT had geen problemen. En dan had je ook nog hoe goed N31 daar presteert op zeker 1080p en 1440p omdat de game behoorlijk zwaar voor je CPU is.

Of Jedi Survivor, net zoals Hogwarts een UE4 game met zo haar nukken qua CPU, waar het drama was met Nvidia, zeker de eerste dagen. Waarom? Nou ik had meteen al door dat het CPU gerelateerd was, zowel frame rates als het gestotter. Ga maar terugzoeken in dit topic hoe snel ik het door had. Er waren/zijn plekken in die game die de main thread overbelasten en dan zakt je GPU utilisatie in en beginnen de problemen. Hoe voorkom of mitigeer je dit? Minder CPU overhead. Je kon er doorheen komen en dat deden AMD videokaarten een stuk beter. Toen er een paar dagen later al een eerste forse patch kwam, was het ook Nvidia die er meer van profiteerde.

Of al die andere "slecht geoptimaliseerde" games die meer dan 8GB aan VRAM vereisen waar de RTX3060Ti/RTX3070/RTRX3070Ti problemen ervaren terwijl de RX6700XT/RX6750XT/RX6800 die problemen niet ervaren.


Waarom mag AMD hier niet het voordeel genieten dat door een combinatie van hardware en goede drivers, ze de problemen niet of minder ervaren? Want dat gebeurd het hele jaar al. We zitten in een duidelijke overgangsfase qua games en vereisten voor games en AMD pakt het steeds beter aan dan Nvidia.

De reden is mij ook allang duidelijk. Het zit voor een aardig deel in lagere driver overhead en meer VRAM capaciteit. AMD houdt hun GPU's beter aan het werk, ook in "uitdagende" scenario's, en behaald daarmee een voordeel. Daar hebben ze jaren aan gewerkt want het was wel eens anders.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
DaniëlWW2 schreef op donderdag 14 september 2023 @ 08:33:
[...]


Weet je, inmiddels wil ik eigenlijk de contra complottheorie gaan poneren. Gewoon omdat het kan en omdat het minstens zo goed onderbouwd is. :>

Dit DLSS gedoe komt gewoon omdat Nvidia faalt om games zoals Jedi Survivor en Starfield te optimaliseren. Dus gaan we maar complotten beginnen om te verklaren waarom het niet gaat goed gaat werken, behalve op AMD. Want stel je voor dat AMD misschien gewoon echt beter is. :z

Het is ook echt niet zo dat de afgelopen maanden een grote win voor AMD Radeon waren vanwege de games. Het lijkt erop dat developers langzaam beginnen uit te vogelen hoe je RT nu wel moet toepassen en het resultaat is dat Nvidia hun RT forse voordeel aardig aan het verdampen is met Ada vs. RDNA3. Verder hebben we heel wat "controversiële" games gehad dit jaar die allemaal "niet geoptimaliseerd" waren. Toch grappig hoe ze allemaal wel fatsoenlijk draaide op recente AMD videokaarten en de problemen bij Nvidia lagen. :z
Is ook wel een beetje gemeen: AMD wist al veel langer dat de Starfield engine een oude Vulkan engine was geport naar DX12, Nvidia en Intel wisten dat niet. AMD steunt wel open source, maar dat betekent niet dat ze kennis gaan delen met concurrenten voor Starfield als game.

Bethesda developers kwamen met hangende pootjes hulp halen bij AMD ingenieurs en toen werd het opeens een "sponsored title". Ik snap ook wel dat AMD dan niet publiek antwoord wil gaan geven op FSR / DLSS, want dan krijgen ze een vervolgvraag: hey welke engine draait Starfield eigenlijk? En precies dàt wilde AMD, begrijpelijk, even lekker voor zichzelf houden.

Het heeft geen ene hoela te maken met Nvidia of Intel resources, maar ik denk wel dat AI GPGPU voorrang krijgt ja. En Nvidia heeft natuurlijk meer last van CPU overhead / een sneller CPU nodig, zeker bij de bagger die Starfield heet. De game staat niet op mijn shortlist.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
napata schreef op donderdag 14 september 2023 @ 11:01:
[...]

Draaien ze fatsoenlijk op AMD? Ik heb daar toch een heel andere mening over.
[Afbeelding]

De 7800xt haalt niet een een consisente 60fps op 1080p en om eerlijk te zijn ziet er ook niet echt indrukwekkend uit. Je hebt eigenlijke een 7900xt of 7900xtx nodig voor 1080p en zelfs dan zijn de framerates niet al te hoog. Volgens mij haalt een 7900xt niet eens overal 60fps op 1080p.

Het is eigenlijk weer een game waar je standaard verwacht wordt om upscaling te gebruiken, zelfs op 1080p voor de meeste kaarten. Zodra dit de standaard is dan ben je eigenlijk beter gesteld met een Nvidia kaart omdat ze daarin voorlopen. In Starfield is het verschil tussen FSR en DLSS behoorlijk groot.

Jedi Survivor loopt ook absoluut niet fatsoenlijk, ongeacht welke hardware je ook hebt. Het stottert constant op alle hardware.

Ik zou sowieso niet te veel focussen op gesponserde games van beide kanten. Was het ook een complot toen Nvidia gesponsorde games 20-30% beter liepen op Nvidia terwijl dit niet het geval was bij neutrale games waardoor er dus toch wel een geurtje aan hing? Nu zijn de rollen gewoon omgedraaid. Wel grappig hoe de argumenten en standpunten nu ook omgedraaid worden.
Hoe serieus denk je dat ik die resultaten ga nemen als je kijkt naar de cpu en het geheugen wat ze gebruiken? Die 7800XT is zwaar gelimiteerd in New Atlantis.

Dat het spel niet geoptimaliseerd is dat was al duidelijk; waarom je met een gpu benchmark express een cpu bottleneck gaat introduceren weet ik niet tenzij het doel was om een gemiddeld systeem te benaderen. In dat geval is de conclussie die je trekt nog steeds onjuist gezien je het specifiek over de gpu en de performance hebt.
Je zal met een beter voorbeeld moeten komen dan wat je hier post; want een 7900XT(X) en alle upscaling in de wereld gaat je hier niet helpen; idem voor een 4090.

  • Cid Highwind
  • Registratie: December 2006
  • Laatst online: 14:51
sunsmountain schreef op donderdag 14 september 2023 @ 12:20:
[...]


Is ook wel een beetje gemeen: AMD wist al veel langer dat de Starfield engine een oude Vulkan engine was geport naar DX12, Nvidia en Intel wisten dat niet. AMD steunt wel open source, maar dat betekent niet dat ze kennis gaan delen met concurrenten voor Starfield als game.

Bethesda developers kwamen met hangende pootjes hulp halen bij AMD ingenieurs en toen werd het opeens een "sponsored title". Ik snap ook wel dat AMD dan niet publiek antwoord wil gaan geven op FSR / DLSS, want dan krijgen ze een vervolgvraag: hey welke engine draait Starfield eigenlijk? En precies dàt wilde AMD, begrijpelijk, even lekker voor zichzelf houden.

Het heeft geen ene hoela te maken met Nvidia of Intel resources, maar ik denk wel dat AI GPGPU voorrang krijgt ja. En Nvidia heeft natuurlijk meer last van CPU overhead / een sneller CPU nodig, zeker bij de bagger die Starfield heet. De game staat niet op mijn shortlist.
Je moet natuurlijk niet vergeten dat de hele handel nog altijd draait op een engine die inherent brak is, dat deze destijds savegames op de PS3 onspeelbaar wist te maken omdat het apparaat gewoon niet meer om kon gaan met alles wat het in de achtergrond in de gaten moest houden:

https://www.shacknews.com...ains-skyrims-ps3-problems
"The way our dynamic stuff and our scripting works, it's obvious it gets in situations where it taxes the PS3," Howard told Kotaku.
Dat Starfied dus wederom sterk CPU afhankelijk is, verbaast me niks. Dat Nvidia daar met z'n drivers de nadelen van ondervindt, evenmin.

Acties:
  • +2 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
Cid Highwind schreef op donderdag 14 september 2023 @ 13:12:
[...]

Je moet natuurlijk niet vergeten dat de hele handel nog altijd draait op een engine die inherent brak is, dat deze destijds savegames op de PS3 onspeelbaar wist te maken omdat het apparaat gewoon niet meer om kon gaan met alles wat het in de achtergrond in de gaten moest houden:

https://www.shacknews.com...ains-skyrims-ps3-problems


[...]

Dat Starfied dus wederom sterk CPU afhankelijk is, verbaast me niks. Dat Nvidia daar met z'n drivers de nadelen van ondervindt, evenmin.
Vergeet ook niet die next-gen water physics, prachtig :+

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 14:01
DaniëlWW2 schreef op donderdag 14 september 2023 @ 12:16:
[...]


Ten eerste was er een zekere mate van sarcasme in mijn reactie. En dat was dus precies hierom.

Waarom moet dit toch steeds dat elke keer als ik in dit topic iets zeg, er meteen microanalyse toegepast moet worden in de zoektocht naar een contrair voorbeeld, waarbij de complete essentie van mijn reactie genegeerd word? Het is niet persoonlijk naar jou bedoeld, want je bent niet de enige. Maar dit maakt discussie onmogelijk. :/



Starfield is een Todd Howard game. Natuurlijk ging het relatief aan andere games, voor geen ene meter draaien met vreemde problemen die voornamelijk aan de CPU kant lijken te liggen. Zo gaat het elke keer met Bethesda...
Maar ik vermoed ook dat AMD heel veel werk heeft gestoken om er nog iets van te maken. Er lijken namelijk ook bepaalde settings te zijn die voor gigantische problemen zorgen bij niet AMD videokaarten. Voor wat je kon verwachten, doet AMD het behoorlijk in Starfield.

En zo gaat het steeds de afgelopen maanden. Het hele Hogwarts Legacy drama met de enorme frame drops vanwege 8GB aan VRAM. Een RX6700XT had geen problemen. En dan had je ook nog hoe goed N31 daar presteert op zeker 1080p en 1440p omdat de game behoorlijk zwaar voor je CPU is.

Of Jedi Survivor, net zoals Hogwarts een UE4 game met zo haar nukken qua CPU, waar het drama was met Nvidia, zeker de eerste dagen. Waarom? Nou ik had meteen al door dat het CPU gerelateerd was, zowel frame rates als het gestotter. Ga maar terugzoeken in dit topic hoe snel ik het door had. Er waren/zijn plekken in die game die de main thread overbelasten en dan zakt je GPU utilisatie in en beginnen de problemen. Hoe voorkom of mitigeer je dit? Minder CPU overhead. Je kon er doorheen komen en dat deden AMD videokaarten een stuk beter. Toen er een paar dagen later al een eerste forse patch kwam, was het ook Nvidia die er meer van profiteerde.

Of al die andere "slecht geoptimaliseerde" games die meer dan 8GB aan VRAM vereisen waar de RTX3060Ti/RTX3070/RTRX3070Ti problemen ervaren terwijl de RX6700XT/RX6750XT/RX6800 die problemen niet ervaren.


Waarom mag AMD hier niet het voordeel genieten dat door een combinatie van hardware en goede drivers, ze de problemen niet of minder ervaren? Want dat gebeurd het hele jaar al. We zitten in een duidelijke overgangsfase qua games en vereisten voor games en AMD pakt het steeds beter aan dan Nvidia.

De reden is mij ook allang duidelijk. Het zit voor een aardig deel in lagere driver overhead en meer VRAM capaciteit. AMD houdt hun GPU's beter aan het werk, ook in "uitdagende" scenario's, en behaald daarmee een voordeel. Daar hebben ze jaren aan gewerkt want het was wel eens anders.
Ja, Nvidia heeft altijd nadeel gehad met hun drivers, dat zie je ook in Starfield op lage resoluties. Maar op 4k, max settings, zonder upscaling en met een high end cpu lijkt Starfield niet meer cpu limited en dan zie je toch dat een 4090 niet een 7900XTX kan verslaan. Dat is met andere games anders. Het is best wel aanneembaar dat er optimalisaties in Starfield zitten die gunstiger uitvallen voor AMD kaarten aangezien Bethesda al had aangegeven dat ze hulp hadden van AMD engineers. Maar hier hoeft helemaal niet meteen een complottheorie achter te zitten. Die AMD engineers kennen de architectuur achter hun kaarten het beste en dan is vanzelfsprekend dat de meeste optimalisaties die ze vinden in het voordeel van AMD kaarten vallen. Ook ga ik vanuit dat AMD ze gesponsord heeft met kaarten waardoor veel developer machines een AMD kaart hebben, ook met het oog dat het spel op een console moet draaien.

Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Die engine is echt op zijn laatste beentjes :+ . Ze zijn serieus beter af om iets zoals Unreal Engine te pakken en daar extra tooling voor te schrijven en daar hun volgende spel in te bouwen. Volgens mij was er ook nog een opensource fork van Lumberyard variant van CryEngine genaamd Open 3D. Godot en Unity zou ik niet pakken voor wat Bethesda van plan is.
Die problemen met volgorde van alpha textures is echt een probleem uit het tijdperk 2000-2010; het is niet meer van deze tijd dat dat zo fout gaat.
Skyrim had het laatste spel op die engine moeten zijn imho.

[ Voor 10% gewijzigd door Sp3ci3s8472 op 14-09-2023 14:01 ]


  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 11:38
@Sp3ci3s8472 Gezien Bethesda eigenaar is van ID Software, lijkt het me waarschijnlijker dat ze de IDTech engine zouden gebruiken ;)

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • +7 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Ik geloof dat iedereen hier een beetje vergeten is dat de theoretische FP32 performance van Ampère, Ada en RDNA3 bullshit zijn.

De 82/61/40 TF van een 4090/7900 XTX/3090 Ti zijn eigenlijk 41/30,5/20 en dan kán er nog iets meer uit komen, mits de workload dat toe laat. Omdat deze engine een heel erg traditionele raster engine is, is dat niet het geval. De reden dat Nvidia hier in verhouding dus niet lekker loopt ligt vooral aan het feit dat hun producten zo'n extreem luie ontwerpen zijn. Ze hebben hun GPU's bizar breed gemaakt, hebben sowieso al moeite met dat aan te sturen en dan krijg je zo'n game als dit, die heel ouderwets rendert en maar heel weinig compute heeft. De engine is zeker verouderd, maar het pijnpunt is juist dat hij daardoor laat zien dat Nvidia simpelweg niet al te goed meer is in traditionele raster workloads. Zie je ook in de synthetische pure render benchmarks (Time Spy bijvoorbeeld), Nvidia is daar niet zo veel sneller dan AMD als de theoretische cijfers suggereren. Sterker nog, een 7900 XT of 4080 is daar maar 10-12% sneller dan een 6950 XT...wat maar net iets meer is dan de "enkele" (d.w.z zonder dual-issue) theoretische FP32 performance is.

Zowel Nvidia als AMD (en ook Intel) weten gewoon niet meer hoe ze sneller kunnen renderen. AMD weet dat breder maken geen nut heeft en heeft daarom hun dual-issue gemaakt. Op het oog hetzelfde als Nvidia met Ampère deed, echter is AMD's architectuur van nature flexibeler en kan het iets vaker ingezet worden. Ze winnen er in dit spel pakweg 20% performance mee (de rest komt puur uit meer ALU's + kloksnelheid), maar dat is het dan ook.

En vandaar ook alle nieuwe onzin zoals DLSS, FSR en XeSS. "We weten niet meer hoe het sneller kan dus dan faken we het maar".

Geen van de drie kan hun RT implementatie loskoppelen van de rest van de rekeneenheden (zelfde geldt voor de Tensor/XMX cores - die hangen allemaal aan dezelfde caches, LD/ST units, enzovoort; en de ALU's zelf zijn ook nodig voor delen van vooral het RT proces), maar dat is wel wat ze nodig hebben. Ik durf m'n hand er best voor in het vuur te steken dat een 72-brede Pascal/Turing (een 2080 Ti dus) op de huidige kloksnelheden met 512/128 onafhankelijke T/RT cores een stuk dichter op de 4090 zou zitten dan velen zouden verwachten. De enige reden dat Ada zo bizar breed is, is omdat ze meer T/RT cores willen. Niet voor de raster performance.

Ik reken dus ook niet op iets boeiends in GPU land de komende jaren, tenzij:
- 1 van de 3 een radicaal andere architectuur ontwerpt waarbij vooral RT (maar ook matrix rekenwerk) losgekoppeld is van de reguliere FP/INT ALU's en workflow er omheen...niet dus, want Intel is pas net begonnen, AMD is bezig met RDNA4 (wat geen radicale verandering suggereert) en Nvidia...nou ja, zij zijn Nvidia en hebben al sinds Maxwell niets radicaals gedaan.
- Alle engines primair RT worden en dat een basis vereiste wordt...niet dus, want de hardware is er nog lang niet snel genoeg voor - laat staan dat genoeg gamers er toegang toe zullen hebben
- Er een gigantische sprong wordt gemaakt bij het bakken waardoor alles bizar veel kleiner kan, kloksnelheden ineens kunnen verdubbelen, iets in die trant

Ironisch genoeg waren wij als consument veel beter af geweest met een losse insteekkaart voor RT, want dan was dat niet zo gekoppeld aan de rest van de chips.

Acties:
  • +3 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 14:01
Sp3ci3s8472 schreef op donderdag 14 september 2023 @ 13:58:
[...]


Die engine is echt op zijn laatste beentjes :+ . Ze zijn serieus beter af om iets zoals Unreal Engine te pakken en daar extra tooling voor te schrijven en daar hun volgende spel in te bouwen. Volgens mij was er ook nog een opensource fork van Lumberyard variant van CryEngine genaamd Open 3D. Godot en Unity zou ik niet pakken voor wat Bethesda van plan is.
Die problemen met volgorde van alpha textures is echt een probleem uit het tijdperk 2000-2010; het is niet meer van deze tijd dat dat zo fout gaat.
Skyrim had het laatste spel op die engine moeten zijn imho.
Deze take zie ik veel de laatste tijd en zo werkt het niet. Veel van de fouten in dat filmpje zou je zelfs in Unreal of Unity ook hebben als je er geen aandacht aan besteedt, ook met sorteren van alpha textures. Ook is het idee dat een engine veroudert kan worden een beetje een mythe. Elke iteratie worden gewoon sommige systemen van de engine herschreven, je hoeft tegenwoordig echt niet je hele engine te herschrijven (UE 5 deelt ook veel code met UE4 en zelfs nog 3, en in Unity herschrijven ze een feature maar behouden ze de oude en heb je nu 3 rendering pipelines om uit te kiezen). In deze iteratie was het duidelijk veel aandacht besteedt aan PBR-materials, atmospheric scattering, GI en motion blur. Maar lijkt er weinig aandacht besteedt te zijn aan hun scripting engine en dialoog/quest systeem.
Ook is het niet even switchen van engine door je tooling te herschrijven. Veel gameplay systemen moeten dan ook herschreven worden. Enige reden om van engine te switchen is als je niet genoeg technische personeel hebt om een engine te onderhouden maar dat is moeilijk te schatten of dat zo is bij Bethesda als buitenstander. Ook gaat het switchen van engine meestal gepaard met ontslagen omdat je ineens personeel nodig hebt met een andere skillset, iets wat CD Project RED nu heeft meegemaakt met de switch naar UE5.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
NitroX infinity schreef op donderdag 14 september 2023 @ 14:30:
@Sp3ci3s8472 Gezien Bethesda eigenaar is van ID Software, lijkt het me waarschijnlijker dat ze de IDTech engine zouden gebruiken ;)
Ja, die was ik eigenlijk een beetje vergeten en heb die waarschijnlijk onbewust weggelaten omdat het waarschijnlijk verouderde feit dat die engine vooral erg goed was op een kleinere schaal.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
PjotrX schreef op donderdag 14 september 2023 @ 14:59:
[...]


Deze take zie ik veel de laatste tijd en zo werkt het niet. Veel van de fouten in dat filmpje zou je zelfs in Unreal of Unity ook hebben als je er geen aandacht aan besteedt, ook met sorteren van alpha textures. Ook is het idee dat een engine veroudert kan worden een beetje een mythe. Elke iteratie worden gewoon sommige systemen van de engine herschreven, je hoeft tegenwoordig echt niet je hele engine te herschrijven (UE 5 deelt ook veel code met UE4 en zelfs nog 3, en in Unity herschrijven ze een feature maar behouden ze de oude en heb je nu 3 rendering pipelines om uit te kiezen). In deze iteratie was het duidelijk veel aandacht besteedt aan PBR-materials, atmospheric scattering, GI en motion blur. Maar lijkt er weinig aandacht besteedt te zijn aan hun scripting engine en dialoog/quest systeem.
Ook is het niet even switchen van engine door je tooling te herschrijven. Veel gameplay systemen moeten dan ook herschreven worden. Enige reden om van engine te switchen is als je niet genoeg technische personeel hebt om een engine te onderhouden maar dat is moeilijk te schatten of dat zo is bij Bethesda als buitenstander. Ook gaat het switchen van engine meestal gepaard met ontslagen omdat je ineens personeel nodig hebt met een andere skillset, iets wat CD Project RED nu heeft meegemaakt met de switch naar UE5.
Het is inderdaad een stuk genuanceerder; vanuit een software perspectief is soms iets opnieuw doen een stuk sneller te realiseren dan iets wat oud is te refactoren.

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 14:37
napata schreef op donderdag 14 september 2023 @ 11:01:
[...]

Draaien ze fatsoenlijk op AMD? Ik heb daar toch een heel andere mening over.
[Afbeelding]

De 7800xt haalt niet een een consisente 60fps op 1080p en om eerlijk te zijn ziet er ook niet echt indrukwekkend uit. Je hebt eigenlijke een 7900xt of 7900xtx nodig voor 1080p en zelfs dan zijn de framerates niet al te hoog. Volgens mij haalt een 7900xt niet eens overal 60fps op 1080p.

Het is eigenlijk weer een game waar je standaard verwacht wordt om upscaling te gebruiken, zelfs op 1080p voor de meeste kaarten. Zodra dit de standaard is dan ben je eigenlijk beter gesteld met een Nvidia kaart omdat ze daarin voorlopen. In Starfield is het verschil tussen FSR en DLSS behoorlijk groot.

Jedi Survivor loopt ook absoluut niet fatsoenlijk, ongeacht welke hardware je ook hebt. Het stottert constant op alle hardware.

Ik zou sowieso niet te veel focussen op gesponserde games van beide kanten. Was het ook een complot toen Nvidia gesponsorde games 20-30% beter liepen op Nvidia terwijl dit niet het geval was bij neutrale games waardoor er dus toch wel een geurtje aan hing? Nu zijn de rollen gewoon omgedraaid. Wel grappig hoe de argumenten en standpunten nu ook omgedraaid worden.
Fatsoenlijk is bij dit spel ook een beetje relatief. Het draait slecht in het algemeen, waarbij het sterk lijkt af te hangen van zowel de CPU als het werkgeheugen, hoe groot de bottleneck is.
Zodra je met bovenstaande config een 4070ti erbij had gepakt dan zou deze gelijk of slechter presteren.
In die zin draait een AMD kaart 'goed' omdat de 4070ti in het algemeen zo'n 20% sneller is.

Kijk maar eens bij een goede vergelijking zoals ze bij Computerbase gedaan hebben. Met een 7800X3D en DDR5 geheugen op 6000MHz, EXPO timings. Gemaakt in New Atlantis met preset op Hoog i.p.v Ultra.
Dat laatste maakt voor de relatieve verhouding niet zoveel uit.
Hiermee is het wel gewoon speelbaar en dat zakt verhoudingsgewijs niet veel in op 1440p (ca. -20% fps terwijl de resolutie 1.78x zo hoog is van 1080p naar 1440p).

https://www.computerbase...._wqhd_und_ultra_hd_update

Afbeeldingslocatie: https://tweakers.net/i/cflX-9NPys_U3ggh6nP5J1LzfT8=/x800/filters:strip_exif()/f/image/hMqKOcVSS9nQplL831qO5F4K.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/rEPlAyLdsVO0QrCuzeBbsg9z8as=/x800/filters:strip_exif()/f/image/UeOgR8O0vCymalnZmFHpcQdn.png?f=fotoalbum_large

Opvallend daarbij is wel deze opmerking:
AMD-Grafikkarten rennen in Full HD in ein Limit und können ihre Rechenleistung nicht voll ausfahren. Auch Nvidia-Grafikkarten geraten darein, aber erst ein wenig später als die Radeons. Das hat zur Folge, dass 1.920 × 1.080 die einzige Auflösung ist, wo GeForce-Grafikkarten vergleichbar schnell mit den Radeons sein können. Ab 2.560 × 1.440 können dann auch AMD-GPUs frei ausfahren, einzig die Radeon RX 7900 XTX wird noch geringfügig ausgebremst.
De opmerking gaat over dat op 1080p de utilisatie van de GPU niet volledig is en juist bij AMD kaarten de beperking eerder optreed dan bij Nvidia kaarten.
Met als gevolg dat 1080p de enige resolutie is, waarbij de concurrerende modellen even snel kunnen zijn.
Vanaf 1440p wordt alleen nog de 7900XTX matig geremd.

Of er sprake is van een mainthread bottleneck wordt verder niet gerept, maar dit zou ook beschouwt kunnen worden dat de optimalisatie (als daar überhaupt sprake van is) voor Nvidia kaarten gewoon slechter is of dat Nvidia hardware simpelweg minder geschikt is.

Op https://www.pcgamer.com/n...eld-performance-for-many/
is er een nieuwsbericht verschenen die aangeeft dat de 537.34 driver voor ca. 5% verbetering beloofd met Starfield. Naar verluid heeft dat de maken met aanpassing van de REBAR 'profiel' en zitten er verder 'optimal' game setting tweaks in.

Ben er verder wel mee eens dat het niet zo spannend is om dingen achter sponsered titles te gaan zoeken.
Het zou naïef zijn om te denken dat er geen belangenverstrengeling is. Dat kan ook zonder opzet zijn vanwege het beschikbaar maken van hardware bijvoorbeeld. En dat knelpunten daarmee automatisch al vroeg in het ontwikkelingsstadium opgelost worden.
RT daarentegen is wel een geval apart, omdat de aanpak van Nvidia en AMD daarin zoveel verschilt en er dus eigenlijk aparte optimalisatie nodig is.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

PjotrX schreef op donderdag 14 september 2023 @ 13:33:
[...]


Ja, Nvidia heeft altijd nadeel gehad met hun drivers, dat zie je ook in Starfield op lage resoluties. Maar op 4k, max settings, zonder upscaling en met een high end cpu lijkt Starfield niet meer cpu limited en dan zie je toch dat een 4090 niet een 7900XTX kan verslaan. Dat is met andere games anders. Het is best wel aanneembaar dat er optimalisaties in Starfield zitten die gunstiger uitvallen voor AMD kaarten aangezien Bethesda al had aangegeven dat ze hulp hadden van AMD engineers. Maar hier hoeft helemaal niet meteen een complottheorie achter te zitten. Die AMD engineers kennen de architectuur achter hun kaarten het beste en dan is vanzelfsprekend dat de meeste optimalisaties die ze vinden in het voordeel van AMD kaarten vallen. Ook ga ik vanuit dat AMD ze gesponsord heeft met kaarten waardoor veel developer machines een AMD kaart hebben, ook met het oog dat het spel op een console moet draaien.
Volgens mij had Nvidia een voordeel met hun drivers met Maxwell en Pascal. :P
Maar ik vermoed eerder dat Nvidia hun inmiddels steeds verouderende architectuur ze aan het opbreken is. Die extreem brede GPU's van hun, krijgen ze gewoon niet aan het werk. Ik heb nu zo vaak gezegd dat de RTX4090 met 68% meer SM's zit en gemiddeld iets van 30% sneller is op 4K, wat op 1440p al gereduceerd wordt naar 15%, dat ik de waarden allang niet meer hoef op te zoeken.

En gezien dat de RX7900XTX eigenlijk maar 6144 ALU's "echte" heeft die zowel FP als INT doen, is de vergelijking met de RTX4080 haar 9728 FP + 4864 INT ALU's ook niet zo best. In MW2 werken die andere 6144 ALU's van de RX7900XTX duidelijk wel, maar het levert 20% op. In Cyberpunk lijkt er ook wel een anders moeilijk verklaarbare 10% erbij te komen en zo zijn er nog een paar games waar ze wel iets doen. Maar over de hele linie reken ik ze niet echt mee.

Ik vermoed dan ook meer dat AMD hun "driver overhead" op twee manieren geïnterpreteerd moet worden.
1) Daadwerkelijk lagere driver overhead omdat ze meer zaken met fixed function hardware op de GPU doen.
2) Veel betere shader program decoding en compiling in wave32 of wave 64, waardoor er een fors hogere occupency behaald word. :)


Ook voor @Werelds. Ik denk dat je niet eens de RT units los hoeft te halen om dat voorbeeld te bereiken. De RTX4080 heeft 76SM's en komt eigenlijk al dichtbij in alles dat geen Cyberpunk path tracing is. Alleen daar is de RTX4090 opeens wel behoorlijk richting de 60% sneller. Ik zou eigenlijk niet verbaast zijn als je met diezelfde 76SM's en een 384 bit bus, helemaal dichtbij zou komen.

Verder weet ik eigenlijk niet of de RT lostrekken ook (altijd) beter zou werken. Want als je dat doet, dan moet je binnen de GPU, waarschijnlijk met gigantische hoeveelheden data gaan slepen. Iets dat ook veel energie zal kosten. Ook vermoed ik dat je dan tweemaal de caches etc moet hebben om die data lokaal op te kunnen slaan. Intel is hierin tot dusver het verste gegaan en het resultaat is dat Alchemist enorme GPU's zijn.

Daarin zou denk ik juist een complexe MCM GPU misschien wel de oplossing kunnen zijn. Als je logic en high level caches los kan trekken, dan zou je misschien wel aparte rekenclusters kunnen maken die respectievelijk rasterisation of RT doen. Neem bijvoorbeeld wat waarschijnlijk N41 is. Ik zie hierin in theorie de mogelijkheden dat je de data verkregen na rasterisation in L3 caches stopt die in de active interposer zitten en dan relatief snel die data bij dedicated RT units zou kunnen krijgen die BvH, ray cast en denoising zelf doen met dedicated fixed function hardware. Helaas lijkt dit ding toch wel geannuleerd te zijn. Maar de mogelijkheden voor RDNA5 zitten al even in mijn achterhoofd. :)

Afbeeldingslocatie: https://cdn.videocardz.com/1/2023/08/AMD-NAVI-4C-HERO.jpg


Verder weet ik ook niet in hoeverre het met Starfield komt omdat AMD "de puinzooi op het laatste moment is komen fixen". Dat kan natuurlijk zeker, we hebben het hier over Bethesda. Maar zelfs als AMD hele shaders is gaan herschrijven, tja ik vermoed dat Starfield niet bepaald veel INT ops doet en voornamelijk FP32. Als AMD het een beetje zou optimaliseren, tja AMD gebruikt inmiddels ook SIMD32 zoals Nvidia. Ik ben niet bepaald een graphics engineer, verre van, maar van wat ik ervan begrijp, zou dergelijke optimalisatie van shaders door AMD, waarschijnlijk net zo goed werken bij Nvidia. AMD is niet voor niks juist overgegaan op SIMD32 zoals Nvidia met Maxwell perfectioneerde. Ik merkte het ook toen ik jaren geleden van een RX Vega 56 naar een RX5700XT ging. Opeens waren er oudere games die zoveel beter draaide. Dat was echt niet omdat AMD opeens specifieke RDNA drivers was gaan schrijven voor 5+ jaar oude games. Nee, RDNA lift lekker mee op games die goed werkte met Maxwell/Pascal en minder met GCN. :)

Laatste is dat ik zeker geen complottheorieën wil formuleren. Ik stak er juist de draak mee dat alles tegenwoordig een complot is. ;)


Weet je, ik ben wat lichtelijk bevoordeeld naar AMD omdat ik ondanks de eindeloze serie aan verwijten, beschuldigingen, zinloze statements, getroll etc naar zowel Radeon als mijzelf, gewoon al 14 jaar een erg tevreden Radeon gebruiker ben.

Maar wat ik nu zie vind ik ook zo interessant. Want vanaf het begin in 2019 had ik al de sterke vermoedens dat RDNA eigenlijk een betere architectuur was met meer potentie dan Turing. En door de jaren heen word dat eigenlijk alleen maar sterker omdat AMD, RDNA ook blijft ontwikkelen. RDNA3 was daarin helaas een teleurstelling qua rasterisation verbeteringen, maar ze hebben andere zaken wel fors aangepakt en een fundament gelegd om verder mee te gaan. Dingen zoals dat RDNA3 nu ook haar eigen matrix functionaliteiten heeft die vermoedelijk zaken zoals Anti Lag+ en Fluid Motion Frames via een driver toggle in staat moet stellen. Ik zit ook nog steeds te wachten op de volgende grote FSR2 versie die deze RDNA3 hardware gaat gebruiken voor een kwaliteitssprong. Het zit er namelijk in qua hardware.

Maar wat er nu ook speelt is dat ik zie dat RDNA, zeker RDNA2/3, vrij robuust zijn tegen verschillende scenario's in games. Het lijkt niet heel veel uit te maken wat voor game het is, ze presteren in de regel wel. Daarbij zijn ze ook minder afhankelijk van de ultieme gaming CPU, specifieke game optimalisaties etc. En bepaalde hardware configuraties blijken ook erg goed doordacht te zijn, in het bijzonder N21 en N22. De combinatie van dit alles, lijkt toch langzaam maar zeker, weer Radeon terug in de spotlight te krijgen als een waardig alternatief voor Nvidia die het laat liggen. Dat vind ik gewoon een interessante ontwikkeling. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
@DaniëlWW2 dat is juist wat ik bedoel met een radicaal andere architectuur :)

Het grote probleem met RT is dat ze alle 3 (AMD/Nvidia/Intel) hun FP/INT ALU's nodig hebben om RT te doen. Is ook logisch, want uiteindelijk is een groot deel van RT heel simpel rekenwerk. Om echter tot dat punt te komen, moet je een hele hoop uitvogelen dat wél ingewikkeld is en niet zomaar op de simpele ALU's kan. Geheugen even negerend, heb je aan de ene kant een "normale" GPU nodig (d.w.z. een programmeerbare array zoals de SM's/WGP's nu) en aan de andere kant een "RT" GPU die ook wel wat FP en INT ALU's bevat, maar die niet op dezelfde manier aan te sturen hoeven te zijn. Daar tussenin heb je dan een berg low-latency cache nodig, want ze werken wel allebei deels met dezelfde data en er moeten ook resultaten over en weer kunnen.

Dat is waarom het voor ons als consument ironisch genoeg beter geweest zou zijn als we een AGEIA voor RT hadden gehad. Wat wellicht nog ironischer is, is dat we langzaamaan terug gaan naar fixed pipelines; zo extreem als vroeger is het niet, maar de pipelines zijn lang niet zo vrij meer als ze waren (in hardware). Vooral Nvidia is behoorlijk star, het feit dat ze maar zo weinig per klokcycle aan kunnen sturen maakt dat hun chips ook veel stil liggen (pakt vooralsnog in hun voordeel uit, want dat is waar hun efficiëntie vandaan komt).

Als ik zou moeten kiezen, is het wel AMD die het dichtst bij zo'n ontwerp kan komen vanuit hun bestaande architectuur. Het is echter de aansturing waar je te veel latency zou krijgen als je het allemaal in aparte chiplets zou stoppen. Het geheugen is denk ik wel op te lossen; een combinatie van IC en een fan-out naar meerdere L2$ zou wellicht al kunnen werken. Alleen niet erg efficiënt.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
Werelds schreef op donderdag 14 september 2023 @ 14:39:
Ik geloof dat iedereen hier een beetje vergeten is dat de theoretische FP32 performance van Ampère, Ada en RDNA3 bullshit zijn.

...

Zowel Nvidia als AMD (en ook Intel) weten gewoon niet meer hoe ze sneller kunnen renderen. AMD weet dat breder maken geen nut heeft en heeft daarom hun dual-issue gemaakt. Op het oog hetzelfde als Nvidia met Ampère deed, echter is AMD's architectuur van nature flexibeler en kan het iets vaker ingezet worden. Ze winnen er in dit spel pakweg 20% performance mee (de rest komt puur uit meer ALU's + kloksnelheid), maar dat is het dan ook.
Ik weet niet of die 20% komt door dual-issue, of gewoon doordat de AMD driver al veel langer weet dat voor deze game veel van de versnelling van nieuwere engines niet nodig is. Waarmee ik bedoel: de Radeon driver draait voor Starfield in een soort geoptimaliseerde legacy mode.

Met een recente fix pakte de Nvidia driver +7%, maar zij hebben geen dual-issue, althans niet op die manier. Ik denk dat de verbeteringen bij de Nvidia driver ook gewoon de nieuwere features op hardware niveau uitzetten, waardoor de rest van de hardware mogelijk sneller kan werken / niet hoeft te wachten.
Werelds schreef op donderdag 14 september 2023 @ 14:39:
- 1 van de 3 een radicaal andere architectuur ontwerpt waarbij vooral RT (maar ook matrix rekenwerk) losgekoppeld is van de reguliere FP/INT ALU's en workflow er omheen...niet dus, want Intel is pas net begonnen, AMD is bezig met RDNA4 (wat geen radicale verandering suggereert) en Nvidia...nou ja, zij zijn Nvidia en hebben al sinds Maxwell niets radicaals gedaan.
Het is wel een beetje dubbel wat je vraagt: geef ons vernieuwing, maar geef ons ook nuttige FP32 performance die voor games geschikt is, niet voor compute.

Dat eerste probeert Nvidia met RTX 2000+ cores, ook al doen ze geen ene hoepla voor de SM structuur en geheugen management. AMD verbetert hier wel radicaal in met RDNA1, maar heeft/wil dan weer geen denoising units. Van Intel kunnen we sowieso niet teveel verwachten, maar hebben toch best aardige ray tracing performance neergezet met Alchemist, ook al is het nog geen path tracing.

Dat laatste bereik je natuurlijk alleen maar door niet te innoveren en meer van hetzelfde toe te voegen, puur voor gamers. Gewoon meer RDNA1/Turing cores, niks toevoegen voor Ray Tracing, niks toevoegen voor Compute (ondanks de grote vraag naar Compute). Dan heb je steeds betere legacy performance. Maar daar kom je ook niet echt verder mee.

Een aparte insteekkaart zou niet zo slim zijn, maar een aparte RT chip misschien wel, ik denk uitsluitend als het gaat over:
  • Het versnellen en automatisch genereren van de BVH, en
  • De secondary/tertiary rays beter bij elkaar houden met een coherency engine.
Als je kijkt naar wat Imagination produceert:
YouTube: IMG DXT GPU: Introducing IMG DXT

Dan is dat ook gewoon een oplossing binnen een GPU:
https://resources.imagina...g-dxt-gpu-overview-en.pdf

Uit hun whitepaper:
IMG DXT Features
Fragment Shading Rate (FSR) for Vulkan®
Offering support for Fragment Shading Rate (FSR) for Vulkan, IMG DXT frees up performance headroom for developers. FSR decreases the number of fragments processed and significantly increases graphics performance with minimal impact on visual quality. Watch our demo which shows how FSR and ray tracing combine to great effect.
2D Dual-Rate Texturing
The DXT has an innovative patented special mode inside its texture processing unit (TPU) that creates a “fast path” for post-processing effects. The result is a near doubling of bilinear filtering performance with minimal area growth and an overall reduction in power consumption.
Improved texture and compute performance
The DXT features a new shader processing unit (SPU) design. The DXT GPU delivers 50% more top end compute and texture (ALU/TPU) performance per SPU, thanks to a new triple SPU design (3x ALU/TPU units), where previous architectures focussed only on a dual SPU design (2x ALU/TPU units).
Pipelined Data Masters
Adding pipelining, the data masters can now start creating the workloads for the next 3D scene, while the current scene is being rendered, without gaps. Enabling workload generation while boosting performance and increasing power efficiency.
ALU register bank performance has doubled
Improvements to the Unified Store have increased the throughput of the ALU register banks. IMG DXT has twice as many register banks as the previous generation.

Dus het basis-rekenwerk voor Ray Tracing kan je ook volgens hen, een RT gespecialiseerde partij, toch het beste doen in een GPU met ALU's en verbeterde texture units. Sorry maar dat is precies wat Nvidia, AMD en Intel aan het doen zijn.

Ik hoop nog steeds dat Xilinx AMD gaat helpen met dit gedeelte, een extra dedicated chip op Radeon kaarten, die dit kan:
  • Het versnellen en automatisch genereren van de BVH, en
  • De secondary/tertiary rays beter bij elkaar houden met een coherency engine.
want daarmee bereik je Level 4 of zelfs Level 5 in Ray Tracing. Hoe je dan vervolgens de administratie doet van primary rays in shaders -> secondary/tertiary rays in een aparte RT chip, dat is me nog een raadsel, misschien oplossen met een RT chiplet?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
sunsmountain schreef op vrijdag 15 september 2023 @ 11:14:
Ik weet niet of die 20% komt door dual-issue, of gewoon doordat de AMD driver al veel langer weet dat voor deze game veel van de versnelling van nieuwere engines niet nodig is. Waarmee ik bedoel: de Radeon driver draait voor Starfield in een soort geoptimaliseerde legacy mode.
Met die 20% doelde ik op het verschil ten opzichte van Navi 21 (genormaliseerd naar FP32 performance), dus nee, dat is geen driver ding :)
Met een recente fix pakte de Nvidia driver +7%, maar zij hebben geen dual-issue, althans niet op die manier. Ik denk dat de verbeteringen bij de Nvidia driver ook gewoon de nieuwere features op hardware niveau uitzetten, waardoor de rest van de hardware mogelijk sneller kan werken / niet hoeft te wachten.
Nvidia's winst komt vast ook door hun vorm van dual-issue; ze hebben in die driver simpelweg wat specifieke workloads opgevangen en anders gegroepeerd zodat ze een paar SM's INT-vrij houden en die dus dubbel FP32 kunnen doen.

Welke nieuwe features denk jij dat de GPU's hebben die de engine dwars zouden zitten - die Nvidia dan ook nog eens uit zou zetten? Los van RT en matrix werk, zijn GPU's niet fundamenteel veranderd sinds ~2006. Wat deze engine doet is wat andere engines ook doen, verschil is alleen dat deze bijna een 100% homogene raster render workload heeft. Toen de eerste iteratie van deze engine gemaakt werd hadden GPU's ook al alles wat we nu hebben, met uitzondering van RT en matrix units. En de engine is sindsdien gewoon geüpdated. Nee, hij is niet hypermodern met RT, maar het is ook niet de engine van toen :)
Het is wel een beetje dubbel wat je vraagt: geef ons vernieuwing, maar geef ons ook nuttige FP32 performance die voor games geschikt is, niet voor compute.
Nee hoor, dat is helemaal niet wat ik zeg of vraag.

Ze hebben overduidelijk een limiet bereikt met de breedte van de GPU's voor raster render werk. Breder maken werkt niet, omdat ze de workloads dan niet goed genoeg kunnen schedulen met goede bezetting. Met andere woorden, Nvidia' 128 SM's in AD102 zijn er een stuk of 50 te veel. Met hogere kloksnelheden kun je met veel minder units al soortgelijke resultaten bereiken. Zie hun eigen kleinere GPU's, vorige generatie GPU's of AMD's GPU's. De sweet spot lijkt ~5k-6k in clusters van 64 of 128 te zijn. Tegelijkertijd moet het RT gedeelte wél breder, omdat we daar nog lang niet genoeg parallelisme hebben om de workloads te behapstukken. Maar omdat die units bij allen in hun shader clusters zitten, heb je een kip-en-ei probleem.
Dat laatste bereik je natuurlijk alleen maar door niet te innoveren en meer van hetzelfde toe te voegen, puur voor gamers. Gewoon meer RDNA1/Turing cores, niks toevoegen voor Ray Tracing, niks toevoegen voor Compute (ondanks de grote vraag naar Compute). Dan heb je steeds betere legacy performance. Maar daar kom je ook niet echt verder mee.
Nee, niet dus. Wat jij beschrijft is meer clusters, of dikkere clusters. En geen van beide gaat werken, omdat de workloads simpelweg niet te verdelen zijn in aantallen die daarop passen.
Dus het basis-rekenwerk voor Ray Tracing kan je ook volgens hen, een RT gespecialiseerde partij, toch het beste doen in een GPU met ALU's en verbeterde texture units. Sorry maar dat is precies wat Nvidia, AMD en Intel aan het doen zijn.
Waar je het vandaan haalt dat IT gespecialiseerd is in RT weet ik niet :p

Ze waren er wel al iets eerder mee bezig, maar IT is een low-power expert. Ze hebben in theorie zeker wel een streepje voor qua RT, maar hun ontwikkelingen zijn ook vooral op efficiëntie gericht, niet op performance op grote schaal. En het is allemaal in theorie, want ze hebben vooral een grote bek. Buiten mobiele SoC's krijgen ze hun IP nog steeds niet echt verkocht. Apple komt er het dichtste bij (is nog steeds IT IP) en dan is een M2 Pro met 6,8 TFLOPS toch echt niet vergelijkbaar met een 3050 of 3060 zoals dat cijfer zou doen vermoeden. De enige hint die we de afgelopen jaren hebben gehad met betrekking tot een desktop-klasse GPU kwam uit China (Innosilicon Fantasy One Type A + B) en daar is het alweer 2 jaar heel erg stil over. Een fantasie dus ;)

Wat de vergelijking betreft: IT heeft ten eerste méér hardware voor RT dan de andere 3. Zij doen hiërarchie in hardware (zit ook in hun RT unit) - en dat hangt rechtstreeks aan het geheugen, ze gebruiken hun ALU's veel minder. In beide gevallen gaat dat vervolgens weer van het geheugen naar de RT unit, waar de box/triangle tests uitgevoerd worden en bij een hit kom je terug in de shader arrays, waar je daadwerkelijk een kleurtje toe gaat kennen aan een pixel. Een roundtrip bij hen gaat van geometry naar RT, naar geheugen, naar RT, naar shaders. De shaders komen er pas aan het eind aan te pas.

Dat laatste is waar jij nu op doelt. Tuurlijk moet dat op ouderwetse FP32 ALU's, maar je vergeet even dat je met een overstap naar RT een deel van je bestaande ALU's ook niet meer nodig hebt voor raster-gerelateerd werk - er is niet noodzakelijkerwijs meer werk per pixel, het is vooral anders van aard. En in sommige gevallen is er zelfs mínder werk per pixel met RT. Met andere woorden, die 128 RT cores die AD102 heeft, hebben niet élk 64+64 ALU's nodig. Dat is zware overkill.

Die harde koppeling van shader array <> RT voldoet simpelweg niet meer. IT heeft die verhoudingen losgetrokken van elkaar. Precieze cijfers geven zij nooit (ze zijn overal heel geheimzinnig over), maar ik meen dat ze 1 RAC (Ray Accelerator Cluster of iets dergelijks) minimaal aan een 16-brede pipeline koppelen (waarbij 1 pipeline 2xFP32 ALU's heeft, dus 32 ALU's totaal). Meer mag, maar dat is wat nodig is. Zou je dat bij AD102 (sorry, weer Nvidia, maar is het eenvoudigste voorbeeld) toepassen, dan zou je per RT core dus eigenlijk maar 25% van een SM nodig hebben. Zelfs zonder daadwerkelijk iets te schatten is het niet lastig om AD103 + 25% van AD102 op te tellen en te zien dat dat nog steeds kleiner is dan AD102 nu is. Dat is dan zonder rekening te houden met kleinere SM's zonder RT voor AD103, L2$ verhoudingen, I/O, enzovoort.

Dat kunnen ze alle 3 niet met hun huidige architecturen (4 of 2 RT units bij AMD/Nvidia zou flinke problemen veroorzaken). Een voordeel dat ik zie met losse chips is dat je dan ook de kloksnelheden onafhankelijk van elkaar kunt schalen - of zelfs de procedé's. Want RT zit, zoals ik duidelijk probeer te maken, nog op een punt dat méér units, bétere units en simpelweg snéllere units (kloksnelheid) nog steeds voordeel bieden. En aangezien er nog dingen missen in de RT hardware (zoals coherence en hiërarchie), kan het zomaar zijn dat een 20% lagere kloksnelheid (2,5 -> 2,0 GHz) met 50% meer intersection hardware efficiënter is. Maar daar zou bij een enkele chip de rest van de GPU óók trager van worden. Anderzijds kan het best zo zijn dat een moderne "raster GPU" wellicht fors hogere kloksnelheden zou kunnen halen zonder de RT units. Allemaal dingen die wij helaas niet kunnen weten.

Dat is wat ik bedoel. De huidige architecturen zijn simpelweg niet te schalen voor RT toepassingen, terwijl we voor pure rasterisation al op de limiet zitten qua breedte en we vooral kloksnelheid nodig hebben. Het verschilt niet zo heel veel met de CPU kant van gaming: meer cores werkt maar tot op zekere hoogte, daarna is kloksnelheid beter. Verschil is dat er aan de CPU kant meer in de engines te doen was. Voor GPU's kan het allemaal niet zo heel erg anders opgedeeld worden binnen de huidige API's en architecturen.

Acties:
  • +3 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 14:01
https://chipsandcheese.co...s-4090-and-amds-7900-xtx/ kat is soort van uit de mouw. Er zit een computer shader in Starfield die zowel veel registers gebruikt als om veel bandbreedte vraagt. Op beide aspecten is AMD's architectuur hier in voordeel. Ben benieuwd of nvidia hier nog wat aan kan doen. Want hoewel het gebruikelijk is voor IHV's is om de performance van shaders te optimaliseren is het geheugengebruik moeilijker te optimaliseren. Dit omdat het vaak afhangt van de data die de shader aangeleverd krijgt, deze kan komen van een andere shader of van de cpu, het laatste is moeilijk voor Nvidia om iets aan te veranderen, tenzei ze realtime die buffer elke frame willen repacken. Ook vraag ik mij af of het waard is aangezien op lage resoluties je toch tegen een cpu bottleneck aanloopt.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@Werelds Ik zat er nog eens over na te denken, en ik neig er eigenlijk naar juist niet de RT hardware los te halen van de shaders. :)

Ik benader het probleem namelijk liever vanuit het oogpunt van GPU efficiëntie, zowel qua verbruik als qua oppervlakte en dus kosten. Het is inmiddels wel duidelijk dat alleen logic nog noemenswaardig kleiner en efficienter gemaakt kan worden. En de kosten daarvan lopen alleen maar op. Het oude trucje van meer cache toevoegen en/of meer rekenclusters, tja dat werkt steeds slechter. AD102 is er het voorbeeld van.

Trouwens, er is een analyse artikel waarom Starfield zoveel beter draait op AMD dan Nvidia. :)
https://chipsandcheese.co...s-4090-and-amds-7900-xtx/


Maar met hoe vervlochten rasterisation + RT zal blijven, betwijfel ik eigenlijk of lostrekken de oplossing is. Uiteindelijk zal je over de resultaten van je gerasteriseerde wereld, RT moeten gaan toepassen. Ook is het helemaal niet duidelijk dat je lichteffecten of via RT of via baked raster wil doen. De consensus lijkt juist te bewegen naar een combinatie van beiden. En dan is er ook nog software RT wat zeker potentieel heeft.

Vervolgens trek ik ook Nvidia vs. AMD los. Nvidia heeft van hun SM's een keuzemodel gemaakt. Je kan kiezen uit FP + FP, FP + INT, Tensor of RT. Veel nuances zitten daar niet in omdat de meeste functies op dezelfde dispatch en caches vertrouwen. AMD heeft zeker met RDNA3, al die functies verpakt in de nieuwe CU waarbij ze vrijwel de gehele CU toespitsen op een type berekening.

Afbeeldingslocatie: https://external-content.duckduckgo.com/iu/?u=https%3A%2F%2Fcdn.wccftech.com%2Fwp-content%2Fuploads%2F2022%2F09%2FNVIDIA-Ada-Lovelace-GPU-GeForce-RTX-4090-RTX-4080-Series-Graphics-Cards-_GPU-SM.png&f=1&nofb=1&ipt=61f70cec1e5a042da68820200c11e51a1c257f0d6210f074af64b4291cae7de6&ipo=images
Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/2nzd2VPZ7VyshqC32tXE6c-970-80.jpg.webp

Als ik dan specifiek naar RT kijk, dan lijkt Nvidia haar beperking tweevoudig. De eerste is utilisatie. Ada Lovelace doet vier ray/intersections per clock waar Ampere er twee doet en Turing een. Zeker gemeten vanaf Turing komt Nvidia niet eens in de buurt bij een dergelijke prestatiesprong. Tweede lijkt te zijn dat Nvidia behoorlijk zwak is qua BvH generatie. AMD lijkt juist vrij sterk te zijn in BvH generatie en zwak in ray/intersection tests. Immers doet ook RDNA3 maar een ray/intersection per clock.

Het valt namelijk op dat nu RT langzaam breder beschikbaar komt en minder zwaar op RTX concepten leunt, dus gooi ray/intersections tegen alles aan, Nvidia hun voordeel aan het verdampen is. De focus lijkt veel meer te verschuiven naar ook BvH + ray/box tests waar RDNA3 en tot op zekere hoogte ook RDNA2, eigenlijk niet veel minder in lijken te zijn.

Uiteraard eens dat er veel meer capaciteit voor ray/intersection testen moet komen. Maar dat is denk ik niet het hele verhaal, zeker als ik naar Nvidia kijk. Ik denk dat BvH en ray/box net zo belangrijk zijn. |

Als ik dan naar Nvidia vs. AMD kijk, dan zie ik wederom een grote kans voor AMD als we de volgende generatie naar 3nm gaan. Het enige dat echt kleiner en efficienter zal worden, is je logic. Caches, zeker de low level caches vergroten werkt waarschijnlijk niet geweldig. Tja, waarom kan AMD niet hun ray accelerator fors gaan opwaarderen om fors meer werk af te kunnen handelen per cycle? Uiteindelijk moeten namelijk de benodigde cycles om RT te kunnen gebruiken, fors omlaag en dit is nu waarschijnlijk de makkelijkste stap voor AMD. Het zou Nvidia hun veredelde tech demo's ook veel beter speelbaar moeten maken op AMD zodat die stok er ook niet meer is.

Bij Nvidia zit denk ik een groter probleem omdat ze een aparte BvH + ray caster per SM hebben, die wel vertrouwd op de SM voor caching en denoising. Meer ray/intersection tegen het probleem aangooien, werkt eigenlijk al niet. Nvidia lijkt dit op te willen lossen met hun micro meshes om BvH generatie te vervangen voor een software oplossing, maar het lijkt niet bepaald van de grond te komen. Zelfs Cyberpunk heeft het niet. BvH acceleratie verbeteren zal om veel meer cache vragen en dan gaat de RT core, de rest van de SM helemaal verstikken van data. Je caches groter maken gaat dus ook niet zomaar vanwege de vrijwel niet-bestaande scaling van caches naar 3nm. Ook gaan grotere caches botsen bij het model van veel rekenclusters. Als Nvidia hier echt aan wat wil doen, dan moeten ze misschien wel een compleet nieuwe GPU architectuur gaan opzetten. Ik betwijfel of dat gaat gebeuren.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 22-09 01:32
PjotrX schreef op vrijdag 15 september 2023 @ 21:01:
https://chipsandcheese.co...s-4090-and-amds-7900-xtx/ kat is soort van uit de mouw. Er zit een computer shader in Starfield die zowel veel registers gebruikt als om veel bandbreedte vraagt. Op beide aspecten is AMD's architectuur hier in voordeel. Ben benieuwd of nvidia hier nog wat aan kan doen. Want hoewel het gebruikelijk is voor IHV's is om de performance van shaders te optimaliseren is het geheugengebruik moeilijker te optimaliseren. Dit omdat het vaak afhangt van de data die de shader aangeleverd krijgt, deze kan komen van een andere shader of van de cpu, het laatste is moeilijk voor Nvidia om iets aan te veranderen, tenzei ze realtime die buffer elke frame willen repacken. Ook vraag ik mij af of het waard is aangezien op lage resoluties je toch tegen een cpu bottleneck aanloopt.
Die compute shader is waarschijnlijk voor GI. Starfield heeft wel GI maar is veel te groot voor baked lighting, and dat werkt sowieso niet goed voor voor hoe mods werken in Bethesda spellen. En Starfield heeft geen raytracing. Wel jammer, Starfield is een perfecte kandidaat voor raytraced GI.

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
PjotrX schreef op vrijdag 15 september 2023 @ 21:01:
https://chipsandcheese.co...s-4090-and-amds-7900-xtx/ kat is soort van uit de mouw. Er zit een computer shader in Starfield die zowel veel registers gebruikt als om veel bandbreedte vraagt. Op beide aspecten is AMD's architectuur hier in voordeel. Ben benieuwd of nvidia hier nog wat aan kan doen. Want hoewel het gebruikelijk is voor IHV's is om de performance van shaders te optimaliseren is het geheugengebruik moeilijker te optimaliseren. Dit omdat het vaak afhangt van de data die de shader aangeleverd krijgt, deze kan komen van een andere shader of van de cpu, het laatste is moeilijk voor Nvidia om iets aan te veranderen, tenzei ze realtime die buffer elke frame willen repacken. Ook vraag ik mij af of het waard is aangezien op lage resoluties je toch tegen een cpu bottleneck aanloopt.
7900 XTX heeft 960GB/s en de RTX 4090 1,008GB/s bandbreedte. Staarfield gebruikt ook nog een heel weinig geheugen. Het grote probleem ligt denk ik eerder bij optimalisaties waar nog weinig aan is gedaan voor de PC en drivers.

Acties:
  • +2 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 14:01
3DEXP schreef op zaterdag 16 september 2023 @ 08:47:
[...]


7900 XTX heeft 960GB/s en de RTX 4090 1,008GB/s bandbreedte. Staarfield gebruikt ook nog een heel weinig geheugen. Het grote probleem ligt denk ik eerder bij optimalisaties waar nog weinig aan is gedaan voor de PC en drivers.
Dat Starfield weinig geheugen gebruikt betekend niet dat het weinig bandbreedte gebruikt. De 7900 XTX wel een grotere cache, dat scheelt weer bandbreedte. Je ziet het ook in de tests van chipsandcheese, terwijl de occupancy bij de 4090 echt minimaal is, slokt het wel alle bandbreedte op. Terwijl bij de 7900 XTX de occupancy veel hoger light lijkt de geheugenbrandbreedte lager juist lager te zijn. Ook heeft de 7900 XTX een hoge L0 cache hit rate aangezien die cache bij hun 2x zo groot is als bij Nvidia, dat is een best wel een grote voordeel aangezien je echt veel minder latency. Minder latency betekend dat je compute shader invocations korter hoeft te parkeren en hierdoor loop je minder snel uit de registergeheugen.

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
PjotrX schreef op zaterdag 16 september 2023 @ 09:14:
[...]

Dat Starfield weinig geheugen gebruikt betekend niet dat het weinig bandbreedte gebruikt. De 7900 XTX wel een grotere cache, dat scheelt weer bandbreedte. Je ziet het ook in de tests van chipsandcheese, terwijl de occupancy bij de 4090 echt minimaal is, slokt het wel alle bandbreedte op. Terwijl bij de 7900 XTX de occupancy veel hoger light lijkt de geheugenbrandbreedte lager juist lager te zijn. Ook heeft de 7900 XTX een hoge L0 cache hit rate aangezien die cache bij hun 2x zo groot is als bij Nvidia, dat is een best wel een grote voordeel aangezien je echt veel minder latency. Minder latency betekend dat je compute shader invocations korter hoeft te parkeren en hierdoor loop je minder snel uit de registergeheugen.
Hoe kun je weten of alle bandbreedte word gebruik, voor zo ver ik weet zijn daar geen programma's voor die dat laten zien? Latency tests heb ik helaas ook nog niet kunnen vinden in benchmark tests terwijl dat wel mogelijk is.

Edit.

Ik had de link nog niet gelezen.

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 14:01
3DEXP schreef op zaterdag 16 september 2023 @ 09:26:
[...]


Hoe kun je weten of alle bandbreedte word gebruik, voor zo ver ik weet zijn daar geen programma's voor die dat laten zien? Latency tests heb ik helaas ook nog niet kunnen vinden in benchmark tests terwijl dat wel mogelijk is.

Edit.

Ik had de link nog niet gelezen.
Nvidia Nsight kan dit laten zien. Zie ook https://docs.nvidia.com/n...ProfilingGuide/index.html en zoek op 'SpeedOfLight'

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 12-10 21:12
Heeft het dan voor starfield zin om je videogeheugen te overclocken?

Mechwarrior Online: Flapdrol


  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 14:01
haarbal schreef op zaterdag 16 september 2023 @ 14:43:
Heeft het dan voor starfield zin om je videogeheugen te overclocken?
Volgens dat artikel gaat het niet om de bandbreedte naar vram maar naar de L2 cache die helemaal vol loop. Dit omdat de L0/1 cache te klein is vergeleken met de 7900 xtx.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
Op het moment dat iets uit VRAM moet komen is bandbreedte niet zo zeer het probleem, de latency is daar zo hoog dat het je andere dingen moet doen om dat te verhullen. Het gaat hier inderdaad om de balans tussen grootte en bandbreedte in de caches.

@DaniëlWW2 het probleem is parallelisme. Het is eenvoudiger meer RT units te gebruiken om dat te bewerkstelligen, dan de RT units dusdanig verbeteren dat een enkele unit er meer tegelijk kan doen.

Disclaimer: het volgende is uiteraard 100% speculatie, want hoe dit intern exact werkt zal geen van allen ooit uit de doeken doen :D

Bekijk het zo; als we data types even volledig negeren en het enkel over "unit" hebben dan heb je binnen een Ada RT core nu 4 box intersection units, 4 triangle intersection units. Die hangen vervolgens samen met 4 sets van 32 units. Al die units hebben registers en een cache nodig. Met dikkere RT cores ga je dus ofwel je 4 partities nog meer dwars zitten, of meer cache nodig hebben. Maar dat laatste is voor alles wat níet RT is waarschijnlijk hartstikke nutteloos. Een enkele hit zal ook niet slechts 1 partitie unit aan zwengelen; het zullen er minimaal 4 zijn, maar in de meeste gevallen zelfs meer. Dat betekent dat in Nvidia's geval, 1 hit meteen een hele partitie blokkeert - maar waarschijnlijk maar voor minder dan de helft bezet. En dat betekent weer dat ze met hun RT cores nu al aan de limiet zitten van wat ze binnen een SM aan kunnen.

Voor AMD ligt het iets anders, even los van hun veel zwakkere RA's, kunnen zij een WGP veel flexibeler aan het werk zetten én kunnen ze per klok meer schedulen, waardoor hun occupancy sowieso al beter is. Maar ook zij gaan tegen hetzelfde aan lopen. Nu hebben ze wel al meer dan voldoende registers en cache voor alles, maar dat kan ook niet oneindig groter worden. Dus ze hebben nog wat te winnen met hun RA's, maar ook zij lopen tegen een muur aan.

Dat is waarom ik denk dat los trekken de enige oplossing is. De RT units hebben hun eigen set ALU's en registers nodig zodat ze zelf geschaald kunnen worden, zonder dat de rest van de GPU mee móet. De twee problemen die ze op moeten lossen zijn het delen van de data zonder te veel latency te hebben, en het synchroniseren van de ops. Daarbij geef ik AMD wel de grootste kans dat te bewerkstelligen zonder álles op de schop te moeten gooien, omdat zij al zo veel flexibeler zijn.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:51
Net tijdens de avond wandeling even de HUB Podcast van vorige week beluisterd. Hierin kwamen ze ook nog even terug op het AMD / Nvidia, werd DLSS nu wel of niet geblocked en hun observaties en gedachten daarover. Moet zeggen dat het best overeenkomt met mijn mening er over een paar dagen geleden en ik me dus ook redelijk kan vinden in hun gedachtegang.


  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op zaterdag 16 september 2023 @ 17:29:
Op het moment dat iets uit VRAM moet komen is bandbreedte niet zo zeer het probleem, de latency is daar zo hoog dat het je andere dingen moet doen om dat te verhullen. Het gaat hier inderdaad om de balans tussen grootte en bandbreedte in de caches.

@DaniëlWW2 het probleem is parallelisme. Het is eenvoudiger meer RT units te gebruiken om dat te bewerkstelligen, dan de RT units dusdanig verbeteren dat een enkele unit er meer tegelijk kan doen.
Maar dan kan AMD to toch een tweede RA per CU toevoegen zodat het ratio SIMD32 vs. RA ook 1 op 1 word? ;)
Disclaimer: het volgende is uiteraard 100% speculatie, want hoe dit intern exact werkt zal geen van allen ooit uit de doeken doen :D

Bekijk het zo; als we data types even volledig negeren en het enkel over "unit" hebben dan heb je binnen een Ada RT core nu 4 box intersection units, 4 triangle intersection units. Die hangen vervolgens samen met 4 sets van 32 units. Al die units hebben registers en een cache nodig. Met dikkere RT cores ga je dus ofwel je 4 partities nog meer dwars zitten, of meer cache nodig hebben. Maar dat laatste is voor alles wat níet RT is waarschijnlijk hartstikke nutteloos. Een enkele hit zal ook niet slechts 1 partitie unit aan zwengelen; het zullen er minimaal 4 zijn, maar in de meeste gevallen zelfs meer. Dat betekent dat in Nvidia's geval, 1 hit meteen een hele partitie blokkeert - maar waarschijnlijk maar voor minder dan de helft bezet. En dat betekent weer dat ze met hun RT cores nu al aan de limiet zitten van wat ze binnen een SM aan kunnen.
Dat lijkt Nvidia hun probleem te zijn ja. Maar ik denk niet dat dit het enige probleem is.
Nvidia doet zelfs in Cyberpunk maar een paar BvH passes en gaat daarna al over op massale ray/intersection testing. Ze mappen objecten, zeker meer gedetailleerde objecten helemaal niet zo goed voordat ze eigenlijk al over gaan op brute force checks die ze proberen naast de reguliere rasterisation van de rest van de SM te doen. De resultaat zal waarschijnlijk zijn dat de rest van de SM, grotendeels stil komt te liggen omdat de cache nodig is voor de ray/intersection tests. Ik vermoed zo dat Nvidia probeert om ondertussen denoising te draaien op hun tensor cores, maar meer zit er waarschijnlijk niet in.

Voor Nvidia zou het misschien best zinnig zijn als ze iets van 60 SM's verwijderen van een 144 SM AD102 en de ruimte besteden aan dedicated RT cores met betere BvH processing, veel ray/box-ray/intersection hardware, dedicated denoisers en heel veel caches. Maar als ze dat doen, dan stort Nvidia haar matrix performance waarschijnlijk ook in. Nvidia zit daar klem omdat ze GPU's maken die alles moeten kunnen en niet durven te kiezen. Ze kunnen waarschijnlijk ook niet meer kiezen omdat ze zo'n enorme focus op AI hebben gelegd, dat de matrix cores eruit halen of reduceren voor betere RT, niet meer te verkopen is.
Voor AMD ligt het iets anders, even los van hun veel zwakkere RA's, kunnen zij een WGP veel flexibeler aan het werk zetten én kunnen ze per klok meer schedulen, waardoor hun occupancy sowieso al beter is. Maar ook zij gaan tegen hetzelfde aan lopen. Nu hebben ze wel al meer dan voldoende registers en cache voor alles, maar dat kan ook niet oneindig groter worden. Dus ze hebben nog wat te winnen met hun RA's, maar ook zij lopen tegen een muur aan.
En hierom zou ik juist liever zien dat AMD eerst hun RA's aanpakt met RDNA4. ;)
Een ander punt dat ik ook wil aanstippen is dat we denk ik, helemaal niet "klaar" zijn met raserisation. Verre van. Bijna drie jaar na de release van de PS5 en XSX, hebben de meerderheid van PC gamers waarschijnlijk nog steeds videokaarten die inferieur of hooguit gelijkwaardig zijn. We hebben het de afgelopen maanden gezien wat dat betekend nu games, dergelijke prestatieniveaus als doel stellen voor 1440p 30Hz of nog erger, 1080p 30Hz.

Een videokaart die tweemaal zo snel is, tja dat begint eigenlijk pas bij de RX6950XT. Voor een dergelijke videokaart acht ik 16GB aan VRAM alsmede echte 2x TFLOPS als minimaal. PS5 is iets meer dan 10 TFLOPS, XSS is iets meer dan 12TFLOPS. Je zal toch echt tenminste dichtbij de 24 TFLOPS moeten komen van dezelfde basale GPU architectuur, RDNA2 dus. En vanaf dat punt kan je vergelijken. RTX4070Ti haalt dat, maar 12GB VRAM. RTX3080Ti heeft hetzelfde probleem. Dus vanaf de RTX3090 zit je er eigenlijk pas bij Nvidia en deze generatie hebben ze eigenlijk ook niks dat je "betaalbaar" zou kunnen noemen.

Elke GPU is uiteindelijk een balans zoeken tussen elementen. En als ik nu moet kiezen tussen veel betere RT of veel betere rasterisation, dan kies ik altijd voor rasterisation. We zijn er nog lang niet. In dat opzicht zou ik echt niet rauwig zijn als AMD inderdaad hun duurdere RDNA4 chips geannuleerd heeft en vaart achter hun middensegment zet met de launch over iets meer dan een jaar nu.

Er wordt op het moment wel eens 64CU gesuggereerd en 4nm of 3nm. Persoonlijk zou ik eigenlijk neigen naar 4nm vanwege de kosten. Nou bijvoorbeeld zoiets als 4096 x 2 x 3200MHz = 26,2TFLOPS, is denk ik een winnaar over een jaar. Zeker als je dan de RA's per CU hebt verdubbeld of misschien ook nog wat hebt verbetert aan de RA's. Mik op RX7900XT prestatieniveau, misschien wat meer dankzij GDDR7 en andere kleine verbeteringen. Vervolgens mik je qua RT op een verdubbeling over de RX7800XT, RTX4090 niveau dus, door een combinatie van clock speed waarmee je zowel BvH als denoising als sneller lopende caches krijgt en fors meer capabele ray/box-ray/intersection testing hardware. Verkoop het vervolgens voor $500 op de dan inmiddels ietwat oudere 5nm/4nm klasse node en je hebt een winnaar. RT voor de massa PC gamers die nu uitgesloten zijn. Vervul de belofte die Nvidia al sinds 2018 maakt, maar nooit vervult heeft. ;)
Dat is waarom ik denk dat los trekken de enige oplossing is. De RT units hebben hun eigen set ALU's en registers nodig zodat ze zelf geschaald kunnen worden, zonder dat de rest van de GPU mee móet. De twee problemen die ze op moeten lossen zijn het delen van de data zonder te veel latency te hebben, en het synchroniseren van de ops. Daarbij geef ik AMD wel de grootste kans dat te bewerkstelligen zonder álles op de schop te moeten gooien, omdat zij al zo veel flexibeler zijn.
Dat gaat denk ik wel komen, maar ik denk niet voor RDNA5 als het niet RDNA6 zal zijn.
Waar ik namelijk ook naar kijk is de lange termijn. RDNA4 zal op 4nm of 3nm zitten en komt volgend jaar. Achter het hele high end RDNA4 geannuleerd verhaal gaat ook de implicatie dat tenminste de high end van RDNA5 erdoor naar voren gehaald kan worden. RDNA5 zit vrijwel zeker op 3nm, de laatste finFET node. Daarna gaan we naar GAAFET met 2nm. Dichtheid lijkt nauwelijks meer te verbeteren, alleen wat verbeteringen in power/performance. Ook zou van wat ik had begrepen, de reticle limit met 2nm fors gaan dalen tot onder 500mm2. Dat is het einde van de gigantische GPU's. 2nm zou ook meer toegespitst zijn op MCM ontwerpen faciliteren omdat de grote monolithische chip niet meer kan.

Dat is denk ik het moment waar je een splitsing tussen shaders en RT kan zien. Niet alleen dat je RT uit je raster pipeline haalt, maar dat je het op aparte chiplets doet met hun eigen caches die ook niet gebonden hoeven te zijn aan de clock speed van de raster pipelines. En dan kan je ook experimenteren met verschillende nodes. Bijvoorbeeld een RT chiplet zou in theorie op een oudere node kunnen blijven omdat je ratio cache vs. logic, waarschijnlijk wat zwaarder naar cache ligt dan een raster pipeline.

Niet alleen AMD, ook Nvidia en hopelijk dan ook nog steeds Intel, zullen gedwongen worden om hun GPU's op te splitsen in MCM ontwerpen. En als je dit toch al moet doen, dan kan je net zo goed die stap ook nemen.

Persoonlijk zie ik het Nvidia niet doen met Blackwell. AMD misschien wel met RDNA5 en Intel is moeilijk te zeggen. Ik denk dat het uiteindelijk een gelegenheidskwestie zal zijn in combinatie met de vraag voor dergelijk capabele RT hardware. Maar zodra je naar GAAFET gaat met GPU's, ligt denk ik alles open. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
DaniëlWW2 schreef op zaterdag 16 september 2023 @ 20:47:
Maar dan kan AMD to toch een tweede RA per CU toevoegen zodat het ratio SIMD32 vs. RA ook 1 op 1 word? ;)
En daarna? ;)

Dat is wat ik bedoel, je bent dan nog steeds gebonden aan het aantal WGP's als je meer RT wil. Daarnaast kom je dan dus weer in de knoei met de IC en dergelijke. Schaalt gewoon niet.
Voor Nvidia zou het misschien best zinnig zijn als ze iets van 60 SM's verwijderen van een 144 SM AD102 en de ruimte besteden aan dedicated RT cores met betere BvH processing, veel ray/box-ray/intersection hardware, dedicated denoisers en heel veel caches.
Iets zegt me dat de 512 Tensor Cores voor games ook zwaar overkill zijn ;)

De RT cores zitten toch alleen maar in de GeForces. Maar dat splitsen kunnen ze dus niet zonder vanaf de grond af opnieuw te ontwerpen én de twee los te koppelen.
Een ander punt dat ik ook wil aanstippen is dat we denk ik, helemaal niet "klaar" zijn met raserisation. Verre van. Bijna drie jaar na de release van de PS5 en XSX, hebben de meerderheid van PC gamers waarschijnlijk nog steeds videokaarten die inferieur of hooguit gelijkwaardig zijn. We hebben het de afgelopen maanden gezien wat dat betekend nu games, dergelijke prestatieniveaus als doel stellen voor 1440p 30Hz of nog erger, 1080p 30Hz.
Nee, we zijn nog lang niet klaar met rasterisation. Maar op dit moment is de hardware daarvoor onlosmakelijk verbonden met de hardware voor RT, wat in ontzettend veel verspilde ruimte resulteert.

En ja, door de idiote prijzen gaat het nog een paar generaties duren eer RT "mainstream" kan worden.
Persoonlijk zie ik het Nvidia niet doen met Blackwell. AMD misschien wel met RDNA5 en Intel is moeilijk te zeggen.
Mja dat is wat ik eerder al zei. Intel is pas net bezig, dus daar gaat het niet gebeuren. Als ze die plannen hebben, zijn die nog minimaal 2 generaties verwijderd. Nvidia gaat het ook niet binnen 2 generaties doen, puur omdat ze Nvidia zijn en het niet hóeven te doen. Hun zooi verkoopt toch wel. En AMD heeft die plannen misschien wel, maar dat is inderdaad op z'n allervroegst RDNA5, maar zelfs dat is nog te snel denk ik.

Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op zaterdag 16 september 2023 @ 22:32:
[...]

En daarna? ;)

Dat is wat ik bedoel, je bent dan nog steeds gebonden aan het aantal WGP's als je meer RT wil. Daarnaast kom je dan dus weer in de knoei met de IC en dergelijke. Schaalt gewoon niet.
Daarna doe je wel wat anders. :P
Het gaat mij er niet om dat het de ultieme oplossing is. Het gaat mij erom eerst een brede adoptie van een minimale standaard te bereiken. Dat lukt tot dusver al niet na drie generaties. De eerste generatie was niks, de tweede is kreupel geslagen door een gebrek aan VRAM en deze generatie is belachelijk duur. Als je een beetje RT wil zonder de nadelen of de hoofdprijs ervoor betalen, dan moet je eigenlijk al een tijdje een AMD videokaart kopen. :+
[...]

Iets zegt me dat de 512 Tensor Cores voor games ook zwaar overkill zijn ;)

De RT cores zitten toch alleen maar in de GeForces. Maar dat splitsen kunnen ze dus niet zonder vanaf de grond af opnieuw te ontwerpen én de twee los te koppelen.

[...]

Nee, we zijn nog lang niet klaar met rasterisation. Maar op dit moment is de hardware daarvoor onlosmakelijk verbonden met de hardware voor RT, wat in ontzettend veel verspilde ruimte resulteert.

En ja, door de idiote prijzen gaat het nog een paar generaties duren eer RT "mainstream" kan worden.
Ik denk dat het niet eens alleen idiote prijzen zijn. De hardware is er ook gewoon niet voor de lagere segmenten. Maar daar zit ook een deel van de pijn denk ik. Want als je nu geheel aparte RT pipelines gaat opzetten, dan gaan de kosten van een chip weer fors omhoog omdat ze dan weer groter moeten worden. Ook blijf je waarschijnlijk niet binnen een bepaald TDP budget als je raster en RT pipelines naast elkaar hebt bestaan, waardoor je kosten nog verder omhoog gaan. Hierom kijk ik voorlopig liever naar mogelijkheden waarbij je raster en RT combineert in een pipeline en er het beste van maakt binnen een pipeline.
[...]

Mja dat is wat ik eerder al zei. Intel is pas net bezig, dus daar gaat het niet gebeuren. Als ze die plannen hebben, zijn die nog minimaal 2 generaties verwijderd. Nvidia gaat het ook niet binnen 2 generaties doen, puur omdat ze Nvidia zijn en het niet hóeven te doen. Hun zooi verkoopt toch wel. En AMD heeft die plannen misschien wel, maar dat is inderdaad op z'n allervroegst RDNA5, maar zelfs dat is nog te snel denk ik.
En daarom maak ik me er ook niet al te veel zorgen over. :)
RT is best leuk zo op mijn RX7900XT. En soms heb je best wel wauw momenten, maar het is niet bepaald kritiek voor je ervaring. Het is meer "super ultra" settings. Verder lijkt Lumen in UE5 eigenlijk een mooie tussenoplossing te bieden met software RT die de komende jaren afdoende zal zijn totdat we serieuze RT hardware krijgen. Uiteindelijk is GI toch het mooiste en verreweg de grootste verbetering en dat hangt niet zo zwaar op RT hardware moeten hebben met UE5. Shadows en reflections zijn wel grappig, maar het meestal niet waard. Zelfs Cyberpunk PT wat echt wel iets is, is het niet waard, ook al kan je het aanzetten. Ik heb ernaar gekeken met een mod die het speelbaar maakt (en de tweede bounce verwijderd). Ziet er soms echt goed uit, maar Crysis in 2007 draaide waarschijnlijk relatief beter op een 8800gt dan dit. Ik kan het moeilijk geoptimaliseerd noemen en ik zou ook niet verbaast zijn als een goede Lumen implementatie, behoorlijk dichtbij komt of het kan matchen voor veel minder hardware vereisten.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Toch leuk dat Microsoft hun plannen voor de volgende generatie XBOX zo uitlekken. :z

Want het gaat dus RDNA5 worden waarbij Microsoft denkt over een ontwerp met AMD of een licentie afnemen. Gezien de keuze tussen ARM en Zen 6, zal het ook wel afhangen of ze ook voor Zen 6 gaan. Verder lijkt er ook iets van big/little te komen. Dat zien we al met Zen4c.

Maar ik zie heel wat interessants voor de GPU.
-Next gen DirectX RT zegt al dat er verbeteringen op DXR gaan komen.
-Dynamic GI zal om heel wat meer capabele RT hardware vragen.
-Micropolygon optimalisatie geeft aan dat er een andere focus qua rendering eraan zit te komen. Dit zijn namelijk polygons die zomaar kleiner dan een pixel kunnen zijn. Daarvoor heb je niet noodzakelijkerwijs veel precisie nodig, maar wel veel rekenkracht. Of dit puur een grotere nadruk op FP16 of zelfs FP8 is of iets meer, moet blijken.
-ML based super resolution is voor mij interessant omdat FSR2 dus niet ML based is. Ik mompel er al even over dat het een kwestie van tijd is. Nou het gaat komen. Hopelijk ook eerder dan RDNA5 en 2028, maar het gaat zeker komen.
-Overigens suggereert deze roadmap ook dat RDNA5 eerder een 2026 product zal zijn. Er worden immers dev kits verwacht en over het algemeen is het wel handig als een dev kit met vergelijkbare hardware werkt. :P
-Die laatste kan ik helaas moeilijk plaatsen.

Afbeeldingslocatie: https://assets-prd.ignimgs.com/2023/09/19/screenshot-2023-09-19-095554-1695115412272.png
Afbeeldingslocatie: https://assets-prd.ignimgs.com/2023/09/19/screenshot-2023-09-19-101526-1695115473811.png
https://www.ign.com/artic...ext-gen-cloud-hybrid-xbox

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-10 13:31

SG

SG surft naar info hardewaren

Nvidia doet het beter in 1080P ?
Heeft dat eerder te maken dat bij nV de CPU de gpu thgread scheduling management afhandelt.
En GPU benches met top-end cpu gedaan wordt.
Wat voor klein deel van de gamers relevant is als niet iedereen heeft de laatste top-end cpu en ook geen high-end gpu. Gezien deze hardware management in RDNA is deze performance ook fixed en neemt diespace in. Over budget dat het in 720p en 640p is zonde van de diespace. En midden oplossing ergens tussen 1080p en 1440p is relevanter voor gross dat midrange 1 tot 3 gens oude cpu gamed met midrange g-kaart.
Esport en competive is ook maar klein deel. Casual online gamer cod is console beter omdat daar gamers aan console limieten gelijk getrokken worden en dus met prijs van console je niet 360hz monitor 4090 13900ks oc’ed .
PC meer voor de slow pace singleplayer games. Waarbij 20jarige 10jaar competive gamer veteraan subtiel iets heeft aan die overkill bak of ook nauwelijks. Kan ouwe 50+ gamer sowieso leeftijd handicap om aan zo zware overkill bak nog iets aan te hebben. Is console fijn meer gelijkheid.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic



:w :*)
Ik ga hem geen seconde missen...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 14:37
Nu nog een zekere andere ^^.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Azor mag van mij ook inderdaad vertrekken zeg...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Bramm
  • Registratie: Januari 2002
  • Laatst online: 09-10 08:41
Ik heb net de drivers geüpdate naar 23.9.3 en het valt mij op dat de VRAM snelheid van mijn RX 6800 nu niet meer standaard op 1990 MHz blijft hangen. Nu klokt het terug naar onder de 200 MHz als ik niks doe en wat hoger als ik een window verplaats. Bij het kijken van een Youtube filmpje wordt het weer volle snelheid.
Ik heb een 165 Hz 1440p scherm en ik las dat een hoge refresh rate er tot nu toe bijna altijd toe leidde dat je VRAM altijd op volle snelheid draaide, met hoger energieverbruik en temperaturen tot gevolg.
Ook de GPU klokt terug naar vaak 0 MHz en 0 mV.

Is dit nieuw of was dit eerder al veranderd?

edit: nou dat was van korte duur. Na een paar uur blijft de VRAM snelheid nu weer permanent 1990 MHz. Keer opnieuw opstarten helpt niet.

[ Voor 10% gewijzigd door Bramm op 27-09-2023 13:37 ]


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

FSR3 is er dan, eindelijk. :P

Er zullen wel goede analyses volgen, maar deze kwam ik al tegen. (1080p native, FSR2 native + frame gen en FSR2 quality en balanced met frame gen)

Tja het is interpolatie en dat zie je wel. Maar het ziet er ook niet verkeerd uit. In ieder geval lijkt de UI stabiel te zijn en dat is al winst over DLSS3. Verder zit hier ook FSR2.2 in, maar daar durf ik zo nog niks over te zeggen.


edit: Blijkbaar zou de Forspoken demo op Steam ook FSR3 hebben.
Ja, er is een game demo, die bestaan blijkbaar nog. :P

[ Voor 10% gewijzigd door DaniëlWW2 op 29-09-2023 13:18 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 14:01
DaniëlWW2 schreef op vrijdag 29 september 2023 @ 13:08:
FSR3 is er dan, eindelijk. :P

Er zullen wel goede analyses volgen, maar deze kwam ik al tegen. (1080p native, FSR2 native + frame gen en FSR2 quality en balanced met frame gen)

Tja het is interpolatie en dat zie je wel. Maar het ziet er ook niet verkeerd uit. In ieder geval lijkt de UI stabiel te zijn en dat is al winst over DLSS3. Verder zit hier ook FSR2.2 in, maar daar durf ik zo nog niks over te zeggen.
[YouTube: AMD FSR 3 Frame Generation OFF vs ON - Benchmark & Gameplay]
Ze hebben vreemde titels gekozen als eerste game, namelijk twee spellen die niet echt goed hebben gedaan en dus niet veel meer worden gespeeld. Wel jammer want nu komen minder mensen er mee in aanraking, hopelijk komt dit ook snel in Cyberpunk oid. Maar wel goed dat ze de UI hebben opgelost, dat geeft Nvidia ook incentive om daar meer aan te doen. Dat was mijn grote kritiek op DLSS FG, ik snapte het ook niet aangezien Oculus dit al jaren eerder had opgelost door UI in een apart layer te stoppen waar geen FG of AWS op gedaan werd. AMD had ook beloofd een blogpost te doen dus we komen ook snel achter hoe ze dit hebben aangepakt.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op vrijdag 29 september 2023 @ 13:08:
FSR3 is er dan, eindelijk. :P

Er zullen wel goede analyses volgen, maar deze kwam ik al tegen. (1080p native, FSR2 native + frame gen en FSR2 quality en balanced met frame gen)

Tja het is interpolatie en dat zie je wel. Maar het ziet er ook niet verkeerd uit. In ieder geval lijkt de UI stabiel te zijn en dat is al winst over DLSS3. Verder zit hier ook FSR2.2 in, maar daar durf ik zo nog niks over te zeggen.
[YouTube: AMD FSR 3 Frame Generation OFF vs ON - Benchmark & Gameplay]

edit: Blijkbaar zou de Forspoken demo op Steam ook FSR3 hebben.
Ja, er is een game demo, die bestaan blijkbaar nog. :P
Goed dat het er is voor de mensen die het willen gebruiken. Ik ga in ieder geval de "input lag gen" frame gen van AMD en Nvidia nooit gebruiken. :+

Het helpt overigens niet dat de youtube bitrate tegenwoordig zo laag is dat je het verschil nauwelijks ziet.... Sinds 1080 quality uit is lijken ze de bitrate van andere content te hebben verlaagd; dit kan ook tussen mijn oren zitten.

[ Voor 11% gewijzigd door Sp3ci3s8472 op 29-09-2023 14:00 ]


Acties:
  • 0 Henk 'm!

  • 3DEXP
  • Registratie: Mei 2023
  • Laatst online: 31-01-2024
Zo wel met FSR3 als DLSS3 is de UI stabiel dus daarmee heeft AMD geen voordeel. Enige voordeel wat ik kan bedenken is dat het op meer videokaarten werkt.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
3DEXP schreef op vrijdag 29 september 2023 @ 14:18:
Zo wel met FSR3 als DLSS3 is de UI stabiel dus daarmee heeft AMD geen voordeel. Enige voordeel wat ik kan bedenken is dat het op meer videokaarten werkt.
Het voordeel is dat open source game engines waaronder Godot dit waarschijnlijk voor het einde van het jaar hebben, net zoals FSR2.

Edit: ter verduidelijking, DLSS zal waarschijnlijk nooit out of the box onderdeel worden van Godot omdat het een binary blob is. Ontwikkelaars moeten dat zelf implementeren, als ze dat willen.

[ Voor 19% gewijzigd door Sp3ci3s8472 op 29-09-2023 14:28 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

PjotrX schreef op vrijdag 29 september 2023 @ 13:21:
[...]

Ze hebben vreemde titels gekozen als eerste game, namelijk twee spellen die niet echt goed hebben gedaan en dus niet veel meer worden gespeeld. Wel jammer want nu komen minder mensen er mee in aanraking, hopelijk komt dit ook snel in Cyberpunk oid. Maar wel goed dat ze de UI hebben opgelost, dat geeft Nvidia ook incentive om daar meer aan te doen. Dat was mijn grote kritiek op DLSS FG, ik snapte het ook niet aangezien Oculus dit al jaren eerder had opgelost door UI in een apart layer te stoppen waar geen FG of AWS op gedaan werd. AMD had ook beloofd een blogpost te doen dus we komen ook snel achter hoe ze dit hebben aangepakt.
Ik denk dat ze ergens moesten beginnen en blijkbaar ging het niet Starfield worden.
Cyberpunk heeft immers een enorme patch, DLC en natuurlijk DLSS3.5 gekregen. FSR3 zou later volgen, dat is al bekend.

Maar FSR3 doet me eigenlijk weinig daar omdat de game fast paced is. En zo komen we weer terug bij wat ik een paar dagen geleden al in het Nvidia topic zei.
Sp3ci3s8472 schreef op vrijdag 29 september 2023 @ 13:52:
[...]


Goed dat het er is voor de mensen die het willen gebruiken. Ik ga in ieder geval de "input lag gen" frame gen van AMD en Nvidia nooit gebruiken. :+

Het helpt overigens niet dat de youtube bitrate tegenwoordig zo laag is dat je het verschil nauwelijks ziet.... Sinds 1080 quality uit is lijken ze de bitrate van andere content te hebben verlaagd; dit kan ook tussen mijn oren zitten.
Oh ik wil het wel gaan gebruiken, maar niet in elke game. ;)
Ik speel graag menig strategiegame met ronduit dramatische CPU optimalisatie. Kom maar op met een driver level toggle voor de interpolatie. Een beetje latency maakt toch niet uit.

En dat is dus ook een deel van het probleem. Er ligt een enorme focus op fps in dit alles. Maar waar je vooral geen RT of interpolatie wil, zijn fps games.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op vrijdag 29 september 2023 @ 14:32:
[...]


Ik denk dat ze ergens moesten beginnen en blijkbaar ging het niet Starfield worden.
Cyberpunk heeft immers een enorme patch, DLC en natuurlijk DLSS3.5 gekregen. FSR3 zou later volgen, dat is al bekend.

Maar FSR3 doet me eigenlijk weinig daar omdat de game fast paced is. En zo komen we weer terug bij wat ik een paar dagen geleden al in het Nvidia topic zei.


[...]


Oh ik wil het wel gaan gebruiken, maar niet in elke game. ;)
Ik speel graag menig strategiegame met ronduit dramatische CPU optimalisatie. Kom maar op met een driver level toggle voor de interpolatie. Een beetje latency maakt toch niet uit.

En dat is dus ook een deel van het probleem. Er ligt een enorme focus op fps in dit alles. Maar waar je vooral geen RT of interpolatie wil, zijn fps games.
Het zou pas interessant zijn voor mij als ze het zouden combineren met Radeon Chill. In spellen zoals Total War als ik vrij weinig aan het doen ben en de camera niet beweegt. Gooi de native FPS naar 30 en zet dan frame gen aan om weer aan de 60 te komen.

Dat zou ideaal zijn om stroom te besparen (wordt de kamer ook niet zo warm :P).

Bij een FPS zou ik het inderdaad dus nooit aanzetten.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Nu is CS helaas niet echt mijn game maar zat CS 2.0 filmpjes te kijken en eigenlijk kan ik prima leven met die graphics mits de gameplay leuk is.

Zou best willen dat bijv. BF2 op dezelfde manier in leven werd gehouden als Valve met Counterstrike doet.

In dat opzicht zijn dit soort FPS levels en systeem eisen wat mij betreft een verademing en veel gezonder dan de kant die de industrie nu is opgegaan.

TPU: Counter-Strike 2 Performance Review - 40 GPUs Tested

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • ikt
  • Registratie: Juli 2008
  • Laatst online: 09:20

ikt

Sp3ci3s8472 schreef op vrijdag 29 september 2023 @ 14:38:
[...]


Het zou pas interessant zijn voor mij als ze het zouden combineren met Radeon Chill. In spellen zoals Total War als ik vrij weinig aan het doen ben en de camera niet beweegt. Gooi de native FPS naar 30 en zet dan frame gen aan om weer aan de 60 te komen.

Dat zou ideaal zijn om stroom te besparen (wordt de kamer ook niet zo warm :P).

Bij een FPS zou ik het inderdaad dus nooit aanzetten.
Bij FPS hoop ik dat er ooit async reprojection komt. Zit al in VR, ik zie niet waarom het nog niet breder uitgerold is in games. Responsieve camera + movement. Frame generation op basis van input - vreemd dat het nog niet bestaat.

Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 14:01
De beloofde blogpost is er en het lijkt meer een PR blogpost te zijn met wat technische details maar die zijn een beetje vaag gehouden en het springt een beetje heen weer. Voor de UI lijken ze 3 opties te hebben:
- Een optie om de UI apart te leveren zodat deze niet geïnterpoleerd wordt, dit noemen ze kort in het stuk over de UE5 plugin.
- Een optie om de UI zelf te renderen voor de geïnterpoleerde frames, dit zorgt ervoor dat als je animaties in de UI hebt, dat deze ook op de volle fps animeren. Deze optie wordt ook in de UE5 stuk genoemd.
- En als laatst hebben een optie om de UI te interpoleren door FSR zoals DLSS het ook doet, deze optie wordt weer helemaal bovenaan in de diagram genoemd.

Ook hebben ze ondersteuning voor vsync, iets wat in dlss nu nog mist maar al bijvoorbeeld wel in de software van oculus zat.

Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 14:01
ikt schreef op vrijdag 29 september 2023 @ 15:37:
[...]

Bij FPS hoop ik dat er ooit async reprojection komt. Zit al in VR, ik zie niet waarom het nog niet breder uitgerold is in games. Responsieve camera + movement. Frame generation op basis van input - vreemd dat het nog niet bestaat.
Verschil is dat in VR de gegenereerde frames niet geïnterpoleerd maar geëxtrapoleerd worden. Verder is de input in VR makkelijker voor de software van oculus te interpreteren, dat is namelijk de positie en rotatie van de headset en die is 1-op-1 om te zetten naar de positie/rotatie van de in-game camera. Voor pc-gaming heb je als input de muispositie maar die is niet 1-op-1 om te zetten naar de in-game camera. Het hangt namelijk van de muis-sensitivity af en van de acceleration-curve. Dat betekend dat een game-ontwikkelaar dat stukje zelf moet bijdragen. Niet onmogelijk maar veel werk en maakt de API van deze technieken ook complexer. Nu is FSR open source dus een game-ontwikkelaar zou deze kunnen aanpassen om frame-generation te doen op basis van input, moeten ze wel de optical-flow algoritme aanpassen. De enige ontwikkelaar die ik zoiets zie uitproberen is misschien Valve, die heeft CS:GO die daar misschien van kan profiteren. Ook hebben ze ook een VR-afdeling met programmeurs die expertise hebben met dit soort algoritmen. Maar aan de andere kant, iemand die CS:GO met zo min mogelijk latency wil spelen zal het dan op een240+hz monitor oid. spelen en dan heb je ook het geld om een kaart te kopen die deze framerate kan aantikken.

[ Voor 6% gewijzigd door PjotrX op 29-09-2023 16:41 ]


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik had de Forspoken demo gedownload en inderdaad zit FSR3 erin.
Totaal geen ervaring met deze game. Je kan blijkbaar wel even heel snel rennen en dat eens gedaan. Toen zag ik dat je de game kon pauzeren, photo mode in kon gaan, screenshot kan maken en dan de settings kan aanpassen.

Dit deed ik omdat ik na wat rond te rennen en dingen te proberen, enorme moeite ervaarde om ghosting te zien. Dus maar eens wart screenshots gemaakt. FSR2 Native mag er in ieder geval zijn. Duidelijk verschil met FSR2 Quality.

Ultra native FSR2 mode (alleen motion blur is om overduidelijke redenen altijd uit)
Afbeeldingslocatie: https://tweakers.net/i/1Xe1hOweB9hZTi0qTmE2CCXbkzI=/800x/filters:strip_exif()/f/image/MDWlURssstbHUy04IQRsovxH.png?f=fotoalbum_large

Ultra FSR2 Quality
Afbeeldingslocatie: https://tweakers.net/i/FpWU2QKTHYyJ-yWJ0v5X7wNXxoI=/800x/filters:strip_exif()/f/image/ShOTYxNHL1AlgCAUlTvewQSa.png?f=fotoalbum_large

Ultra FSR2 native AA + FSR3
Afbeeldingslocatie: https://tweakers.net/i/392E6vMbNz__1dCX5PDqaQ8_u_I=/800x/filters:strip_exif()/f/image/KPOuzXrw14XnkFBq6g7a2x9f.png?f=fotoalbum_large

Ultra FSR2 Quality AA + FSR3
Afbeeldingslocatie: https://tweakers.net/i/oISBFoVS7tge7o-D26IzEAjLkQg=/800x/filters:strip_exif()/f/image/oUfiky7DHBGMTkgoyugxa6aI.png?f=fotoalbum_large

Low
Afbeeldingslocatie: https://tweakers.net/i/8zm5s1uLv-2g5OBfpGUyftIIBuQ=/800x/filters:strip_exif()/f/image/TVV2cD33Z80z8WraUCqSYgf0.png?f=fotoalbum_large

Vervolgens ook eens gaan spelen met AMD hun recordsoftware. Tja dat zit echt verrassend goed in elkaar.
Helaas verpest de compressie het resultaat flink. Maar als je de video langzamer afspeelt, dan zie je wat ghosting. Op normale snelheid en ook in game, is dat zeker niet makkelijk. Nota bene is die cape complex en beweegt die constant. Ook zijn er aardig wat particle effects. Maar ghosting lijkt echt minimaal te zijn met wat ik heb gezien na rond te rennen en dingen proberen.

https://streamable.com/92eem9
https://streamable.com/fd6g8j

Ik ben eigenlijk verbaast. Ik had zeer weinig verwachtingen omtrent FSR3, maar als het zo werkt in ook andere games, tja dan zie ik mijzelf dit misschien ook wel gebruiken in meer dan rts games. Ik vermoed dat het voor first person shooters misschien nog te veel is, maar ook voor 3th person games lijkt het op deze manier helemaal niet zo gek te zijn. Iets dat ik totaal niet had verwacht.

Uiteraard zit ik altijd over de 60fps dus latency valt mee. Anti Lag heb ik niet eens aangezet.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En AMD hun marketing afdeling moet zich weer eens diep, diep gaan schamen. :N

AMD heeft een preview driver (alleen voor RDNA3) voor AFMF online gezet om mensen een eerste blik te geven en feedback te verzamelen. Dat is hun in driver interpolatie. De volgende games worden ondersteund Via Hyper RX. Maar het zou al werken voor elke DX11 en DX12 game. Verder vraagt AMD om een clean install van je drivers te doen, voordat je deze installeert.
Afbeeldingslocatie: https://cdn.videocardz.com/1/2023/09/AMD-FLUID-MOTION-FRAMES-GAMES-LAUNCH-1200x644.jpg
https://www.amd.com/en/su...n-23-30-afmf-tech-preview

Maar niks fatsoenlijke aankondiging hiervoor. Je moet het weer via derde sites vinden. En de pagina met de driver vinden, is ook knap lastig via AMD hun eigen website. FSR3 was al hetzelfde. Daar lijken gamers het gewoon uit te proberen. Dat de Forspoken demo ook de FSR3 update heeft gehad, lijkt ook willekeurig door iemand uitgevonden te zijn, waarna het zich verspreid en mensen gaan testen. Er is niks voorbereid, gecommuniceerd etc. Wat een ontiegelijk gepruts weer, want FSR3 lijkt (erg) positief ontvangen te worden.

[ Voor 3% gewijzigd door DaniëlWW2 op 29-09-2023 18:20 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • PjotrX
  • Registratie: Maart 2003
  • Laatst online: 14:01
DaniëlWW2 schreef op vrijdag 29 september 2023 @ 18:14:
En AMD hun marketing afdeling moet zich weer eens diep, diep gaan schamen. :N
Het allergekste is dat ze niet alle reviewers early access gegeven schijnen te hebben (zoals hardware unboxed) en het op een vrijdag lanceren dus de meeste reviews komen pas maandag want niet iedereen kan in het weekend werken.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nou de preview driver draait bij mij. :)
Eerste is al dat de metrics overlay kapot lijkt te zijn. Ik moest het dus doen met de metrics uit AMD hun drivermenu op een tweede scherm.

Eens begonnen met Witcher 3 met Anti Lag+ ook aan te testen in verschillende gebieden en settings. Dat was interessant. Je zou denken dat je ghosting en temporal issues zou krijgen. Dat valt eigenlijk behoorlijk mee. Ik zag zo snel namelijk niet iets groots. Het is er soms wel, maar niet constant of storend. Dat stuk is erg goed.

Wat ik wel merkte is dat ik wat micro stutter voelde terwijl ik met mijn controller speelde. Nu is frame pacing in the Witcher 3 toch al niet geweldig en ben ik het al gewend, maar dit merk je. Niet onspeelbaar, tenminste met een controller, maar je merkt het. Ik ben eens wat gaan puzzelen en je kan dit dus mitigeren. AFMF is namelijk bewust van een frame rate cap die je in de game hebt ingesteld. AMD Chill of FRTC werken helaas niet. AFMF genereert standaard het dubbele aan je normale frames. Vervolgens worden deze frames gebruikt om het gat tot je ingestelde frame rate cap, op te vullen. Dit heeft een paar effecten:

1) Als je (beduidend) meer frames hebt dan de frame rate cap, dan ervaar je nauwelijks micro stutter, verdwijnt de meeste ghosting die er al was en heb je een zeer hoge frame rate. Ik vermoed dat dit komt, omdat er veel frames worden weggegooid die voor ghosting en micro stutter zouden zorgen.
2) Als je de frame rate cap niet haalt, dan krijg je micro stutter en als je basis frame rate te laat is, ook meer ghosting. Dit omdat AFMF die frame rate cap probeert te behalen. Dit los je op door in game de frame rate cap te verlagen.
3) Als je echt niet afdoende reguliere frames genereert, dan ervaar je enorme ghosting. Ik bereikte dat door eens de frame rate cap op 30 fps te zetten. Dan krijg je 60fps op je scherm, maar het ziet er totaal niet uit. Verder is de input lag ook dramatisch.

Verder lijkt het erop dat je vanaf circa 70fps, zonder interpolatie frames, op 1440p, in ieder geval in Witcher 3, voorbij het punt komt waar ghosting een probleem is. Daaronder zie je wat meer. Erboven is vrijwel alles weg.


En toen ANNO 1800 ook eens geprobeerd. Een game die het concept van meerdere CPU cores ontgaan is. Resultaat is dat elke videokaart sneller dan een aardappel, nooit op 100% load zit als je eenmaal een aardige stad hebt gebouwd. Het probleem zit ook in NPC's die zo te zien allemaal op een CPU core zitten en de boel verstikken. Zodra die ingeladen zijn, stort je frame rate altijd volledig in, ook al zie je ze niet. :z

Dus daar zit je met je 35fps. Maar dankzij AFMF is het 70fps op mijn scherm. De game is slow paced genoeg dat je geen problemen met inputlag ervaart. Het verschil hier is enorm omdat het veel rustiger voor je ogen is zonder de nadelen.
Afbeeldingslocatie: https://tweakers.net/i/hNI0v8uHVWjUqHRPNW8q49KNfDw=/800x/filters:strip_icc():strip_exif()/f/image/YnNBu0wUdxZMbSUn5oYlTbt7.jpg?f=fotoalbum_large

Vervolgens nog wat andere games geprobeerd met hetzelfde resultaat. De microstutter is niet erg relevant als je maar een afdoende hoge minimale frame rate haalt en de game niet pacing gevoelig is. Speel je een game waar dat niet erg relevant is, dan werkt AFMF goed. Zeker in games die erg CPU gelimiteerd zijn, is dit iets zeer interessants. Dat dit in principe voor elke DX11 en DX12 game werkt, is vervolgens wel een potentiële game changer. Want AMD heeft nu iets dat Nvidia niet heeft. Iets waarover ik herhaaldelijk zeer sceptisch ben geweest en waar ik dit absoluut niet van verwacht had. :o

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Evernote
  • Registratie: Januari 2012
  • Laatst online: 11-10 07:59
Hier ook aan de slag gegaan met de preview driver maar ik krijg AMD Fluid Motion Frames niet aan de praat, ik heb nu een aantal games probeert namelijk:
  • Starfield
  • Shadow of the Tomb Raider
  • Horizon Zero Dawn
Deze hebben volgens AMD ondersteuning voor FMF vanuit de driver/Adrenalin maar het wil niet werken.

Wanneer ik FMF aanzet verlies ik bijvoorbeeld in Starfield 8% fps en zie ik in Adrenalin dat het aan zou staan maar ik heb geen 'Frame Generation Lag' data onder het kopje performance. In Horizon Zero Dawn verlies ik 19% fps als ik het aanzet en ook hier geeft Adrenalin geen data weer dus het lijkt niet aan te staan maar er gebeurd op de achtergrond wel iets anders verlies ik die frames niet.

In alle gevallen heb ik vsync uitstaan, gebruik ik geen HDR, staat enhanced sync uit en heb ik alleen DX12 games getest.

Ik speel zelf op 4K met een 7900XTX en uiteraard speel ik niet met een fps cap.

De preview driver opnieuw installeren mocht ook niet baten overigens..

Acties:
  • +1 Henk 'm!

  • ikt
  • Registratie: Juli 2008
  • Laatst online: 09:20

ikt

Gisteravond nog snel AFMF geprobeerd - het werkt, maar zoals verwacht tovert het niet magisch meer frames op je scherm zonder nadelen als je een lage FPS hebt. Voor context - R7 5700X + RX 7900 XT op 1440p 144Hz VA scherm (AOC CQ27G2U/BK).

Met Starfield beweegt de wereld vloeiend, zolang je niet teveel met je input doet. Als je de camera te snel beweegt dropt de framerate naar native, dus ik denk dat bij grote veranderingen AFMF niet weet wat ertussen getoverd moet worden. Ook objecten die relatief snel over je scherm bewegen worden niet goed aangevuld.

In andere scenario's presteert AFMF geweldig - beweeg je je vooral over 1 as voort en zit er niet teveel dicht bij de camera, dan is het beeld inderdaad veel vloeiender. Dit is met ~50 native FPS (in Starfield, Akila, dus erg CPU-limited).

In Cyberpunk 2077 is het ongeveer hetzelfde verhaal - dus Path Tracing kun je wel aanzetten, maar het wordt er niet magisch speelbaar van door de lage base-framerate :+

In een heel ander spel, GTA V, lijkt het te werken, maar daar krijgt de game mijn hardware niet op de knieën en geraak ik niet onder de 100FPS. En dit zal wel eerder mijn probleem zijn, want dan merk ik het niet dat de framerate omhoog wordt getoverd tot stabiel 144FPS.

Als laatste nog BeamNG geprobeerd, en daar werkt het ook gewoon - met dezelfde dingen waar je op moet letten. Hier was het wel duidelijker als gegenereerde frames ghosting vertoonden, waarschijnlijk door de simpelere graphics.

De communicatie over de technical preview driver is trouwens echt bagger, welke clown gaat over de communicatie binnen AMD? Ik had bijvoorbeeld DigitalFoundry, HardwareUnboxed of GamersNexus coverage verwacht, maar nee, radiostilte tot het absolute laatste moment en dan is opeens die driver beschikbaar.

[ Voor 12% gewijzigd door ikt op 01-10-2023 13:50 . Reden: FSR3 -> AFMF ]


  • ikt
  • Registratie: Juli 2008
  • Laatst online: 09:20

ikt

Hmm, nog een vaagheid die misschien de niet-vloeiende gameplay met FG kan veroorzaken:

In de driver wordt gezegd dat VSync uit moet staan:

Afbeeldingslocatie: https://tweakers.net/i/fkLKDkEJIxoP3H_T7eLhqaT398g=/800x/filters:strip_exif()/f/image/VzOwbK8JpGjC46R6V2LlEu86.png?f=fotoalbum_large

Maar AMD's aankondiging zegt dit:
Frame Pacing and Recommended VSync Settings

It is recommended to use AMD FSR 3 with VSync, as when enabled, frame pacing relies on the expected refresh rate of the monitor for a consistent high-quality gaming experience. Additionally, it is recommended that Enhanced Sync is disabled in AMD Software: Adrenalin Edition™ settings, as it can interfere with frame pacing logic. A game using AMD FSR 3 in this configuration will show a “zigzag” pattern on frame time timing graphs in performance measuring tools such as AMD OCAT. This is completely expected and does not indicate uneven frame pacing.

FSR 3 can also be used with VSync disabled, for example for performance measurement, but the experience will be less optimal due to frame tearing inherent to not having VSync enabled. For more in-depth details about how AMD FSR 3 frame pacing works, you can check out our technical blog on GPUOpen.
Dus wel VSync? Geen VSync? In-game of in-driver? Enhanced Sync moet uit, maar hoe zit het met FreeSync?

  • Gundogan
  • Registratie: Maart 2010
  • Laatst online: 13:47

Gundogan

Rip and tear, until it is done

FRS3 met Forspoken is qua framerates indrukwekkend. Op mijn systeem op 1080p ga ik met alles max + RT van 30ish naar 70-80 fps en het ziet er smooth uit (upscaling op quality). Ook weinig artifacts te zien wat ik wel verwachtte (heb een beetje de interpolation technieken van TVs in mijn hoofd die vrijwel altijd voor zeer merkbare artifacts zorgen). Maarja, het speelt nog steeds als 30 fps en dus niet fijn. Ja het heeft een hoge base framerate nodig (60+) om dat tegen te gaan, maar dan speel ik liever op die hoge base framerate zonder frame generation.

Dat upscaling en frame generation al in een relatief vroeg stadium al voor goede resultaten zorgen is mooi om te zien, maar zolang het nog niet lekker speelt, heb ik er uiteindelijk nog vrij weinig aan. En dan wil ik niet dat games standaard geoptimaliseerd worden voor 60fps met upscaling + frame generation.

Ryzen 5 5600, 32GB, Gigabyte B550M DS3H, RX 9060 XT 16GB


  • Evernote
  • Registratie: Januari 2012
  • Laatst online: 11-10 07:59
Weer een typische AMD feature die Motion Fluid Frames, ik krijg het voor geen mogelijkheid aan de praat met de huidige preview driver..

Heel tof dat AMD dit voor iedere game mogelijk maakt maar dan moet 't wel werken.

In Forspoken werkt het wel vanuit de game zelf maar op driver niveau niet en de overlay crashed ook non-stop bij deze preview drivers. Als ik gebruik maak van performance logging zie ik ook N/A voor 'frame gen lag' staan dus ondanks dat Adrenalin zegt dat het actief zou moeten zijn is dat absoluut niet het geval en gaat m'n performance ook omlaag wanneer ik de functionaliteit aanzet.

EDIT:

Probleem gevonden, Smart Access Memory (SAM) zodra ik dit uitzet werkt Frame Gen en crashed de overlay ook niet meer.

Complete bullshit maar misschien helpt dit iemand die ook hetzelfde probleem heeft als mij dat frame gen gewoon weigert te werken via de drivers.

Edit 2:
Dit lijkt toch niet helemaal het probleem te zijn, die frame gen is gewoon compleet borked.. 8)7

[ Voor 28% gewijzigd door Evernote op 30-09-2023 21:52 ]


  • Magenof
  • Registratie: Juli 2016
  • Laatst online: 10-10 11:57
Urgh FSR3 disables Freesync, hopelijk fixt AMD dat snel want anders gebruik ik die rommel niet.

Acties:
  • +3 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 14:37
Ik snap de kritiek hier niet zo. Dit is een technical preview driver, met vooral de bedoeling om feedback te verzamelen over problemen & bugs die optreden. Volgens mij is niet eens een beta status driver.
Wacht eerst maar op de officiële WHQL driver voordat er halsoverkop conclusies worden gemaakt ;).

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:51
CMT schreef op zaterdag 30 september 2023 @ 23:34:
Ik snap de kritiek hier niet zo. Dit is een technical preview driver, met vooral de bedoeling om feedback te verzamelen over problemen & bugs die optreden. Volgens mij is niet eens een beta status driver.
Wacht eerst maar op de officiële WHQL driver voordat er halsoverkop conclusies worden gemaakt ;).
Ik vermoed dat dit komt door blogs als: https://community.amd.com...now-available/ba-p/634265 waar 'Technical Preview' niet eens in voorkomt en waar ze vooral over availability praten, iets wat je normaal niet doet bij technical previews.

Daarnaast komt de driver die FSR3 enabled ook gewoon binnen op mijn systeem via het AMD control panel, als dit een preview zou zijn zou dit imho nooit mogen gebeuren.

redelijk wat kritiek lijkt daar op te zijn (o.a. geen FSR3 als je een vorm VRR gebruikt komt veel terug op reddit / de forums).

Er is natuurlijk ook de AFMF driver, die wel in preview is nog, https://www.amd.com/en/su...n-23-30-afmf-tech-preview en een deel van de klachten gaat daar over, dit lijkt ook voor wat verwarring te zorgen onder mensen, door wie alle klachten op de hoop preview driver gegooid lijken te worden, terwijl dit niet het geval lijkt en ook de release driver voor genoeg klachten lijkt te zorgen.

Acties:
  • +2 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 14:37
De marketing van AMD...nu vind ik een community blogpost nou geen plek om iets groots bekend te maken. Het is al vaker voorgekomen dat van hieruit nieuws gekomen is dat dan een eigen leven is gaan leiden. Ondertussen wordt dit wel een 'FRS3 release' genoemd door de media, maar het enige wat ik zie is dat er eigenlijk 2 games een update gekregen hebben waarin FSR3 mogelijk is gemaakt en daar uitgeprobeerd kan worden. De preview driver is niet via de normale weg vindbaar (bij mij ook niet binnen de Andrenaline update functie, die geeft alleen de laatste WQHL driver 23.9.3) en zou dus het publiek niet horen te bereiken.

Maar om even iets uit de toelichting van de preview driver te quoten:
This preview driver is intended to provide users an early first-look into upcoming features within AMD Software; feedback is encouraged and can be submitted through the AMD Bug Report Tool. If issues arise or persist during the usage of the Preview Driver, please use the AMD Auto-Detect and Install Tool to revert the latest recommended AMD Software: Adrenalin Edition driver.
En deze ook leuk, heeft direct betrekking op een van de klachten:
The AFMF technical preview currently requires the game to be played in fullscreen mode with HDR disabled and VSYNC disabled.

For the optimal experience, AFMF is recommended to be used on AMD FreeSync™ displays.
Users are recommended to disable HDR in Windows Display Settings, or disable HDR in the game (as well as Auto-HDR).
Maar ondertussen staat ook dit in de blogpost:
Frame Pacing and Recommended VSync Settings

It is recommended to use AMD FSR 3 with VSync, as when enabled, frame pacing relies on the expected refresh rate of the monitor for a consistent high-quality gaming experience. Additionally, it is recommended that Enhanced Sync is disabled in AMD Software: Adrenalin Edition™ settings, as it can interfere with frame pacing logic. A game using AMD FSR 3 in this configuration will show a “zigzag” pattern on frame time timing graphs in performance measuring tools such as AMD OCAT. This is completely expected and does not indicate uneven frame pacing.

FSR 3 can also be used with VSync disabled, for example for performance measurement, but the experience will be less optimal due to frame tearing inherent to not having VSync enabled. For more in-depth details about how AMD FSR 3 frame pacing works, you can check out our technical blog on GPUOpen.
Dit lijkt mij een combinatie van slechte AMD marketing + community die wat (te) enthousiast heeft zitten te graven een dus een driver in handen heeft gekregen wat bij reviewers / insiders hoort te belanden.
Ik had ook eerder verwacht dat in plaats van zo'n blogpost, grote nieuws outlets / youtube tech channels op de hoogte werden gebracht en vanuit daar FSR3 aan het publiek getoond wordt.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@CMT Die driver is gewoon te downloaden. ;)
The AMD Software: Adrenalin Edition™ Technical Preview Driver for AMD Fluid Motion Frames Version 23.30.01.02 installation package can be downloaded from the following link:

By clicking the Download button, you are confirming that you have read and agreed to be bound by the terms and conditions of the End User License Agreement (“EULA”). If you do not agree to the terms and conditions of these licenses, you do not have a license to any of the AMD software provided by this download.

Note: Users are highly suggested to do a driver cleanup before upgrading to this technical preview driver

AMD Software: Adrenalin Edition™ Technical Preview Driver for AMD Fluid Motion Frames Version 23.30.01.02 Driver for Windows® 10 & Windows® 11 64-bit
https://www.amd.com/en/su...n-23-30-afmf-tech-preview

Maar het is beschamend hoe ze dit hebben aangepakt. Dit is misschien nog erger dan de RX7900 series launch...

Want zeker voor een preview is AFMF echt heel erg goed. Ik heb er al uren Cyberpunk mee gespeeld en ik begin eigenlijk al een (duidelijke) voorkeur te ontwikkelen voor AFMF over FSR2. Zo goed presteert het namelijk. Het is dat ik toch wel wat RT aan wil zetten, want anders zou ik waarschijnlijk FSR2 uitzetten. Met FSR2 RT reflections en RT lighting op medium, zit ik zo rond de 70fps (echte frames).

Het enige is dat je echt een minimale frame rate moet hanteren om ghosting tegen te gaan. Dat lijkt ook 70fps te zijn, waar ik systematisch op mik als ondergrens. Verder na het instellen van een maximale frame rate, kan je microstutter ook wat onderdrukken en frame times stabieler maken. Je kan van die 70, natuurlijk 140 frames maken, maar dan krijg je meer variatie in je frame times. Dus ik cap de fps dan tussen de 100-120 (ben nog aan het experimenteren) en dat maakt het al minder variabel. Qua input lag is het ook goed te doen met de basis van 70fps. Helaas nog geen Anti Lag+ voor Cyberpunk met deze driver.

Maar dit normaal communiceren en uitleggen, ho maar. Het is een potentiële gigantische win voor AMD. Ze hebben gewoon een betere software feature dan Nvidia, en ze falen compleet in dit zelfs maar toe te lichten. :X

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op zondag 1 oktober 2023 @ 18:32:
Maar dit normaal communiceren en uitleggen, ho maar. Het is een potentiële gigantische win voor AMD. Ze hebben gewoon een betere software feature dan Nvidia, en ze falen compleet in dit zelfs maar toe te lichten. :X
Zelfs Digital Foundry was positief over de preview die de press had gekregen. Die zijn haast nooit positief over AMD :+.

Ik dacht ergens gehoord te hebben dat VSync en Freesync iets te maken hadden met frame pacing die ze toepassen met die gegenereerde frames?

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:51
@CMT
De preview driver is niet via de normale weg vindbaar (bij mij ook niet binnen de Andrenaline update functie, die geeft alleen de laatste WQHL driver 23.9.3) en zou dus het publiek niet horen te bereiken.
Er zijn 2 drivers voor zover ik kan zien, 23.9.3, die FSR3 'lanceert' en de AFMF preview driver waar ik al eerder naar linkte ( https://www.amd.com/en/su...n-23-30-afmf-tech-preview ).

Dit lijkt nu juist hetgeen te zijn waardoor allerlei verhalen en tests door elkaar beginnen te lopen en je dus deze verwarring krijgt :)

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 14:37
@DaniëlWW2
Maar is dat niet de driver die alleen met een direct link te vinden is? Ik kan het alleen vinden op AMD.com wanneer ik in de searchbar 'preview driver' invul en dan een link aanklik in een post over AFMF:

https://community.amd.com...x-7000-series/ba-p/634372

Daarin staat trouwens wat duidelijker dat het om een vroege build gaat (alpha?):
Please note that this is an early build of AMD Fluid Motion Frames, and the driver is not final. Your feedback is encouraged and can be submitted through the AMD Bug Report Tool. This feedback is crucial for us and helps us determine how to shape the future of AMD Radeon™ Software. If issues persist, use the AMD Auto-Detect and Install Tool to revert the latest recommended AMD Software: Adrenalin Edition™ driver
@Dennism
Maar bij de release notes van 23.9.3 wordt niet gerept over FSR3?
Ik zie ook niet de AFMF functie, die wel in de preview driver zichtbaar is.
Of bedoel je alleen de AA van FSR?

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 14:51
CMT schreef op maandag 2 oktober 2023 @ 06:47:


@Dennism
Maar bij de release notes van 23.9.3 wordt niet gerept over FSR3?
Ik zie ook niet de AFMF functie, die wel in de preview driver zichtbaar is.
Of bedoel je alleen de AA van FSR?
Voor zover ik het begrijp, want duidelijk is het inderdaad niet, is de 23.9.3 driver gekomen met de release van FSR3 waarbij je dus de 2 games hebt die nu officieel FSR 3 supporten, deze driver komt ook steeds terug in de footnotes in de eerder gelinkte blog: https://community.amd.com...now-available/ba-p/634265 en werkt ook voor bijvoorbeeld 6000 serie kaarten.

Daarnaast heb je de preview driver, die AFMF beschikbaar maakt in preview voor 'alle' DX11/12 games mits je een 7000 serie kaart hebt, en dus niet alleen voor de 2 games met 'officiele' FSR3 support.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

CMT schreef op maandag 2 oktober 2023 @ 06:47:
@DaniëlWW2
Maar is dat niet de driver die alleen met een direct link te vinden is? Ik kan het alleen vinden op AMD.com wanneer ik in de searchbar 'preview driver' invul en dan een link aanklik in een post over AFMF:

https://community.amd.com...x-7000-series/ba-p/634372

Daarin staat trouwens wat duidelijker dat het om een vroege build gaat (alpha?):
De driver is alleen met de directe link te vinden. Dat is onderdeel van het gepruts van de AMD "zelf sabotage" afdeling. :z
Het is geen reguliere driver die in de reguliere download queue staat.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Techkeizer
  • Registratie: Januari 2023
  • Laatst online: 11-10 15:34
De 7900xtx en 7900xt zijn gezakt qua prijs in de VS. Ik ben benieuwd wanneer ze hier gaan zakken en wanneer bijvoorbeeld ook de 7800 xt richting de 500 gaat. Ik zag dat sommige modellen al 600 plus zijn..

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

fwiw

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

  • Snowdog
  • Registratie: Maart 2001
  • Laatst online: 14:14
En FWIW 2: FMF voor RDNA 2

Binnenkort maar eens ff proberen als ik een keer veel tijd heb :P

Edit: sorry voor de quote, was niet nodig, beetje lui en leek makkelijkste knopje :P

[ Voor 9% gewijzigd door Snowdog op 06-10-2023 20:50 ]


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 14:37
Ik ben benieuwd, zou ik toch even met de RX6900 vooruit kunnen en de 'upgrade' GPU's weer kunnen verkopen :P?
Op Computerbase waarschuwen ze wel dat de kwaliteit van de driver AFMF, van slechtere kwaliteit zal zijn. Dit omdat er alleen van twee opvolgende frames en geen motion vectors gebruik gemaakt kan worden.
Klinkt dus als gewone beeld interpolatie met waarschijnlijk een hoop smeer.

Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 13:28

vectormatic

Warlock of the doorlock

Ben ik de enige die het hele FSR3/FMF verhaal niet boeiend vindt? Als ik het goed begrijp wordt aangeraden om het te gebruiken op settings waar je "native" toch al 60 FPS haalt, laat dat met freesync voor mij nou eens al prima zijn.

Ik had liever gezien dat de upscaling van FSR2 nog wat verbeterd werd.. Uiteindelijk hebben meer mensen daar wat aan gok ik zo.

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 12:38
vectormatic schreef op vrijdag 6 oktober 2023 @ 22:00:
Ben ik de enige die het hele FSR3/FMF verhaal niet boeiend vindt? Als ik het goed begrijp wordt aangeraden om het te gebruiken op settings waar je "native" toch al 60 FPS haalt, laat dat met freesync voor mij nou eens al prima zijn.

Ik had liever gezien dat de upscaling van FSR2 nog wat verbeterd werd.. Uiteindelijk hebben meer mensen daar wat aan gok ik zo.
Nee hoor, heb hetzelfde. Het "beter dan native" heb ik nog niet kunnen ervaren en vind al deze technieken dan ook niet interessant. Gelukkig heb ik met de xtx ook geen truukjes nodig.

"Vroegah" werden ze afgemaakt als ze iets met de driver deden waardoor ze een hogere fps haalden ten koste van wat beeldkwaliteit. Nu is het een "feature" en de beste cheater wint.

Ghosting, shimmering, flickering, beeldfoutjes, missing objects, draw distance zijn allemaal irritaties die er al zijn sinds ik in de jaren 90 begon met pc's. Veel van deze dingen worden nu extra versterkt door deze technieken en is ineens geen probleem.

Ik zal wel oud worden, maar vroeger was alles beter :+
Pagina: 1 ... 92 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.