Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

vectormatic schreef op vrijdag 6 oktober 2023 @ 22:00:
Ben ik de enige die het hele FSR3/FMF verhaal niet boeiend vindt? Als ik het goed begrijp wordt aangeraden om het te gebruiken op settings waar je "native" toch al 60 FPS haalt, laat dat met freesync voor mij nou eens al prima zijn.

Ik had liever gezien dat de upscaling van FSR2 nog wat verbeterd werd.. Uiteindelijk hebben meer mensen daar wat aan gok ik zo.
Dat komt omdat er een verstikkende focus ligt op hoe en waar je het moet gebruiken. Ik ben ook niet bepaald onder de indruk van HWU hier. Er bestaan zowaar meer games dan 1st of zelfs 3th person, waarbij interpolatie helemaal zo gek niet is. Het probleem is dat je juist DLSS2/FSR2 en DLSS3/FSR3 krijgt en gaat krijgen in 1st en 3th person games. Dat zijn de games waar upscaling nog handig kan zijn, met name voor gamers met een oudere videokaart. Daarvoor zou het namelijk moeten zijn. Het is de ultieme verbetering van frame rate voor minimaal verlies in kwaliteit. Het gebruiken voor RT is en blijft een ongewenste, maar helaas vaak noodzakelijke stap omdat de RT hardware en soms ook de RT implementatie in de game, niet deugt.

Interpolatie is veel meer een randgeval. Dat wil je juist wel hebben in langzamere games die vaak te maken hebben met enorme CPU beperkingen. Strategie games dus. Als je die speelt dan weet je hoe het gaat. Elke nieuwe game is de vraag niet zozeer of je videokaart het aankan, maar of je CPU het gaat trekken. De meeste reviewers bakken er ook helemaal niks van qua testen. Je moet een dergelijke game echt testen door flink wat op te bouwen. Dan zie je de problemen pas ontstaan. En daar is driver level interpolatie een dusdanig goede feature dat ik me hardop afvraag waarom je nog een Nvidia videokaart zou moeten kopen als je die games speelt? Dat was al niet de beste keuze omdat driver overhead ook al erg ongewenst is, maar interpolatie maakt het helemaal duidelijk. Ik kan je zo een lijst van strategie games geven die allemaal matig tot dramatisch draaien op zelf een CPU zoals mijn 5800X3D. Ondertussen komt de GPU nauwelijks uit idle. Daar is interpolatie geweldig.

Verder ervaarde ik AFMF zeker al niet slecht, maar zeker voor snelle multiplayer games, zou ik het ook niet aanzetten. Uiteindelijk heb ik het ook weer uitgezet voor Cyberpunk omdat ik, zoals zo velen, tot de conclusie kwam dat Cyberpunk RT het gewoon totaal niet waard is. Ik kwam namelijk veel te veel situaties zoals dit tegen:

Psycho + Reflections RT
Afbeeldingslocatie: https://tweakers.net/i/0knxe6Vt-LCsJhuNDP5m5xP3CO4=/800x/filters:strip_exif()/f/image/kdTbxKnv2fCsTizOuciIoXzj.png?f=fotoalbum_large

RT off
Afbeeldingslocatie: https://tweakers.net/i/7LD2QBfQ_jK9AQJtkXIckF_RYH4=/800x/filters:strip_exif()/f/image/WMtKbNdMmhcOxQ4YB2JGQyQY.png?f=fotoalbum_large

Het grootste verschil hier is dat de RT bijna 100 fps koste en je dat terug moet krijgen met FSR2 + AFMF. :|

Aangezien ik zowel XeSS als FSR2 niet bepaald goed vind in Cyberpunk, zet ik dat liever uit en dan gaat de RT ook uit. Het is veel te inconsistent en slecht toegepast. Helaas, want er zijn ook stukken waar je het wel ziet. Dat is alleen niet frequent genoeg. Het helpt ook niet dat Cyberpunk haar baked light zeker niet zo slecht is en de RT meer een toevoeging achteraf lijkt te zijn. Verder zijn de textures ook vaak van dusdanig lage resolutie dat flink wat RT, dat alleen maar duidelijker maakt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

meljor schreef op zaterdag 7 oktober 2023 @ 10:13:
[...]


Nee hoor, heb hetzelfde. Het "beter dan native" heb ik nog niet kunnen ervaren en vind al deze technieken dan ook niet interessant. Gelukkig heb ik met de xtx ook geen truukjes nodig.

"Vroegah" werden ze afgemaakt als ze iets met de driver deden waardoor ze een hogere fps haalden ten koste van wat beeldkwaliteit. Nu is het een "feature" en de beste cheater wint.

Ghosting, shimmering, flickering, beeldfoutjes, missing objects, draw distance zijn allemaal irritaties die er al zijn sinds ik in de jaren 90 begon met pc's. Veel van deze dingen worden nu extra versterkt door deze technieken en is ineens geen probleem.

Ik zal wel oud worden, maar vroeger was alles beter :+
Herkenbaar. Vroeger was alles beter behalve de toekomst ;)

Zit er een beetje dubbel in. Enerzijds heb ik in principe liever native, anderzijds zijn er best wat games waarbij ik DLSS2/3 gebruik en het resultaat voor mij voldoende is qua graphics en gevoel als ik de game wereld rondbeweeg.
De game ervaring is dan toch te prefereren boven native op 40 fps.

Ik zou het zeker niet gebruiken voor echt competitieve fps games maar bijv. bij Hogwarts legacy ben ik er wel blij mee.

Bij SW Jedi Survivor, een game die zich hier ook voor leent, voelt DLSS dan weer nogal vreemd aan.

Het is een mixed bag en verwacht dat dat bij AMD niet veel anders is.

Wat ik ook vervelend vind is dat er nu inmiddels zoveel grafische opties zijn dat je door de bomen het bos niet meer ziet en het ook erg ingewikkeld wordt om zaken te vergelijken (ook voor reviewers) en goed in te stellen zonder dat je een flinke studie verricht.

De industrie lijkt locked in op deze technologie dus we ontkomen er gewoon niet meer aan.

[ Voor 29% gewijzigd door Help!!!! op 07-10-2023 10:32 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 12:38
Help!!!! schreef op zaterdag 7 oktober 2023 @ 10:30:
[...]

Herkenbaar. Vroeger was alles beter behalve de toekomst ;)

Zit er een beetje dubbel in. Enerzijds heb ik in principe liever native, anderzijds zijn er best wat games waarbij ik DLSS2/3 gebruik en het resultaat voor mij voldoende is qua graphics en gevoel als ik de game wereld rondbeweeg.
De game ervaring is dan toch te prefereren boven native op 40 fps.

Ik zou het zeker niet gebruiken voor echt competitieve fps games maar bijv. bij Hogwarts legacy ben ik er wel blij mee.

Bij SW Jedi Survivor, een game die zich hier ook voor leent, voelt DLSS dan weer nogal vreemd aan.

Het is een mixed bag en verwacht dat dat bij AMD niet veel anders is.

Wat ik ook vervelend vind is dat er nu inmiddels zoveel grafische opties zijn dat je door de bomen het bos niet meer ziet en het ook erg ingewikkeld wordt om zaken te vergelijken (ook voor reviewers) en goed in te stellen zonder dat je een flinke studie verricht.

De industrie lijkt locked in op deze technologie dus we ontkomen er gewoon niet meer aan.
Zolang het maar opties blijven en niet het nieuwe native wordt... Persoonlijk zet ik een game liever een standje lager als het moet. De setting is dan in ieder geval constant en prima mee te leven. Wanneer de software gaat bepalen waar wel en waar niet iets goed gerenderd wordt is het voor mij niet beter en idd een mixed bag die daardoor erg opvalt en storend wordt.

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Daar ben ik dus juist wel een beetje bang voor. Dat developers (linksom of rechtsom gedwongen worden om) native nog maar matig optimaliseren waardoor je eigenlijk of je settings fors om laag moet zetten of DLSS/FSR moet gebruiken om een beetje comfortabele FPS te krijgen.....

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • WinterMute2025
  • Registratie: Februari 2009
  • Laatst online: 05:02
Ik vraag me al een paar jaar af, waarom producenten van graphische kaarten niet wat extra optimalisatie voor Virtual Reality games in de chips bakken ? Ik heb totaal geen verstand van de chips/hardware van Nvidia of AMD, maar volgens mij zijn er genoeg VR gamers die dit wel prettig zouden vinden.

dus zoiets als DLSS/FSR, maar dan anders en specifiek voor VR.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 20:18
vectormatic schreef op vrijdag 6 oktober 2023 @ 22:00:
Ben ik de enige die het hele FSR3/FMF verhaal niet boeiend vindt? Als ik het goed begrijp wordt aangeraden om het te gebruiken op settings waar je "native" toch al 60 FPS haalt, laat dat met freesync voor mij nou eens al prima zijn.

Ik had liever gezien dat de upscaling van FSR2 nog wat verbeterd werd.. Uiteindelijk hebben meer mensen daar wat aan gok ik zo.
Nee hoor, ik vind het interessant tot op zekere hoogte. Om de punten die al in dit topic zijn aangehaald.
Wat nu wel een grote winst is, is dat de FSR AA op 'native' een optie wordt.
Dat ziet er echt veel beter uit dan TAA of de wazigheid die ontstaat vanuit upscaling + oppoetsen zoals gedaan wordt met FSR(2) en DLSS2. Kunnen al die 'beter than native' clickbait titels meteen de prullenbak in.

Wat FSR3/AFMF betreft hangt het imho erg van de situatie af of het fijn en zinvol is.
Het grootste voordeel is dat hiermee de 'sample en hold' tijd van de monitor gehalveerd kan worden.
Dan wordt het vooral een afweging van wat meer ghosting geeft: de lage Hz / fps van de monitor of de beeld interpolatie techniek.

Maar wat ik daarbij lees, is dat voor een goede werking v-sync aan moet staan. En dat klinkt ook logisch omdat consistente frametimes/-pacing zeer belangrijk is voor vloeiende beelden en daarmee 'ghosting foutjes' geminimaliseerd worden. Temeer voor AFMF via de driver.

Ik gebruik nu enkele jaren met volle tevredenheid freesync en wil hier echt niet meer terug naar v-sync en de bijbehorende stuttering problemen.. Maar aan de andere kant, als de v-sync latency niet uitmaakt en je gegarandeerd boven de monitor verversingssnelheid blijft, dan hoeft het niet echt een probleem te zijn.
Voor mij blijft deze feature dus vooral een gimmick, net als DSSL2/3. En moet het ook zo blijven: een optie als uitkomst bij bepaalde spellen en/of zwakke hardware.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
meljor schreef op zaterdag 7 oktober 2023 @ 10:13:
[...]


Nee hoor, heb hetzelfde. Het "beter dan native" heb ik nog niet kunnen ervaren en vind al deze technieken dan ook niet interessant. Gelukkig heb ik met de xtx ook geen truukjes nodig.

"Vroegah" werden ze afgemaakt als ze iets met de driver deden waardoor ze een hogere fps haalden ten koste van wat beeldkwaliteit. Nu is het een "feature" en de beste cheater wint.

Ghosting, shimmering, flickering, beeldfoutjes, missing objects, draw distance zijn allemaal irritaties die er al zijn sinds ik in de jaren 90 begon met pc's. Veel van deze dingen worden nu extra versterkt door deze technieken en is ineens geen probleem.

Ik zal wel oud worden, maar vroeger was alles beter :+
Ik speel veel liever spellen op een 125-200% resolutie scale (zonder AA) die wat ouder zijn; want shimmering heb ik echt een hekel aan. Dit kan gelukkig prima met oudere spellen op een 3440x1440 monitor.

Acties:
  • 0 Henk 'm!

  • Gundogan
  • Registratie: Maart 2010
  • Laatst online: 21:10

Gundogan

Rip and tear, until it is done

AFMF is er nu ook voor de 6000 series kaarten. Op zich wel nice om van 80ish fps naar 140 te gaan in Cyperpunk 2077 (mix van med/high settings op 1080p), maar qua gevoel ga je er niks op vooruit en ook bij veel bewegen gaat de framerate weer naar native. Maar zolang je base framerate hoog is, valt het met de interpolation artifacts erg mee en is het een leuke bonus. En met RT perst de RX6600 er nog 30-40 fps uit, maar de native framerate is 15-20 fps waardoor je dus mega artifacts krijgt zoals met TV's. :P

Ryzen 5 5600, 32GB, Gigabyte B550M DS3H, RX 9060 XT 16GB


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

WinterMute2025 schreef op zaterdag 7 oktober 2023 @ 12:12:
Ik vraag me al een paar jaar af, waarom producenten van graphische kaarten niet wat extra optimalisatie voor Virtual Reality games in de chips bakken ? Ik heb totaal geen verstand van de chips/hardware van Nvidia of AMD, maar volgens mij zijn er genoeg VR gamers die dit wel prettig zouden vinden.

dus zoiets als DLSS/FSR, maar dan anders en specifiek voor VR.
Ik ben niet bepaald de grootste VR expert, maar volgens mij is er geen makkelijke oplossing.
VR vraagt simpelweg om enorme gecombineerde resolutie, een flinke CPU en zowel hoge als stabiele frame rates omdat je anders sneller klachten zoals hoofdpijn van zal krijgen.

Je hebt waarschijnlijk een GPU met voornamelijk veel shaders nodig die de basis doen, FP32 ops. Maar die moet je ook aan het werk zien te krijgen en houden. Op zich zit je dan eerder bij Nvidia dan AMD, maar Nvidia heeft inmiddels een aardig utilisatie probleem met hun architectuur. De RTX4090 haalt immers op 4K uit 68% meer SM's, iets van 30% meer frames dan een RTX4080. Op 1440p is het eerder 15%. Verder zijn die frame rates ook zeker niet altijd stabiel. Het hele verhaal is ook heel erg CPU afhankelijk wat je met VR dus ook liever niet hebt.

AMD mist de shaders om de extreme resolutie echt te kunnen vullen. RDNA is heel erg op efficiënt gebruik van hun hardware binnen redelijk gangbare resoluties. 1080p tot en met 4K dus. Hogere resoluties gaan problemen geven. Verder lijkt bij AMD, VR helaas geen prioriteit te zijn. Ze kwamen pas laat met RDNA2 optimalisaties en voor RDNA3 was VR zeker een halfjaar, eigenlijk niet bruikbaar. Geen idee of het nu echt goed is. Ik heb alleen gehoord dat ze zaken hadden aangepakt.

RDNA3 haar dual issue/VOPD capaciteit zou in theorie kunnen helpen. Bijvoorbeeld de RX7900XTX heeft 6144 ALU's die het meeste rekenwerk doen, en nog eens 61$$ ALU's die in theorie juist basale FP32 ops kunnen doen. Maar zeer weinig games lijken die te kunnen gebruiken. Dat lijkt een compiler issue binnen RDNA3 te zijn. Kort samengevat krijgt een RDNA GPU een render opdracht binnen, decodeert deze en recompiled de grote opdracht in kleine clusters van rekenopdrachten die in serie worden uitgevoerd door de rekeneenheden binnen de CU's. Hierbinnen lijkt AMD helaas moeite te hebben om dit consistent voor elke game te kunnen gebruiken. Er zijn maar een paar games die het echt gebruiken. Of dat gaat veranderen, is nog steeds de vraag.

Hoe interpolatie met VR werkt, durf ik echt niet te zeggen. Als dat goed zou werken zonder dat je er last van krijgt, dan zou AMD haar AFMF wel iets kunnen doen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
VR is vrij lastig iets voor te doen.

Zoiets als een Index heeft twee 1440x1600 schermen, die élk op hoge framerates aangedreven moeten worden. Elk paneel an sich is al iets meer dan een 1080p scherm qua pixels, in totaal zit het in de buurt van 3440x1440. Het perspectief is net iets anders voor beide schermen, waardoor je dus ook daadwerkelijk 240 frames moet renderen op 120 Hz.

Nvidia heeft wel Single Pass Stereo, maar dat ondersteunt vrijwel niemand vanwege allerlei redenen. Ten eerste is het uiteraard vendor gebonden, dat helpt al niet. Maar vervolgens moet je ook je pipeline aanpassen en werkt het alleen voor platte projecties; dat wil zeggen, headsets met een enkel scherm voor beide ogen, of met 2 schermen die onder exact dezelfde hoek voor de ogen staan, zodat de projecties symmetrisch zijn. De meeste headsets vallen buiten die groep. Als laatste renderen ze stiekem alleen het linkeroog correct, voor het rechter oog gooien ze een hoop data weg en passen ze shaders aan, met als resultaat dat het vaak gare artefacten produceert. Volstrekt nutteloos dus en Nvidia heeft er sindsdien ook niets meer mee gedaan.

Uitgerekend AMD zou echter wel goed moeten zijn in VR en wellicht nog baat hebben van VOPD, omdat er extreem veel data gedeeld wordt tussen simultane frames. Waar ze problemen mee hebben weet ik niet, heb me er nooit echt in verdiept. En ik kreeg m'n 6650 XT dusdanig laat dat VR al geen probleem meer was op RDNA2 :)

Het aantal shaders is echt niet het probleem bij AMD, ze hebben er even veel als Nvidia heeft met Ampère en kunnen ze beter aan het werk houden.

Interpolatie en upscaling wil je in VR niet, punt. Artefacten en andere onregelmatigheden vallen veel sneller op en maken motion sickness erger als je daar last van hebt.

Acties:
  • 0 Henk 'm!

  • MailMan
  • Registratie: Juni 2002
  • Laatst online: 11-10 22:02
DaniëlWW2 schreef op zaterdag 7 oktober 2023 @ 10:20:
[...]
Verder ervaarde ik AFMF zeker al niet slecht, maar zeker voor snelle multiplayer games, zou ik het ook niet aanzetten. Uiteindelijk heb ik het ook weer uitgezet voor Cyberpunk omdat ik, zoals zo velen, tot de conclusie kwam dat Cyberpunk RT het gewoon totaal niet waard is. Ik kwam namelijk veel te veel situaties zoals dit tegen:

Psycho + Reflections RT
[Afbeelding]

RT off
[Afbeelding]

Het grootste verschil hier is dat de RT bijna 100 fps koste en je dat terug moet krijgen met FSR2 + AFMF. :|

Aangezien ik zowel XeSS als FSR2 niet bepaald goed vind in Cyberpunk, zet ik dat liever uit en dan gaat de RT ook uit. Het is veel te inconsistent en slecht toegepast. Helaas, want er zijn ook stukken waar je het wel ziet. Dat is alleen niet frequent genoeg. Het helpt ook niet dat Cyberpunk haar baked light zeker niet zo slecht is en de RT meer een toevoeging achteraf lijkt te zijn. Verder zijn de textures ook vaak van dusdanig lage resolutie dat flink wat RT, dat alleen maar duidelijker maakt.
Helemaal mee eens.

Daar komt voor mij nog bij dat Freesync/VRR niet lijkt te werk met AFMF (RX6800)? Dus dan heb je tearing, fuzzy graphics en andere motion artifacts in ruil voor soms iets realistischere belichting en reflecties.

Het is nog een Beta driver, maar op dit moment is FSR Quality voor mij meestal te laag in kwaliteit in verhouding tot native. Dan maar wat andere graphic settings naar beneden, maar scherp beeld is voor mij een must.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

MailMan schreef op zondag 8 oktober 2023 @ 20:20:
[...]


Helemaal mee eens.

Daar komt voor mij nog bij dat Freesync/VRR niet lijkt te werk met AFMF (RX6800)? Dus dan heb je tearing, fuzzy graphics en andere motion artifacts in ruil voor soms iets realistischere belichting en reflecties.

Het is nog een Beta driver, maar op dit moment is FSR Quality voor mij meestal te laag in kwaliteit in verhouding tot native. Dan maar wat andere graphic settings naar beneden, maar scherp beeld is voor mij een must.
Uh je mist wat ik zeg. :P
Ik vind AFMF eigenlijk verrassend goed werken. Maar het is geen wondermiddel of iets dat zomaar gebrekkige frame rates kan compenseren. Voor Cyberpunk vind ik het uiteindelijk niet waard. Maar voor Witcher 3 neig ik eigenlijk naar AFMF + RT gebruiken boven FSR2 + RT. Beide zijn helaas games waar de moeite vooral gestoken is in de Nvidia tech en niet de alternatieven. XeSS is in beide games ook erg matig. :/

Maar voor games zoals ANNO, EU4, Total War etc, zie ik mijzelf eigenlijk altijd AFMF gebruiken omdat de voordelen daar veel groter dan de nadelen zijn. Het lost de vaak voorkomende CPU beperkingen perfect op en latency of wat ghosting is niet erg relevant in zulke langzamere games. Daar gaat het nu juist niet over, terwijl er genoeg zijn die dergelijke games spelen.

Verder zou bij AFMF Freesync nu wel moeten werken en VSYNC niet. FSR3 is omgedraaid.
Maar het zijn niet eens beta drivers. AMD is dit aan het testen. Officieel komt AFMF pas volgend jaar.
Die preview drivers kwamen uit het niks, dat RDNA2 het ook al kreeg was helemaal een verrassing en dat het al aardig werkt is ook een verrassing. Ze zijn aan het testen, maar de interpolatie lijkt behoorlijk goed te zijn. Nu nog de rest van het spul eromheen. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • MailMan
  • Registratie: Juni 2002
  • Laatst online: 11-10 22:02
DaniëlWW2 schreef op zondag 8 oktober 2023 @ 20:42:
[...]


Uh je mist wat ik zeg. :P
Ik vind AFMF eigenlijk verrassend goed werken. Maar het is geen wondermiddel of iets dat zomaar gebrekkige frame rates kan compenseren. Voor Cyberpunk vind ik het uiteindelijk niet waard. Maar voor Witcher 3 neig ik eigenlijk naar AFMF + RT gebruiken boven FSR2 + RT. Beide zijn helaas games waar de moeite vooral gestoken is in de Nvidia tech en niet de alternatieven. XeSS is in beide games ook erg matig. :/

Maar voor games zoals ANNO, EU4, Total War etc, zie ik mijzelf eigenlijk altijd AFMF gebruiken omdat de voordelen daar veel groter dan de nadelen zijn. Het lost de vaak voorkomende CPU beperkingen perfect op en latency of wat ghosting is niet erg relevant in zulke langzamere games. Daar gaat het nu juist niet over, terwijl er genoeg zijn die dergelijke games spelen.

Verder zou bij AFMF Freesync nu wel moeten werken en VSYNC niet. FSR3 is omgedraaid.
Maar het zijn niet eens beta drivers. AMD is dit aan het testen. Officieel komt AFMF pas volgend jaar.
Die preview drivers kwamen uit het niks, dat RDNA2 het ook al kreeg was helemaal een verrassing en dat het al aardig werkt is ook een verrassing. Ze zijn aan het testen, maar de interpolatie lijkt behoorlijk goed te zijn. Nu nog de rest van het spul eromheen. :)
Ik had je betoog wel gelezen dat je over het algemeen best positief bent voor de juiste use-case, maar het ging mij even om het Cyberpunk gedeelte :)

Ben met je eens dat in competitive en de meeste multiplayer games (FPS) AFMF waarschijnlijk geen plek heeft, en dat je echt moet gaan ontdekken wanneer het een toevoegde waarde heeft, en met welke specifieke settings dat dan het geval is.

Het ging mij met name om de toepassing van AFMF & FSR in Cyberpunk. Die valt mij tegen voor waar ik het zou willen inzetten (de mogelijkheid om RT te gebruiken).

Van FSR3 weet ik dat je VSYNC aan moet zetten. Maar volgens mij zijn met beide issues als het gaat om VRR. In ieder geval werkt VRR niet bij iedereen lekker in combinatie met AFMF en dat is voor mij een dealbreaker: https://www.reddit.com/r/...tm_medium=web2x&context=3

[ Voor 3% gewijzigd door MailMan op 09-10-2023 07:57 ]


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

MailMan schreef op maandag 9 oktober 2023 @ 07:55:
[...]


Ik had je betoog wel gelezen dat je over het algemeen best positief bent voor de juiste use-case, maar het ging mij even om het Cyberpunk gedeelte :)

Ben met je eens dat in competitive en de meeste multiplayer games (FPS) AFMF waarschijnlijk geen plek heeft, en dat je echt moet gaan ontdekken wanneer het een toevoegde waarde heeft, en met welke specifieke settings dat dan het geval is.

Het ging mij met name om de toepassing van AFMF & FSR in Cyberpunk. Die valt mij tegen voor waar ik het zou willen inzetten (de mogelijkheid om RT te gebruiken).
Oh zeker, maar ik vond FSR2 helaas teleurstellender dan AFMF. Maar ik zit dan wel met een RX7900XT die een redelijke basis kan leggen. :)
Van FSR3 weet ik dat je VSYNC aan moet zetten. Maar volgens mij zijn met beide issues als het gaat om VRR. In ieder geval werkt VRR niet bij iedereen lekker in combinatie met AFMF en dat is voor mij een dealbreaker: https://www.reddit.com/r/...tm_medium=web2x&context=3
Dat zal AMD denk ik wel oplossen. Dit is nog echt testen om te kijken of het werkt zoals ze hopen. Want het is vrij ambitieus wat ze proberen.


AFMF lijkt namelijk via een omweg ook te werken voor video's. Dat zit er waarschijnlijk dan ook aan te komen om 24 fps video te versnellen. Of het goed werkt is altijd de vraag, maar het zou ook kunnen.
https://videocardz.com/ne...urn-of-fluid-motion-video

edit: En voor RDNA3 is er weer een preview driver. Ditmaal een nieuwe metric genaamd System Lag die alleen werkt met Anti Lag+.
https://videocardz.com/ne...ivers-works-on-rdna3-gpus

[ Voor 6% gewijzigd door DaniëlWW2 op 09-10-2023 12:43 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ikt
  • Registratie: Juli 2008
  • Laatst online: 09:20

ikt

Iemand hier die AFMF met de "nieuwe" driver (van 13 okt) heeft geprobeerd?

Sinds het weekend aangezet in Starfield, en sindsdien er niet meer aan gekomen. Ze lijken de frame pacing issues te hebben opgelost en het draait lekker vloeiend nu. ~50FPS in Akila -> ~90FPS in Akila en het voelt gewoon soepel zolang ik niet te snel rond wil kijken.

Hopen dat uitschakeling-bij-te-veel-movement in een volgende update uitgeschakeld kan worden!

[ Voor 4% gewijzigd door ikt op 16-10-2023 12:58 ]


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Het zat eraan te komen, maar daar is het dan.
Polaris en Vega gaan geen game optimalisaties meer krijgen. Alleen nog security en functionality updates.
Ook worden de drivers voor Polaris en Vega, afgesplitst van RDNA.
The AMD Polaris and Vega graphics architectures are mature, stable and performant and don’t benefit as much from regular software tuning. Going forward, AMD is providing critical updates for Polaris- and Vega-based products via a separate driver package, including important security and functionality updates as available. The committed support is greater than for products AMD categorizes as legacy, and gamers can still enjoy their favorite games on Polaris and Vega-based products.
https://www.anandtech.com...for-polaris-and-vega-gpus

Polaris en Vega zijn dus niet end of support, maar je gaat geen specifieke optimalisaties ervoor meer krijgen. Tja, leuk is het niet als je nog een Polaris of Vega videokaart hebt, maar ergens wel begrijpelijk. We zijn inmiddels zes jaar na Vega en zeven jaar na Polaris. Verder trekken ze veel moderne games gewoon niet op hoge instellingen.

Uiteindelijk is dit ook een probleem van hoe slecht de videokaartmarkt is geworden. Het zijn eigenlijk behoorlijk oude videokaarten die alsnog in gebruik zijn voor veel gamers, puur omdat er jarenlang geen fatsoenlijke vervangers waren. En tot op zekere hoogte is dat misschien nog steeds een probleem voor het segment waar Polaris in zat. Want een RX6600 series of RX7600 is nu ook niet zo aantrekkelijk. Natuurlijk veel sneller, maar er zit weinig toekomst in.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17:51
DaniëlWW2 schreef op woensdag 8 november 2023 @ 20:57:
Het zat eraan te komen, maar daar is het dan.
Polaris en Vega gaan geen game optimalisaties meer krijgen. Alleen nog security en functionality updates.
Ook worden de drivers voor Polaris en Vega, afgesplitst van RDNA.


[...]

https://www.anandtech.com...for-polaris-and-vega-gpus

Polaris en Vega zijn dus niet end of support, maar je gaat geen specifieke optimalisaties ervoor meer krijgen. Tja, leuk is het niet als je nog een Polaris of Vega videokaart hebt, maar ergens wel begrijpelijk. We zijn inmiddels zes jaar na Vega en zeven jaar na Polaris. Verder trekken ze veel moderne games gewoon niet op hoge instellingen.

Uiteindelijk is dit ook een probleem van hoe slecht de videokaartmarkt is geworden. Het zijn eigenlijk behoorlijk oude videokaarten die alsnog in gebruik zijn voor veel gamers, puur omdat er jarenlang geen fatsoenlijke vervangers waren. En tot op zekere hoogte is dat misschien nog steeds een probleem voor het segment waar Polaris in zat. Want een RX6600 series of RX7600 is nu ook niet zo aantrekkelijk. Natuurlijk veel sneller, maar er zit weinig toekomst in.
Een RX6600 8GB voor €200 is best een goede instapkaart, maar de 32 RDNA2 CUs zijn nog steeds 32 CUs, net als de 32 GCN CUs van een RX570. April 2017, 6,5 jaar geleden. RDNA2 CUs zijn wel beter dan GCN CUs, maar als je oude spellen speelt is een RX570 8GB niet slecht.

Vorig jaar speelde ik nog AC Odyssey op een RX290, als je 40fps gewend ben, is dat prima. Tweedehands heb je al een RX580 8GB voor maar €70 met zelfs 36 CU, en daar kunnen nieuwe videokaarten gewoon niet tegenop qua prijs.

Gelukkig krijgt de RX580 voorlopig dus nog security updates. AMD schijnt nog steeds deze chips in opslag te hebben, en dit jaar zijn er zelfs RX5xx modellen op de markt gekomen. Bizar maar waar.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 12:38
Rx 6600 is bijna 2x zo snel op 1080p tov een 580, dus das wel prima, niet te vergelijken met de 2ehands Rx 580 wat mij betreft.

De r9 290 heb ik hier ook nog liggen, beest van een kaart voor die tijd. Jaren lang gebruikt en was erg lang geschikt voor 1080p 60hz. Mijn zoon heeft er eentje gebruikt voor simraces t/m vorig jaar! Ging prima in f1,assetto corsa en iracing op medium settings. Topding

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
DaniëlWW2 schreef op woensdag 8 november 2023 @ 20:57:
Het zat eraan te komen, maar daar is het dan.
Polaris en Vega gaan geen game optimalisaties meer krijgen. Alleen nog security en functionality updates.
Ook worden de drivers voor Polaris en Vega, afgesplitst van RDNA.


[...]

https://www.anandtech.com...for-polaris-and-vega-gpus

Polaris en Vega zijn dus niet end of support, maar je gaat geen specifieke optimalisaties ervoor meer krijgen. Tja, leuk is het niet als je nog een Polaris of Vega videokaart hebt, maar ergens wel begrijpelijk. We zijn inmiddels zes jaar na Vega en zeven jaar na Polaris. Verder trekken ze veel moderne games gewoon niet op hoge instellingen.
Begrijpelijk op zich wel vanuit AMD's kant, maar een goede trend is het natuurlijk niet. Als AMD nu producten op basis van deze chips voor het laatst geshipped had een aantal jaar geleden, ok. Maar volgens mij shippen ze nog steeds producten op basis van Vega, Polaris weer ik niet zeker, maar ik verwacht eigenlijk van niet of mogelijk alleen nog in China e.d? Dat je de support terug schroeft op producten die je al 2-3 jaar niet meer shipped en dan inderdaad 5-6-7 jaar daarna de support helemaal stopt is logisch, maar dit is wel heel snel, ook al is het geen volledige EOL verklaring. Heel veel mensen zullen er nu vermoed ik niet slechter van worden, maar toch vind ik de trend van GPU's die je nog actief shipped al op een flink een lager support niveau zetten voordat je gestopt bent met ze te verkopen niet heel fijn.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
De Steam Deck had toch een Vega gpu? Lijkt mij geen goed plan inderdaad om de driver ontwikkeling van architecturen die je nog verkoopt stop te zetten.
Misschien dat ze hopen dat de mensen van de DXVK repo de performance problemen fixen?

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
Sp3ci3s8472 schreef op zondag 12 november 2023 @ 17:12:
De Steam Deck had toch een Vega gpu? Lijkt mij geen goed plan inderdaad om de driver ontwikkeling van architecturen die je nog verkoopt stop te zetten.
Misschien dat ze hopen dat de mensen van de DXVK repo de performance problemen fixen?
Steamdeck is volgens mij RDNA2, maar bijvoorbeeld 5000 series APU's shippen ze volgens mij nog wel gewoon, en dat is wel allemaal Vega geloof ik.

Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op zondag 12 november 2023 @ 17:12:
De Steam Deck had toch een Vega gpu? Lijkt mij geen goed plan inderdaad om de driver ontwikkeling van architecturen die je nog verkoopt stop te zetten.
Misschien dat ze hopen dat de mensen van de DXVK repo de performance problemen fixen?
Steam deck heeft rdna 2.

Bron: https://www.steamdeck.com/en/tech/deck

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
sunsmountain schreef op zaterdag 11 november 2023 @ 19:23:
Een RX6600 8GB voor €200 is best een goede instapkaart, maar de 32 RDNA2 CUs zijn nog steeds 32 CUs, net als de 32 GCN CUs van een RX570.
RDNA2 CUs zijn wel beter dan GCN CUs, maar als je oude spellen speelt is een RX570 8GB niet slecht.
Je spreekt jezelf hier tegen ;)

Een GCN CU is geen RDNA X CU. Scheduling is radicaal anders (meer schedulers, meer issuers), data opslag is radicaal anders, 2xSIMD32 in plaats van 4xSIMD16 (enkel dit is al dag en nacht).

Gevolg is dat een RDNA CU clock-for-clock zonder moeite 50% sneller is. Een RX 5600 is op papier maar iets van 25% sneller dan een RX 570, maar in de praktijk zit dat eerder richting de 100%.

Ik heb het al vaker gezegd, maar jij focust veel te veel op die twee letters. "CU" is de benaming van een aantal rekeneenheden en op geen enkele wijze een indicatie van prestaties. Dat is net iets als praten over "SIMD" als iets nuttigs, maar een SIMD4 gaat toch echt heel anders presteren dan een SIMD32. Tussen RDNA 1 en 2/3 kun je CU's wel vergelijken, maar ook daar zijn er architecturele veranderingen geweest waardoor ze clock-for-clock niet hetzelfde presteren. De verschillen zijn echter klein genoeg dat je wel iets van een idee kunt krijgen. Maar tussen GCN en RDNA kan dat écht niet :)

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17:51
Werelds schreef op maandag 13 november 2023 @ 11:40:
[...]


[...]

Je spreekt jezelf hier tegen ;)

Een GCN CU is geen RDNA X CU. Scheduling is radicaal anders (meer schedulers, meer issuers), data opslag is radicaal anders, 2xSIMD32 in plaats van 4xSIMD16 (enkel dit is al dag en nacht).

Gevolg is dat een RDNA CU clock-for-clock zonder moeite 50% sneller is. Een RX 5600 is op papier maar iets van 25% sneller dan een RX 570, maar in de praktijk zit dat eerder richting de 100%.

Ik heb het al vaker gezegd, maar jij focust veel te veel op die twee letters. "CU" is de benaming van een aantal rekeneenheden en op geen enkele wijze een indicatie van prestaties. Dat is net iets als praten over "SIMD" als iets nuttigs, maar een SIMD4 gaat toch echt heel anders presteren dan een SIMD32. Tussen RDNA 1 en 2/3 kun je CU's wel vergelijken, maar ook daar zijn er architecturele veranderingen geweest waardoor ze clock-for-clock niet hetzelfde presteren. De verschillen zijn echter klein genoeg dat je wel iets van een idee kunt krijgen. Maar tussen GCN en RDNA kan dat écht niet :)
Als ze hetzelfde zouden zijn, had ik hetzelfde genoemd. Ik zei alleen dat 32 gelijk is aan 32.

We hebben het inderdaad al vaker gehad over motortjes. En dit is 32 appels met 32 peren vergelijken, maar toch, laten we jouw 25% of 100% dan even vergelijken.

https://www.techpowerup.c...-6600-xt-gaming-x/27.html
133.8 fps RX6600XT
65.7 fps RX580
(RX570 staat er niet bij, ik neem even de RX580)

100% best een goede schatting. Maar wacht, laten we corrigeren voor kloksnelheid:

6600XT
2589 MHz

RX580
1340 MHz

Dan is het meer ~0% (niet exact, ongeveer). Misschien kort door de bocht, maar shaders zijn shaders, motortjes zijn motortjes, die toch echt wat doen. Ja 2xSIMD32 in plaats van 4xSIMD16, maar maakt dat voor een game workload echt uit?

Ik zal altijd de CU of SM blijven zien als de motortjes achter de performance, met een bepaalde kloksnelheid. Zolang schaduw de beperkende factor blijft.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
sunsmountain schreef op dinsdag 14 november 2023 @ 23:48:
[...]


Als ze hetzelfde zouden zijn, had ik hetzelfde genoemd. Ik zei alleen dat 32 gelijk is aan 32.

We hebben het inderdaad al vaker gehad over motortjes. En dit is 32 appels met 32 peren vergelijken, maar toch, laten we jouw 25% of 100% dan even vergelijken.

https://www.techpowerup.c...-6600-xt-gaming-x/27.html
133.8 fps RX6600XT
65.7 fps RX580
(RX570 staat er niet bij, ik neem even de RX580)

100% best een goede schatting. Maar wacht, laten we corrigeren voor kloksnelheid:

6600XT
2589 MHz

RX580
1340 MHz
Ik had de absolute percentages ietwat fout in m'n hoofd, maar je mist m'n punt volledig.

Sowieso neem je RDNA 2 en dan ook nog eens zo'n beetje de slechtste SKU, daar kom ik zo wel even op terug. Waar je die 0% vandaan haalt weet ik niet. Even RDNA1 vs. GCN5:

- 580: 65,7 FPS, 2304 * 1,34 * 2 = 6175 GF
- 5600 XT: 102,5 FPS, 2304 * 1,560 * = 7188 GF

7188 / 6175 = 16% hogere throughput
102,5 / 65,7 = 56% hogere framerate

Valt dus 40% hoger uit dan verwacht. Exact hetzelfde aantal ALU's en CU's.

Dan RDNA 2, 6600 XT.

- 133,8 FPS
- 2048 * 2,589 * 2 = 10604 GF

72% hogere throughput, 104% hogere framerate. Valt "slechts" 32% hoger uit dan verwacht. Ten opzichte van de 5600 XT zie je van de 48% hogere throughput slechts 31% terug. Maar hij heeft ook minder TMU's, smallere bus (minder bandbreedte). Wel Infinity Cache, maar die 32 MB is veel te klein, dat ding bottleneckt.

Belangrijker is echter de focus van RDNA2: dat was kloksnelheid, efficiëntie en RT toevoegen. Die cijfers haalt dat ding binnen hetzelfde budget als Polaris; ten opzichte van RDNA1 ligt het verbruik pakweg 10% hoger, maar wat hij binnen dat verbruik doet is nog steeds stukken beter. En daar zit geen node sprong tussen.

Mijn punt was dat de cijfers tussen bepaalde GCN 5 en RDNA 1 SKU's 100% overeen kunnen komen en je toch gigantisch meer performance ziet. RX 580 en 5600 XT hebben beide 36 actieve CU's, 2304 ALU's, 144 TMU's, kloksnelheden ontlopen elkaar niet veel waardoor de theoretische throughput relatief dicht bij elkaar ligt. Laatstgenoemde heeft wel dubbel zo veel ROP's en meer bandbreedte. Maar dat zorgt niet voor 40% meer frames dan de cijfers op papier zouden doen vermoeden ;)
Dan is het meer ~0% (niet exact, ongeveer). Misschien kort door de bocht, maar shaders zijn shaders, motortjes zijn motortjes, die toch echt wat doen. Ja 2xSIMD32 in plaats van 4xSIMD16, maar maakt dat voor een game workload echt uit?
Juist voor game workloads wel! Threads worden namelijk per 32 (of 64) gegroepeerd, wat betekent dat zo'n groep in RDNA 1 in één kloktik afgehandeld kan worden. Met GCN móet dat in 2 kloktikken, want zo'n groep moet binnen één SIMD blijven. En dat is dan nog los van de algemene scheduling verschillen.
Ik zal altijd de CU of SM blijven zien als de motortjes achter de performance, met een bepaalde kloksnelheid. Zolang schaduw de beperkende factor blijft.
Daar zullen we het dan wel nooit over eens worden. Hoe je daar zo aan vast blijft hangen weet ik niet. Je beseft toch dat bijvoorbeeld Fiji XT maar liefst 64 CU's had? En dat die dingen maar liefst 8,6 TF produceerden? Of Vega 10, ook 64 CU's en goed voor 12,7 TF. Volgens jouw denkwijze zouden die veel rapper moeten zijn. Of dat Kepler in half zo veel SM's als Fermi wel drie keer zo veel ALU's propte?

CU's en SM's zijn benamingen voor logische groeperingen van rekeneenheden. Het is de inhoud en aansturing van die groeperingen die bepalen wat de prestaties zijn. Op zichzelf betekenen ze echt helemaal niets, ze hebben enkel betekenis binnen de context van hun eigen microarchitectuur.

Zie het zo, je kunt wel 5 fabriekshallen hebben, maar als jij maar 2 persen per hal hebt staan gaat dat niet per se sneller zijn dan 2 hallen met 5 persen elk. Je moet die 5 hallen ook consistent van papier en inkt kunnen voorzien en genoeg man in elke hal hebben om alles draaiende te houden. Tegelijkertijd kunnen die 2 hallen ook te weinig zijn als je de voorraad niet op peil kunt houden of te weinig man hebt. Het gaat er om wat er in die hallen gebeurt, niet hoeveel je er hebt.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17:51
Werelds schreef op woensdag 15 november 2023 @ 00:58:
[...]

Ik had de absolute percentages ietwat fout in m'n hoofd, maar je mist m'n punt volledig.

Sowieso neem je RDNA 2 en dan ook nog eens zo'n beetje de slechtste SKU, daar kom ik zo wel even op terug. Waar je die 0% vandaan haalt weet ik niet. Even RDNA1 vs. GCN5:

- 580: 65,7 FPS, 2304 * 1,34 * 2 = 6175 GF
- 5600 XT: 102,5 FPS, 2304 * 1,560 * = 7188 GF

7188 / 6175 = 16% hogere throughput
102,5 / 65,7 = 56% hogere framerate

Valt dus 40% hoger uit dan verwacht. Exact hetzelfde aantal ALU's en CU's.

Dan RDNA 2, 6600 XT.

- 133,8 FPS
- 2048 * 2,589 * 2 = 10604 GF

72% hogere throughput, 104% hogere framerate. Valt "slechts" 32% hoger uit dan verwacht. Ten opzichte van de 5600 XT zie je van de 48% hogere throughput slechts 31% terug. Maar hij heeft ook minder TMU's, smallere bus (minder bandbreedte). Wel Infinity Cache, maar die 32 MB is veel te klein, dat ding bottleneckt.
Grappig dat je m'n 0% niet snapt, maar m'n berekening wel. Ik probeerde oorspronkelijk te begrijpen waardoor de RX580 nog steeds zo'n goed presterende videokaart is (voor de prijs). Vergeleken met bijvoorbeeld een nieuwe RX6600 XT. Maar - je tegenvoorbeeld laat dat mooi zien met de RX 5600 XT - is een RX6600XT misschien geen goede videokaart om mee te vergelijken.

YouTube: 🛑 Black Friday GPU Prices! 🛑 RTX 4000 Super Launching 🛑 Best GPU for...

In deze chart zie je dat de 5700XT een betere koop is in $ of € / fps. De 5600 XT is tweedehands minder populair, maar kan voor €100 concurreren met de RX580, net als de 5700XT voor €120, prijzen die ik terug zie bij V&A (ik ga niet linken).

Ik probeer dingen altijd simpel te maken. Ik begrijp jouw punt dat 2 chips met verschillende architectuur, en dezelfde theoretische cijfers, toch verschillend resultaat kunnen boeken. En ook dat verschillende architecturen, verschillende accenten en bottlenecks hebben, per chip. Er is niet 1 lineaire formule waarmee je de game performance van alle videokaarten kunt berekenen. Maar, je kunt wel de verschillen begrijpen door kaarten (lineair) met elkaar te vergelijken, en dat is ook wat we doen.

Waar ik vraagtekens bij zet, is of verschillen in architectuur zoals "2xSIMD32 in plaats van 4xSIMD16" zoveel uitmaken, of dat bijvoorbeeld kloksnelheid belangrijker is. Nog een keer de voorbeelden, simpel benaderd:

- 580: 65,7 FPS door 2304 ALU bij 1340 MHz
- 5600 XT: 102,5 FPS door 2304 ALU bij 1560 MHz

56% meer FPS
16% door kloksnelheid
34% door architectuur
(1,56 delen door 1,16 geeft 1,34, je mag % niet van elkaar aftrekken en zeggen 40%)

- 580: 65,7 FPS door 2304 ALU bij 1340 MHz
- 6600 XT: 133,8 FPS door 2048 ALU bij 2589 MHz

104% meer FPS
72% door kloksnelheid
19% door architectuur
(2,04 delen door 1,72 geeft 1,19)

Ok geen 0%, maar dit (19% dus) is wat ik bedoelde met ~0%. Ik had alleen de frequenties door elkaar gedeeld in m'n hoofd, zonder het verschil in CU units te verrekenen voor de throughput.
Werelds schreef op woensdag 15 november 2023 @ 00:58:
Belangrijker is echter de focus van RDNA2: dat was kloksnelheid, efficiëntie en RT toevoegen. Die cijfers haalt dat ding binnen hetzelfde budget als Polaris; ten opzichte van RDNA1 ligt het verbruik pakweg 10% hoger, maar wat hij binnen dat verbruik doet is nog steeds stukken beter. En daar zit geen node sprong tussen.

Mijn punt was dat de cijfers tussen bepaalde GCN 5 en RDNA 1 SKU's 100% overeen kunnen komen en je toch gigantisch meer performance ziet. RX 580 en 5600 XT hebben beide 36 actieve CU's, 2304 ALU's, 144 TMU's, kloksnelheden ontlopen elkaar niet veel waardoor de theoretische throughput relatief dicht bij elkaar ligt. Laatstgenoemde heeft wel dubbel zo veel ROP's en meer bandbreedte. Maar dat zorgt niet voor 40% meer frames dan de cijfers op papier zouden doen vermoeden ;)
Als je de percentages netjes deelt, kom je op 19-34% voor de architectuur van RDNA1/2 tov GCN5. Dat stelt me toch een beetje teleur t.o.v. de "2xSIMD32 in plaats van 4xSIMD16" x2 lineair belofte. Kloksnelheid maakt daarentegen meer van haar lineair belofte waar.
Werelds schreef op woensdag 15 november 2023 @ 00:58:
Juist voor game workloads wel! Threads worden namelijk per 32 (of 64) gegroepeerd, wat betekent dat zo'n groep in RDNA 1 in één kloktik afgehandeld kan worden. Met GCN móet dat in 2 kloktikken, want zo'n groep moet binnen één SIMD blijven. En dat is dan nog los van de algemene scheduling verschillen.
De SIMD in RDNA moet dan wel 2x zo snel gevuld en geleegd worden als in GCN om die productiviteit bij te houden, is dat het geval? En voor oude games, worden threads dan per 16 gegroepeerd? Dan zou RDNA geen verschil maken.
Werelds schreef op woensdag 15 november 2023 @ 00:58:
Daar zullen we het dan wel nooit over eens worden. Hoe je daar zo aan vast blijft hangen weet ik niet. Je beseft toch dat bijvoorbeeld Fiji XT maar liefst 64 CU's had? En dat die dingen maar liefst 8,6 TF produceerden? Of Vega 10, ook 64 CU's en goed voor 12,7 TF. Volgens jouw denkwijze zouden die veel rapper moeten zijn. Of dat Kepler in half zo veel SM's als Fermi wel drie keer zo veel ALU's propte?
Ik ben wat meer van de benaderingen, jij wat meer van de precieze aansturing, maar ik zeg niet dat theoretische throughput = praktische game performance. Ik probeer game performance wel te begrijpen op basis van de eigenschappen van kaarten. Volgens jou mag je bijvoorbeeld geen 32 CU zeggen voor een 6600XT maar moet het precies 16 dual CU zijn. Ik ben wat rekkelijker en vind 32 CU prima om de 6600XT in stukjes te hakken en die (CU) stukjes (AMDs eigen benaming) te vergelijken met de stukjes van andere architecturen.
Werelds schreef op woensdag 15 november 2023 @ 00:58:
CU's en SM's zijn benamingen voor logische groeperingen van rekeneenheden. Het is de inhoud en aansturing van die groeperingen die bepalen wat de prestaties zijn. Op zichzelf betekenen ze echt helemaal niets, ze hebben enkel betekenis binnen de context van hun eigen microarchitectuur.

Zie het zo, je kunt wel 5 fabriekshallen hebben, maar als jij maar 2 persen per hal hebt staan gaat dat niet per se sneller zijn dan 2 hallen met 5 persen elk. Je moet die 5 hallen ook consistent van papier en inkt kunnen voorzien en genoeg man in elke hal hebben om alles draaiende te houden. Tegelijkertijd kunnen die 2 hallen ook te weinig zijn als je de voorraad niet op peil kunt houden of te weinig man hebt. Het gaat er om wat er in die hallen gebeurt, niet hoeveel je er hebt.
Niet alleen inhoud en aansturing, ook de bottlenecks. En binnen een groep van videokaarten van dezelfde architectuur, probeer ik toch een lineair begrip te krijgen van hoeveel beter maakt "meer motortjes" de krachtigere videokaart? Of hoeveel meer cache, VRAM, TMUs, etc.

Met name ook om toekomstige performance beter te voorspellen. Maar in dit geval om de tweedehandsjes beter te begrijpen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-10 13:31

SG

SG surft naar info hardewaren

Dennism schreef op zaterdag 11 november 2023 @ 19:48:
[...]


Begrijpelijk op zich wel vanuit AMD's kant, maar een goede trend is het natuurlijk niet. Als AMD nu producten op basis van deze chips voor het laatst geshipped had een aantal jaar geleden, ok. Maar volgens mij shippen ze nog steeds producten op basis van Vega, Polaris weer ik niet zeker, maar ik verwacht eigenlijk van niet of mogelijk alleen nog in China e.d? Dat je de support terug schroeft op producten die je al 2-3 jaar niet meer shipped en dan inderdaad 5-6-7 jaar daarna de support helemaal stopt is logisch, maar dit is wel heel snel, ook al is het geen volledige EOL verklaring. Heel veel mensen zullen er nu vermoed ik niet slechter van worden, maar toch vind ik de trend van GPU's die je nog actief shipped al op een flink een lager support niveau zetten voordat je gestopt bent met ze te verkopen niet heel fijn.
Game specifieke optimalisatie voor igpu en oude architecturen, valt bij mij niet onder driver support. Maar niveau hoger boven op driver afdelingen en human resources om prestige kroon en performance doelen geforceerd te halen. En dat is relevant voor huidige en toekomstige g-kaarten. Waar je target markt naar kijkt om welk merk en sku g-kaart ze willen halen voor hun favo games.
Nv is met die praktijken begonnen om op release dates van hun g-kaarten performance status niveau lat hoger te leggen. En ook al binnen game productie al invloed als hulp door te drukken.
Niet de norm in aplicatie tot hardware api.
We hebben het hier dan over gpu die fractie presteren tov moderne midrange en top-end g-kaarten. Fractie meer of minder van fractie prestatie in bench lijsten onderaan of vaak niet eens aanwezig in bench reviews is verloren inzet.

Mijn G-kaart is nog een Vega 56.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
sunsmountain schreef op vrijdag 17 november 2023 @ 22:39:
- 580: 65,7 FPS door 2304 ALU bij 1340 MHz
- 5600 XT: 102,5 FPS door 2304 ALU bij 1560 MHz

56% meer FPS
16% door kloksnelheid
34% door architectuur
(1,56 delen door 1,16 geeft 1,34, je mag % niet van elkaar aftrekken en zeggen 40%)
Excuus, had procentpunt moeten zeggen :p
- 580: 65,7 FPS door 2304 ALU bij 1340 MHz
- 6600 XT: 133,8 FPS door 2048 ALU bij 2589 MHz

104% meer FPS
72% door kloksnelheid
19% door architectuur
(2,04 delen door 1,72 geeft 1,19)

Ok geen 0%, maar dit (19% dus) is wat ik bedoelde met ~0%. Ik had alleen de frequenties door elkaar gedeeld in m'n hoofd, zonder het verschil in CU units te verrekenen voor de throughput.
Maar dan kom je bij m'n andere punt, dat de 6600 XT dat nog steeds met een kleiner stroombudget doet maar wel richting het dubbele aan kloksnelheid gaat - en uiteraard RT heeft. TDP's van de twee RDNA GPU's is 160W, Polaris is 185W; de 5600 XT piekt gemeten op 175W, de 6600 XT op 185W en de 580 deed dat op zo'n 200-210W. Iets van die winst komt uit het gebruik van 4 GDDR6 chips in plaats van 8xGDDR5, dat zal rond de 12W zijn.

Zoals ik al zei, RDNA2 had een geheel andere focus :)
Als je de percentages netjes deelt, kom je op 19-34% voor de architectuur van RDNA1/2 tov GCN5. Dat stelt me toch een beetje teleur t.o.v. de "2xSIMD32 in plaats van 4xSIMD16" x2 lineair belofte. Kloksnelheid maakt daarentegen meer van haar lineair belofte waar.

[...]

De SIMD in RDNA moet dan wel 2x zo snel gevuld en geleegd worden als in GCN om die productiviteit bij te houden, is dat het geval? En voor oude games, worden threads dan per 16 gegroepeerd? Dan zou RDNA geen verschil maken.
Nee, zo werkt dat helaas niet.

Ik wilde er niet te diep op in gaan (en zal dat nu ook proberen te vermijden; er is veel lees-/kijkmateriaal hierover dus ik ga het alsnog extreem versimpelen!), maar het zit een beetje aan beide kanten: devs en drivers, want de één groepeert dingen en de ander probeert die groepen te optimaliseren. GCN werkte in de werkelijkheid met wave64, dus één wave kostte 4 kloktikken om af te werken op een SIMD16 (ik had het over 32 in 2 tikken om het simpel te houden, maar dat bestond helemaal niet met GCN ;)). Echter deden ze ook min of meer 4 waves tegelijk. Het voordeel van die aanpak was dat wanneer er veel verschillende instructies waren, dat weinig impact had. Vergeet niet waar SIMD voor staat: Single Instruction, Multiple Data. Dat betekent dat veel verschillende instructies betekent dat je veel moet wisselen; en als al die instructies niet "perfect" zijn (dus allemaal 32 stukjes data) heb je ALU's stil liggen. Met de kleinere SIMD's wilde AMD dat af vangen en dat werkte deels, vooral in het begin.

Probleem is echter dat die 32 de sweet spot blijkt te zijn :)

Die optimalisaties is ook waarom RDNA3 waarschijnlijk nog een stuk performance op de plank heeft liggen, omdat de compiler (in de driver) niet genoeg kansen voor dual-issue weet te vinden. Maar devs kunnen daar ook specifiek voor optimaliseren...maar beide gevallen zijn best ingewikkeld :p

En ja, RDNA2+ in z'n algemeen is heel erg gericht op data aanvoer, dus die ALU's worden goed gevoerd. RDNA1 was de grote architectuur wijziging, RDNA2 was o.a. gericht op betere bezetting.
Ik ben wat meer van de benaderingen, jij wat meer van de precieze aansturing, maar ik zeg niet dat theoretische throughput = praktische game performance. Ik probeer game performance wel te begrijpen op basis van de eigenschappen van kaarten. Volgens jou mag je bijvoorbeeld geen 32 CU zeggen voor een 6600XT maar moet het precies 16 dual CU zijn. Ik ben wat rekkelijker en vind 32 CU prima om de 6600XT in stukjes te hakken en die (CU) stukjes (AMDs eigen benaming) te vergelijken met de stukjes van andere architecturen.
Even los van dat verhaal, kun je een CU van RDNA simpelweg niet 1:1 vergelijken met een CU van GCN, of een CU (eender welke) met een SM - want ze zitten allemaal heel anders in elkaar :)

Als AMD en Nvidia over 3 jaar besluiten dat een CU/SM voortaan uit een enkele SIMD64 bestaat met daarnaast 4 RT units omdat dat beter blijkt te werken voor RT, zal dat voor raster werk juist minder uitpakken. En dan zou je een GPU met 80 CU/SM wel met iets van de huidige generatie kunnen vergelijken, maar dat gaat dan niet werken.

Nog wat voorbeelden uit die grafiek:
- GP106 (GTX 1060), 10 SM's, 1280 ALU's op 1708 MHz - 71% van de FP32 throughput, maar hij haalt er hetzelfde uit.
- Vega 56: 56 CU's, 71% meer FP32, komt maar 54% uit.
- 2070: 36 SM's, 21% meer FP32, 75% sneller.
- 3060: 28 SM's, 106% meer FP32, "slechts" 82% sneller ondanks "meer" ALU's met 128 per SM

Op basis van CU's/SM's én ALU's zouden de 2070 en de RX 580 gelijkwaardig moeten zijn, klopt uiteraard geen drol van want daar wordt geen rekening gehouden met het feit dat Turing ook 64 onafhankelijke INT32 cores per SM heeft, in tegenstelling tot alle andere (vandaar de winst over Pascal; GP106 presteert 32% bovenverwacht, TU106 en TU116 rond de 45%). Anderzijds heeft GA104 op papier wel "128" FP32 ALU's per SM en zou hij dus volledig gehakt moeten maken van de rest (behalve Vega56), in de praktijk moet de helft daarvan ook INT32 voor hun rekening nemen dus vandaar dat hij zo dicht op Turing zit. Op basis van CU's zou Vega 56 ook weer gehakt moeten maken van al het andere, behalve GA104.

Daarnaast is, zoals ik zei, niet elke generatie gericht op meer prestaties. Bij RDNA2 was dat helemaal het doel niet, ze moesten daar hogere kloksnelheden halen om met RT om te kunnen gaan. Dat er dan toch nog iets van winst uit kwam is een klein gelukje.

En puur als oefening: probeer jouw aanpak eens op Intel toe te passen? ;)
Niet alleen inhoud en aansturing, ook de bottlenecks. En binnen een groep van videokaarten van dezelfde architectuur, probeer ik toch een lineair begrip te krijgen van hoeveel beter maakt "meer motortjes" de krachtigere videokaart? Of hoeveel meer cache, VRAM, TMUs, etc.

Met name ook om toekomstige performance beter te voorspellen. Maar in dit geval om de tweedehandsjes beter te begrijpen.
Maar dat is het probleem juist: GPU's zijn niet zo simpel. Er is geen enkel lineair verband, tenzij je architectuur niet/nauwelijks verandert. Ampère en Ada kun je gerust naast elkaar zetten, dat is gewoon dezelfde architectuur. En dan mag Nvidia wel claimen dat de RT cores van Gen Y twee keer zo snel zijn als Gen X, ze kunnen ze duidelijk ook niet snel genoeg van data voorzien dus dat heeft dan 0,0 effect. Net zoals AMD's dual issue vooralsnog niet effectiever is dan Nvidia's mixed type ALU's. Maar verder dan zulke gevallen kun je vaak niet vergelijken. Niet binnen één vendor, maar al helemaal niet tussen verschillende vendors.

Daarnaast is de workload ook belangrijk. RDNA3 is bijvoorbeeld sneller in RT dan RDNA2 (10-20% afhankelijk van het spel; de ene RT workload is de andere niet) met even veel RA's, terwijl er op raster gebied nauwelijks winst te vinden is.

Om één van je andere voorbeelden te nemen, meer cache zegt ook niets op zichzelf, want ondanks de gigantische cache bump van Ada, helpt ze dat niet veel. Ja, latency is lager, maar dat lost hun problemen met bezetting niet op, dat is namelijk een scheduling probleem. Bij AMD daarentegen zie je dat de sprong van 32 MB naar 80 MB IC meer uit de aanwezige ALU's weet te halen, hun ALU's zijn dus vooral data-starved.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Wat geruchten over PS5 Pro. :)
Het zou om een fors hoger geclockte Zen 2 CPU gaan en een RDNA3/RDNA4 hybride GPU met 60CU's.
Het meeste zou RDNA3 zijn, inclusief RDNA3 haar dual issue. Het stuk van RDNA4 zou dedicated hardware voor BvH traversal zijn. En dat zou meteen interessant zijn voor RDNA4 als dat losgetrokken word.

https://videocardz.com/ne...raphics-and-xdna2-ai-core

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op maandag 11 december 2023 @ 11:59:
Wat geruchten over PS5 Pro. :)
Het zou om een fors hoger geclockte Zen 2 CPU gaan en een RDNA3/RDNA4 hybride GPU met 60CU's.
Het meeste zou RDNA3 zijn, inclusief RDNA3 haar dual issue. Het stuk van RDNA4 zou dedicated hardware voor BvH traversal zijn. En dat zou meteen interessant zijn voor RDNA4 als dat losgetrokken word.

https://videocardz.com/ne...raphics-and-xdna2-ai-core
Wat ik mij dan afvraag, waarom wel een andere GPU architectuur maar nog steeds Zen 2 voor het cpu gedeelte.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 12:38
DaniëlWW2 schreef op maandag 11 december 2023 @ 11:59:
Wat geruchten over PS5 Pro. :)
Het zou om een fors hoger geclockte Zen 2 CPU gaan en een RDNA3/RDNA4 hybride GPU met 60CU's.
Het meeste zou RDNA3 zijn, inclusief RDNA3 haar dual issue. Het stuk van RDNA4 zou dedicated hardware voor BvH traversal zijn. En dat zou meteen interessant zijn voor RDNA4 als dat losgetrokken word.

https://videocardz.com/ne...raphics-and-xdna2-ai-core
Worden de consoleports nog zwaarder/beroerder...

Acties:
  • 0 Henk 'm!

  • batumulia
  • Registratie: Mei 2007
  • Laatst online: 11-10 15:55
Sp3ci3s8472 schreef op dinsdag 12 december 2023 @ 00:13:
[...]


Wat ik mij dan afvraag, waarom wel een andere GPU architectuur maar nog steeds Zen 2 voor het cpu gedeelte.
Misschien is de extra rekenkracht niet nodig en heeft AMD een mooie pitch gedaan voor custom chips (zodat ze de geldlade lekker kunnen aanvullen).

Steam/Origin/Uplay: Batumulia | Star Citizen GoT organisation / Referral code | Gamerig


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 03-10 12:52
meljor schreef op dinsdag 12 december 2023 @ 10:15:
[...]


Worden de consoleports nog zwaarder/beroerder...
De baseline blijft hetzelfde dus ik zie niet in waarom dit zou gebeuren.

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-10 13:31

SG

SG surft naar info hardewaren

MILD gaat wat dieper in op deze geruchten.
De keuze voor Zen2 is op dieshrink houd in zeer kleine cores en hogere klok.
Meer ruimte voor CU en NPU en chip blijft grof even groot.
Kosten beperkende preoriteit dus.
Naast er is ook groot overleg tussen Gpu tak van AMD maar heel belangrijk ook met DEV.
En de nadruk is hogere FPS met minimale dev inspanning. Grote dev inspanning voor PS5 exclusive grote fps winst of hogere resolutie.
Men vergeet dat in console ontwikkeling de terug koppeling met dev groot en zeer belangrijk is.
Gross heeft niet de resources om grote split dev voor basic ps5 en ps5pro te doen. Ook veel tijd voor optimalisaties en polish. Meer fps bij minimale effort is dus iets waar alle games wat aan hebben.
Dat zou de PS5pro mogelijk niet al te veel duurder maken en alle games lopen dan wat smoother dan basic ps5.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En nu gaan we eens kijken wat de modders gaan doen.
Met FSR3.03 is FSR3 open source gegaan. :)

Het lijkt bedoeld te zijn om FSR2 te vervangen met de optie voor frame generation erbij. Ook lijkt er weer een kwaliteitsupdate te zijn. Andere zaken omvatten:
-Er is een FSR3 DLL die te vervangen is voor nieuwe versies.
-Ook is er nu een tweede render mode. FSR3 had eerst alleen een asynchrounous compute mode. Logisch want daar is AMD veel beter in dan Nvidia. Maar nu is er ook een integratie in de reguliere graphics pipeline.
-Ook lijkt Vsync nu wel mogelijk te zijn om tearing tegen te gaan met verbeterde frame pacing.
-Hardware Accelerated GPU Scheduling wordt aangeraden en ondersteund indien je GPU dit ook ondersteunt.

https://gpuopen.com/fsr3-source-available/
https://videocardz.com/ne...on-3-0-3-goes-open-source

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dani86
  • Registratie: Februari 2007
  • Laatst online: 12-10 18:56

Dani86

AeroGeek

https://videocardz.com/ne...to-399-for-the-first-time

Gezien de ervaring van velen hier, is dit voor Europa ook zeer binnenkort van toepassing?

Ryzen 5 7500F - 32GB RAM @ 6000 MHz - RX7700XT - WD SN770 1TB nvme


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 12:38
Dani86 schreef op woensdag 20 december 2023 @ 08:41:
https://videocardz.com/ne...to-399-for-the-first-time

Gezien de ervaring van velen hier, is dit voor Europa ook zeer binnenkort van toepassing?
Had het al eerder verwacht dus denk het wel. Voor de huidige prijzen is die kaart niet interessant. Je ziet het hier ook zeer weinig dat iemand er eentje heeft of wil kopen. Geen slechte kaart, wel een slechte prijs

Acties:
  • 0 Henk 'm!

  • Dani86
  • Registratie: Februari 2007
  • Laatst online: 12-10 18:56

Dani86

AeroGeek

meljor schreef op woensdag 20 december 2023 @ 12:31:
[...]


Had het al eerder verwacht dus denk het wel. Voor de huidige prijzen is die kaart niet interessant. Je ziet het hier ook zeer weinig dat iemand er eentje heeft of wil kopen. Geen slechte kaart, wel een slechte prijs
Dan wacht ik nog heel ff, ik vind het nl. een interessante kaart, maar dan moet er idd 50€ vanaf om echt competitief te zijn

Ook interessant omdat ik met een beetje undervolted geen nieuwe PSU nodig heb. Dus dan hou ik dat ook weer in de pocket :)

[ Voor 11% gewijzigd door Dani86 op 20-12-2023 13:22 ]

Ryzen 5 7500F - 32GB RAM @ 6000 MHz - RX7700XT - WD SN770 1TB nvme


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 12:38
Dani86 schreef op woensdag 20 december 2023 @ 13:20:
[...]


Dan wacht ik nog heel ff, ik vind het nl. een interessante kaart, maar dan moet er idd 50€ vanaf om echt competitief te zijn

Ook interessant omdat ik met een beetje undervolted geen nieuwe PSU nodig heb. Dus dan hou ik dat ook weer in de pocket :)
Op Amazon.nl heb je voor 443 euro een XFX RX6800. De verkoper is NR INFO en is absoluut betrouwbaar.
Dan heb je voor de juiste prijs een vergelijkbare kaart qua snelheid met goede koeling en 16gb Vram. Is een betere deal! Verbruik scheelt ook niks.

Acties:
  • +1 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 20:46

vectormatic

Warlock of the doorlock

@meljor

Ik kan niet voor @Dani86 spreken, maar 443 is geen 399 (en ja, de US prijs is ex btw, koersveschil etc... aan het eind van het verhaal is 399 alsnog een psychologische grens), en gezien gelijke prijs heb ik toch wat moeite met RDNA2 kopen, niet omdat RDNA3 nu dramatisch veel beter is, maar er is wel een verschil kwa featureset, en vermoedelijk ook kwa hoeveel jaar actieve driver ondersteuning je krijgt.

Als ik voor €399 een 7700XT kan kopen dan ben ik overtuigd, ook als het een Asrock ipv een Sapphire is, tot die tijd mag mijn RX6600 zijn best blijven doen

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • +1 Henk 'm!

  • Dani86
  • Registratie: Februari 2007
  • Laatst online: 12-10 18:56

Dani86

AeroGeek

Bedankt allemaal, ik denk dat we nu afdwalen in dit topic.

Nu zaak om de prijzen van de Rx7700 in de gaten te houden

Ryzen 5 7500F - 32GB RAM @ 6000 MHz - RX7700XT - WD SN770 1TB nvme


Acties:
  • +2 Henk 'm!

  • JanvD
  • Registratie: April 2007
  • Laatst online: 10-10 12:10

JanvD

Portretfotograaf

meljor schreef op woensdag 20 december 2023 @ 14:12:
[...]
Op Amazon.nl heb je voor 443 euro een XFX RX6800. De verkoper is NR INFO en is absoluut betrouwbaar.
Dan heb je voor de juiste prijs een vergelijkbare kaart qua snelheid met goede koeling en 16gb Vram. Is een betere deal! Verbruik scheelt ook niks.
Vervolgens krijg je dan dus een kaart uit Portugal (dat zijn zij toch?) waarbij jouw garantie-afhandeling irritant of afwezig is. En dan hebben we het nog niet over de extra milieubelasting die je doneert aan de maatschappij.

www.janvandoornik.nl


Acties:
  • +1 Henk 'm!

  • Dani86
  • Registratie: Februari 2007
  • Laatst online: 12-10 18:56

Dani86

AeroGeek

Nu bij Alternate voor €449 een Rx 7700XT gekocht.

Dit vind ik een prima prijs. € 130 goedkoper dan een 7800XT

Ryzen 5 7500F - 32GB RAM @ 6000 MHz - RX7700XT - WD SN770 1TB nvme


Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 12:38
Dani86 schreef op donderdag 28 december 2023 @ 16:21:
Nu bij Alternate voor €449 een Rx 7700XT gekocht.

Dit vind ik een prima prijs. € 130 goedkoper dan een 7800XT
Veel plezier er mee!

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Lijkt erop dat er een N33 SKU eraan zit te komen met VRAM aan beide kanten van het PCB. :)
https://videocardz.com/ne...00-xt-with-16gb-of-memory

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 12:38
DaniëlWW2 schreef op vrijdag 29 december 2023 @ 23:07:
Lijkt erop dat er een N33 SKU eraan zit te komen met VRAM aan beide kanten van het PCB. :)
https://videocardz.com/ne...00-xt-with-16gb-of-memory
Als het geen slappe 128bit kaart wordt kan het een leuke worden, let the games begin..

Zou mooi zijn als de super kaarten van NV gelijk al geen nut meer hebben in de markt.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

meljor schreef op zaterdag 30 december 2023 @ 09:44:
[...]


Als het geen slappe 128bit kaart wordt kan het een leuke worden, let the games begin..

Zou mooi zijn als de super kaarten van NV gelijk al geen nut meer hebben in de markt.
Het is vrijwel zeker een 128 bit bus. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 12:38
DaniëlWW2 schreef op zaterdag 30 december 2023 @ 10:13:
[...]


Het is vrijwel zeker een 128 bit bus. :P
Dan is het net zo onzinnig als de 4060ti 16gb.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

meljor schreef op zaterdag 30 december 2023 @ 11:49:
[...]


Dan is het net zo onzinnig als de 4060ti 16gb.
Ligt aan de prijs. Er $500 voor vragen zoals Nvidia probeerde, was best wel dom ja. Paar tientjes meer dan de RX7600 en dan is dit waarschijnlijk beter dan de RTX4060 voor dezelfde prijs, want nu kan je wel high resolution textures aanzetten. :z

[ Voor 4% gewijzigd door DaniëlWW2 op 30-12-2023 12:28 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 20:20

Mars Warrior

Earth, the final frontier

Als ik deze plaatjes bekijk voor 1080p en 1440p
Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/ydAy6Z9YNVZ9Y26mRAntnb-1200-80.png.webp

Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/rs99PxP9624E4ZWkXvdNvb-1200-80.png.webp

Dan vult de 4060Ti al een aardig gat in de lineup. Dat zou de 7600XT ook kunnen doen lijkt me.

Eea natuurlijk wel afhankelijk van de prijs. De plaatjes hierboven zijn geen prijs/performance overzicht.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
DaniëlWW2 schreef op woensdag 12 juni 2019 @ 11:54:
...

In de 2019 Mac Pro zal een Vega 20 komen. Ik heb het alleen over Vega 10 die in de iMac 2017 zit. De 2019 iMac heeft dan een "Vega 48CU". Aangezien het 8GB HBM2 is, denk ik alsnog Vega 10. Google Stadia wordt vervolgens opgebouwd met Vega 56CU chips, ook Vega 10. Vega 10 gaat dus voorlopig nergens naartoe. Het is stiekem best een succes voor AMD aan het worden. :)
Voor FP64 is de AMD Radeon Pro VII 16GB nu wel erg interessant denk ik (aanschafprijs ~€51 / TFlop op dit moment), maar helaas - AMD dropt ROCm support voor die kaarten... Hoe lang is nog substantieel werk in driver-ontwikkeling en onderhoud te verwachten voor Vega 20?

Wat is momenteel het beste moderne alternatief (liefst ook met ECC natuurlijk)?

[ Voor 9% gewijzigd door begintmeta op 03-01-2024 12:18 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

begintmeta schreef op woensdag 3 januari 2024 @ 12:12:
[...]

Voor FP64 is de AMD Radeon Pro VII 16GB nu wel erg interessant denk ik (aanschafprijs ~€51 / TFlop op dit moment), maar helaas - AMD dropt ROCm support voor die kaarten... Hoe lang is nog substantieel werk in driver-ontwikkeling en onderhoud te verwachten voor Vega 20?

Wat is momenteel het beste moderne alternatief (liefst ook met ECC natuurlijk)?
Tja, GCN ondersteuning brengen ze al terug. Het zijn al aparte drivers geworden zonder game optimalisaties. Features zou nog kunnen, maar erg concreet is AMD ook niet in hun statement, en ik heb geleerd niet echt te vertrouwen op wat AMD Radeon PR en marketing zegt. Zie:
DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144"
Dus eigenlijk geen idee hoe lang Vega nog ondersteund zal blijven. GCN is steeds meer legacy voor AMD. Ze hebben nu RDNA voor gamers, CDNA voor enterprise en XDNA voor AI.

Verder is met RDNA, de FP64 performance, grotendeels verwijderd. Vega 20 had volgens mij 1:2 waarbij de Radeon VII kunstmatig gelimiteerd is op 1:4 rate. RDNA1/2 hebben nog maar 1:32 en RDNA3 nog maar 1:64. Het zit eigenlijk alleen nog in CDNA, maar die zijn niet bepaald goedkoop. RDNA3 heeft wel matrix support en slecht is dat ook niet qua rauwe rekenkracht. Maar het is allemaal halve of nog lagere precision en niet double precision. Vrees dat FP64 helaas een enterprise feature aan het worden is op een GPU. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • begintmeta
  • Registratie: November 2001
  • Niet online

begintmeta

Moderator General Chat
DaniëlWW2 schreef op vrijdag 12 januari 2024 @ 19:44:
[...]


Tja, GCN ondersteuning brengen ze al terug. Het zijn al aparte drivers geworden zonder game optimalisaties. Features zou nog kunnen, maar erg concreet is AMD ook niet in hun statement, en ik heb geleerd niet echt te vertrouwen op wat AMD Radeon PR en marketing zegt. Zie:
DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144"
Dus eigenlijk geen idee hoe lang Vega nog ondersteund zal blijven. GCN is steeds meer legacy voor AMD. Ze hebben nu RDNA voor gamers, CDNA voor enterprise en XDNA voor AI.
Klopt inderdaad... zo'n MI300A APU is ongetwijfeld heel leuk maar voor de hobbyist natuurlijk niet te betalen... Wie weet wordt voor linux toch nog wat verder gesleuteld aan GCN drivers.
Verder is met RDNA, de FP64 performance, grotendeels verwijderd. Vega 20 had volgens mij 1:2 waarbij de Radeon VII kunstmatig gelimiteerd is op 1:4 rate. RDNA1/2 hebben nog maar 1:32 en RDNA3 nog maar 1:64. Het zit eigenlijk alleen nog in CDNA, maar die zijn niet bepaald goedkoop. RDNA3 heeft wel matrix support en slecht is dat ook niet qua rauwe rekenkracht. Maar het is allemaal halve of nog lagere precision en niet double precision.
De genoemde Radeon Pro VII zit in tegenstelling tot de gelimiteerde Radeon VII (die inderdaad 1:4 doet) op 1:2 voor FP64, 't is bijna een MI50 met videouitgangen. Voor actuele toepassingen anders dan FP64 natuurlijk niet zo interessant, en IMHO zonder de driverondersteuning helaas ondanks de prijs ook niet voor FP64
Vrees dat FP64 helaas een enterprise feature aan het worden is op een GPU. :/
Ja, denk het ook.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En AFMF is eindelijk in de reguliere drivers. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Techkeizer
  • Registratie: Januari 2023
  • Laatst online: 11-10 15:34
Reviews gezien nu van de nieuwe 4070(ti) supers. 7900 xt stays winning :7 .
AMD heeft een betere generatie dan er wordt geroepen vind ik. Een 7900 xt van 700 euro zou hier elke kaart verslaan. Ik zag zelfs dat het met raytracing redelijk kon met fsr quality.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
Techkeizer schreef op dinsdag 23 januari 2024 @ 22:46:
Reviews gezien nu van de nieuwe 4070(ti) supers. 7900 xt stays winning :7 .
AMD heeft een betere generatie dan er wordt geroepen vind ik. Een 7900 xt van 700 euro zou hier elke kaart verslaan. Ik zag zelfs dat het met raytracing redelijk kon met fsr quality.
Het probleem bij AMD was vooral, zoals eigenlijk altijd, het hype management. Ze zijn enorm slecht in het managen van hype en verwachtingen, waardoor de choo choo train bij launch meestal ontspoord in teleurstelling omdat de hype simpel weg de groot is. En daarnaast de positionering van de Sku's qua naam.

Vanaf de eerste geruchten zou RDNA, zeker op raster, Nvidia wel even gaan verslaan was de strekking. AMD zou nog steeds wat minder features hebben, maar een stap zetten qua raytracing en de 7900XTX zou de 4090 gaan verslaan.

Dit kwam natuurlijk niet uit, en ineens was daar AMD's marketing 'draai' dat de x900 kaarten zouden moeten concurreren met de 4080 en ik geloof ik de 4070 Ti, terwijl AMD duidelijk op meer had gehoopt gezien de positionering van de kaarten qua naam.

Achteraf maken ze dan met prijs hun range en prijs aanpassingen wel enigszins goed ten opzichte van NVidia, maar in veel gevallen zal dat de wat nare nasmaak die mensen hebben gekregen naar aanleiding van het voortraject niet in alle gevallen wegspoelen.

Acties:
  • +2 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Techkeizer schreef op dinsdag 23 januari 2024 @ 22:46:
Reviews gezien nu van de nieuwe 4070(ti) supers. 7900 xt stays winning :7 .
AMD heeft een betere generatie dan er wordt geroepen vind ik. Een 7900 xt van 700 euro zou hier elke kaart verslaan. Ik zag zelfs dat het met raytracing redelijk kon met fsr quality.
Het verschilt per game, dat is wel iets om in het achterhoofd te houden bij het maken van je keuze.

Afbeeldingslocatie: https://tpucdn.com/review/asus-geforce-rtx-4070-ti-super-tuf/images/performance-matchup-4070-ti-super-vs-7900-xt-1440p.png
https://www.techpowerup.c...4070-ti-super-tuf/33.html

Ook de introductieprijs van de 7900 XT was veel hoger (€ 1049), dit was één van de grootste kritiekpunten destijds. Als de prijs maar blijft zakken wordt het vanzelf een betere koop :p

[ Voor 20% gewijzigd door XWB op 24-01-2024 13:04 ]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 17:15
Techkeizer schreef op dinsdag 23 januari 2024 @ 22:46:
Reviews gezien nu van de nieuwe 4070(ti) supers. 7900 xt stays winning :7 .
AMD heeft een betere generatie dan er wordt geroepen vind ik. Een 7900 xt van 700 euro zou hier elke kaart verslaan. Ik zag zelfs dat het met raytracing redelijk kon met fsr quality.
Niet echt om blij van te worden dat een 7900 serie het gevecht aan moet gaan met een 4070 serie. Winnen met hakken over de sloot op raster is dan eerder een opluchting te noemen. Enige wat AMD weer te redden deze generatie is dat ze goedkoper zijn dan NV. Als dat verschil kleiner was dan is er niks positiefs over. Ik blijf erbij dat beide bedrijven geen goede kaarten hebben deze ronde. Nvidia te duur en weinig efficient. AMD te weinig prestaties en hadden elke tier een cijfer lager moeten geven in de naam. De 7900 is gewoon een 7800 etc.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 12:38
sjekneck schreef op woensdag 24 januari 2024 @ 18:00:
[...]

Niet echt om blij van te worden dat een 7900 serie het gevecht aan moet gaan met een 4070 serie. Winnen met hakken over de sloot op raster is dan eerder een opluchting te noemen. Enige wat AMD weer te redden deze generatie is dat ze goedkoper zijn dan NV. Als dat verschil kleiner was dan is er niks positiefs over. Ik blijf erbij dat beide bedrijven geen goede kaarten hebben deze ronde. Nvidia te duur en weinig efficient. AMD te weinig prestaties en hadden elke tier een cijfer lager moeten geven in de naam. De 7900 is gewoon een 7800 etc.
Tja, of een 7900xt die regelmatig in de buurt blijft van een 4080, of een xtx die hem regelmatig verslaat voor minder geld en ook nog es veel meer Vram biedt.... Het is maar net hoe je het bekijkt.

Kaarten zijn helaas duur, verder zijn de prestaties wel prima en toch wel een stap tov de vorige gen.
Beter dan intel cpu's :)

Acties:
  • 0 Henk 'm!

  • JWFpeters
  • Registratie: Mei 2020
  • Laatst online: 12-10 21:39
Iemand al wat ervaring met de nieuwe drivers?

Forza Motorsport is weer 1 groot stutter fest geworden……

Zal nu eens DDU en en dan opnieuw installeren

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op woensdag 24 januari 2024 @ 12:57:
[...]


Het verschilt per game, dat is wel iets om in het achterhoofd te houden bij het maken van je keuze.

[Afbeelding]
https://www.techpowerup.c...4070-ti-super-tuf/33.html

Ook de introductieprijs van de 7900 XT was veel hoger (€ 1049), dit was één van de grootste kritiekpunten destijds. Als de prijs maar blijft zakken wordt het vanzelf een betere koop :p
Ik zie CS:GO als enige echte uitschieter. Lords of the Fallen, Witcher 3, Atomic Heart en Doom Eternal zijn allemaal Nvidia sponsored met Nvidia tech in de games. De RX7900XT is gewoon sneller. Nota bene zelfs in super Nvidia tech demo Cyberpunk.

Vervolgens ga eens kijken naar de prijzen. Je begint bij €900 waar je inmiddels al een goede RX7900XT voor minder dan €800 kan krijgen. AMD heeft de naamgeving totaal verpest. Ik ga niet voor de 500ste keer betogen waarom het de RX7800XT had moeten zijn. Maar de videokaart zelf is goed. Zeker als je weet wat je doet qua undervolting en overclocking. Want je kan er best wat uithalen.

Dat speelt ook bij de RX7800XT. Ook daar kan je er nog aardig wat uithalen. En die zit prijstechnisch ook een stuk beter dan de RTX4070S. Daar is het meer dat de RTX4070S iets sneller is, tenminste met stock settings, maar de 12GB aan VRAM en prijs, lijkt die alsnog op te breken.

AMD lijkt nauwelijks te hoeven te reageren op waar Nvidia mee komt. RX7900XT en RX7900XTX iets goedkoper maken, de RX7800XT meer terug naar de $500 MSRP en klaar.


En uiteraard laat AMD ook deze gelegenheid niet onbenut om iets doms te doen. :z
Kijk, die RX7600XT is in theorie een goede lower midrange videokaart want 16GB aan VRAM en wel de RDNA3 features die langzaam gebruikt beginnen te worden. Maar ze moesten er weer $330 voor vragen. Dit terwijl N33 vrij duidelijk voor laptops ontworpen lijkt te zijn, en zowat niet in laptops terecht lijkt te komen. AMD moest waarschijnlijk wel de RX7600XT uitbrengen om van hun chips te komen en met 8GB aan VRAM, is het gewoon niet interessant. En in plaats van er dan $300 voor te vragen en de RTX4060 er helemaal stom eruit te laten zien en de A770 ook volledig te neutraliseren, moesten ze weer meer vragen. De RX6600XT, RX6650XT, RX6700XT en RX6750XT beginnen ook eindelijk schaars te worden, dus daarvoor hoeven ze het ook niet te laten.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 12:38
JWFpeters schreef op woensdag 24 januari 2024 @ 20:14:
Iemand al wat ervaring met de nieuwe drivers?

Forza Motorsport is weer 1 groot stutter fest geworden……

Zal nu eens DDU en en dan opnieuw installeren
Zelf nog niet getest. Maar is SAM niet toevallig weer automatisch aangezet door de driver?
Zoals ik in het andere topic al zei werkt het bij mij veel beter met sam uit.

Online is er nog wel es een stottertje maar verder draait het erg soepeltjes op 3440x1440 ultra (RT off).

Acties:
  • 0 Henk 'm!

  • Beaudog
  • Registratie: Augustus 2015
  • Laatst online: 08:15
Ik heb de nieuwe driver geprobeerd maar ik gebruik nog wel de fsr 3 fg mod in de games die ik nu speel de fps die ik haal is meer dan met de afmf

Acties:
  • 0 Henk 'm!

  • JWFpeters
  • Registratie: Mei 2020
  • Laatst online: 12-10 21:39
meljor schreef op donderdag 25 januari 2024 @ 09:26:
[...]


Zelf nog niet getest. Maar is SAM niet toevallig weer automatisch aangezet door de driver?
Zoals ik in het andere topic al zei werkt het bij mij veel beter met sam uit.

Online is er nog wel es een stottertje maar verder draait het erg soepeltjes op 3440x1440 ultra (RT off).
Klopt SAM moet uit staan dan is het vrij vlekkeloos op de bug na dat na rewind of pauze hij soms even blijft hangen op lage fps tot je nog een keer pauze of rewind doet dan gaat ie weer naar de cap van 115 die ik heb.

Met de nieuwe driver is het totaal niet meer soepel fps lijkt okay al is ie niet meer stabiel en ook al zegt ie 115 dan nog stottert het. Terug naar de driver door deze en het is weer soepel. Las meer mensen erover bij meerdere andere games.

Speel altijd zonder frame gen etc gewoon native.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
DaniëlWW2 schreef op woensdag 24 januari 2024 @ 20:49:


AMD lijkt nauwelijks te hoeven te reageren op waar Nvidia mee komt. RX7900XT en RX7900XTX iets goedkoper maken, de RX7800XT meer terug naar de $500 MSRP en klaar.
Steve van HWU lijkt toch wat minder enthousiast, hoewel die ook de 4070 Ti Super geen sterk product vind is ie toch wat minder positief over de 7900XT.

Uit hun 'cost per frame' analyse:
We haven't gone with the $710 or even the $730 prices as we believe these are limited-time deals, meant to undercut Nvidia's Super launch. AMD has indicated they're working with their partners to make $750 the new sweet spot for the 7900 XT, so realistically, this should be the expected price moving forward.


Therefore, we will disregard what we think are temporary prices and go with the more realistic long-term price of $750. That said, we feel this product really needs an official price cut to $700 to become a viable option.

At $750, it's just an 11% saving per frame compared to the 4070 Ti Super, based solely on rasterization performance. If we consider the ray tracing data, the 7900 XT ends up costing 19% more per frame, making the GeForce GPU the obvious choice for ray tracing enthusiasts.
En uit hun eind conclusie:
This means that overall, AD103 products aren't great in terms of value. But if you're considering the 4070 Ti Super, you might as well opt for the 4080 Super, plus you'll enjoy the added benefit of not sounding like you're having a stroke every time someone asks you what GPU you're running?

Now, compared to the Radeon competition, the RTX 4070 Ti Super stacks up rather well. If priced at $750, the Radeon 7900 XT becomes a questionable choice, and we feel paying an extra $50 for the 4070 Ti Super is the better option. You're getting similar rasterization performance with generally much stronger ray tracing performance, especially in titles that heavily utilize RT effects.

Then there's all the other factors we always talk about, such as the quality of DLSS generally being better than FSR, much better ray tracing performance, superior encoder quality, and better power efficiency, to name a few. For us to choose the Radeon 7900 XT over the GeForce 4070 Ti Super, it would have to be priced at no more than $700, so a $100 saving or a 13% discount.
En ik denk dat ik het daar wel mee eens ben.

Ik weet ook niet of ik het eens ben met je dat AMD niet echt hoeft te reageren. Ik heb de laatste tijd niet naar de marktaandeel cijfers gekeken, maar het zou mij echt niet verbazen als deze nog steeds vrij slecht zijn voor AMD. In een markt waarin je iedere kaart kan verkopen die je kan produceren zonder dan je allerlei incentives moet bieden aan partners is dat dan weer niet zo erg. Maar in een markt waar dat niet zo is, wordt marktaandeel wel weer een stuk belangrijker. Ook voor je imago, en juist het imago hebben ze ook veel aan te werken bij deze release. Want ook al kunnen ze met prijsverlagingen de kaarten redelijk tot goed uit de bus laten komen, het al gehele imago van AMD heeft deze range natuurlijk de afgelopen tijd geen goed gedaan.

[ Voor 14% gewijzigd door Dennism op 25-01-2024 11:34 ]


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 12:38
JWFpeters schreef op donderdag 25 januari 2024 @ 10:34:
[...]


Klopt SAM moet uit staan dan is het vrij vlekkeloos op de bug na dat na rewind of pauze hij soms even blijft hangen op lage fps tot je nog een keer pauze of rewind doet dan gaat ie weer naar de cap van 115 die ik heb.

Met de nieuwe driver is het totaal niet meer soepel fps lijkt okay al is ie niet meer stabiel en ook al zegt ie 115 dan nog stottert het. Terug naar de driver door deze en het is weer soepel. Las meer mensen erover bij meerdere andere games.

Speel altijd zonder frame gen etc gewoon native.
Ok Thanx, dan ga ik deze driver overslaan:)

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op donderdag 25 januari 2024 @ 11:27:
[...]


Steve van HWU lijkt toch wat minder enthousiast, hoewel die ook de 4070 Ti Super geen sterk product vind is ie toch wat minder positief over de 7900XT.

Uit hun 'cost per frame' analyse:


[...]


En uit hun eind conclusie:


[...]


En ik denk dat ik het daar wel mee eens ben.

Ik weet ook niet of ik het eens ben met je dat AMD niet echt hoeft te reageren. Ik heb de laatste tijd niet naar de marktaandeel cijfers gekeken, maar het zou mij echt niet verbazen als deze nog steeds vrij slecht zijn voor AMD. In een markt waarin je iedere kaart kan verkopen die je kan produceren zonder dan je allerlei incentives moet bieden aan partners is dat dan weer niet zo erg. Maar in een markt waar dat niet zo is, wordt marktaandeel wel weer een stuk belangrijker. Ook voor je imago, en juist het imago hebben ze ook veel aan te werken bij deze release. Want ook al kunnen ze met prijsverlagingen de kaarten redelijk tot goed uit de bus laten komen, het al gehele imago van AMD heeft deze range natuurlijk de afgelopen tijd geen goed gedaan.
Alleen is het prijsverschil niet $50, maar €100-€150. De omgerekende MSRP van de RTX4070Ti Super is €890 en de goedkopere modellen zitten rond de €900. En daarna loopt het al snel op.

Voor de RX7900XT kan je een Sapphire Pulse, ASUS TuF of XFX voor rond of minder dan €800 krijgen. Beide videokaarten zijn op zijn zachts gezegd aan de dure kant, maar de RTX4070Ti Super is een stuk duurder dan de RX7900XT. En wat je ervoor krijgt is DLSS2 en betere RT in voornamelijk games vol met Nvidia RTX tech, wat standaard voor geen meter draait op Radeon. Tenminste totdat je mods download voor bijvoorbeeld Cyberpunk of Witcher 3 die met zeer beperkt verlies in grafische kwaliteit, opeens de framerates voor oudere Nvidia architecturen en helemaal RDNA2/3, gigantisch verhogen. :z

Ik neem RT test resultaten van Nvidia sponsored games, allang niet meer serieus. Heb het zelf ervaren wat het verschil in grafische kwaliteit is met en zonder mods. Mods die vaak snel na release uitkwamen en haarfijn uitlegden wat voor bizarre settings er geconfigureerd zijn. Dit zijn ook problemen die niet RTX sponsored RT implementaties, veelal niet hebben. Dat zijn de games waar de RX7900XT veelal redelijk vergelijkbaar presteert met de RTX4070Ti Super.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
DaniëlWW2 schreef op donderdag 25 januari 2024 @ 14:52:
[...]


Alleen is het prijsverschil niet $50, maar €100-€150. De omgerekende MSRP van de RTX4070Ti Super is €890 en de goedkopere modellen zitten rond de €900. En daarna loopt het al snel op.
Dat is wel vrij veel, als ik kijk bij mijn vaste leverancier is het verschil tussen de goedkoopste 7900XT die ik morgen in huis kan hebben €829 (wat inderdaad o.a. de pulse is) t.o.v. een 4070Ti super van €899 8.4% verschil, dat is procentueel gezien dus nog een slechtere deal dan waar Steve het over heeft gebaseerd op zijn data. Kijk je naar de goedkoopste 7900XT period v.s. €899 voor een 4070ti super heb je het over €789 naar €899 bij mijn vaste leverancier, met +-14% verschil zit dan net iets boven Steve zijn range wat het verschil minimaal moet zijn, maar geweldig is dat het nog steeds niet.

Het hele mods v.s. geen mods verhaal is denk ik leuk voor ons Tweakers, maar de gemiddelde gamer zal daar nooit naar kijken. Waardoor default out of the box performance in dat soort titels toch relevant blijft, of we dat nu leuk vinden of niet. Daarnaast weet ik niet of mensen dat soort risico's willen nemen, daar een aantal van die mods bestanden aanpast, wat zeker in MP titels tot issues kan lijden met bijvoorbeeld cheat detectie. Ik ken bijvoorbeeld iemand die zijn WoW account is kwijtgeraakt omdat deze bepaalde dll's aanpaste waarmee grafische settings via dll injectie buiten de game om aangepast konden worden voor mooiere beelden. Ik zelf neem dat soort risico's in games met een online component dus ook al zeker niet.

[ Voor 28% gewijzigd door Dennism op 25-01-2024 15:19 ]


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 17:15
DaniëlWW2 schreef op donderdag 25 januari 2024 @ 14:52:
[...]


Alleen is het prijsverschil niet $50, maar €100-€150. De omgerekende MSRP van de RTX4070Ti Super is €890 en de goedkopere modellen zitten rond de €900. En daarna loopt het al snel op.

Voor de RX7900XT kan je een Sapphire Pulse, ASUS TuF of XFX voor rond of minder dan €800 krijgen. Beide videokaarten zijn op zijn zachts gezegd aan de dure kant, maar de RTX4070Ti Super is een stuk duurder dan de RX7900XT. En wat je ervoor krijgt is DLSS2 en betere RT in voornamelijk games vol met Nvidia RTX tech, wat standaard voor geen meter draait op Radeon. Tenminste totdat je mods download voor bijvoorbeeld Cyberpunk of Witcher 3 die met zeer beperkt verlies in grafische kwaliteit, opeens de framerates voor oudere Nvidia architecturen en helemaal RDNA2/3, gigantisch verhogen. :z
Is een nieuwe release msrp tegen een lopende afgeprijsde kaart niet een beetje krom? Als ik nu PW ernaast leg zie ik rond de 120 verschil nu als je de goedkoopste versies tegen elkaar zet. Die "goedkopere" 7900xt was tot voor kort bijna 100 duurder en is in prijsdaling al een preventief antwoord op de super.

Ik twijfel er niet aan dat AMD goedkoper zal blijven, want underdog en weinig marktaandeel = dwang. Het verschil zal echter wel krimpen en gaan stabiliseren op ca 75 na een korte periode of AMD moet zich gedwongen gaan voelen om de prijs verder te laten zakken. Persoonlijk zou ik bij het uitgeven van 750+ voor een videokaart dan niet snel meer een paar tientjes besparen, maar kijk ik eerder naar features, merk etc.
Ik neem RT test resultaten van Nvidia sponsored games, allang niet meer serieus. Heb het zelf ervaren wat het verschil in grafische kwaliteit is met en zonder mods. Mods die vaak snel na release uitkwamen en haarfijn uitlegden wat voor bizarre settings er geconfigureerd zijn. Dit zijn ook problemen die niet RTX sponsored RT implementaties, veelal niet hebben. Dat zijn de games waar de RX7900XT veelal redelijk vergelijkbaar presteert met de RTX4070Ti Super.
Los van sponsored games (en die heeft AMD ook zat tegenwoordig) is het algemeen wel duidelijk dat AMD geen vergelijkbare prestaties heeft met RT. Dat hoef je echt niet te verdedigen met mods. Wat de persoonlijke meerwaarde van RT is kan iedereen dan wel afwegen. Net als meer Vram geeft het natuurlijk wel enige meerwaarde voor nu en of de toekomst.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 12:38
Toch zit er waarheid in dat verhaal. Als je cyberpunk en misschien nog 2 andere titels niet meetelt is een 7900xt in RT weinig minder dan een 4070 kaart. Er worden in die titels gewoon meer rays gebruikt dan nodig zodat de kracht van Nvidia naar boven komt.

Blijft een feit dat RT bij Nvidia sterker is maar ik vind het een 4090 kunstje. Zonder upscaling is het in een aantal titels onspeelbaar, ook op de meeste Nvidia kaarten. Voor mij de performance hit niet waard in ieder geval en upscaling is niet mijn ding.

Is RT en upscaling je ding dan is Nvidia de betere keus.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Tja, MSRP prijzen zeggen al jaren niks meer. Ze interesseren me ook niet veel meer. Het enige relevante is wat het kost in de winkel. Dat is meestal al te veel. ;)

Verder zou ik al helemaal niet stellen dat modding niet relevant is, zeker niet voor Cyberpunk en Witcher 3. Dat zijn games met grote modding comunities die een flinke impact op die games hebben.

Laatste is dat het vrijwel complete gebrek aan kennis hoe een GPU een beetje werkt, zo overduidelijk en schadelijk is bij veel reviewers. De meeste zou je zo kunnen vragen hoe een SIMD32 werkt is en ze hebben geen idee. Laat staan dat ze scheduling, verschillende instructies of shaders begrijpen. Het helpt ook niet dat goede informatie hierover vinden, ook niet makkelijk is.

Maar zodra je dat wel een beetje begint te begrijpen, zie je de patronen meteen. Ik weet nog toen RDNA1 kwam, ik zowat voor gek werd verklaard toen ik stelde dat het een erg goede architectuur voor gaming was met veel potentieel. Of dat er meer in RDNA3 zit dan de eerste reviews aangaven. Want de RX7900XTX begint langzaam weg te lopen van de RTX4080. Op de achtergrond is AMD, vermoed ik zo, bezig om VOPD werkende te krijgen in nieuwe games.

Afbeeldingslocatie: https://tweakers.net/i/0Yj1aQVl5GocuWwvP7WwtKQruk8=/800x/filters:strip_icc():strip_exif()/f/image/5zuN9sT64XOU16o6jWGr5g89.jpg?f=fotoalbum_large

En het beeld met RT is ook duidelijk met de Nvidia RTX tech games waar de RX7900XTX opeens niet presteert. Voor de rest valt het wel mee met die "slechte RT hardware"...
Afbeeldingslocatie: https://tweakers.net/i/ypV8aqmhfUziu70JT1Nw9v2CaCE=/800x/filters:strip_icc():strip_exif()/f/image/KnsBm9hHw4Jm2VZKde098lWu.jpg?f=fotoalbum_large
YouTube: Radeon RX 7900 XTX vs. GeForce RTX 4080, FSR vs. DLSS / Ray Tracing ...

Toen Jedi Survivor vorig jaar kwam, zag ik meteen dat het voornamelijk een Nvidia probleem was en slechte CPU optimalisatie. De VRAM problemen kreeg ik ook snel door. Ik zie allang de meerwaarde en noodzaak van DirectStorage in games. En ik snap dus een beetje waarom Nvidia zo zwaar op ray intersections inzet. Dit ondanks dat ze er performance van zeker Turing, maar ook Ampere, zwaar mee beschadigen. Het hele path tracing verhaal is ook voor Ada en let maar op, met Blackwell ga je weer iets krijgen dat niet fatsoenlijk werkt met Ada. Daar zit geen toekomst in. Het is ook een niet geoptimaliseerde blob.

Bijvoorbeeld Witcher 3 gebruikt Nvidia hun Global Illumination SDK. Die is geconfigureerd met enorm veel ray intersections en heel weinig BvH structures. De RT mods voor die game, tweaken dat met meer BvH en minder ray intersections die vrijwel altijd overbodig zijn. Ook verlengen sommige van die mods, ook nog eens het bereik van de ray intersection tests. Bijvoorbeeld:
https://www.nexusmods.com/witcher3/mods/7432

Je ziet een Turing of Ampere GPU al tientallen procenten winnen, maar RDNA2/3 gaan helemaal los. Maar het ergste is dat je veel van deze effecten, met software RT kan doen. En dat scheelt pas echt performance. Dergelijke technieken werken ook samen met baked light in plaats van baked light te vervangen of in de weg te zitten. Zo maak je een belichtingssysteem in plaats van een Nvidia blob toe te voegen die niet geoptimaliseerd is en niet goed geïntegreerd is in de game met de bestaande belichting. Cyberpunk is daar het ultieme voorbeeld van. Te vaak kon je het verschil nauwelijks zien tussen wel en geen RT. Er zijn stukken waar het goed gedaan is in die game, maar ook veel gebieden waar het vooral heel veel performance kost.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
meljor schreef op vrijdag 26 januari 2024 @ 09:35:
Er worden in die titels gewoon meer rays gebruikt dan nodig zodat de kracht van Nvidia naar boven komt.
Het gaat niet zo zeer om het aantal rays*, maar vooral om de manier waarop.

Ik wilde hier net een heel verhaal over typen, maar @DaniëlWW2 is me al deels voor ;)

Wel zal ik er aan toevoegen dat er in Cyberpunk of Metro bijvoorbeeld dingen met RT gedaan werden puur om RT te gebruiken, niet omdat het noodzakelijkerwijs een beter resultaat geeft dan baked lighting; of makkelijker is dan baked lighting. AO is bijvoorbeeld een vreemd ding, want dat kan er met RT zowel slechter als beter uit zien wanneer je weinig rays gebruikt. De grens waar dat gegarandeerd on-par resultaten geeft is vrij hoog. Reflecties daarentegen kun je met heel weinig rays al consistent geweldige resultaten krijgen.

Witcher 3 is wel het beste voorbeeld, juist omdat dat zo eenvoudig te modden is. Ze hebben daar niet de RT implementatie aangepast, enkel de parameters. Het is dezelfde onzin als HairWorks in exact dezelfde game: ze hadden daar de tessellation factor op 64 staan...dat is dus per haar, wat gewoon ronduit achterlijk was. 16 is in 99,9% van de gevallen al te veel, laat staan op minuscule meshes als haren. Door die 64 deed Nvidia het vele malen beter...tenzij je met AMD's driver gewoon het aantal tessellation samples beperkte. Zag je niks van, maar je framerate schoot wel de lucht in :)

Zie bijvoorbeeld hier of hier voor voorbeelden. Dat iemand maar eens factor 64 op haren probeert te verdedigen, is gewoon ronduit belachelijk :p

Het ironische is dat Nvidia gebruikers even veel, zoniet meer, voordeel hebben van deze tweaks.

En om dan even terug te komen op m'n asterisk hierboven: "rays" is een beetje een verwarrende term, want dat is inclusief bounces. Je hebt het aantal samples per pixel (dus hoeveel rays je "schiet" per pixel), maar dan ook nog het aantal bounces dat per oorspronkelijke ray uitgevoerd wordt. Welke van de twee zwaarder is hangt helemaal af van de manier waarop je je RT implementeert (Path Tracing is gewoon een subset van RT) én van je scène. Het aantal rays is het aantal samples per pixel maal het aantal bounces, maar geen van beide cijfers hoeven per se vast te staan :p

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-10 13:31

SG

SG surft naar info hardewaren

Dennism schreef op donderdag 25 januari 2024 @ 11:27:
[...]


Steve van HWU lijkt toch wat minder enthousiast, hoewel die ook de 4070 Ti Super geen sterk product vind is ie toch wat minder positief over de 7900XT.

Uit hun 'cost per frame' analyse:


[...]


En uit hun eind conclusie:


[...]


En ik denk dat ik het daar wel mee eens ben.

Ik weet ook niet of ik het eens ben met je dat AMD niet echt hoeft te reageren. Ik heb de laatste tijd niet naar de marktaandeel cijfers gekeken, maar het zou mij echt niet verbazen als deze nog steeds vrij slecht zijn voor AMD. In een markt waarin je iedere kaart kan verkopen die je kan produceren zonder dan je allerlei incentives moet bieden aan partners is dat dan weer niet zo erg. Maar in een markt waar dat niet zo is, wordt marktaandeel wel weer een stuk belangrijker. Ook voor je imago, en juist het imago hebben ze ook veel aan te werken bij deze release. Want ook al kunnen ze met prijsverlagingen de kaarten redelijk tot goed uit de bus laten komen, het al gehele imago van AMD heeft deze range natuurlijk de afgelopen tijd geen goed gedaan.
AMD hoeft niet te reageren, ten 1st chipmarkt ligt op hun gat de extra kosten niet. Merk brand staat niet voor performance en feature kaal en software kaal.
Wat ze kunnen doen als vraag laag is en geen goede ASP kunnen handhaven is cancelen net als iNtel dat is de juiste commerciële aanpak ipv spul in de markt dumpen wat niks opbrengt. Ze hebben geleerd van HBM Vega fiasco dat dure innovatieve tech met hoge kosten je ASP complete de nek kan omdraaien. In de huidige recencie is innovatieve dure high-end gewoon niet de tijd voor.

Om goodwil naam op te krikken is regelmatig kroon terug pakken en gelijk aantal feature met bijbehorende performance. Heb je dat niet dan moet dramatisch voor productie efficiëntie gaan.
Oudere procédé minder zuinig maar goedkoper dat je enigzins nog redelijke ASP kan houden.

Ipv goedkoper zou je loon ook volledig inflatie gecompenseerd moeten worden wereld wijd dat is 50 dan is ook goedkoper.
Ze kijken waar elke SKU terecht komt pool positie en maken daar MSRP voor.
Ik bepaal voorhoeveel mijn dingen verkoop zo ook tech bedrijven niet mee eens dan niet.
Consumenten eigen voor dubbeltje op de 1st rij en elke factor recesie inflatie transport energie .
Je kan ook een van objectieve kijk van uit vrager en aanbieder kijken.
Je zou huidig werk vrijwillig kunnen doen zodat je bedrijf aan hun klanten prijs kunnen reduceren.

Ik volg marketing niet ik volg reviews meerdere en geen Hype kijk puur naar product en wat voor budget ik beschikbaar heb. En high-end is dan brug te ver en midrange zwaar.
Maar dat is als huur en energie crisis wat harder aankomt en dus utistel van upgrades dus Zen1 vega56 en daar moet ik het voorlopig mee doen zware systeem staat uit zo ook server macmini x86 is main rig
Budget gaat nu meer naar primaire zaken.
Verga 56 == 3050 Zolang Starcitizen squadron 42 niet released is kan wachten en verder gamen op de PS5. RDNA4 pas misschien upgrade wordt. Maar dat is niet AMD hun probleem

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

AMD gesponsorde game, want die houden Nvidia tech tegen. DLSS3 zit pas sinds november in Starfield. :z

Vraag me toch af wanneer Cyberpunk ook eens een betere FSR2 versie krijgt of gewoon de upgrade naar FSR3 + Frame Gen. Aankomende patch was weer eens oorverdovend stil erover. Want daarmee kan je ook sneller files wisselen en geüpdatet versies implementeren. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

AMD Radeon Anti-Lag+ is Coming Back Soon, Frank Azor Confirms

Redevelopment of the AMD Radeon Anti-Lag+ feature is in full swing, and the feature is coming back soon, the company confirmed. Responding to a specific question on Twitter on reintroduction of Anti-Lag+, AMD's gaming solutions head Frank Azor confirmed that it is coming soon. Anti-Lag+ is AMD's whole system latency reduction technology that rivals NVIDIA Reflex.

Anti-Lag+ benefits not just competitive online gaming, but is also supposed to be a vital component for FSR 3 frame-generation, as the technology imposes a considerable amount of latency. You can notice this in current titles with FSR 3, including in some cases, ghosting artifacts with fast-moving objects in a 3D scene. This is why NVIDIA Reflex is an integral component of DLSS 3 Frame Generation, and is enabled along with it. AMD had withdrawn Anti-Lag+ as the technology had inadvertently tripped Anti-Cheat mechanisms of several online games, causing automated player bans that game developers had to manually identify and reverse. The company will have to redesign the way Anti-Lag+ works, and extensively test it with competitive games before reintroducing it.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Gamers Nexus video met soort van noob friendly uitleg over de latency pipeline bij gaming:

[ Voor 24% gewijzigd door Help!!!! op 15-02-2024 18:35 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 22-09 01:32
Werelds schreef op vrijdag 26 januari 2024 @ 11:30:
[...]Het is dezelfde onzin als HairWorks in exact dezelfde game: ze hadden daar de tessellation factor op 64 staan...dat is dus per haar, wat gewoon ronduit achterlijk was. 16 is in 99,9% van de gevallen al te veel, laat staan op minuscule meshes als haren.
Hairworks gebruikt tesselation om haren op te splitsen, dus hoe hoger je tesselation hoe meer individuele haren. De claim dat tesselation voor 1 haar gebruikt wordt is nogal misleidend. Hoe veel je de haren op wil/moet splitsen hangt af van je doelen over de stijl en kwaliteit van het haar, en hoe gedetaileerd je growth mesh is (en dus hoe veel hair guides je gebruikt).

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
cnieuweboer schreef op donderdag 15 februari 2024 @ 11:41:
[...]


Hairworks gebruikt tesselation om haren op te splitsen, dus hoe hoger je tesselation hoe meer individuele haren. De claim dat tesselation voor 1 haar gebruikt wordt is nogal misleidend. Hoe veel je de haren op wil/moet splitsen hangt af van je doelen over de stijl en kwaliteit van het haar, en hoe gedetaileerd je growth mesh is (en dus hoe veel hair guides je gebruikt).
Ze gebruiken twee vormen van tessellation. Jij hebt het over de interpolation, maar ze gebruiken tessellation daarnaast ook gewoon voor smoothing, dat gaat dan om zowel de curve over de lengte als de omtrek en dat is per haar - wel enkel op de vooraf gedefinieerde haren, niet de geïnterpoleerde haren :)

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Er is waarschijnlijk met Hairworks zoals in veel particle systemen 1 echte (gesimuleerde) haar en meerdere kopieën; daar gebruik je zover ik weet geen tessellation voor; tenminste niet op een niveau wat noemenswaardig is. Want het zou enorm dom zijn als je implementatie als volgt is; dat je tessellation factor ook de subdivision van de base mesh beïnvloed, de base mesh waar je op elke vertex of face afhankelijk van je implementatie een haar komt.

Laat niet weg dat ik Hairworks zoals het door Nvidia wordt gebruikt een gedrocht vind.

Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 10-10 13:27
https://docs.nvidia.com/g...istsPerformanceGuide.html

Is gewoon openbaar te lezen tegenwoordig :)

In W3 zat er factor 64 op de CV's én hadden ze vrij veel haren met weinig LoD toegepast.

En voor diegenen die niet helemaal weten wat tessellation doet: https://threejs.org/examples/webgl_geometry_teapot.html

Op wireframe zetten en dan met de factor spelen, dan zie je wat het met het aantal triangles doet. Tessellation is een briljante techniek, maar zelfs met zoiets als de Utah Teapot loop je al heel rap tegen verminderd rendement aan. Op default zoom level zie je het verschil tussen 10 en 15 nog wel (weer terug naar smooth gaan, niet de wireframe vergelijken uiteraard :P), maar is dat al vrij klein; van 15 naar 20 zie je al nauwelijks (tenzij je weet waar je moet kijken). Zoom je een stuk uit, dan is op een gegeven moment 5 al het omslagpunt. Zelfde base mesh, zelfde aantal triangles als start punt, maar omdat ze veel kleiner gerenderd worden is het effect te verwaarlozen. Dat is waarom we LoD überhaupt hebben en waarom Epic dat met Nanite bijvoorbeeld makkelijker en dynamischer probeert te maken, want het is een heel fijne balans die je op moet zoeken als het op aantal triangles aan komt.

En dat laatste deden ze toen niet. Gewoon factor 64 er op en klaar.

[ Voor 3% gewijzigd door Werelds op 15-02-2024 20:12 ]


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
AMD Q4 & FY2023 resultaten

TLDR versie:
- Radeon verkoopt goed, de consoles niet
- EPYC verkoopt als een tierelier
- MI250 lijkt meer een testplatform te zijn voor AI systemen. AMD verwacht met MI300 echt flink te gaan verkopen, met 3,5 miljard dollar aan omzet in 2024. Opvallend genoeg verwachten ze geen supply chain issues, dus CoWoS opschalen lijkt lekker te lopen, denk ik zo.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • RnwY
  • Registratie: September 2007
  • Laatst online: 21-01 14:37
Op basis van een onbetrouwbare bron dat RDNA4 uitgerust wordt met GDDR6, vraag ik me af of Processor in Memory (PIM) toegepast kan worden voor videokaarten. Volgens onderstaande afbeeldingen wordt er door AMD, Xilinx en SK Hynix onderzoek gedaan en is er prototype gemaakt.

De komende jaren zullen de console van Sony en Microsoft nog GDDR6 gebruiken en verwacht dat Nvidia alle beschikbare GDDR7 capaciteit heeft opgekocht.

Afbeeldingslocatie: https://tweakers.net/i/SXqV7rfbPWXJkL0CtlvZUm88QQQ=/800x/filters:strip_icc():strip_exif()/f/image/1Y62M7vpNyvGzz6NRciEztWN.jpg?f=fotoalbum_largeAfbeeldingslocatie: https://tweakers.net/i/QNj0m1C69BTIKOXxv00BgvEU5N4=/800x/filters:strip_icc():strip_exif()/f/image/Gl23A7PWTZmqaTGPoaxNv9cu.jpg?f=fotoalbum_large

Bronnen:
- https://www.freepatentsonline.com/20210026686.pdf
- http://www.hc34.hotchips....hynix.YongkeeKwon.v03.pdf

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En de RX7900GRE lijkt nu wel gewoon regulier uitgebracht te worden. Eerst in de VS, waarschijnlijk later ook hier. MSRP zou $550 zijn. Net wat meer dan de RX7800XT en net wat sneller waardoor die goed tegenover de RTX4070S komt te staan.
https://videocardz.com/ne...new-models-already-listed

En dan is dat saga ook weer voorbij. Want wat heeft AMD er een zooitje van gemaakt. De RX7900XT hadden ze gewoon de RX7800XT moeten noemen. De RX7900GRE vervolgens de RX7800 en de RX7800XT dan de RX7700XT en de RX7700XT, de RX7700. Dan stonden de SKU's allemaal beter tegenover Nvidia qua naamgeving en hadden ze hun eigen merknaam weer eens niet, totaal onnodig beschadigd. Want ze waren net bezig om een betrouwbare verbetering, generatie op generatie, op te bouwen. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +3 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Erg jammer. Ik hoop serieus dat de HDMI standaard een langzame dood sterft.
MIjn ervaring is dat met desktops dat HDMI zich raar gedraagt, ik gebruik liever alleen DP zei het niet dat mijn stomme receiver alleen HDMI aankan.

Het is frustrerend dat TV's en receivers nog steeds deze bout standaard gebruiken.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 20:18
Idem. Vermoedelijk laten ze het niet toe vanwege het ingebakken DRM aspect in de vorm van HDCP (dankjewel Intel..). Weer een kliekje dat vooruitgang tegenwerkt.

Ik wist trouwens niet dat het HDMI forum sinds 2021 geprivatiseerd was. :|

Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik antwoord maar even hier. :)
sjekneck schreef op woensdag 28 februari 2024 @ 23:04:
[...]

Komt dat door Nvidia, of komt dat omdat de afzetmarkt van AMD gewoon mager is? GPP lijkt me onwaarschijnlijk na de backlash en lekken van deze strategie door de board partners zelf.

Veel prijsbewuste AMD kopers gaan echt vaak voor de lagere prijs, daar past ook een afgeslankt aanbod bij lijkt me. Wat dat betreft zou het goed zijn als AMD eindelijk weer eens een echt goede chip maakt met een volledige top to bottom lineup zonder concessies. Als ze succes boeken, komen de aib modellen ook.
Het gaat er dan ook om dat er geen officiële GPP is, maar dat er informeel wel iets zou spelen. :)
En ik begon er al een jaar geleden over dat MSI opeens geen enkele moeite deed voor RDNA3 en dat voor Asus en Gigabyte, de premium opties ontbreken. De RX7800XT en MSI, is helemaal vreemd. Rond die launch kwam MSI met een hele serie aan Nvidia refresh modellen, maar nog steeds niks over een RX7800XT van MSI. Overigens is dat wel een beetje amusant omdat de RX7800XT een van de beste videokaarten van deze generatie is, puur omdat die gewoon aan minimale hardware eisen voldoet (3+ jaar na de nieuwe consoles niet eens zoveel VRAM, 16GB dus, op een €500+ kostende videokaart, is gewoon waardeloos) en niet al te belachelijk duur is, voor de standaarden van deze generatie.
Je ziet wel dat in de afgelopen jaren dat de meeste koeloplossingen van open board partners ontwikkeld zijn met Nvidia als uitgangspunt. Krijgen ze het zonder al teveel herrie ook op AMD, dan doen/deden ze dat ook. Al heb je dan soms wel negatieve uitschieters die niet goed contact maken zoals bij MSI en ook bij Asus etc. Wat dat betreft kun je nu beter voor dedicated partners gaan bij AMD.
Dat laatste zeker, maar daarmee word ook de capaciteit van AMD beperkt als ze competitiever worden. Want als ze eens een goede generatie hebben, wie maakt dan de videokaarten? Sapphire, XFX, Powercolor en ASRock kunnen maar zoveel opschalen. Opeens het dubbele maken, zit er waarschijnlijk niet in. Maar ASUS, MSI en Gigabyte kunnen dat wel door te schuiven met Nvidia vs. AMD.

Ergens begin ik zo ook te vermoeden dat hierom misschien die monster Navi 41/Navi 4C, geannuleerd lijkt te zijn. Leuk dat je een extreme chiplet GPU kan maken voor $2000 met een waarschijnlijk bezopen verbruik, die daadwerkelijk de vloer kan aanvegen met Nvidia. Wie koopt het en wie maakt de videokaarten?

Want dit, dit zou echt een monster zijn. Aardige kans dat dit ruim door de reticle limit van een monolithische chip was gegaan. Dan maakt het weinig meer uit of Blackwell een betere architectuur is, dit zou gewoon veel meer rekenkracht zijn geweest. En we weten dat AMD een stuk beter is om hun hardware daadwerkelijk van instructies te voorzien dan Nvidia. Ze doen immers al vergelijkbare dingen met veel minder shaders.
Afbeeldingslocatie: https://www.techpowerup.com/img/93RoGf7DP4SqzVkt.jpg
Komt ook bij dat er ook de geruchten/vermoedens opduiken dat AMD met RDNA4, ook meer aparte RT units gaat maken en dat meer gaat lostrekken van shaders. Dat lijkt de focus van RDNA4 te worden, een stap in rauwe, dedicated rekenkracht voor RT.


Het moge ook duidelijk zijn dat ik niet zo negatief over RDNA3 ben. Dit omdat ik het potentieel ervan, een jaar geleden al zag. En langzaam komt het, stapje voor stapje. Ik zie in recentere games, al langzaam dat RDNA3 een beetje uitloopt. Een jaar geleden was de RTX4080 net iets langzamer dan de RX7900XTX in rasterisaton. Een jaar later is het bij HWU op 4K al 13% en op lagere resoluties is er ook meer marge ontstaan. Daar is ook niks vreemds aan. De RX790XTX heeft gewoon veel meer theoretische rekenkracht die niet goed gebruikt werd. Drivers, maar ik vermoed ook games, veranderen dit. De RTX4090 gaat die in de toekomst, denk ik niet systematisch matchen, maar de RTX4080S blijft die denk ik wel voor in rasterisation.


De RT is in niet Nvidia sponsored games vol met Nvidia tech, ook competitief. Ik ga niet ook nogmaals beginnen waarom ik totaal niet gecharmeerd ben van Nvidia hun RTX. Kort gezegd is het hardstikke inefficiënt en telkens komen er nieuwe dingen die alleen werken op het nieuwste flagship, dus koop het nieuwste Nvidia flagship.

Er zit ook behoorlijk capabele matrix hardware in RDNA3, die op termijn een betere upscaling mogelijk gaat maken. Dat is niet zomaar speculatie van mij. Dit weten we omdat dit gelekt is vanuit Microsoft dat ze een ML upscaling eisen voor de volgende XBOX. RDNA3 heeft de hardware ervoor al ingebouwd, RDNA2 niet. De overstap van FSR2 naar FSR3 maakt dit ook mede mogelijk omdat AMD het mogelijk heeft gemaakt om makkelijker van versie te upgraden. Ik zit echt op het moment te wachten dat AMD ermee komt. Misschien rond RDNA4 later dit jaar. AMD zal alleen eerst een manier moeten vinden voor backwards compatibility voor RDNA2. Daarin zou wat Intel heeft gedaan voor XeSS, best wel eens de oplossing kunnen zijn. Navi 10 mist alleen DP4a en dat gaat een bittere pil zijn.

Terugkijkend erop, worden mijn vermoedens steeds sterker dat Navi 10 echt een "pipe line check" was. Het lijkt echt een testchip te zijn geweest voor RDNA2. Navi 14 had vervolgens wel al DP4a. Navi 12 had HBM2 en is alleen uitgebracht voor de professionele markt. Ergens zou ik niet eens verbaast zijn als in Navi 10 al een primitieve versie van RDNA2 haar RT hardware zou zitten, maar dit kapot is.


Laatste is voor mij persoonlijk, dat ik vooral strategy games en vaak ook wat langzamere spellen speel. Voor mij is RT en upscaling ook niet bijzonder interessant. AFMF is voor mij een game changer en een feature waar ik niet zonder meer mee kan. Want dat is de sleutel tot tenminste 60fps in zoveel strategy games die maar een core aanspreken. AFMF geeft daar de grootste voordelen voor weinig nadelen. Want echt last van artifacts heb je niet, maar mijn ogen worden ook niet doodmoe van de lage framerates.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op vrijdag 1 maart 2024 @ 12:01:
Ergens begin ik zo ook te vermoeden dat hierom misschien die monster Navi 41/Navi 4C, geannuleerd lijkt te zijn. Leuk dat je een extreme chiplet GPU kan maken voor $2000 met een waarschijnlijk bezopen verbruik, die daadwerkelijk de vloer kan aanvegen met Nvidia. Wie koopt het en wie maakt de videokaarten?
Je gaat nu volledig voorbij aan de AI boom. De actieve interposers uit het plaatje gaan nu allemaal naar AI-chips. De geruchten zijn zelfs dat Nvidia voor de Blackwell-AI-kaarten naar Intel gaat voor de interposers van een deel van de AI-chips.

Waarom zouden ze de actieve interposers gaat verkopen aan gamers, wanneer ze veel meer winst maken op hun AI-kaarten?

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Wat een verrassing dat AMD werkt aan AI upscaling voor gaming devices met een deployment jaar in 2024. Dus ergens rond RDNA4 denk ik zo. :z
https://videocardz.com/ne...s-at-ai-powered-upscaling

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
Het moge ook duidelijk zijn dat ik niet zo negatief over RDNA3 ben. Dit omdat ik het potentieel ervan, een jaar geleden al zag. En langzaam komt het, stapje voor stapje. Ik zie in recentere games, al langzaam dat RDNA3 een beetje uitloopt. Een jaar geleden was de RTX4080 net iets langzamer dan de RX7900XTX in rasterisaton. Een jaar later is het bij HWU op 4K al 13% en op lagere resoluties is er ook meer marge ontstaan. Daar is ook niks vreemds aan. De RX790XTX heeft gewoon veel meer theoretische rekenkracht die niet goed gebruikt werd. Drivers, maar ik vermoed ook games, veranderen dit. De RTX4090 gaat die in de toekomst, denk ik niet systematisch matchen, maar de RTX4080S blijft die denk ik wel voor in rasterisation.
Maar dit is dan imho ook al jaren het probleem dat AMD heeft met releases, bij release werken er zaken niet, is de geschatte performance er niet, missen er software features vergeleken met de concurrent, dat potentieel in specs zagen de meesten wel. Vaak werd het zelfs wat overschat (denk aan alle RDNA3 gaat Nvidia wel even volledig verslaan deze generatie hype posts en leaks). Wel speelde er zoals altijd de vraag of AMD marketing technisch de boel wel op orde zou hebben.

Je moet daarnaast dat potentieel echter wel unlocken bij release en niet pas jaren later als de volgende generatie al weer aan het venster staat en de 'choo choo' trains daarvoor alweer aan het vertrekt staat. Want dan wordt het in de techpress weer het 'over promise, under deliver' verhaal (ook al waren het misschien niet eens harde beloften, dat narratief gaat wel spelen), en dan kunnen ze later wel weer gewag maken met 'fine wine', maar een boel van de consumenten drinks misschien wel helemaal geen wijn en die wil gewoon bij aankoop een volledig product, niet misschien hopelijk pas een jaar later.

Van mij zou AMD hier wel wat meer mogen kijken naar de CPU afdeling qua strategie, nu hebben die natuurlijk wel het geluk dat Intel al jaren niet echt competitief is op alle vlakken, waardoor ze of veel beter presteren of veel efficiënter zijn. Maar hebben ze duidelijk gekozen voor 'under promise, over deliver' in het algemeen. Tuurlijk hebben ze daar ook wel her en der een steek laten vallen, of zaken minder slim gecommuniceerd naar de community (denk aan het Zen 2 boost dingetje, of het hele chipset verhaal), maar het product daar is bij release over het algemeen wel goed en in lijn met wat de consument verwacht.

Geen idee of de dGPU market shares voor Q4 al beschikbaar zijn, ik zag ze nog nergens voorbij komen, maar ik benieuwd of AMD inmiddels weer zover uit het dal is dat ze weer op 20%+ van de dGPU markt zitten.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Dennism

AMD lijkt gewoon te weinig ontwikkelaars te hebben. Het lastige is natuurlijk ook dat AMD minder omzet uit de GPUs haalt. Dus als ze hetzelfde percentage van de omzet uitgeven aan software als Nvidia, dan is het alsnog een stuk minder in dollars.

Met name dat bepaalde problemen met de drivers vaak een half jaar of zelfs een jaar kost om op te lossen betekent dat hun product een flinke periode flink minderwaardig is.

Wat wel een voordeeltje is voor de consument is dat ze de prijs moeten verlagen tot de matige prestaties aan het begin, dus als je de kaart lang houdt of tweedehands koopt, dan profiteer je ervan dat de prestaties ten opzichte van de Nvidia-kaarten over het algemeen na verloop van tijd toeneemt.
Van mij zou AMD hier wel wat meer mogen kijken naar de CPU afdeling qua strategie, nu hebben die natuurlijk wel het geluk dat Intel al jaren niet echt competitief is op alle vlakken, waardoor ze of veel beter presteren of veel efficiënter zijn.
Bij de CPUs is de software wat minder van belang, waardoor het makkelijker is om een net product te maken. Al hebben ze bij de CPUs dezelfde problemen dat een nieuw platform gemiddeld genomen meer problemen heeft dan bij Intel. AM5 was minder stabiel aan het begin dan LGA1700.

En je kunt veel zeggen over Jensen, maar het is wel een baas die nooit zijn voet van het gas haalt of matige kwaliteit accepteert. Dus is AMD werkelijk zo goed in CPUs of is de concurrentie gewoon een stuk minder sterk?
Maar [voor CPUs] hebben ze duidelijk gekozen voor 'under promise, over deliver' in het algemeen.
Daar ben ik het totaal niet mee eens. Ook bij de CPUs hebben ze dezelfde strategie gekozen om eerst teveel te vragen en daarna pas de prijs aan te passen aan de markt. Zie bijvoorbeeld de stevige prijsaanpassing van de 7600X (in de prijsgrafiek):

uitvoering: AMD Ryzen 5 7600X Boxed

Wat ik totaal niet begrijp is dat bepaalde reviewers als Hardware Unboxed bij release eigenlijk al goed weten of de prijs van een nieuw product een beetje realistisch is en en wat het ongeveer zou moeten zijn. Hardware Unboxed heeft met name AMD min of meer gesmeekt om van die kennis gebruik te maken. Al lijken reviewers zich vooral te baseren op relatief simpele grafiekjes waar de kostprijs per FPS wordt bepaald, wat een klusje is dat je een eenvoudige stagiair zo kunt laten doen.

Uiteraard kun je dan wat spelen met de prijs op basis van marktomstandigheden, voorraden van oude producten, e.d, maar met name AMD lijkt aan het begin toch erg ver af te zitten van de correcte prijs, waardoor ze stevige aanpassingen moeten doen. Het gevolg daarvan is weer dat consumenten dat gaan verwachten.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
Ludewig schreef op dinsdag 5 maart 2024 @ 13:08:


Daar ben ik het totaal niet mee eens. Ook bij de CPUs hebben ze dezelfde strategie gekozen om eerst teveel te vragen en daarna pas de prijs aan te passen aan de markt. Zie bijvoorbeeld de stevige prijsaanpassing van de 7600X (in de prijsgrafiek):
Ik zat daar niet zozeer aan prijs te denken, maar vooral aan beloften / leaks omtrent de performance. Volgens mij hebben ze nooit heel erg overdreven uitingen gedaan die ze daarna niet waar maakten, eerder juist dat ze minder 'beloofden' qua bijvoorbeeld IPC vooruitgang dan dat er achteraf daadwerkelijk uit de architectuur kwam.

Terwijl aan de GPU kant de hype train constant ontspoort omdat AMD in ieder geval aan die kant vrij slecht is in het managen van verwachtingen, waardoor er veel meer verwacht wordt van een release dan dat er uiteindelijk op release dag vaak uitkomt./

[ Voor 15% gewijzigd door Dennism op 05-03-2024 13:38 ]


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Dennism

Volgens mij ging dat alleen voor de laatste generatie echt fout, maar dat was omdat ze tot de dag van de release nog dachten dat ze de problemen met nieuwe drivers konden oplossen. Ze hadden zelfs nog 3+ Ghz op de slides staan die ze aan de reviewers toonden.

De mate waarin Nvidia systematisch liegt is echt van een totaal andere orde, waarbij ze dingen als DLSS 2 en 3 presenteerden als daadwerkelijke snelheidsverhogingen van de kaarten zelf. Dat is geen fout meer, maar een bewuste vorm van misleiding.

Ik vindt het een beetje vreemd om iets het zwakke punt van een bedrijf te noemen, wanneer ze het op dat punt beter doen dan de concurrentie.

Wat wel fout gaat is dat ze door de hoge startprijzen meteen afgeschreven worden als keuze door veel mensen, wat juist een probleem is als je zoals AMD niet de standaardkeuze bent. De reviews bij de release zijn bij uitstek een moment waar massaal aandacht is voor het product en de eerste indruk is heel belangrijk.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
Als je AMD's marketing niet het zwakke punt van het bedrijf vind, tja, ik zie dat als aandeelhouder (waarom ik vaak ook redelijk streng ben richting AMD) juist wel zo. Het is echt niet zo dat AMD's marketing afdeling alleen de laatste generatie mis zat in het managen van de verwachtingen, al was het denk ik wel een van de grootste miskleunen van de laatste jaren. En als je zoiets dan ziet aankomen, waarom dan niet de verwachtingen wat te temperen, door iets te leaken naar 'red gaming tech', een van de twitteraars of zelfs MLID.

Bij Nvidia heb ik dat een stuk minder, die hebben juist de marketing vrij goed voor elkaar, en uiteraard zijn ze beide niet helemaal eerlijk, of zelfs helemaal niet, maar dat weet je bij marketing en moet je als consument ook een beetje doorheen kunnen prikken. Maar ik zit bij Nvidia's launches niet zo'n beetje iedere launch weer met samengeknepen billen om te kijken hoe ze een goed tot redelijk goed product toch weer een slechte launch kunnen geven. Daar is het eerder soms andersom, hoe lukt het ze toch weer om een varkentje wat lipstick op te smeren en alsnog te verkopen.

En daar komt dan het prijs argument er uiteraard nog bij de releases, dan zijn de verwachtingen al wat (te) hoog opgelopen, valt het uiteindelijke product wat tegen (en / of de concurrent komt met features die jij niet hebt) en dan is ook de launch prijs nog te hoog.

Die hele combinatie zorgt dan inderdaad voor launch day review die de toon zetten voor de verkopen van de generatie, en eventuele latere 'fine wine' winsten en andere zaken gaan dat dan bij het grote publiek niet meer omdraaien. Al moet ik ook zeggen dat ik niet weet hoe elastisch het prijs argument is aan de kant van AMD, Steve van HWU zei laatst volgens mij in de podcast (even uit mijn hoofd, bedrag kan dus iets afwijken) dat een AMD kaart $100 goedkoper moet zijn dan een gelijk presterende Nvidia kaart om eigenlijk in overweging genomen te worden. Ik vraag me dan op een gegeven moment wel af of zoiets dan eigenlijk nog zinvol is voor AMD, en of ze die wafer capaciteit (of bijvoorbeeld substraten) niet beter elders in kunnen zetten, want ik kan me op een gegeven moment wel indenken dat er misschien ook een houding ontstaat van 'waar doen we het eigenlijk nog voor'. Want continu achter de feiten aanlopen is natuurlijk ook niet leuk.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 20:18
DaniëlWW2 schreef op maandag 4 maart 2024 @ 23:43:
Wat een verrassing dat AMD werkt aan AI upscaling voor gaming devices met een deployment jaar in 2024. Dus ergens rond RDNA4 denk ik zo. :z
https://videocardz.com/ne...s-at-ai-powered-upscaling
De omslag bij AMD is wel een beetje opmerkelijk omdat ze eerst zo sterk verkondigd hadden niet te focussen op AI voor de gaming hardware. Maar anderzijds kan ik het ook wel begrijpen, nu men upscaling als defacto standaard is gaan hanteren bij de nieuwe games. AMD moet wel meedoen om een alternatief te blijven.
Dennism schreef op dinsdag 5 maart 2024 @ 12:30:
[...]


Maar dit is dan imho ook al jaren het probleem dat AMD heeft met releases, bij release werken er zaken niet, is de geschatte performance er niet, missen er software features vergeleken met de concurrent, dat potentieel in specs zagen de meesten wel. Vaak werd het zelfs wat overschat (denk aan alle RDNA3 gaat Nvidia wel even volledig verslaan deze generatie hype posts en leaks). Wel speelde er zoals altijd de vraag of AMD marketing technisch de boel wel op orde zou hebben.

Je moet daarnaast dat potentieel echter wel unlocken bij release en niet pas jaren later als de volgende generatie al weer aan het venster staat en de 'choo choo' trains daarvoor alweer aan het vertrekt staat. Want dan wordt het in de techpress weer het 'over promise, under deliver' verhaal (ook al waren het misschien niet eens harde beloften, dat narratief gaat wel spelen), en dan kunnen ze later wel weer gewag maken met 'fine wine', maar een boel van de consumenten drinks misschien wel helemaal geen wijn en die wil gewoon bij aankoop een volledig product, niet misschien hopelijk pas een jaar later.

Van mij zou AMD hier wel wat meer mogen kijken naar de CPU afdeling qua strategie, nu hebben die natuurlijk wel het geluk dat Intel al jaren niet echt competitief is op alle vlakken, waardoor ze of veel beter presteren of veel efficiënter zijn. Maar hebben ze duidelijk gekozen voor 'under promise, over deliver' in het algemeen. Tuurlijk hebben ze daar ook wel her en der een steek laten vallen, of zaken minder slim gecommuniceerd naar de community (denk aan het Zen 2 boost dingetje, of het hele chipset verhaal), maar het product daar is bij release over het algemeen wel goed en in lijn met wat de consument verwacht.

Geen idee of de dGPU market shares voor Q4 al beschikbaar zijn, ik zag ze nog nergens voorbij komen, maar ik benieuwd of AMD inmiddels weer zover uit het dal is dat ze weer op 20%+ van de dGPU markt zitten.
Met AMD zijn er weliswaar relatief meer problemen bij een release, maar bij lang niet alle gevallen ligt de schuld (puur) bij AMD. Het grootste struikelpunt met AMD is eigenlijk gewoon misinformatie / onwetendheid of het scheppen van te hoge verwachtingen, al dan niet vanwege de beroerde marketing (Zen3: 2000MHz Fclock, the new sweetspot uhum O-) ).

RDNA3 is denk ik ook wel een geval apart, omdat het zo erg mis is gegaan op meerdere vlakken van zowel de marketing, de QC (van de MBA kaarten) als op het vlak van de driver ontwikkeling (3 lagen beveiliging die parten heeft gespeeld?)

Het heeft ook niet veel gescheeld of RNDA3 had inderdaad de vloer geveegd met Nvidia's 4000 serie qua rasterisatie prestatie. Dat het niet waar is gemaakt komt omdat er aannames zijn gemaakt (door media en de community) die achteraf niet blijken te kloppen.

Een daarvan was dat een 7900XTX effectief het dubbel aantal cores tot zijn beschikking had met een 3GHz klok. Maar de dual issue functie blijkt in de praktijk beperkt inzetbaar waardoor het effectief meer 6144 cores x 120% = 7373 cores zijn en de shaderklok voor games en stuk lager uitpakt dan verwacht (2.6-2.7GHz).
Zet dat dan tegenover de 4090FE met haar 16384 cores en 2.7Ghz klok (okee dat is inclusief RT, Tensor cores e.d. maar dan nog). Desondanks is het verschil in prestatie pakweg 'maar' 30%.
Idem voor 7900XT versus 4080(S).

Overigens kan RNDA3 inderdaad gewoon 3GHz shaderclock continue bereiken met een workload zoals Blender, dus het is niet helemaal uit de lucht gegrepen of slechts een hype.
Op dit forum is men ook bescheiden geweest over de verwachtingen en speculatie en heb ik nooit het idee gehad dat er iets gehypet werd. Uiteraard was er wel enthousiasme en hoop (deels omdat RNDA2 zo'n succes was), maar dat hoort een beetje bij het roddelen :P.
Ik weet dus ook niet echt naar welke hype je refereert (buiten tweakers.net) of was dat de rampzalige presentatie en vervolgens geïnterpoleerde verwachtingen die men daarvan gemaakt heeft?

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

CMT schreef op dinsdag 5 maart 2024 @ 18:22:
[...]

De omslag bij AMD is wel een beetje opmerkelijk omdat ze eerst zo sterk verkondigd hadden niet te focussen op AI voor de gaming hardware. Maar anderzijds kan ik het ook wel begrijpen, nu men upscaling als defacto standaard is gaan hanteren bij de nieuwe games. AMD moet wel meedoen om een alternatief te blijven.
Het ging denk ik dan ook altijd om, dat ze de hardware er niet voor hadden. Van wat ik heb begrepen, kan je behoorlijk in de buurt van ML upscalers komen met FSR2/3, maar vraagt het om veel meer fine tuning. Dat lijkt te verklaren waarom de ene FSR implementatie best goed is en de volgende helemaal niks.

Maar ik verwacht dat ze met een ML versie gaan komen met DP4a fallback zoals XeSS ook doet. Werkt het ook op de PS5 en XSS/XSX en RDNA2.


@Dennism of het kan me nauwelijks wat schelen als de Radeon divisie het verprutst of laat is. Want hierdoor moeten ze steeds videokaarten met vergelijkbare rasterisation performance verkopen voor lagere prijzen dan Nvidia, terwijl ze betere hardware hebben, met meer potentieel in de toekomst. Ik zie niet hoe dit nadelig is voor mij. :z

Verder moet ik al vier jaar aanhoren hoe cruciaal DLSS2 is en al bijna zes jaar hoe belangrijk RTX. En nog steeds heeft de overgrote meerderheid van de games die ik speel, geen RT. En in die paar die het wel hebben, ben ik in de regel niet onder de indruk van de implementatie. Vaak zit er in de games die ik speel, ook geen upscaling en als er al upscaling is, tja ik heb het totaal niet nodig met mijn RX7900XT. Ik draai nota bene vaak zelf een enorme undervolt van 1100mv naar 750mv, omdat ik meer dan afdoende fps haal. Dat kan ik met Radeon drivers, zo per game instellen wat ik wil.

Maar ik heb wel een videokaart die het afgelopen jaar, relatief beter is gaan presteren dan de tegenhanger in de RTX4070Ti. Ook heb ik heb tenminste geen 12GB aan VRAM. Laatste is dat ik veel meer aan AFMF, Chill en Watmann heb dan Nvidia hun features. En ik betaal er ook nog eens minder voor. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Dennism schreef op dinsdag 5 maart 2024 @ 15:56:
Als je AMD's marketing niet het zwakke punt van het bedrijf vind, tja, ik zie dat als aandeelhouder (waarom ik vaak ook redelijk streng ben richting AMD) juist wel zo.
Nu doe je net of ik het had over de marketing in het algemeen, maar het onderwerp was slechts het verwachtingsmanagement. Ik vindt juist dat AMD vooral op andere vlakken van hun marketing meer uitglijders maakt, al is het ook heel makkelijk om alles maar op het bordje van marketing te schuiven. Uiteindelijk verzint marketing echt niet zelf dat er 3+ Ghz gehaald gaat worden in gaming, dat krijgen ze ook maar te horen.

En het is ook lastig marketen wanneer AMD als bedrijf vooral als mak schaap achter Nvidia aanloopt. Dan kun je nauwelijks een ander verhaal vertellen dan: "zo slecht zijn wij echt niet hoor."

Bij de CPU's hebben ze bijvoorbeeld nu echt een USP met X3D. En met de lange levensduur van AM4 hebben ze ook echt gescoord, al lijkt dat meer een mazzeltje te zijn geweest.

Voor hun GPUs heeft AMD nauwelijks meer unieks te bieden dan dat ze de oude connectors nog gebruiken en het aanpassen van de instellingen/voltages/clocks makkelijker is, al is Nvidia nu hard bezig om dat laatste te fixen. Dus wat is er eigenlijk te marketen behalve "wij zijn wat goedkoper en zo slecht zijn wij echt niet hoor"?

Dat is gewoon een flutmarketingverhaal.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
CMT schreef op dinsdag 5 maart 2024 @ 18:22:

Met AMD zijn er weliswaar relatief meer problemen bij een release, maar bij lang niet alle gevallen ligt de schuld (puur) bij AMD. Het grootste struikelpunt met AMD is eigenlijk gewoon misinformatie / onwetendheid of het scheppen van te hoge verwachtingen, al dan niet vanwege de beroerde marketing (Zen3: 2000MHz Fclock, the new sweetspot uhum O-) ).

RDNA3 is denk ik ook wel een geval apart, omdat het zo erg mis is gegaan op meerdere vlakken van zowel de marketing, de QC (van de MBA kaarten) als op het vlak van de driver ontwikkeling (3 lagen beveiliging die parten heeft gespeeld?)

Het heeft ook niet veel gescheeld of RNDA3 had inderdaad de vloer geveegd met Nvidia's 4000 serie qua rasterisatie prestatie. Dat het niet waar is gemaakt komt omdat er aannames zijn gemaakt (door media en de community) die achteraf niet blijken te kloppen.
Dat laatste is dan weer iets wat ik AMD wel deels aanreken, leaken en hypen is prima, maar het komt vaak over of AMD's marketing afdeling de controle over het narratief verliest. Als dan zo'n leaker ineens met 'More than double' performance komt voor N31 vs N21 in een leak, en dat soort waarden krijgen tractie in de community, dan is het natuurlijk niet handig als AMD zijnde als je daar niets aan doet.

Ook daar heb ik het idee dat bijvoorbeeld dat Nvidia het beter doet, misschien een bias van mij, doordat ik scherper let op AMD dan op Nvidia, maar ik heb nooit het idee dat Nvidia's leaks op eenzelfde wijze 'verwerkt' worden als AMD leaks.
Ik weet dus ook niet echt naar welke hype je refereert (buiten tweakers.net) of was dat de rampzalige presentatie en vervolgens geïnterpoleerde verwachtingen die men daarvan gemaakt heeft?
Ik zou niet zeggen alleen buiten Tweakers.net, hier op het forum waren er ook genoeg 'hype' posts, maar verder natuurlijk ook gewoon de posts op de gebruikelijke sites (videocardz, wccftech), leakers en analisten van leaks. Ook hier op het forum zag je bijvoorbeeld posts dat N33 bijvoorbeeld N21 zou verslaan en meer van dat soort zaken.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
Dennism schreef op dinsdag 5 maart 2024 @ 12:30:


Geen idee of de dGPU market shares voor Q4 al beschikbaar zijn, ik zag ze nog nergens voorbij komen, maar ik benieuwd of AMD inmiddels weer zover uit het dal is dat ze weer op 20%+ van de dGPU markt zitten.
Ik zat er met een wens van 20%+ niet ver vanaf en AMD komt inderdaad daar weer in de buurt, maar zijn er nog net niet:

Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/vMy2CvCwD5xGUivSzE37mi-970-80.png.webp

Acties:
  • +4 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Dit is erg interessant, want dit zou ROCM een stuk bruikbaarder maken. AMD gaat overwegen om hun firmware (gedeeltelijk) opensource te maken:

Tweets:
https://web.archive.org/w...tatus/1669803464082489347
https://twitter.com/LisaSu/status/1669848494637735936
https://twitter.com/__tinygrad__/status/1765101590866796724
https://twitter.com/__tinygrad__/status/1765447956550058435
https://twitter.com/LisaSu/status/1669848494637735936

[ Voor 9% gewijzigd door Sp3ci3s8472 op 15-03-2024 12:00 ]

Pagina: 1 ... 93 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.