Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 06-10 21:27

Damic

Tijd voor Jasmijn thee

@ocf81 zou me niet verbazen dat het een windows scheduler ding is.

@sunsmountain we zulle nwel zien, ik vermoed ook dat het 2 chiplets waarbij 1 moeder en dan een daugeter is.
In Navi 4x zien ik pas een IO-die komen en dan 2 gpu core chiplets

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 22-09 01:32
DaniëlWW2 schreef op dinsdag 31 mei 2022 @ 19:01:
Lumen zo in actie zien roept bij mij ook een andere vraag op. Waarom hebben we ook alweer RT hardware nodig? Dit lijkt me namelijk afdoende kwaliteit qua belichting.
Dat wordt prima uitgelegd door Epic, zie https://docs.unrealengine...details-in-unreal-engine/
Raytracing voor skinned meshes is wat mij betreft het belangrijkste verschil.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op dinsdag 31 mei 2022 @ 19:01:
Beetje offtopic dan.
Dit is gerenderd in UE5 en het zou draaien op een RTX2080 met 7fps op 1440p. :o
[YouTube: 【UE5】etchū-daimon station - 越中大門駅]

Ik wist dat UE5 een goede engine was. Maar de overdag beelden komen echt heel erg dichtbij fotorealisme. Je kan net zien dat het gerendered is als je heel goed kijkt. De nachtscènes zijn iets duidelijker, maar het is nog steeds zo bizar indrukwekkend.

Lumen zo in actie zien roept bij mij ook een andere vraag op. Waarom hebben we ook alweer RT hardware nodig? Dit lijkt me namelijk afdoende kwaliteit qua belichting.
Vraag is natuurlijk hoeveel van die technologie wij in games zullen zien, dat soort demo's halen alles uit de kast maar een game moet wel speelbaar zijn. Met RT kan in elk geval een aardige framerate gehaald worden.

March of the Eagles


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op dinsdag 31 mei 2022 @ 19:01:
Beetje offtopic dan.
Dit is gerenderd in UE5 en het zou draaien op een RTX2080 met 7fps op 1440p. :o
[YouTube: 【UE5】etchū-daimon station - 越中大門駅]

Ik wist dat UE5 een goede engine was. Maar de overdag beelden komen echt heel erg dichtbij fotorealisme. Je kan net zien dat het gerendered is als je heel goed kijkt. De nachtscènes zijn iets duidelijker, maar het is nog steeds zo bizar indrukwekkend.

Lumen zo in actie zien roept bij mij ook een andere vraag op. Waarom hebben we ook alweer RT hardware nodig? Dit lijkt me namelijk afdoende kwaliteit qua belichting.
Laat de volgende maar even achter van een kanaal dat ik volg (hij is bezig met het maken van een eigen game engine nadat hij bij EA is gestopt). Ik vind zijn analyse best goed.


Ik dacht overigens dat dit een offline render was?

Acties:
  • +4 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
XWB schreef op dinsdag 31 mei 2022 @ 21:41:
Vraag is natuurlijk hoeveel van die technologie wij in games zullen zien, dat soort demo's halen alles uit de kast maar een game moet wel speelbaar zijn. Met RT kan in elk geval een aardige framerate gehaald worden.
RT is niet speelbaar als je geen splinternieuwe hardware hebt :+

Lumen wel. Ik heb op m'n 1080 Ti de oorspronkelijke Valley demo gedraaid, inmiddels ook de Matrix demo. Die laatste draait ~20-25 FPS op z'n standaard instellingen, waarbij m'n 1700X volgens mij de boel nog wat tegen houdt. De Matrix demo kun je builds van vinden met een beetje zoekwerk als je hem niet zelf wilt compilen.

Daarnaast zou het resultaat van deze demo met 100% RT (Lumen is hybride; het gebruikt DXR tot op zekere hoogte wanneer beschikbaar) ook niet speelbaar zijn.

Zie hieronder voor meer over deze demo.
Sp3ci3s8472 schreef op dinsdag 31 mei 2022 @ 22:46:
[...]


Laat de volgende maar even achter van een kanaal dat ik volg (hij is bezig met het maken van een eigen game engine nadat hij bij EA is gestopt). Ik vind zijn analyse best goed.
[YouTube: THE MOST PHOTOREALISTIC Unreal Engine 5 Demo So Far! // Game Engine Dev Reacts]

Ik dacht overigens dat dit een offline render was?
+1 voor Cherno ;)

De video is inderdaad een offline, high-res render. En dan is 7 FPS best netjes. Real time draait hij het 30-50 FPS @ 1440p (op een 2080). "Image quality is worse" is alles wat hij er over heeft gezegd. Geen Nanite, textures zijn zelf gemaakt op basis van ook zelf gemaakte foto's. Camerawerk is gedaan door een VR controller te gebruiken als handheld camera.




Wat betreft het antwoord op jouw vraag waar we RT voor nodig hebben @DaniëlWW2: om dit verhaal te versnellen. Lumen gebruikt DXR wanneer beschikbaar voor betere performance, maar in tegenstelling tot sommige andere RT implementaties is er dus een fallback, waardoor de on/off eerlijk wordt.

De RT implementatie in Hitman 3 laat echter precies zien waar veel devs het nog fout doen.

Laat ik even voorop stellen dat IOI niet genoeg waardering krijgt voor hun engine. Dat ding is echt een prachtig staaltje werk. De manier waarop zij bijvoorbeeld hun reflecties doen (zonder RT) is door letterlijk de scene een tweede keer te renderen (op lagere resolutie) en dan als texture op spiegels/ramen te plakken. Dat is geen nieuwe techniek (integendeel, is al heel oud), maar het betekent ook dat hun engine dus efficiënt genoeg is om dat te doen en alsnog soepel te draaien. Hitman 3 heb ik niet, maar ik heb wel Hitman 2 en ben dat onlangs beginnen te spelen wanneer ik tijd heb (m'n games backlog houdt me het komende decennium nog wel bezig :+). Op 3840x1600 met alle toeters en bellen aan (behalve reflecties, die heb ik op medium; en motion blergh staat ook uit) haal ik gewoon 55-60 FPS. En ondanks de "medium" reflecties zien die er bizar goed uit. De levels zijn verder behoorlijk groot en zitten vol met allerlei detail, dus de performance is gewoon heel solide voor mijn systeem op die resolutie.

Met de RT patch zie je echter ook precies wat ik al 4 jaar roep: de RT hardware is er nog steeds niet. Zelfs op een 3090 lever je nog 60% van je performance in met beide aan - en het ziet er dan niet altijd beter uit, omdat ze de materialen niet hebben aangepast. De vloeren reflecteren veel te veel, omdat de roughness op dezelfde waarde staat als voor SSR, waardoor de SSR versie er soms niet alleen beter, maar vooral ook realistischer uit ziet. In DF's analyse video is dat bijvoorbeeld heel duidelijk in het Nieuw Zeeland level (6:30 in DF's video), waar de reflectie ineens haarscherp wordt met RT. Dat is een reflectie op een granieten vloer..van een projectie op een betonnen muur. Graniet reflecteert, maar het is geen haarscherpe spiegel. En zeker een projectie op een betonnen muur zou je van z'n leven niet zo scherp kunnen zien. De SSR versie ziet er dus oneindig veel realistischer uit. Dat zet door in alle andere levels, waar reflecties ineens onrealistisch scherp worden waar ze dat niet horen te zijn. Daar kan IOI echter niet veel aan doen, zonder alle levels volledig te herbouwen met andere materialen specifiek voor gebruik met RT. Dus dan moeten ze twee levels onderhouden. Ze kunnen niet minder bounces gaan gebruiken (en ze lijken er best veel te gebruiken, er komt veel detail terug in de reflecties; zeker een bounce of 5-6), want dan bereiken ze de kwaliteit van hun SSR niet.

En de "platte" reflecties (rechte ramen, spiegels) zijn ten alle tijde hun "oude" systeem. Dat doen ze niet met RT, zelfs als je RT reflecties op ultra zet. Zo goed is hun implementatie van die reflecties.

Dat geldt ook voor de schaduw. Ze hebben vrij veel bounces nodig om hun baked maps te benaderen, waardoor er 90% van de tijd nauwelijks waarneembaar verschil is. Er zijn wat situaties waar de onderkant van sommige objecten over-/onderbelicht is en RT dat corrigeert, maar voor de rest heb je het enkel over soft shadows die net iets harder of zachter worden. Tijdens het daadwerkelijk spelen van het spel valt je dat niet eens op.

Ik blijf er bij dat de push voor RT op de foute manier gebeurt. Te weinig mensen hebben überhaupt toegang tot RT hardware en zolang dat het geval is, moet RT mondjesmaat toegepast worden en moeten "oude" technieken gewoon gehandhaafd worden. Gebruik het niet voor reflecties op vloeren en dergelijke (dat kan niet met dezelfde roughness als voor SSR), enkel voor daadwerkelijk reflecterende oppervlakken zoals glas/spiegels; laat gekleurd licht maar lekker bouncen via die oppervlakken. Gebruik RT voor directe verlichting, niet ambient, want dan kan soms zelfs performance winst opleveren; maar houdt wel de baked maps voor het gros van het publiek, zodat zij geen 90's spel te zien krijgen. Zelfs als we een punt bereiken waar 3090 Ti RT performance beschikbaar is onder de €300 gaat het nog een hele tijd duren voordat het gros van het publiek die hardware ook heeft. En dat RT/$ niveau is nog ver van ons verwijderd.

Nanite is en blijft voor mij de interessantere technologie op korte termijn. Geef mij maar meer poly's op de models als ik er pal tegen aan sta. Bespaar die tijd maar op LOD versies van de models, dat zal waarschijnlijk zelfs meer tijd besparen dan RT vs baked maps zou besparen.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Heel klein plusje voor AMD qua marketshare.

Jon Peddie Research: Q1 of 2022 Saw a Decline in GPU Shipments Quarter-to-Quarter

[ Voor 3% gewijzigd door Help!!!! op 02-06-2022 13:47 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:34
Misschien dat ik de tabel verkeerd lees, maar AMD verliest toch juist iets?

Afbeeldingslocatie: https://i.imgur.com/VU5sKjS.png

van 19% naar 17% YoY tenzij ik iets mis.

[ Voor 4% gewijzigd door Dennism op 02-06-2022 14:16 ]


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op donderdag 2 juni 2022 @ 14:15:
[...]


Misschien dat ik de tabel verkeerd lees, maar AMD verliest toch juist iets?

[Afbeelding]

van 19% naar 17% YoY tenzij ik iets mis.
Je leest de verkeerde tabel. Je moet deze staafdiagram hebben. :P
Afbeeldingslocatie: https://www.techpowerup.com/img/n8WCSIFuEYGEmDK8.jpg

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:34
DaniëlWW2 schreef op donderdag 2 juni 2022 @ 15:21:
[...]


Je leest de verkeerde tabel. Je moet deze staafdiagram hebben. :P
[Afbeelding]
Ah overall hebben ze een plusje van 2%, maar in dGPU verliezen ze 2%

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 06-10 21:41
nieuws: Afbeeldingen tonen Sapphire Radeon RX 6700-videokaarten met 10GB gehe...

Ik weet niet wat we daarvan moeten denken. 6750XT introduceren met een iets hoger prijsje. Even later een 6700 introduceren die daar net onder ligt. 6700XT vervanger, met minder prestaties maar ongeveer dezelfde prijs? We zien het vast 9 juni (tijdens de Financial Analyst Day van AMD).

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 06-10 21:27

Damic

Tijd voor Jasmijn thee

LongBowNL schreef op donderdag 2 juni 2022 @ 16:46:
nieuws: Afbeeldingen tonen Sapphire Radeon RX 6700-videokaarten met 10GB gehe...

Ik weet niet wat we daarvan moeten denken. 6750XT introduceren met een iets hoger prijsje. Even later een 6700 introduceren die daar net onder ligt. 6700XT vervanger, met minder prestaties maar ongeveer dezelfde prijs? We zien het vast 9 juni (tijdens de Financial Analyst Day van AMD).
Die's met een defecte geheugen controller (160b bus) en extra defect cu's. Gewoon verkopen wat je nog hebt liggen. Dat zijn wrs nog die's van de 6700XT en nu ook de 6750XT die het niet halen maar nog teveel cu's hebben voor de 6500XT

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Informatie. :P :*)
Afbeeldingslocatie: https://tweakers.net/i/ETkSefPamGCfOnbZnGbtEbS3PgQ=/fit-in/1280x/filters:strip_icc():strip_exif()/i/2005167714.jpeg?f=imagegallery

Eigenlijk de dingen die al het meest vermoed werden maar toch. Weer 50% perf wat is gewoon netjes, aanpassingen aan CU en pipeline werden ook al vermoed en chiplets zijn er nu echt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 06-10 21:25
Ik hoop dat ze snel met een duidelijk update over streaming op 7xxx komen want zonder betere streaming word de volgende gpu gegarandeerd een Nvidia. Dat is echt het grootste gemis op een AMD gpu momenteel. De encoder is gewoon onbruikbaar voor streaming voor high pace gameplay.

X264 cpu is de betere optie maar daat heb je echt gewoon een 16 core cpu voor nodig om een beetje kwaliteit te kunnen streamen. Dat kan gewoon niet met mijn 9900k die verder totaal niet aan vervanging toe is.

En zoals 4xxx eruit ziet qua stroomverbruik is die kaar al helemaal geen optie voor mij het is nu alweer 26 graden in de game kamer na een uurtje gamen en het is nog niet eens echt zomer.

[ Voor 16% gewijzigd door computerjunky op 10-06-2022 12:48 ]


Acties:
  • 0 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

@computerjunky waarom zit je vast aan x264?

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 06-10 21:25
Omdat de rest van de opties niet echt een goede kwaliteit geeft voor snellere beelden. X264 is de beste streaming optie na Nvenc alshet op kwaliteit aankomt met beperkte bitrate.
Als bitrate geen factor zou zijn zou het niet uitmaken aar AMD heeft gewoon veel meer bitrate nodig voor dezelfde kwaliteit. Helaas is twitch gewoon keihard gelimiteerd op 6Mbit en is youtube met 8 niet veel beter.
En youtube gebruik ik niet graag meer door het nieuwe dachboard wat gewoon een hoop heisa is vooirdst je stream werkt. Het is niet meer start en go zoals het ooit was met OBS.

[ Voor 13% gewijzigd door computerjunky op 10-06-2022 13:38 ]


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op vrijdag 10 juni 2022 @ 10:48:
Informatie. :P :*)
Eigenlijk de dingen die al het meest vermoed werden maar toch. Weer 50% perf wat is gewoon netjes, aanpassingen aan CU en pipeline werden ook al vermoed en chiplets zijn er nu echt.
Het zal mij vooral benieuwen hoe de chiplets opgebouwd zijn. Er gaan veel geruchten rond, van één graphics chip en verschillende memory complex units tot een mix van beide. Die laatste setup zou wat spectaculairder zijn.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op vrijdag 10 juni 2022 @ 14:12:
[...]


Het zal mij vooral benieuwen hoe de chiplets opgebouwd zijn. Er gaan veel geruchten rond, van één graphics chip en verschillende memory complex units tot een mix van beide. Die laatste setup zou wat spectaculairder zijn.
Ik vermoed dat het een GPU chip gaat worden. Daarnaast een aantal gecombineerde geheugencontrollers + L3 cache chiplets. Immers was het hele idee van meerdere GPU chiplets ook dat je er dan een kan nemen voor Navi 32 en twee voor Navi 31. Maar ik betwijfel of ze dit gaan doen.

Ik durf alleen niks meer met zekerheid te zeggen omdat het zo'n chaos is qua leakers. De chiplets was een beetje een inkoppertje na RDNA2 hun L3 cache en dat besefte me ik al in 2020. En eigenlijk zal het er al aan te komen sinds Zen 2. Hoe ze het gaan doen is het raadsel.

@computerjunky Er zijn al referenties naar AV1 opgedoken in linux drivers voor RDNA3. Gewoon afwachten, maar het is een serieuze mogelijkheid dat AV1 ook gaat komen. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:34
Ik verwacht omdat bijv. Twitch, een van de bekende platformen enkel met x264 of NVENC lijkt te werken ( https://stream.twitch.tv/encoding/ ) (misschien dat AMD's GPU encoding ook werkt, maar die staat als zeer zwak bekend volgens mij). Heb je dus een AMD kaart en wil je hoge kwaliteit streamen lijk je vast te zitten op x264

Acties:
  • +1 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op vrijdag 10 juni 2022 @ 14:19:
[...]


Ik vermoed dat het een GPU chip gaat worden. Daarnaast een aantal gecombineerde geheugencontrollers + L3 cache chiplets. Immers was het hele idee van meerdere GPU chiplets ook dat je er dan een kan nemen voor Navi 32 en twee voor Navi 31. Maar ik betwijfel of ze dit gaan doen.
Klinkt logisch :)
Ik durf alleen niks meer met zekerheid te zeggen omdat het zo'n chaos is qua leakers. De chiplets was een beetje een inkoppertje na RDNA2 hun L3 cache en dat besefte me ik al in 2020. En eigenlijk zal het er al aan te komen sinds Zen 2. Hoe ze het gaan doen is het raadsel.
Ja, en deze leaker moet ook toegeven dat zijn informatie niet altijd correct is:

[Twitter: https://twitter.com/greymon55/status/1535215590645723137]

March of the Eagles


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 07:45
XWB schreef op vrijdag 10 juni 2022 @ 14:45:
Ja, en deze leaker moet ook toegeven dat zijn informatie niet altijd correct is:

[Twitter]
Een leaker waarbij de informatie niet altijd correct is?! Hold the phone! :P

Wel aardig dat hij in ieder geval nog het boetekleed aantrekt. De meesten lullen er gewoon overheen als blijkt dat ze onzin hebben lopen verkondigen, als ze om te beginnen al niet 20 verschillende, tegenstrijdige dingen geroepen hebben waarvan ze hoopten dat er dan minstens 1 goed was.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Bij twee compute-dies hadden ze zich dezelfde timingproblemen op de hals gehaald waar SLI altijd zo snel last van had. Lijkt me niet handig.

De opzet die de leakers nu tonen met aparte IO/cache dies op 6 nm is veel logischer, met name omdat ze zo flink hogere productie kunnen halen (omdat ze minder 5 nm wafers nodig hebben) en de kosten kunnen verlagen (omdat produceren op 6 nm flink goedkoper is). In de huidige marktsituatie, met crashende miningwinsten en productietekorten, lijkt me dat een hele goede keuze.

Hoge productie en lage kosten zijn nu de manier om meer marktaandeel te krijgen en toch prima winst te maken.
De meeste [leakers] lullen er gewoon overheen als blijkt dat ze onzin hebben lopen verkondigen
Moore's Law Is Dead haalt gewoon zijn oude video's weg, kan niemand meer bewijzen dat hij ongelijk had.

[ Voor 8% gewijzigd door Ludewig op 10-06-2022 15:21 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
Goh, 200% efficiëntie verbetering wordt het dan toch niet? Schokkend, wie had dat nou aan zien komen 8)7

Neemt niet weg dat >50% heel solide is. Vooral gezien het feit dat dit de derde keer op rij wordt.

Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 09:07

Mars Warrior

Earth, the final frontier

XWB schreef op vrijdag 10 juni 2022 @ 14:45:
Ja, en deze leaker moet ook toegeven dat zijn informatie niet altijd correct is:

[Twitter]
Gelukkig gebruikt hij nu voortaan wel een glazenbol, zodat hij kan aangeven of de informatie betrouwbaar is :X
[Twitter: https://twitter.com/greymon55/status/1535215590645723137]
Gelukkig is misinformatie op Twitter een uitzondering _/-\o_

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Dennism schreef op vrijdag 10 juni 2022 @ 14:20:
[...]


Ik verwacht omdat bijv. Twitch, een van de bekende platformen enkel met x264 of NVENC lijkt te werken ( https://stream.twitch.tv/encoding/ ) (misschien dat AMD's GPU encoding ook werkt, maar die staat als zeer zwak bekend volgens mij). Heb je dus een AMD kaart en wil je hoge kwaliteit streamen lijk je vast te zitten op x264
Encoding van x264 van AMD was inderdaad minder; maar volgens een review die ik niet direct kan terugvinden zijn ze in x265 een stuk beter en misschien op het niveau van Nvidia.
Hopen dat x265 een grotere adoptie krijgt.

offtopic:
Zat het voor mijzelf nog even na te lezen. Blijkbaar zijn x264/x265 de codec/encoder en H.264/H.265/HEVC de standaarden.

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 06-10 21:25
Sp3ci3s8472 schreef op zaterdag 11 juni 2022 @ 15:12:
[...]


Encoding van x264 van AMD was inderdaad minder; maar volgens een review die ik niet direct kan terugvinden zijn ze in x265 een stuk beter en misschien op het niveau van Nvidia.
Hopen dat x265 een grotere adoptie krijgt.

offtopic:
Zat het voor mijzelf nog even na te lezen. Blijkbaar zijn x264/x265 de codec/encoder en H.264/H.265/HEVC de standaarden.
X265 recording is idd prima maar er helaas geen x265 support voor streaming. En ik ben bang dat AV1 niet anders gaat zijn. Wie zijn schuld dit onder de streep is doet er echter als eindgebruiker niet toe. Het werkt simpelweg niet. Hoop dan ook dat YouTube Twitch en AMD en eventueel Intel en Nvidia de handen ineen slaan en een goede standaard maken. Maar die kans is nihil.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
computerjunky schreef op zaterdag 11 juni 2022 @ 19:23:
[...]


X265 recording is idd prima maar er helaas geen x265 support voor streaming. En ik ben bang dat AV1 niet anders gaat zijn. Wie zijn schuld dit onder de streep is doet er echter als eindgebruiker niet toe. Het werkt simpelweg niet. Hoop dan ook dat YouTube Twitch en AMD en eventueel Intel en Nvidia de handen ineen slaan en een goede standaard maken. Maar die kans is nihil.
nVidia heeft een stuk meer software developers in huis dan AMD, en optimaliseert daardoor meer (DLSS, streaming, CUDA). AMD haalt ze achteraf wel deels in (FSR2), maar zal softwarematig altijd achterlopen.

AMD heeft meer ingenieurs, vooral op leidinggevende posities, en zal eerder op hardware gebied voorlopen of innoveren, zoals infinity cache en chiplets. Dat kopieert nVidia dan weer een generatie later.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 06-10 21:25
sunsmountain schreef op zondag 12 juni 2022 @ 10:00:
[...]


nVidia heeft een stuk meer software developers in huis dan AMD, en optimaliseert daardoor meer (DLSS, streaming, CUDA). AMD haalt ze achteraf wel deels in (FSR2), maar zal softwarematig altijd achterlopen.

AMD heeft meer ingenieurs, vooral op leidinggevende posities, en zal eerder op hardware gebied voorlopen of innoveren, zoals infinity cache en chiplets. Dat kopieert nVidia dan weer een generatie later.
Ja dit is volgens mij dels waarom intel zijn gpu NOG STEEDS NIET. Uitgebracht heeft. Ze hebben gewoon enorme stappen te zetten qua software en kunnenndat niet snel.

Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 03-10 12:52
sunsmountain schreef op zondag 12 juni 2022 @ 10:00:
[...]


nVidia heeft een stuk meer software developers in huis dan AMD, en optimaliseert daardoor meer (DLSS, streaming, CUDA). AMD haalt ze achteraf wel deels in (FSR2), maar zal softwarematig altijd achterlopen.

AMD heeft meer ingenieurs, vooral op leidinggevende posities, en zal eerder op hardware gebied voorlopen of innoveren, zoals infinity cache en chiplets. Dat kopieert nVidia dan weer een generatie later.
Een beetje zoals AMD & RT hardware? ;)

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
napata schreef op zondag 12 juni 2022 @ 12:35:
[...]

Een beetje zoals AMD & RT hardware? ;)
CUDA hardware (Tensors, niet per se nodig voor RT of beter dan TMUs) verkleed als RT bedoel ik, en ja daarbij bracht nVidia een deel workstation naar consumer hardware, omdat ze nu de helft van hun omzet nu in servers/compute farms zitten.

RT wat nog steeds veel performance kost, en veel nog steeds softwarematig gebeurt, waar nVidia sterk in is. Maar true, het was een stukje hardware innovatie, al kwam die meer voort uit marktoverweging dan de ingenieurs. Gezien de niet-Tensor keuze van Intel zullen ze die op enig moment wel weer weghalen.

Terwijl RDNA3 maar voor 1 doel is gemaakt, gaming. Hardwarematig dan :)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
computerjunky schreef op zondag 12 juni 2022 @ 10:44:
[...]


Ja dit is volgens mij dels waarom intel zijn gpu NOG STEEDS NIET. Uitgebracht heeft. Ze hebben gewoon enorme stappen te zetten qua software en kunnenndat niet snel.
Ja ze moeten ergens beginnen, en de laptop eis voor Alchemist betekent dat je niet zomaar kan losbreken van de huidige laptop drivers, met alle energie bespaar etc. ongein van dien.

Maar ik denk wel dat ze dat (alsnog) moeten doen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 06-10 21:25
sunsmountain schreef op zondag 12 juni 2022 @ 15:30:
[...]

Ja ze moeten ergens beginnen, en de laptop eis voor Alchemist betekent dat je niet zomaar kan losbreken van de huidige laptop drivers, met alle energie bespaar etc. ongein van dien.

Maar ik denk wel dat ze dat (alsnog) moeten doen.
ergens hoop ik dat intel nog niet ver is met de productie van de huidige arc serie en ze die gewoon overslaan voor de desktop. niemand wil dat ding ondertussen nog nu de prijzen gezakt zijn. Ze hebben echt een gouden kans compleet verpest bij intel. Er was nooit en zal nooit een betere tijd komen om een gpu te lanceren.
Ze zullen het vast niet bewust gedaan hebben maar het is voor de consument helaas een domper omdat een 3de speler echt goed zou zijn.
Ach ja misschien lachen ze in 5 jaar AMD en Nvidia wel uit. Ze hebben genoeg geld voor een lange adem.

Al me al gaan we zien wat de nieuwe generatie brengt. Mijn enige reden/motivatie tot upgraden zijn :

-Streaming in hoge kwaliteit
- RTX on zonder 50-75% prestatie hit
- flink lager stroomverbruik.

Verder zit ik de komende jaren prima met een 6900XT. En zoals je kan verwachten is dat me niet nog eens 1100 euro waard.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
napata schreef op zondag 12 juni 2022 @ 12:35:
[...]

Een beetje zoals AMD & RT hardware? ;)
Dat is nogal naief. Dat zou betekenen dat AMD pas op het moment dat Nvidia met Turing kwam was begonnen aan RT hardware voor RDNA2. Verbeter mij maar als ik fout zit, maar zo'n chip heeft een ontwerpfase van meerdere jaren en zoiets kan niet op het laatste moment worden toegevoegd.
Edit: als ze het inderdaad pas op dat late moment wisten dat zegt alleen maar meer hoe goed AMD engineers zijn dat ze het op die korte termijn erin hebben gekregen.

Ik weet niet precies hoe het zat; maar AMD was al bezig met Zen 3 of 4 op het moment dat Zen 1 uitkwam.

Wat ik denk dat eerder het geval was is dat AMD lucht heeft gekregen dat Nvidia met RT bezig zou zijn; nog voordat Turing uit was. Dit is speculatie aan mijn kant.

Er zijn wel meer dingen waar AMD op voor liep; Tesselation en multi monitor (Eyefinity).

[ Voor 9% gewijzigd door Sp3ci3s8472 op 14-06-2022 02:57 ]


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op dinsdag 14 juni 2022 @ 02:56:
[...]


Dat is nogal naief. Dat zou betekenen dat AMD pas op het moment dat Nvidia met Turing kwam was begonnen aan RT hardware voor RDNA2. Verbeter mij maar als ik fout zit, maar zo'n chip heeft een ontwerpfase van meerdere jaren en zoiets kan niet op het laatste moment worden toegevoegd.
Edit: als ze het inderdaad pas op dat late moment wisten dat zegt alleen maar meer hoe goed AMD engineers zijn dat ze het op die korte termijn erin hebben gekregen.

Ik weet niet precies hoe het zat; maar AMD was al bezig met Zen 3 of 4 op het moment dat Zen 1 uitkwam.

Wat ik denk dat eerder het geval was is dat AMD lucht heeft gekregen dat Nvidia met RT bezig zou zijn; nog voordat Turing uit was. Dit is speculatie aan mijn kant.

Er zijn wel meer dingen waar AMD op voor liep; Tesselation en multi monitor (Eyefinity).
Het kan heel goed andersom zijn geweest. Namelijk dat AMD met RT hardware kwam op verzoek van Sony en/of Microsoft. Vervolgens heeft Microsoft DXR ontwikkeld en dit in het geheim met Nvidia gedeeld zodat die ook konden anticiperen.

Het kan ook zijn dat Nvidia wel als eerste was, dit met Microsoft deelde waarna DXR werd ontwikkeld. En via die weg AMD er ook mee begonnen is, al dan niet omdat Microsoft of Sony hierom vroegen. Ik zie eigenlijk niet hoe de tijdslijnen kunnen verklaren hoe AMD dit in een jaar geïmplementeerd moet hebben op RDNA2 voordat de tape-out kwam.

Tweede is dat ik AMD hun implementatie van RT op hardware niveau, veel eleganter vind dan Nvidia. Het is niet zo goed met RDNA2, maar dat betekend niet dat het niet netjes geïmplementeerd is binnen de TMU. Die gebruik je immers niet als je CU toch in RT mode staat.

[ Voor 5% gewijzigd door DaniëlWW2 op 14-06-2022 10:50 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 02-10 19:57

SG

SG surft naar info hardewaren

computerjunky schreef op zondag 12 juni 2022 @ 15:39:
[...]


ergens hoop ik dat intel nog niet ver is met de productie van de huidige arc serie en ze die gewoon overslaan voor de desktop. niemand wil dat ding ondertussen nog nu de prijzen gezakt zijn. Ze hebben echt een gouden kans compleet verpest bij intel. Er was nooit en zal nooit een betere tijd komen om een gpu te lanceren.
Ze zullen het vast niet bewust gedaan hebben maar het is voor de consument helaas een domper omdat een 3de speler echt goed zou zijn.
Ach ja misschien lachen ze in 5 jaar AMD en Nvidia wel uit. Ze hebben genoeg geld voor een lange adem.

Al me al gaan we zien wat de nieuwe generatie brengt. Mijn enige reden/motivatie tot upgraden zijn :

-Streaming in hoge kwaliteit
- RTX on zonder 50-75% prestatie hit
- flink lager stroomverbruik.

Verder zit ik de komende jaren prima met een 6900XT. En zoals je kan verwachten is dat me niet nog eens 1100 euro waard.
Nou ja ze hebben “window of opportunity” gemist. Maar als troef OEM markt en mobile markt kunnen zij bundels slijten en dan kan nV beter zijn maar die setjes komt nv moeilijk tussen. En dan nv alleen voor een high-end gaming laptop.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 02-10 19:57

SG

SG surft naar info hardewaren

sunsmountain schreef op zondag 12 juni 2022 @ 10:00:
[...]


nVidia heeft een stuk meer software developers in huis dan AMD, en optimaliseert daardoor meer (DLSS, streaming, CUDA). AMD haalt ze achteraf wel deels in (FSR2), maar zal softwarematig altijd achterlopen.
Nou ik denk dat onder ATI de software afdelingen ATI == nV redelijk gelijk zijn. En dat onder AMD decades verlies draaien dat niet alleen R&D krimpt ook foundry allocatie krimpt de afdelingen krimpen en dat alleen hun core afdelingen nog enigzins een redelijke minimale size hebben .
Nu na enkele jaren sucses en dus meer R&D kapitaal kunnen de afdelingen opgeschaald worden naar grote waarmee ze vol mee kunnen met de concurrentie. Kan zijn dat het nog steeds minder is dan nV maar groot genoeg om goed mee te komen. Naast dat nv de cuda pro afdelingen groot zijn en de software uithulpjes die naar gamedevs en ook pro afdelingen. Dus groot deel van nV software zit meer in de pro tak en heeft niet die invloed op de game tak. Gezien de berichten in grote driver stappen is meer een hint dat driver afdelingen bij AMD op gewenste slagkrachtige grote en ook al goed ingewerkt zijn dat je dus nu de resultaat van kan merken.
AMD heeft meer ingenieurs, vooral op leidinggevende posities, en zal eerder op hardware gebied voorlopen of innoveren, zoals infinity cache en chiplets. Dat kopieert nVidia dan weer een generatie later.
nou nee AMD heeft grote cpu tak, iets waar nV ook in uitbreid maar dan ARM. Wat nV en AMD doen is meer een wisselwerking tussen de verschillende industrieën.
De feedback tussen kopstukken in OS API dus Vulkan Directx dus Chronus en MS. De branch leading dev en hun feedback. En hardware nv AMD daaruit vloeit innovatie van wie pakt welke wensen van game branch op. Zo is er Mantle -> Vulkan /DX12 werd is een dev wens waar AMD op pakte en MS liet liggen. Ik denk dat RT ook misschien een wens is vanuit de dev en nV dit op pakte2 a 4 jaar voor RTX20 omdat die RT cores ook ontwikkeld moesten worden.
Want de RT software kant wordt uiteraard ook mee ontwikkeld en als doel de markt te binden.
Daarnaast past het in nv visie om exclusief features te verzinnen die niet gestandaardiseerd zijn zo je de markt kan binden. Met zware software lockin zelfs placebo chips zoals mobo sli feature.
Wat mij opvalt is dat AMD innovatie meer de branch evolueert. En dat nV innovatie de markt van hun afhankelijk maakt. Ook features die uit standaard halen zoals gsync en nv only maken. Terwijl dit al een laptop paneel aanstuur feature is met daar doel batterij ontlasting.

Dat Radeon AMD driver berg afwaarts ging tja geen kapitaal er zal toch ergen in gehakt worden. Maar na enkele jaren success van cpu tak, kunnen ze de radeon tak weer opbouwen zodat ze weer vol kunnen concurreren. Zo ook de driver team. Dat is denk ik sinds zen2 al dus nu merk je resultaat van.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
SG schreef op woensdag 15 juni 2022 @ 10:40:
[...]

Nou ik denk dat onder ATI de software afdelingen ATI == nV redelijk gelijk zijn. En dat onder AMD decades verlies draaien dat niet alleen R&D krimpt ook foundry allocatie krimpt de afdelingen krimpen en dat alleen hun core afdelingen nog enigzins een redelijke minimale size hebben .
Nu na enkele jaren sucses en dus meer R&D kapitaal kunnen de afdelingen opgeschaald worden naar grote waarmee ze vol mee kunnen met de concurrentie. Kan zijn dat het nog steeds minder is dan nV maar groot genoeg om goed mee te komen. Naast dat nv de cuda pro afdelingen groot zijn en de software uithulpjes die naar gamedevs en ook pro afdelingen. Dus groot deel van nV software zit meer in de pro tak en heeft niet die invloed op de game tak. Gezien de berichten in grote driver stappen is meer een hint dat driver afdelingen bij AMD op gewenste slagkrachtige grote en ook al goed ingewerkt zijn dat je dus nu de resultaat van kan merken.

[...]
nou nee AMD heeft grote cpu tak, iets waar nV ook in uitbreid maar dan ARM. Wat nV en AMD doen is meer een wisselwerking tussen de verschillende industrieën.
De feedback tussen kopstukken in OS API dus Vulkan Directx dus Chronus en MS. De branch leading dev en hun feedback. En hardware nv AMD daaruit vloeit innovatie van wie pakt welke wensen van game branch op. Zo is er Mantle -> Vulkan /DX12 werd is een dev wens waar AMD op pakte en MS liet liggen. Ik denk dat RT ook misschien een wens is vanuit de dev en nV dit op pakte2 a 4 jaar voor RTX20 omdat die RT cores ook ontwikkeld moesten worden.
Want de RT software kant wordt uiteraard ook mee ontwikkeld en als doel de markt te binden.
Daarnaast past het in nv visie om exclusief features te verzinnen die niet gestandaardiseerd zijn zo je de markt kan binden. Met zware software lockin zelfs placebo chips zoals mobo sli feature.
Wat mij opvalt is dat AMD innovatie meer de branch evolueert. En dat nV innovatie de markt van hun afhankelijk maakt. Ook features die uit standaard halen zoals gsync en nv only maken. Terwijl dit al een laptop paneel aanstuur feature is met daar doel batterij ontlasting.

Dat Radeon AMD driver berg afwaarts ging tja geen kapitaal er zal toch ergen in gehakt worden. Maar na enkele jaren success van cpu tak, kunnen ze de radeon tak weer opbouwen zodat ze weer vol kunnen concurreren. Zo ook de driver team. Dat is denk ik sinds zen2 al dus nu merk je resultaat van.
ATi is al lang geleden, mijn beweringen zijn meer over de AMD van de afgelopen 10 jaar. Er zullen vast redenen zijn geweest om weinig driver of software developers in dienst te hebben. Mijn punt was: dat nVidia sterker in software is en blijft, ondanks het inhalen van AMD met FSR2. Namelijk:
  • CUDA compute, in de wetenschappelijke wereld halen ze hier veel profijt uit
  • bredere en betere ondersteuning voor video en streaming encoding
  • betere game performance bij gelijke hardware (3070 vs 6700 XT, 3080 vs 6800 XT, etc.)
  • beter control panel
  • DLSS2.3 nog steeds beter dan FSR2
  • etc.
Ik heb er vertrouwen in dat de drivers van zowel AMD als nVidia goed zullen zijn, maar er is meer software dan alleen maar drivers.

Ik denk net als jij zeker dat er softwarematig uitwisseling is (Vulkan/DX12), maar dat beïnvloedt denk ik hardware specificaties, niet zozeer andersom. Zoals anderen al opgemerkt hadden, was de enige nVidia hardware innovatie die ik kan aanwijzen (RT tensor cores), waarschijnlijk ontwikkeld in samenwerking met Microsoft of Sony. En is de AMD oplossing inderdaad eleganter via de TMU, waarmee mijn punt dat AMD ingenieurs sterker en innovatiever zijn bevestigd wordt. Inclusief:
  • Infinity Cache voor Navi21
  • Chiplet ontwerp voor Navi31
  • gemiddeld betere performance per watt dan nVidia

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
En wat is dit? :)
Afbeeldingslocatie: https://tweakers.net/i/aDRt066zRFF_Qwqk8pWUGs6XCYQ=/800x/filters:strip_icc():strip_exif()/f/image/LtpDDRz3sj0wQla3MkxHgGNz.jpg?f=fotoalbum_large

Misschien toch vertical stacking van geheugen chiplets boven op 1 compute chiplet:
  • Navi 31 = 1 graphics + 6 memory chiplets
  • Navi 32 = 1 graphics + 4 memory chiplets
  • Navi 33 monolitisch

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
De koffer uit Pulp Fiction ? :+ 8)

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 02-10 19:57

SG

SG surft naar info hardewaren

sunsmountain schreef op woensdag 15 juni 2022 @ 12:35:
[...]

ATi is al lang geleden, mijn beweringen zijn meer over de AMD van de afgelopen 10 jaar.
Nou maar dat is ook de bron van de kennis die ze nu hebben. De top engineers die how je ,de onderkader krimp in de donkere tijden. En in de global foundry tijd is dat richting faillisement gingen. Daarvoor hak je in alles en moet vooral alles wat geen core business is krimpen de reden dat Radeon niet zo aktief was in de markt. En ook niet veel meer kon.
Er zullen vast redenen zijn geweest om weinig driver of software developers in dienst te hebben.
en die reden is algemeen bekend dat er drastisch gehakt is en met name in de Radeon afdelingen.ivm vele jaren verlies draaien en kans op faillissement.
Mijn punt was: dat nVidia sterker in software is en blijft, ondanks het inhalen van AMD met FSR2. Namelijk:
Jouw punt is obvious het gaat om de reden dat zo is en kop je ondergaan is grote reden dat stuk minder was. Maar nu het goed gaat komen ze weer terug. Op driver en feature niveau zeker.
Dat nv sterk in software is is al iets uit de ATI concurrentie tijdperk. nV gaf alles catchy naam ideeal voormarketing na Cg werd het Cuda en werd zwaar gepushed. ATI had ook zoiets in die tijd maar geen catchy naam en werd amper gepushed tot het al te laat was en de markt het zwaar heeft opgepakt. Want gpgpu compute is ATI innovatie waar nV dat later opgepakt heeft en met Cuda eigen heeft gemaakt.
[list]
• CUDA compute, in de wetenschappelijke wereld halen ze hier veel profijt uit
dat is oude beslissing toen ATI met hardware vooruit liep heeft nv zwaar in pushen van pro sdk en talen Cg en Cuda in de pro markt. En ja toen overheersten zij die markt en was ATI al te laat en ook onder AMD was opensource eigenlijk meer enige optie. Nu met meer resources kunnen ze ook meer daar op pro markt inzetten maar die achterstand en deep gewortelde cuda commitment is denk ik te laat en zal ook de hardware voorsprong aanzienlijk moeten zijn om overstap van cuda entranced te laten overstappen. Epyc APU met allerlei extra versnellers en HBM. Misschien
• bredere en betere ondersteuning voor video en streaming encoding
dat zijn extra features gericht op sub markt niet zo zeer pro of gamers maar die veel met video editing doen. Denk dat ik ARC A3?? of 4050 er dan bij prikt of voor Treadripper maximale CPU encoding kwaliteit voor ga. Die hardware encoder zijn niet zo flexibel. Naast dat met elke nextgen de kans er is dat AMD dat oppakt.
• betere game performance bij gelijke hardware (3070 vs 6700 XT, 3080 vs 6800 XT, etc.)
dat kan in de toekomst stuk beter worden en bij elke gen kan de hardware alle kanten op gaan ook bij nv of de kroon ruim of faal of dicht bij elkaar.
• beter control panel
geen idee ik heb sinds GTX580 geen nv meer gehad.
• DLSS2.3 nog steeds beter dan FSR2
nou beter dat zo subtiel dat het niet zo relevant is.
Naast upschalen van 640 of 720p met low budged gpu en dat waar het beide goed doet van 1440p naar 4k gewoon goed is. Is DLSS niet meer de nv selling point. Nu zitten nv fan twee screenshot zwaar intesief te analiseren wie gamed merkt daar weinig van. Op games die bij nv of amd wat artifacts kunnen geven.
• etc.
[/list]
Ik heb er vertrouwen in dat de drivers van zowel AMD als nVidia goed zullen zijn, maar er is meer software dan alleen maar drivers.
en dat is niet voor iedereen belangrijk. Zo heb ik geen yt kanaal waar ik zooi vids op pleur.
Is Cuda ook meer iets voor de pro. Maar voor games is Vulkan en DX12 compute veel belangrijker en dan zou ik toch liever voor OpenCL gaan omdat dat op alle PU gericht is.
Ik denk net als jij zeker dat er softwarematig uitwisseling is (Vulkan/DX12), maar dat beïnvloedt denk ik hardware specificaties, niet zozeer andersom. Zoals anderen al opgemerkt hadden, was de enige nVidia hardware innovatie die ik kan aanwijzen (RT tensor cores), waarschijnlijk ontwikkeld in samenwerking met Microsoft of Sony. En is de AMD oplossing inderdaad eleganter via de TMU, waarmee mijn punt dat AMD ingenieurs sterker en innovatiever zijn bevestigd wordt. Inclusief:
  • Infinity Cache voor Navi21
  • Chiplet ontwerp voor Navi31
  • gemiddeld betere performance per watt dan nVidia
De huidige aanpak van AMD berust op legacy van dark ages van bijna faillissement. Uit die oorsprong van beperkte resources is strategie van aanpak dat producten efficient geproduceerd moeten worden uit ten 1st noodzaak en dus maximale uit wafers van en TSMC . De chiplet aanpak heeft grote voordeel productie efficiëntie door het oplossen van zeer on rendabel zeer grote monolitische chips. En daarmee hebben ze de server markt bestormd en dat is met EPYC hun core business.
Infinity cache is ook voor efficiëntie omdat hoog vermogen highbandwide memory mijd .
Daarnaast de softwarekant is de pro markt belangrijk dus de resources die in software gestopt worden is er ook 1st voor de pro gpgpu markt met CDNA . Met hun roadmap EPYC CDNA APU en HBM plannen is mits met grote voorsprong die mogelijk is door pro costumer die EPYC met CDNA aan HBM dat er wel bereidheid kan zijn om de software stack intel/nv overboard te gooien voor custom EPYC APU oplossing. In die markt krijg je de keuze tussen intel rond de 50cores vs 256 cores bij Epyc.
Naast dat vermogen in blade node ook reduceert omdat pci-e en externe ram de traces ook oorzaak zijn van vermogen verbruik en on soc mem en gpu dat vermogen ook reduceren

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Hier nog een voorbeeld van AMD zelf (2022 Financial Analyst Day):
https://ir.amd.com/news-e...022-financial-analyst-day

Afbeeldingslocatie: https://tweakers.net/i/bZZzskwgSaF2BO-qKkNhb_IHVi4=/800x/filters:strip_exif()/f/image/bGyA84SoMLoPwoZ8OAdIlQwa.png?f=fotoalbum_large

GPU boven op de Infinity Cache, weliswaar voor CDNA3, maar niets verhindert dat ze dat ook doen voor Navi31 en Navi32 (gezien de Chiplets bevestiging).

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Daar ben ik het dus echt niet mee eens. Als je van Internet Explorer 6 interface houdt dan misschien maar het ziet er echt slecht uit. GFE is geen controle panel.

AMD drivers zijn echt heel goed geworden en ik heb ook geen enkele crash meer gehad met de 6000 serie. Nog wel met de 5000 serie, maar ik vermoed dat ik een kapotte geheugen chip heb op mijn 5700 XT.

Met mijn Nvidia kaart (3070) in mijn laptop (Linux) is het altijd een gevecht om multidisplay netjes werkend te krijgen met de juiste resoluties. Uit ellende heb ik nu gewoon scripts gemaakt die ik draai om het goed te krijgen.
Nvidia drivers op Linux zijn nog steeds een drama imho.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Ik geef de voorkeur aan het klassieke driver controlpanel bij nvidia. Echter dat komt qua UI echt nog uit de steentijd. Denk dat nvidia daar niks aan doet omdat ze iedereen eigenlijk aan de Geforce Experience willen hebben....

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:34
Sp3ci3s8472 schreef op donderdag 16 juni 2022 @ 16:07:
[...]


Daar ben ik het dus echt niet mee eens. Als je van Internet Explorer 6 interface houdt dan misschien maar het ziet er echt slecht uit. GFE is geen controle panel.
Looks zijn bij AMD inderdaad beter, maar functioneel kan ik vaak zo'n 'gedateerd uitziend' control panel wel waarderen. Daarnaast kan het AMD controle paneel best een resource hog zijn zo nu en dan.
AMD drivers zijn echt heel goed geworden en ik heb ook geen enkele crash meer gehad met de 6000 serie. Nog wel met de 5000 serie, maar ik vermoed dat ik een kapotte geheugen chip heb op mijn 5700 XT.
Ik heb toch nog wel eens crashes met de AMD drivers, niet vaak, maar 100% stabiel is het ook niet. Met de eerste paar driver versie's met mijn 6900XT crashte de AMD driver hier zelfs op stock wanneer ik 3D Mark draaide in bepaalde gevallen, altijd op hetzelfde moment in de run, iets waar anderen op o.a. Reddit en de AMD support forums ook melding van maakten. Dit hebben ze waarschijnlijk met een driver update opgelost , want vanaf een bepaald moment is het opgelost en kan ik het ook niet meer reproduceren. Allemaal geen onoverkomelijke problemen, maar perfect is AMD qua drivers ook zeker niet.

[ Voor 10% gewijzigd door Dennism op 16-06-2022 18:40 ]


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Dennism schreef op donderdag 16 juni 2022 @ 18:35:
[...]


Looks zijn bij AMD inderdaad beter, maar functioneel kan ik vaak zo'n 'gedateerd uitziend' control panel wel waarderen. Daarnaast kan het AMD controle paneel best een resource hog zijn zo nu en dan.


[...]


Ik heb toch nog wel eens crashes met de AMD drivers, niet vaak, maar 100% stabiel is het ook niet. Met de eerste paar driver versie's met mijn 6900XT crashte de AMD driver hier zelfs op stock wanneer ik 3D Mark draaide in bepaalde gevallen, altijd op hetzelfde moment in de run, iets waar anderen op o.a. Reddit en de AMD support forums ook melding van maakten. Dit hebben ze waarschijnlijk met een driver update opgelost , want vanaf een bepaald moment is het opgelost en kan ik het ook niet meer reproduceren. Allemaal geen onoverkomelijke problemen, maar perfect is AMD qua drivers ook zeker niet.
Dat eerste kan ik mij best in vinden, het hoeft er niet super uit te zien om goed zijn doel te kunnen vervullen. @Help!!!! maakt ook hetzelfde punt als jij. Volgens mij is het Nvidia controle paneel nog in de stijl van Windows XP; ze hebben daar toch zoveel resources een klein beetje mooier kan wel wat mij betreft.
Zelf geen last van gehad; maar ik start hem ook alleen maar als ik hem nodig heb. Ik heb ook een boel functies uitgezet, alle tracking en reclame etc. Dat is wel een ding waar ik mij aan kan ergeren. Die troep hoeft wat mij betreft niet in een driver. Gelukkig kan je het uitzetten.

Gelukkig zelf geen last van gehad, ik heb een reference 6900 XT gehad 2 weken na launch en twee weken daarna een Asrock 6900 XT Phantom Gaming. Dat is wel maar een samplesize van 2 :P. Ik heb dan ook geen 3dmark gedraaid maar er voornamelijk mee gegamed... Resident Evil 0-3 en remakes en Diablo 2 LOD (niet de remake :+).

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dat is een afbeelding. :+
Nee serieus, hier valt helemaal niks uit op te maken.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • jgj82
  • Registratie: Juli 2006
  • Laatst online: 08:02

jgj82

Ja, maar = nee

Een schematische voorstelling van een leviterende maglev koeling met RGB? :9

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
Help!!!! schreef op donderdag 16 juni 2022 @ 16:18:
Ik geef de voorkeur aan het klassieke driver controlpanel bij nvidia. Echter dat komt qua UI echt nog uit de steentijd. Denk dat nvidia daar niks aan doet omdat ze iedereen eigenlijk aan de Geforce Experience willen hebben....
Dennism schreef op donderdag 16 juni 2022 @ 18:35:
Looks zijn bij AMD inderdaad beter, maar functioneel kan ik vaak zo'n 'gedateerd uitziend' control panel wel waarderen. Daarnaast kan het AMD controle paneel best een resource hog zijn zo nu en dan.
Looks maken mij ook niet veel uit, hoewel de looks van AMD's software wel goed zijn (althans op basis van Ryzen Master :P).

Qua functionaliteit kan ik echter niet zeggen dat ik NVCP geweldig vind. NVCP is inderdaad nog gewoon hetzelfde spul als 15 jaar geleden. Je zou zeggen "don't fix it if it ain't broke", maar de indeling is juist nooit logisch geweest (naar mijn mening :P). Surround onder 3D settings, maar G-Sync hebben ze wel onder Display gegooid. Maar meerdere displays configureren ook, terwijl dat en Surround toch best wel familie van elkaar zijn. De overscan/underscan and scaling opties zitten ook apart, terwijl dat ook wel iets met resolutie en refreshrate te maken heeft.

En technisch is het ook niet geweldig. Ze draaien zelfs met een minimale installatie alsnog een tweetal services, maar geen van beide helpt met de snelheid van NVCP. Koude start duurt makkelijk 4-5 seconden, wat voor zo'n basale interface gewoon dom is. Vervolgens klik je op een willekeurig kopje en moet hij weer heel even laden, waardoor het geheel onnodig traag aan voelt.

Kan altijd erger, GFE is een afgrijselijk stuk software. Ik ga er van uit dat AMD's Radeon software net als Ryzen Master op QT draait en dus ook net zo soepel rendert. In tegenstelling tot GFE, wat één van de vele luie Electron apps is waar men 0,0 tijd steekt in het optimaliseren. Electron kán goed werken, maar 99,9% van de tijd is dat niet het geval, zo ook niet in GFE. Het is traag op alle vlakken (starten en gebruik), gigantische resource hog (ik vermoed meer dan AMD's software :P) en zit ontzettend onlogisch in elkaar. Instellingen voor Shadowplay veranderen? Hier, we openen de overlay gewoon voor je, waar je 17 keer moet klikken terwijl dat ook allemaal in een enkel schermpje bij elkaar had gekund.

Gelukkig is het optioneel. Shadowplay is lekker makkelijk, maar ik doe het wel zonder zolang dat niet zonder GFE kan :)

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

* DaniëlWW2 gruwelt bij de gedachte om NVCP te moeten gebruiken. DaniëlWW2 zal het AMD ook niet vergeven wat ze met de UI van Radeon Software hebben gedaan. :z

Echt serieus, Crimson was zo geweldig. Je kon alle settings zo vinden. Het was allemaal logisch ingedeeld en het werkte gewoon. Ik kan na ruim twee jaar nog steeds de helft niet vinden in Adrenalin. Adrenalin moet je gewoon leren. En als dat begint, dan zie je pas hoe goed het eigenlijk is. Maar wie wil er nu serieus een driver settings menu gaan leren. }:|

Heb ik het nog niet gehad over bloatware zoals een browser of de mogelijkheid om je drivermenu te koppelen met Facebook. Echt zeer belangrijke features. Het feit dat je een functionele zoekfunctie hebt, zegt ergens ook iets.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op donderdag 16 juni 2022 @ 23:23:
* DaniëlWW2 gruwelt bij de gedachte om NVCP te moeten gebruiken. DaniëlWW2 zal het AMD ook niet vergeven wat ze met de UI van Radeon Software hebben gedaan. :z

Echt serieus, Crimson was zo geweldig. Je kon alle settings zo vinden. Het was allemaal logisch ingedeeld en het werkte gewoon. Ik kan na ruim twee jaar nog steeds de helft niet vinden in Adrenalin. Adrenalin moet je gewoon leren. En als dat begint, dan zie je pas hoe goed het eigenlijk is. Maar wie wil er nu serieus een driver settings menu gaan leren. }:|

Heb ik het nog niet gehad over bloatware zoals een browser of de mogelijkheid om je drivermenu te koppelen met Facebook. Echt zeer belangrijke features. Het feit dat je een functionele zoekfunctie hebt, zegt ergens ook iets.
Precies, ze hadden bij Crimson moeten stoppen (of incrementeel). Dat zag er netjes uit en alles was goed te vinden.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
Wat hebben ze tussen Crimson en Adrenalin dan veranderd? Want Crimson was volgens mij hetzelfde opgezet als Ryzen Master?

Het wordt tijd dat RDNA3 uit komt zodat ik eindelijk weer eens AMD graphics drivers kan gebruiken :P

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op vrijdag 17 juni 2022 @ 08:28:
Wat hebben ze tussen Crimson en Adrenalin dan veranderd? Want Crimson was volgens mij hetzelfde opgezet als Ryzen Master?

Het wordt tijd dat RDNA3 uit komt zodat ik eindelijk weer eens AMD graphics drivers kan gebruiken :P
Ze zijn van die mooie, simpele stijl die Ryzen Master heeft overgenomen, naar dit gedrocht gegaan...
Afbeeldingslocatie: https://external-content.duckduckgo.com/iu/?u=https%3A%2F%2Fcdn.techreport.com%2Fwp-content%2Fuploads%2F2019%2F12%2FHomeNotPlaying.png&f=1&nofb=1

Het grootste probleem hiermee is dat je bovenin een aantal menu's hebt, waaronder weer submenu's zitten. En dan zit er ook nog een hele hoop onder het tandwiel van Settings, waaronder weer een hele hoop submenu's zitten. En sommige zaken zou je juist verwachten onder een van die hoofdmenu's, zijn gesplitst en staan op verschillende plekken.

Op zich is Gaming helemaal in orde. Daaronder vind je alle games die je hebt en kan je per game allemaal dingen instellen zoals Chill, RSR, Anti Lag, je kan per game een OC profiel importeren etc.

De rest is minder. Onder Streaming zitten de geavanceerde functies verstopt in een hoekje waarna je naar een menu onder Settings word doorgestuurd. Hetzelfde gebeurd met Performance, maar de link hier zit juist rechtsonder en niet linksonder. De meeste geavanceerde instellingen vind je dan ook onder Settings. Je moet verder ook overal goed opletten dat je niet een of andere functie mist. Ik zag bijvoorbeeld net ook dat er nu een stresstest programmaatje te vinden is voor je videokaart onder het OC menu.

Het werkt allemaal wel, maar het is niet bepaald goed georganiseerd. En dat is jammer als je het vorige menu hebt meegekregen. Niet dat dit alsnog niet veel beter is dan Nvidia hun antieke gedrocht, maar het is een stap achteruit.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
Aha, ze hebben dus GFE en NVCP gecombineerd :p

Functioneel klinkt het wel nog steeds beter dan GFE. Net zo onlogisch ingedeeld, maar wel veel meer opties? Want GFE is eigenlijk vrij beperkt, hoewel ze iets meer zijn gaan ondersteunen. Zit wel nog allemaal onder een "experimental" toggle die je eerst om moet gooien.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Die games hoef ik ook niet te zien, daar heb ik simpelweg Steam voor.

Maar je kan ook kiezen voor de minimale driver installatie, dan ziet het er al een stuk frisser uit :)

March of the Eagles


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op vrijdag 17 juni 2022 @ 09:42:
Aha, ze hebben dus GFE en NVCP gecombineerd :p

Functioneel klinkt het wel nog steeds beter dan GFE. Net zo onlogisch ingedeeld, maar wel veel meer opties? Want GFE is eigenlijk vrij beperkt, hoewel ze iets meer zijn gaan ondersteunen. Zit wel nog allemaal onder een "experimental" toggle die je eerst om moet gooien.
Een gebrek aan opties zou ik niet durven beweren. Ze vinden is hier het probleem. :+
Verder staat hier niks onder experimenteel. Het werkt gewoon.
XWB schreef op vrijdag 17 juni 2022 @ 09:56:
Die games hoef ik ook niet te zien, daar heb ik simpelweg Steam voor.

Maar je kan ook kiezen voor de minimale driver installatie, dan ziet het er al een stuk frisser uit :)
Het gaat niet om de games die je ziet of je gemiddelde framerate. Dat is een leuke extra. Het gaat erom dat je een profiel rond elke game kan bouwen met de verschillende opties die AMD je bied.

Voor een competitieve shooter zal je Anti Lag aanzetten en misschien ook RSR met wat RIS. Voor een relaxte game kan je zo Chill aanzetten met een dynamische minimum en maximum FPS waarmee je heel veel stroom kan besparen.

Afbeeldingslocatie: https://tweakers.net/i/NR4Rkl4gnyhu2gzYfULevGo1n-4=/800x/filters:strip_icc():strip_exif()/f/image/2IN6px1D3TjyxNTTBITBm3Y2.jpg?f=fotoalbum_large

Daarnaast kan je een OC profiel aan je game hangen. Bijvoorbeeld voor je competitieve shooter gebruik je wel een OC, maar een relaxte game niet. Je hebt ook automatische OC en UV opties, hoewel je die niet erg zou moeten vertrouwen.

Dit is voor mij ook het beste deel van het hele pakket. Ik wou alleen dat de rest net zo makkelijk te gebruiken was.

[ Voor 55% gewijzigd door DaniëlWW2 op 17-06-2022 11:31 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
@DaniëlWW2 Ah zo. Nee dat gebruik ik allemaal niet, de minimale driver installatie biedt geen profielen per game aan. Maar ik heb in elk geval geen submenu's :+

March of the Eagles


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DaniëlWW2 schreef op donderdag 16 juni 2022 @ 19:31:
[...]


Dat is een afbeelding. :+
Nee serieus, hier valt helemaal niks uit op te maken.
En uit die tweede afbeelding?

Afbeeldingslocatie: https://tweakers.net/i/bZZzskwgSaF2BO-qKkNhb_IHVi4=/800x/filters:strip_exif()/f/image/bGyA84SoMLoPwoZ8OAdIlQwa.png?f=fotoalbum_large

Valt het je op dat in dit geval de base die van Infinity Cache *onder* de compute chiplets zit in plaats van *boven*? Zou dat uit kunnen maken voor de koeling, die in de regel aan de bovenkant zit?

Afbeeldingslocatie: https://tweakers.net/i/JhdNpRPISjUIgONSPL9QgXqpxyI=/800x/filters:strip_icc():strip_exif()/f/image/tJIjFt2E8MvvFTqPIq0hnHOn.jpg?f=fotoalbum_large

Dus mogelijk minder beperking qua overclocken dan de Ryzen 58003D ;)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Sp3ci3s8472 schreef op donderdag 16 juni 2022 @ 16:07:
[...]


Daar ben ik het dus echt niet mee eens. Als je van Internet Explorer 6 interface houdt dan misschien maar het ziet er echt slecht uit. GFE is geen controle panel.

AMD drivers zijn echt heel goed geworden en ik heb ook geen enkele crash meer gehad met de 6000 serie. Nog wel met de 5000 serie, maar ik vermoed dat ik een kapotte geheugen chip heb op mijn 5700 XT.

Met mijn Nvidia kaart (3070) in mijn laptop (Linux) is het altijd een gevecht om multidisplay netjes werkend te krijgen met de juiste resoluties. Uit ellende heb ik nu gewoon scripts gemaakt die ik draai om het goed te krijgen.
Nvidia drivers op Linux zijn nog steeds een drama imho.
Wel grappig dat 1 punt van mijn lijstje gelijk een hele discussie oplevert :)

Wat ik bedoelde was dat nVidia hierin eerder innoveerde, met een game profiel per game, waar je bij AMD alleen globale settings kon instellen. Niks over de UX of gebruikerservaring.

Verder ben ik het met je eens.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dat is CDNA. Compleet andere architectuur met een compleet andere doelgroep.
Heel andere pipeline, veel lagere clock speeds dan RDNA2 en er is ook geen video out. Je kan hier met geen mogelijkheid conclusies uit trekken.
Valt het je op dat in dit geval de base die van Infinity Cache *onder* de compute chiplets zit in plaats van *boven*? Zou dat uit kunnen maken voor de koeling, die in de regel aan de bovenkant zit?

[Afbeelding]

Dus mogelijk minder beperking qua overclocken dan de Ryzen 58003D ;)
Wederom kan je hier ook niks uit afleiden. Niemand die de antwoorden voor RDNA3 weet, zal het nu publiekelijk vertellen. Verder is afleiden vanuit Zen 3 ook niet zeggend. De 5800X3D is letterlijk een idee uit de serverwereld, Milan X, naar desktop gaming brengen omdat AMD zich besefte dat ze hiermee vrij gemakkelijk Alder Lake konden neerknuppelen voor high end gaming. Het is allesbehalve een gespecialiseerde oplossing. Komt ook nog eens bij dat een CPU en een GPU andere vereisten hebben als het gaat om geheugencapaciteit, snelheden en latency.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DaniëlWW2 schreef op vrijdag 17 juni 2022 @ 15:13:
[...]

Dat is CDNA. Compleet andere architectuur met een compleet andere doelgroep.
Heel andere pipeline, veel lagere clock speeds dan RDNA2 en er is ook geen video out. Je kan hier met geen mogelijkheid conclusies uit trekken.

[...]


Wederom kan je hier ook niks uit afleiden. Niemand die de antwoorden voor RDNA3 weet, zal het nu publiekelijk vertellen. Verder is afleiden vanuit Zen 3 ook niet zeggend. De 5800X3D is letterlijk een idee uit de serverwereld, Milan X, naar desktop gaming brengen omdat AMD zich besefte dat ze hiermee vrij gemakkelijk Alder Lake konden neerknuppelen voor high end gaming. Het is allesbehalve een gespecialiseerde oplossing. Komt ook nog eens bij dat een CPU en een GPU andere vereisten hebben als het gaat om geheugencapaciteit, snelheden en latency.
En als je het nou eens niet ziet als een feit, maar een implicatie? Natuurlijk kan ik niet zeggen dat dit een feit is, maar voor iemand die zich veel met geruchten bezig houdt (jij en ik), vind ik dit nogal een negatieve reactie van je. Zie het anders als een "waarschijnlijk gerucht", en ga in de toekomst niet zeggen "niemand zag gestapelde memory chiplets voor Navi31 en Navi32 aankomen".

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op vrijdag 17 juni 2022 @ 15:17:
[...]


En als je het nou eens niet ziet als een feit, maar een implicatie? Natuurlijk kan ik niet zeggen dat dit een feit is, maar voor iemand die zich veel met geruchten bezig houdt (jij en ik), vind ik dit nogal een negatieve reactie van je. Zie het anders als een "waarschijnlijk gerucht", en ga in de toekomst niet zeggen "niemand zag gestapelde memory chiplets voor Navi31 en Navi32 aankomen".
Ik zeg dit omdat ik me besef dat er deze generatie, te veel geruchten of aannamen rondgaan die niet blijken te kloppen of zelf niet kunnen kloppen. En ik besef me dat ik er ook ingetrapt ben. Daarom neem ik bewust een zeer terughoudende houding in en wacht ik op echte, concrete informatie.

Want van wat we zeker weten, lijkt het aannemelijk dat we echt een spectaculaire generatie tegemoet gaan, maar de details zijn compleet onduidelijk. Nvidia gaat met een gigantische AD102 komen, dat is duidelijk vanwege die hack. AMD gaat iets met chiplet based doen, dat is ook duidelijk omdat AMD het zelf gezegd heeft. Hoe is de vraag waar niemand een antwoord op heeft.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DaniëlWW2 schreef op vrijdag 17 juni 2022 @ 21:48:
[...]


Ik zeg dit omdat ik me besef dat er deze generatie, te veel geruchten of aannamen rondgaan die niet blijken te kloppen of zelf niet kunnen kloppen. En ik besef me dat ik er ook ingetrapt ben. Daarom neem ik bewust een zeer terughoudende houding in en wacht ik op echte, concrete informatie.

Want van wat we zeker weten, lijkt het aannemelijk dat we echt een spectaculaire generatie tegemoet gaan, maar de details zijn compleet onduidelijk. Nvidia gaat met een gigantische AD102 komen, dat is duidelijk vanwege die hack. AMD gaat iets met chiplet based doen, dat is ook duidelijk omdat AMD het zelf gezegd heeft. Hoe is de vraag waar niemand een antwoord op heeft.
Ok, ik snap je terughoudendheid. Het is meer dat ik de hints en implicaties die er zijn in de Financial Day presentatie (aanrader), wil delen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
sunsmountain schreef op vrijdag 17 juni 2022 @ 14:38:
[...]


Wel grappig dat 1 punt van mijn lijstje gelijk een hele discussie oplevert :)

Wat ik bedoelde was dat nVidia hierin eerder innoveerde, met een game profiel per game, waar je bij AMD alleen globale settings kon instellen. Niks over de UX of gebruikerservaring.

Verder ben ik het met je eens.
Was Nvidia hier eerder mee? Het is zo lang geleden :+.

Het is niet alleen UX, maar er zijn ook andere dingen zoal Radeon Chill etc. Beide fabrikanten hebben hun dingen in de drivers.

Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Sp3ci3s8472 schreef op vrijdag 17 juni 2022 @ 22:43:
[...]


Was Nvidia hier eerder mee? Het is zo lang geleden :+.

Het is niet alleen UX, maar er zijn ook andere dingen zoal Radeon Chill etc. Beide fabrikanten hebben hun dingen in de drivers.
In ieder geval heeft nVidia betere marketing voor de software die ze maken :) , ook als deze equivalent of zelfs inferieur zou zijn.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op vrijdag 17 juni 2022 @ 21:48:
[...]
Want van wat we zeker weten, lijkt het aannemelijk dat we echt een spectaculaire generatie tegemoet gaan, maar de details zijn compleet onduidelijk.
Ik ben wel bang dat een deel van de verbetering behaald gaat worden door de kaarten standaard erg over te klokken, waardoor je moet gaan underklokken om de kaart weer efficient te maken. Als men dan een meerprijs gaat vragen voor die extra performance die puur komt door overklokken zou ik daar niet tevreden mee zijn.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op zaterdag 18 juni 2022 @ 03:17:
[...]


Ik ben wel bang dat een deel van de verbetering behaald gaat worden door de kaarten standaard erg over te klokken, waardoor je moet gaan underklokken om de kaart weer efficient te maken. Als men dan een meerprijs gaat vragen voor die extra performance die puur komt door overklokken zou ik daar niet tevreden mee zijn.
Dat is ook te simpel gedacht.
Voor RDNA3 lijken we te kijken naar een gigantische toename van rekeneenheden alsmede optimalisaties aan de indeling hiervan. Klopt 12288 dan zit je al tegen de 2,5x over Navi 21 in termen van fysieke rekeneenheden. AMD moet haar best doen om dan niet minstens 2x te halen. Het verbruik is meer dan 50% verbeterd, maar dat is waarschijnlijk alsnog niet afdoende om het totale verbruik nog "redelijk" te houden. Het zal alleen niet naar een "overclock" gaan, maar naar veel en veel meer hardware.

Bij Nvidia weten we dat AD102 beschikt over 18432 ALU's. We weten alleen niet of dit FP + INT of alleen FP ALU's zijn. En dat maakt heel wat uit. Want als het FP ALU's zijn en dat gerucht van laatst klopt, dan ga je van 5376 FP en 5376 FP+INT naar 18432 FP en 9216 INT. Die sprong zou nog groter dan Navi 21 naar de rondgaande Navi 31 specificatie. Is het alleen 18432 ALU's voor zowel FP als INT, dan is het misschien eerder 12288 FP en 6144 INT (eventueel + FP) ALU's. Dat lijkt me ergens wat realistischer omdat dat eerste scenario wel heel groot is. Maar ook hier geld dat er een reden lijkt te zijn waarom we zulke enorme sprongen in verbruik mogen verwachten. AD102 is enorm, hoe de indeling ook mag zijn.

Qua precieze clock speeds moet je echt afwachten omdat dit naar van wat ik altijd heb begrepen, pas vlak voor release bepaald word. Prijs al helemaal. Dat kunnen ze een halfuur voor de presentatie nog aanpassen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

Verbruik terzijde, de kosten van chips van dit formaat op TSMC N5 gaan alleen maar omhoog. Leuk voor ultra-high-end maar ik zie mid-range en low-end niet echt met optimisme tegemoet. Chiplet-ontwerp is leuk voor low-end als een enkele chiplet ook daadwerkelijk klein genoeg is om als GPU te dienen, maar daar wordt Navi 3x gewoon te groot voor.

Ik wil een AM5-setup met een zuinig en klein GPU'tje, N5 zou daar prachtig voor zijn (want zuinig) en RDNA3 wat betreft geruchten omtrent efficiëntie ook, maar in het segment RX 6600 (XT) en mogelijk zelfs RX 6700 XT staat er schijnbaar maar barweinig op de planning.

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 09:07

Mars Warrior

Earth, the final frontier

DaniëlWW2 schreef op zaterdag 18 juni 2022 @ 10:04:
[...]
Dat is ook te simpel gedacht.
Voor RDNA3 lijken we te kijken naar een gigantische toename van rekeneenheden alsmede optimalisaties aan de indeling hiervan. Klopt 12288 dan zit je al tegen de 2,5x over Navi 21 in termen van fysieke rekeneenheden. AMD moet haar best doen om dan niet minstens 2x te halen.

Bij Nvidia weten we dat AD102 beschikt over 18432 ALU's. We weten alleen niet of dit FP + INT of alleen FP ALU's zijn. En dat maakt heel wat uit. Want als het FP ALU's zijn en dat gerucht van laatst klopt, dan ga je van 5376 FP en 5376 FP+INT naar 18432 FP en 9216 INT. Die sprong zou nog groter dan Navi 21 naar de rondgaande Navi 31 specificatie. Is het alleen 18432 ALU's voor zowel FP als INT, dan is het misschien eerder 12288 FP en 6144 INT (eventueel + FP) ALU's.
Ik vraag me elke keer af als ik de toename lees, waarom NU?. Dat ze van elkaar aardig weten wat ze aan het doen zijn verbaasd me niet. Dus als de één een flinke sprong gaat maken, dat de ander dan meegaat, of er nog overheen gaat.

Vraag me wel verder af wat de volgende serie dan wordt qua prestatie winst en bijbehorend vermogen 8)

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
@sunsmountain @Sp3ci3s8472 het is maar wat je "eerder" noemt, ze waren allebei rijkelijk laat :)

ATI had bij de eerste generatie Radeons al meer in de driver zitten wat je kon forceren. Nvidia had toen nog geen AF of AA, daar moest je RivaTuner voor gebruiken. Die hadden enkel dingen als V-Sync. Bij beide wilde je echter toch RivaTuner (Nvidia) of ATI Tray Tools hebben, omdat de drivers zo beperkt waren.

Wanneer ze allebei profielen per game zijn gaan doen weet ik niet, maar ik weet wel nog dat dat met m'n 6800 GT níet kon, met m'n 8800 GTS wél. Dus dat is rond 2006. Aan ATI's/AMD's kant heb ik veel minder GPU's gehad, maar het kon sowieso wel al met m'n 5870 (2009). De 9700 (de laatste ATI GPU vóór de 5870 :|) durf ik echt niet meer te zeggen :D

Iemand hier iets van een X1900 of HD2000 serie gehad die zich nog kan herinneren wat Catalyst toen kon doen? Dat is rond de tijd van G80 :p

Edit: je had toentertijd ook nog allerlei aangepaste drivers die vaak beter werkten, dingen als Omega en NGO.

[ Voor 5% gewijzigd door Werelds op 18-06-2022 11:54 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Mars Warrior schreef op zaterdag 18 juni 2022 @ 11:34:
[...]

Ik vraag me elke keer af als ik de toename lees, waarom NU?. Dat ze van elkaar aardig weten wat ze aan het doen zijn verbaasd me niet. Dus als de één een flinke sprong gaat maken, dat de ander dan meegaat, of er nog overheen gaat.

Vraag me wel verder af wat de volgende serie dan wordt qua prestatie winst en bijbehorend vermogen 8)
Ik heb geen idee waarom precies.
Mijn persoonlijke vermoeden is dat het te maken heeft met AMD hun herintreden in de hogere segmenten alsmede hun genadeloze innovatiedrang, waar Nvidia op moet reageren. En Nvidia is geen Intel die het maar laat gebeuren. Voor Nvidia geld wel dat ze een gigantische node jump gaan maken van eigenlijk Samsung 10nm (8nm is een optimalisatie + rebrand) naar TSMC N5. Tweede is dat er ook bewezen is dat er een markt voor dergelijke super high end producten is.
bwerg schreef op zaterdag 18 juni 2022 @ 11:16:
Verbruik terzijde, de kosten van chips van dit formaat op TSMC N5 gaan alleen maar omhoog. Leuk voor ultra-high-end maar ik zie mid-range en low-end niet echt met optimisme tegemoet. Chiplet-ontwerp is leuk voor low-end als een enkele chiplet ook daadwerkelijk klein genoeg is om als GPU te dienen, maar daar wordt Navi 3x gewoon te groot voor.

Ik wil een AM5-setup met een zuinig en klein GPU'tje, N5 zou daar prachtig voor zijn (want zuinig) en RDNA3 wat betreft geruchten omtrent efficiëntie ook, maar in het segment RX 6600 (XT) en mogelijk zelfs RX 6700 XT staat er schijnbaar maar barweinig op de planning.
Ik ga er volledig vanuit dat weinig mensen, werkelijk AD102 of Navi 31 kunnen of willen betalen. Maar AD103 weten we ook al en die is meteen al bijna 60% kleiner met 10572 ALU's. Je gaat waarschijnlijk echte halo SKU's krijgen en de rest van de lijn is dan meer "betaalbaar". Verder betwijfel ik nog steeds of AMD nog wel iets in het lagere segment gaat uitbrengen. Nvidia gaat het zeker wel doen, maar voor AMD lijkt het erop dat ze mensen aan hun APU's willen brengen en het lagere desktop segment opgeven.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
bwerg schreef op zaterdag 18 juni 2022 @ 11:16:
Verbruik terzijde, de kosten van chips van dit formaat op TSMC N5 gaan alleen maar omhoog. Leuk voor ultra-high-end maar ik zie mid-range en low-end niet echt met optimisme tegemoet. Chiplet-ontwerp is leuk voor low-end als een enkele chiplet ook daadwerkelijk klein genoeg is om als GPU te dienen, maar daar wordt Navi 3x gewoon te groot voor.

Ik wil een AM5-setup met een zuinig en klein GPU'tje, N5 zou daar prachtig voor zijn (want zuinig) en RDNA3 wat betreft geruchten omtrent efficiëntie ook, maar in het segment RX 6600 (XT) en mogelijk zelfs RX 6700 XT staat er schijnbaar maar barweinig op de planning.
Het valt me ook op dat het chip oppervlak de laatste 10 jaren elke generatie toeneemt. Je krijgt meer performance, maar betaalt dan ook meer. Gelukkig zijn en blijven er kleinere chips. Behalve de dure en grote Navi31 t/m Navi33, zullen daaronder waarschijnlijk de Navi2x chips een "refresh" krijgen op 6nm (eigenlijk 7nm, verbeterd, tegen die tijd een stuk goedkoper dan 1,5 jaar geleden), maar pas in 2023 Q1 op z'n vroegst:

https://videocardz.com/ne...efreshed-6nm-navi-2x-gpus

De 6700XT en 6600XT zullen dus de 7600XT en de 7500XT worden, goedkoper en meer performance. Ik vermoed concreect dat:
  • de 7600XT tussen de $379-$399 gaat kosten, voor wat nu een 6700XT is, die tegen die tijd (volgend jaar 2023 op z'n vroegst) tweedehands ook zoiets zullen kosten.
  • de 7500XT tussen $249-$299 gaat kosten, voor wat nu een 6600XT is, zelfde verhaal. Er van uit gaande dat ze niet weer de PCI Express lanes beperken tot x4.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DaniëlWW2 schreef op zaterdag 18 juni 2022 @ 11:58:
[...]


Ik heb geen idee waarom precies.
Mijn persoonlijke vermoeden is dat het te maken heeft met AMD hun herintreden in de hogere segmenten alsmede hun genadeloze innovatiedrang, waar Nvidia op moet reageren. En Nvidia is geen Intel die het maar laat gebeuren. Voor Nvidia geld wel dat ze een gigantische node jump gaan maken van eigenlijk Samsung 10nm (8nm is een optimalisatie + rebrand) naar TSMC N5. Tweede is dat er ook bewezen is dat er een markt voor dergelijke super high end producten is.


[...]


Ik ga er volledig vanuit dat weinig mensen, werkelijk AD102 of Navi 31 kunnen of willen betalen. Maar AD103 weten we ook al en die is meteen al bijna 60% kleiner met 10572 ALU's. Je gaat waarschijnlijk echte halo SKU's krijgen en de rest van de lijn is dan meer "betaalbaar". Verder betwijfel ik nog steeds of AMD nog wel iets in het lagere segment gaat uitbrengen. Nvidia gaat het zeker wel doen, maar voor AMD lijkt het erop dat ze mensen aan hun APU's willen brengen en het lagere desktop segment opgeven.
De nieuwe AMD APU's zien er krachtiger uit dan huidige laptop graphics, maar zullen echt niet sneller zijn dan een 7500XT (Navi23 refresh met 32 CU), ook niet als je RDNA3 meerekent:

Mendocino: 4C/8T Zen 2, 2 CU RDNA2, 4-10W TDP, budget low-end mobile, steam deck, etc.

Dragon Range: 16C/32T Zen4, 2 CU RDNA2, 35-54W TDP high-end laptop

Phoenix: 8C/16T Zen4, 12 CU RDNA3 qua theoretische compute performance verdubbelt een RDNA3 CU waarschijnlijk ten op zichte van een RDNA2 CU, dus dit zou je als 24 CU kunnen opvatten. 35-45W TDP premium thin & light, mid-range gaming laptops.

Van je favoriete bron: YouTube: AMD Little Phoenix APU Leak: The Steam Deck 2 could be AMAZING with ... :P

Maar waarschijnlijk komt er inderdaad geen 7400XT, zoals we nu nog een 6400XT zien. Dat is straks afgelopen bij AMD. Net zoals de 5300 vermoed ik niet terug zal komen als 6300 deze generatie
Wikipedia: Radeon RX 5000 series

Terwijl de Radeon 5xx nog tot de 520 ging ja ja:
Wikipedia: Radeon RX 500 series

^^ Dus dit is een trend die al langer speelt bij AMD.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
We hebben ook alleen maar een 6400 gekregen omdat er zoveel tekorten waren. Dit was een mobiele chip die ze op een videokaart hebben gesmeten om flink mee te verdienen.

Bij een normale markt zouden ze te weinig geld kunnen vragen voor zo'n kaart en zouden ze die niet uitbrengen, en kopen mensen gewoon een tweedehands kaart als ze erg weinig te besteden hebben.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • bwerg
  • Registratie: Januari 2009
  • Niet online

bwerg

Internettrol

DaniëlWW2 schreef op zaterdag 18 juni 2022 @ 11:58:
Maar AD103 weten we ook al en die is meteen al bijna 60% kleiner met 10572 ALU's.
60% kleiner dan extreem groot is nog steeds heel groot. :P Volgens het zustertopic heeft de kleinste nu bekende chip van NVidia (AD106) alsnog een verbruik van 260W, en navi 33 zal ook wel iets in die richting zijn. Dat is nog steeds een bakbeest als je gewoon een beetje stil en zuinig wil gamen (wat prima kan, á la RX6600).

Heeft geen speciale krachten en is daar erg boos over.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
bwerg schreef op zondag 19 juni 2022 @ 16:23:
[...]

60% kleiner dan extreem groot is nog steeds heel groot. :P Volgens het zustertopic heeft de kleinste nu bekende chip van NVidia (AD106) alsnog een verbruik van 260W, en navi 33 zal ook wel iets in die richting zijn. Dat is nog steeds een bakbeest als je gewoon een beetje stil en zuinig wil gamen (wat prima kan, á la RX6600).
4k gaming voor $/€500 zou gaaf zijn, AD103 en mogelijk Navi32 lijken de betere koop, zoals wel vaker sub high-end. Alleen dit keer niet een lagere yield chip van de grootste chip, maar gewoon de tweede chip qua grootte.

Die verbruik cijfers in Watt zijn maxima bij overclocken, niet zo realistisch voor gewone gamers. De TDPs zijn anders, ik vermoed:

AD102: 450-600 W, ATX v3.0 voeding vereist.
AD103: 300-375W
AD104: 225-250W (3070 performance)

bij AMD:
Navi31: 375-450W, onzeker of ATX v3.0 nodig is, maar waarschijnlijk recommended.
Navi32: 300-375W
Navi33: 225-250W (6900XT performance)

Er zijn nog geen ATX v3.0 gecertificeerde voedingen, en ik vermoed dat alleen huidige 1600W+ voedingen een kans maken de piekbelasting testen te halen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

bwerg schreef op zondag 19 juni 2022 @ 16:23:
[...]

60% kleiner dan extreem groot is nog steeds heel groot. :P Volgens het zustertopic heeft de kleinste nu bekende chip van NVidia (AD106) alsnog een verbruik van 260W, en navi 33 zal ook wel iets in die richting zijn. Dat is nog steeds een bakbeest als je gewoon een beetje stil en zuinig wil gamen (wat prima kan, á la RX6600).
Er is een AD107. Dit is ook uitgelekt bij de Nvidia hack. Zie bijvoorbeeld:
https://nl.hardware.info/...-eisen-opensource-drivers

Verder weet nog steeds niet wat ik moet denken van die verbruikswaardes moet vinden. AD102 zal wel veel worden, maar die anderen denk ik toch minder. Immers lijkt Nvidia een volledige lijn te lanceren zoals altijd en de lagere SKU's gaan erg duur worden als je een flink PCB + koelblok nodig hebt voor een kleine chip.

En voor AD103 geld dat het aantal ALU's identiek zou zijn aan GA102. Voor Navi 33 zou de vermoede gelijkwaardigheid aan Navi 21, met rond 225W moeten kunnen (immers >50% perf/watt) en ik denk dat die eerder tegenover AD104 komt te staan. Klopt dat, dan is 260W voor een slechter presterende, kleinere chip gewoon een mislukking.

[ Voor 5% gewijzigd door DaniëlWW2 op 19-06-2022 17:33 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 06-10 20:54
Het is natuurlijk niet verplicht om 260W door die chip te jagen he. Al zullen veel fabrikanten geneigd zijn het standaard te doen als het mag, voor marginaal betere prestaties.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op zondag 19 juni 2022 @ 17:28:
[...]


Er is een AD107. Dit is ook uitgelekt bij de Nvidia hack.
Dat betekent niet dat die ook op een videokaart komt. Die kan ook bedoeld zijn voor laptops.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

Verwijderd

Laatste driver heeft volgens mij fast startup bug die doet denken dat je pc niet goed afsluit.

Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:34
sunsmountain schreef op zondag 19 juni 2022 @ 17:27:

AD104: 225-250W (3070 performance)
Dat zou me erg sterk lijken, immers GA104 voorziet al in 3070 performance bij een TBP van 220W, als AD104 dan 3070 performance zou leveren bij 225-250W zou dat een verslechtering zijn t.o.v. GA104, niet heel erg logisch.

AD106 zou m.i. RTX3070 performance of beter moeten gaan leveren bij een TBP van flink minder dan 220W, terwijl AD104 mijn inziens minimaal RTX3080 performance gaat leveren, en dat zou dan inderdaad ergens in jouw range qua verbruik moeten zijn, anders zou de vooruitgang qua efficiëntie tegen vallen.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op maandag 20 juni 2022 @ 14:22:
[...]


Dat zou me erg sterk lijken, immers GA104 voorziet al in 3070 performance bij een TBP van 220W, als AD104 dan 3070 performance zou leveren bij 225-250W zou dat een verslechtering zijn t.o.v. GA104, niet heel erg logisch.

AD106 zou m.i. RTX3070 performance of beter moeten gaan leveren bij een TBP van flink minder dan 220W, terwijl AD104 mijn inziens minimaal RTX3080 performance gaat leveren, en dat zou dan inderdaad ergens in jouw range qua verbruik moeten zijn, anders zou de vooruitgang qua efficiëntie tegen vallen.
Dat lijkt me ook.
We weten namelijk ook uit de Nvidia hack dat Lovelace met een flink grotere L2 cache gaat komen. En bij Nvidia lijkt L2 het hoogste niveau te blijven en gaan ze niet mee met AMD hun introductie van L3 in dGPU. Het lijkt een afweging te zijn van latency vs capaciteit. Minder cache, maar dichterbij de rekeneenheden vs. een extra grote L3 cache verder van de rekeneenheden. Nvidia zal het verschil in capaciteit waarschijnlijk afvangen met sneller GDDR6(X).

Dat is belangrijk omdat zeker GA102 de indruk werkt, behoorlijk data gelimiteerd te zijn. Die chip schaalt voor geen meter tussen een RTX3080 en RTX3090. Het lijkt een combinatie van context switching, scheduling en gebrek aan data te zijn die de occupency percentages zo laag lijkt te maken. Iets waar RDNA2 absoluut geen last van heeft. Daarom zie je een GA102 eigenlijk onderpresteren in hogere frequentie gaming, heeft die al snel een betere CPU nodig om te presteren en presteren GA102 chips iets beter met hogere resoluties en lagere framerates.

Ik wil er eigenlijk nog eens op hameren dan RDNA2 de standaard had moeten zijn deze generatie waar een Ampere SKU tegen vergeleken werd op verschillende resoluties en met verschillende configuraties, niet andersom zoals gebeurd. Want RDNA2 is de consistent presterende architectuur en Ampere is erg situatiegevoelig. Maar met 80% marktaandeel zal Nvidia altijd worden voorgetrokken in vergelijkingen. En omdat 99% van de reviews alleen maar testen met de meest high end CPU, valt het ook minder op.

Afijn, voor AD106 geld dat het een 4608 ALU chip zou zijn. De RTX3070 heeft 5888 ALU's.
Ik zou niet verbaast zijn als Nvidia dat gat al grotendeels zou overbruggen met betere occupency door die L2 cache uitbreiding naar blijkbaar 32MB (was 4MB), snellere GDDR6 en wat clock speeds. Misschien halen ze het niet helemaal, maar ik zou AD106 vooralsnog ook niet inschatten als zwak. AD104 is met blijkbaar 7680 ALU's al te groot.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op maandag 20 juni 2022 @ 16:48:
[...]
Want RDNA2 is de consistent presterende architectuur en Ampere is erg situatiegevoelig. Maar met 80% marktaandeel zal Nvidia altijd worden voorgetrokken in vergelijkingen.
Daar ben ik het niet helemaal mee eens omdat Nvidia het beste is op 4k bij de dure kaarten, waar de meeste mensen die kaarten voor gebruiken, terwijl de goedkopere kaarten door DLSS weer sterk presteren.

De mensen die maximale framerates willen op 1080p zijn toch een beperkte niche.
Afijn, voor AD106 geld dat het een 4608 ALU chip zou zijn. De RTX3070 heeft 5888 ALU's.
Ik zou niet verbaast zijn als Nvidia dat gat al grotendeels zou overbruggen met betere occupency door die L2 cache uitbreiding naar blijkbaar 32MB (was 4MB), snellere GDDR6 en wat clock speeds. Misschien halen ze het niet helemaal, maar ik zou AD106 vooralsnog ook niet inschatten als zwak.
Een vrij normale vooruitgang is dat de kaarten steeds een niveau opschuiven, zodat de xx60 kaarten van de nieuwe generatie even goed presteren als de xx70 van de vorige generatie. Dus als ze dat al niet halen zou het toch een afgang zijn.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 06-10 20:54
DaniëlWW2 schreef op maandag 20 juni 2022 @ 16:48:
Dat is belangrijk omdat zeker GA102 de indruk werkt, behoorlijk data gelimiteerd te zijn. Die chip schaalt voor geen meter tussen een RTX3080 en RTX3090. Het lijkt een combinatie van context switching, scheduling en gebrek aan data te zijn die de occupency percentages zo laag lijkt te maken. Iets waar RDNA2 absoluut geen last van heeft. Daarom zie je een GA102 eigenlijk onderpresteren in hogere frequentie gaming, heeft die al snel een betere CPU nodig om te presteren en presteren GA102 chips iets beter met hogere resoluties en lagere framerates.
Wat is er zo gek aan de schaling dan? Als je kijkt naar de specs en de clocks presteert hij toch ongeveer zoals verwacht?

De 3090 verbruikt bij techpowerup 11% meer dan de 3080. En moet ook veel meer geheugenchips aan de gang houden, voor weinig meer bandbreedte. Clock zal wel flink lager moeten. Toch 14% sneller op 4k

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

haarbal schreef op dinsdag 21 juni 2022 @ 08:48:
[...]

Wat is er zo gek aan de schaling dan? Als je kijkt naar de specs en de clocks presteert hij toch ongeveer zoals verwacht?

De 3090 verbruikt bij techpowerup 11% meer dan de 3080. En moet ook veel meer geheugenchips aan de gang houden, voor weinig meer bandbreedte. Clock zal wel flink lager moeten. Toch 14% sneller op 4k
De RTX3090 heeft ook 20% meer ALU's en 176GB/s extra geheugenbrandbreedte voor 30W TBP extra. En de RTX3080Ti heeft hetzelfde probleem, dus het is niet de 24GB vs 10GB. Het is de RTX3090Ti die meer presteert zoals je zou verwachten van alle extra rekeneenheden, behalve dat die nog eens 72GB/s extra heeft en met een TBP van 450W komt. Dat bedoel ik dus met slecht schalen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09:34
Ludewig schreef op dinsdag 21 juni 2022 @ 02:48:
[...]


Daar ben ik het niet helemaal mee eens omdat Nvidia het beste is op 4k bij de dure kaarten, waar de meeste mensen die kaarten voor gebruiken, terwijl de goedkopere kaarten door DLSS weer sterk presteren.

De mensen die maximale framerates willen op 1080p zijn toch een beperkte niche.
Is dikgedrukte wel zo? Ik heb altijd begrepen dat tot op heden 1440P nog altijd (flink) populairder is dan 4K in het high end segment en dat het grootste gedeelte binnen het high end segment dus op 1440P speelt.

Klein sample size, maar als ik in mijn omgeving kijk lijkt dat ook wel redelijk te kloppen, het overgrote deel (waaronder ik zelf met een 6900XT) met een high end kaart (en dan reken ik 6800XT / RTX 3080 of hoger als high end), gamed op 1440P. 4K lijkt juist een niche, net als inderdaad 1080P redelijk een niche aan het worden is.

Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 03-10 12:52
DaniëlWW2 schreef op maandag 20 juni 2022 @ 16:48:
[...]
Dat is belangrijk omdat zeker GA102 de indruk werkt, behoorlijk data gelimiteerd te zijn. Die chip schaalt voor geen meter tussen een RTX3080 en RTX3090. Het lijkt een combinatie van context switching, scheduling en gebrek aan data te zijn die de occupency percentages zo laag lijkt te maken. Iets waar RDNA2 absoluut geen last van heeft. Daarom zie je een GA102 eigenlijk onderpresteren in hogere frequentie gaming, heeft die al snel een betere CPU nodig om te presteren en presteren GA102 chips iets beter met hogere resoluties en lagere framerates.
Dat van de CPU heeft weinig te maken met GA012 specifiek en volgens mij meer met dat de drivers bij DX12 niet meer tussenkomen bij het schedulen. Het hangt ook puur af van welke games je test. Immers de meeste games zijn nog steeds DX11 waar AMD het zeer slecht doet/deed (?) qua CPU overhead. Bij Elex 2 hebben ze een DX12 beta branch moeten lanceren omdat het onspeelbaar was op AMD GPUs. Afbeeldingslocatie: https://tweakers.net/i/S3waDSbq3TxaGaAzraIvLALI9rk=/800x/filters:strip_exif()/f/image/cRAZXMmwLgUBVCm6ZaWV97ZF.png?f=fotoalbum_large
Dit is wel de meest extreme CPU bottleneck die ik tot nu toe gezien heb.

Alle prestatiesproblemen bij God Of War bvb op AMD GPUs hadden hier ook mee te maken. Zelfs met een Zen 3 kon je niet overal 60fps krijgen. De devs hebben zelfs extra object culling ingevoerd om de CPU load te verminderen en het probleem zo veel mogelijk te omzeilen.
Implemented small object culling to help reduce the number of objects being processed by the CPU

Developed in response to recurring AMD performance issues, this change should improve minimum framerates in scenes where there are many objects on-screen. During our testing, we saw an average 20% improvement in frametimes above the 95th percentile.
Ik zit hier al jaren over te klagen. Het verbaasde me dan ook positief dat ze in mei via een driver update dit deels hebben aangepakt. Ik had de hoop al lang opgegeven en ik speel nog veel DX11 games dus dit was toch wel iets dat me tegenhield om een AMD GPU aan te schaffen. Ik ben nu ook niet zeker of het probleem volledig is aangepakt voor alle DX11 games want helaas gebeuren hier weinig tests over.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

napata schreef op dinsdag 21 juni 2022 @ 10:44:
[...]

Dat van de CPU heeft weinig te maken met GA012 specifiek en volgens mij meer met dat de drivers bij DX12 niet meer tussenkomen bij het schedulen.
Bij AMD gebeurd het schedulen dan ook op de GPU zelf terwijl het bij Nvidia de CPU is. Immers heeft Nvidia al jarenlang geen scheduling hardware meer op hun gaming GPU's. Wat je dus krijgt is dat onder DX11, AMD videokaarten ook gevoelig zijn voor de optimalisatie van de game. Heeft de developer alles op een thread gegooid, dan gaat dat niet goed werken. Nvidia heeft in hun driver een beperkte vorm van multithreaded scheduling geïmplementeerd die taken naar andere cores kunnen delegeren. Het probleem is dat voor DX12, de oplossing van Nvidia eerder in de weg zit als onnodige overhead.

Zie ook: (het is een linkdrop, maar het legt het probleem heel erg goed uit :) )
Het hangt ook puur af van welke games je test. Immers de meeste games zijn nog steeds DX11 waar AMD het zeer slecht doet/deed (?) qua CPU overhead. Bij Elex 2 hebben ze een DX12 beta branch moeten lanceren omdat het onspeelbaar was op AMD GPUs. [Afbeelding]
Dit is wel de meest extreme CPU bottleneck die ik tot nu toe gezien heb.
Tja het is 720P en dit is denk ik echt een voorbeeld van een developer die zelf hun zaken niet op orde heeft. Hier kan je moeilijk AMD de schuld van geven. AMD heeft al jaren de filosofie dat ze je veelzijdige en capabele hardware geven alsmede een hoge mate van toegang om er gebruik van te maken. Maar je moet het uiteindelijk zelf doen. Nvidia hun inzet is juist meer om zaken te herordenen en zelf te optimaliseren. Je ziet dit ook al jaren terug omdat elke "trainwreck" launch, nog een beetje op Nvidia draait en voor geen ene meter op GCN. RDNA is al wat beter, maar nog steeds niet ideaal.

Voor GCN gold namelijk dat ze maximaal 25% occupency per clock konden halen door de architectuur zelf. En dat lukt alleen met relatief lange waves tot 64 threads. Toen ik mijn Vega 56 min of meer had gesloopt en naar de RX5700XT overging, merkte ik het verschil meteen in oudere games. AMD heeft voor RDNA eigenlijk Maxwell haar warp32/ wave32 single issue per clock overgenomen. Dat hebben ze gecombineerd met Vega haar zeer capabele ALU's en wat verbeteringen aan de scheduler alsmede een veel betere cache structuur. Dat is het grote geheim van RDNA haar succes.
Alle prestatiesproblemen bij God Of War bvb op AMD GPUs hadden hier ook mee te maken. Zelfs met een Zen 3 kon je niet overal 60fps krijgen. De devs hebben zelfs extra object culling ingevoerd om de CPU load te verminderen en het probleem zo veel mogelijk te omzeilen.
En dat komt omdat GoW helaas nog op DX11 werkt en waar lopen ze tegenaan, juist ja, te veel draw calls op een CPU thread. En dan gaan ze zelf wat culling doen en het probleem is weg.

Je kan het natuurlijk een beetje forceren, maar dan moet je wel een 5800X3D kopen. :P
[...]


Ik zit hier al jaren over te klagen. Het verbaasde me dan ook positief dat ze in mei via een driver update dit deels hebben aangepakt. Ik had de hoop al lang opgegeven en ik speel nog veel DX11 games dus dit was toch wel iets dat me tegenhield om een AMD GPU aan te schaffen. Ik ben nu ook niet zeker of het probleem volledig is aangepakt voor alle DX11 games want helaas gebeuren hier weinig tests over.
Die grote driver deed niet heel veel. Er waren een aantal games waar wat winst behaald werd, maar veel ook niet. Zie: https://www.techspot.com/...preview-driver-benchmark/

Het blijft gewoon staan dat AMD hun drivers niet in staat lijken te zijn om developers hun slechte optimalisaties te fixen zoals Nvidia dit wel kan. Nvidia hun scheduling zal alleen steeds meer een nadeel gaan worden omdat steeds meer games overstappen naar DX12. En ironisch genoeg is Nvidia goed bezig hiermee omdat je zonder DX12 geen RT hebt. Laatste is dat ik me al een hele tijd afvraag wanneer Nvidia teruggaat naar hardwarematige scheduling. Want ik denk niet dat dit een of vraag is, maar wanneer. Want met elke sprong in aantal ALU's, maakt Nvidia hun driveroverhead probleem groter. Ik zou echt niet verbaast zijn als het met Lovelace gebeurd. Impliceert wel dat Nvidia hun DX11 prestaties ook gaan inzakken tenzij Nvidia daar een andere truc voor weet te bedenken.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Nette performance in de Total Warhammer III in Linux:
https://www.phoronix.com/...ar-warhammer3-linux&num=1

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
napata schreef op dinsdag 21 juni 2022 @ 10:44:
[...]

Dat van de CPU heeft weinig te maken met GA012 specifiek en volgens mij meer met dat de drivers bij DX12 niet meer tussenkomen bij het schedulen. Het hangt ook puur af van welke games je test. Immers de meeste games zijn nog steeds DX11 waar AMD het zeer slecht doet/deed (?) qua CPU overhead. Bij Elex 2 hebben ze een DX12 beta branch moeten lanceren omdat het onspeelbaar was op AMD GPUs. [Afbeelding]
Dit is wel de meest extreme CPU bottleneck die ik tot nu toe gezien heb.

Alle prestatiesproblemen bij God Of War bvb op AMD GPUs hadden hier ook mee te maken. Zelfs met een Zen 3 kon je niet overal 60fps krijgen. De devs hebben zelfs extra object culling ingevoerd om de CPU load te verminderen en het probleem zo veel mogelijk te omzeilen.

[...]


Ik zit hier al jaren over te klagen. Het verbaasde me dan ook positief dat ze in mei via een driver update dit deels hebben aangepakt. Ik had de hoop al lang opgegeven en ik speel nog veel DX11 games dus dit was toch wel iets dat me tegenhield om een AMD GPU aan te schaffen. Ik ben nu ook niet zeker of het probleem volledig is aangepakt voor alle DX11 games want helaas gebeuren hier weinig tests over.
Ik heb de oudere spellen van Piranha Bytes (Gothic 1, 2 en 3) helemaal platgespeeld. Alleen ik kan niet zeggen dat ze goed geoptimaliseerd waren of bug vrij. Goede zaak dat ze nu een DX12 versie hebben gemaakt.

Dat grotere games nog niet over zijn op Vulkan of DX12 is gewoon jammer. Ja, cpu's worden krachtiger maar DX11 heeft en zal altijd een gigantische limiet zijn als het gaat om het maken van draw calls. Een limiet die de consoles niet hebben en als je het spel dan op pc uitbrengt en je had geen problemen op de consoles dan kom je er in eens achter dat je te veel draw calls maakte.

Zoals Daniel al aangeeft,Nvidia kan in DX11 meerdere threads gebruiken voor draw call batching. AMD volgens mij maar 1. Alleen die ene thread van AMD heeft veel minder overhead dan de MT oplossing van Nvidia.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
Sp3ci3s8472 schreef op dinsdag 21 juni 2022 @ 16:48:
Zoals Daniel al aangeeft,Nvidia kan in DX11 meerdere threads gebruiken voor draw call batching. AMD volgens mij maar 1. Alleen die ene thread van AMD heeft veel minder overhead dan de MT oplossing van Nvidia.
AMD kan dat ook, enkel forceren ze dat niet zoals Nvidia dat doet ;)

Nvidia probeert in de driver het werk van de luie devs te fixen. AMD doet die moeite gewoon niet en verwacht dat devs dat zelf doen. Het (DX11 MT) is inmiddels meer dan 10 jaar beschikbaar, dus dat mag eigenlijk ook wel. Het zegt wat mij betreft meer over Piranha dan over AMD. Helaas zal de gemiddelde gamer enkel naar de cijfertjes kijken en zeggen dat AMD's drivers ruk zijn.

Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 22-09 01:32
Werelds schreef op dinsdag 21 juni 2022 @ 21:09:
[...]
AMD kan dat ook, enkel forceren ze dat niet zoals Nvidia dat doet ;)
Threaded optimization kan uitgeschakeld worden in de driver instellingen.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
cnieuweboer schreef op dinsdag 21 juni 2022 @ 21:29:
[...]


Threaded optimization kan uitgeschakeld worden in de driver instellingen.
Bij Nvidia bedoel je? Klopt. En in games die zélf fatsoenlijk multithreaden levert "off" vaak ook betere framerates op :)

Standaard staat het echter op auto, wat voor moderne games meestal "on" betekent.

Acties:
  • +1 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 03-10 12:52
DaniëlWW2 schreef op dinsdag 21 juni 2022 @ 11:20:
[...]

Bij AMD gebeurd het schedulen dan ook op de GPU zelf terwijl het bij Nvidia de CPU is. Immers heeft Nvidia al jarenlang geen scheduling hardware meer op hun gaming GPU's. Wat je dus krijgt is dat onder DX11, AMD videokaarten ook gevoelig zijn voor de optimalisatie van de game. Heeft de developer alles op een thread gegooid, dan gaat dat niet goed werken. Nvidia heeft in hun driver een beperkte vorm van multithreaded scheduling geïmplementeerd die taken naar andere cores kunnen delegeren. Het probleem is dat voor DX12, de oplossing van Nvidia eerder in de weg zit als onnodige overhead.

Zie ook: (het is een linkdrop, maar het legt het probleem heel erg goed uit :) )
[YouTube: AMD vs NV Drivers: A Brief History and Understanding Scheduling & CPU Overhead]
Het vreemde is dat de resultaten niet eens eenduidig zijn in DX12 games terwijl je dit dan wel zou verwachten op basis van je uitleg. Afbeeldingslocatie: https://cms.capframex.com/api/assets/capframex-com/70237b4d-d758-439f-8195-b5d83c6bb4c2/grafik.png

Er blijken zelfs verschillen te zitten afhankelijk van de CPU die je hebt: AMD doet het beter met een 12900k dan met een 5900x. Ik vermoed dat dit te maken heeft met dat de bottlenecks in een CPU verschillend kunnen zijn.

Afbeeldingslocatie: https://cms.capframex.com/api/assets/capframex-com/5222f64d-f3f4-4a8c-952d-2566691eba6f/grafik.png
DaniëlWW2 schreef op dinsdag 21 juni 2022 @ 11:20:
Tja het is 720P en dit is denk ik echt een voorbeeld van een developer die zelf hun zaken niet op orde heeft. Hier kan je moeilijk AMD de schuld van geven. AMD heeft al jaren de filosofie dat ze je veelzijdige en capabele hardware geven alsmede een hoge mate van toegang om er gebruik van te maken. Maar je moet het uiteindelijk zelf doen. Nvidia hun inzet is juist meer om zaken te herordenen en zelf te optimaliseren. Je ziet dit ook al jaren terug omdat elke "trainwreck" launch, nog een beetje op Nvidia draait en voor geen ene meter op GCN. RDNA is al wat beter, maar nog steeds niet ideaal.
Tja, wiens schuld het is maakt eingelijk weinig uit want je zit er dan wel mee als je een AMD GPU hebt. Iets dat ik al lange geleden heb geleerd is dat je niet op devs moet vertrouwen.

Je zegt dat het helaas is dat God Of War dx11 is maar als Nvidia gebruiker vind ik hier niets jammers aan. Als ik DX12 hoor dan is het eerste dat bij me op komt stotter stotter stotter. De kwalitiet van ports is echt de laatste jaren omlaag gegaan dankzij DX12. Tegenwoordig heb je geregeld beter presterende games op console dan op PC omwille van alle stotter.

De devs van GOW zijn hier eigenlijk heel eerlijk in geweest. Ze hebben letterlijk gezegd dat DX12 veel meer werk was en buiten de scope van het budget viel. Met andere woorden als ze DX12 zouden gebruiken dan zou de kwaliteit van de port veel lager liggen. Nu hebben dan enkel AMD gebruikers hier nadeel van.

Veel devs krijgen gewoon niet het budget of capaciteiten om met een low level API te werken. Ik hoop echt dat een DX13 terug meer verantwoordelijkheden legt bij AMD/Nvidia.

Als ik soms Kaldaien hoor over wat hij onder de moterkap tegenkomt in ports dan stel je je toch wel vragen over de bekwaamheid van veel devs. Een recent voorbeeld was dat bij Capcom de games elke zoveel tijd, misschien zelfs elke frame (ik kan het niet nagaan op Discord momenteel), totaal onnodig een lijst van resoluties opvraagt van het systeem. Dit gebruikt natuurlijk CPU-cycles zonder enige meerwaarde.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

napata schreef op woensdag 22 juni 2022 @ 11:03:
[...]

Het vreemde is dat de resultaten niet eens eenduidig zijn in DX12 games terwijl je dit dan wel zou verwachten op basis van je uitleg. [Afbeelding]

Er blijken zelfs verschillen te zitten afhankelijk van de CPU die je hebt: AMD doet het beter met een 12900k dan met een 5900x. Ik vermoed dat dit te maken heeft met dat de bottlenecks in een CPU verschillend kunnen zijn.

[Afbeelding]
Ja dat zijn variaties in hoe de game gecodeerd is en hoe snel een CPU zaken kan berekenen. En een 12900K is gewoon sneller dan een 5900X. Het wordt overigens pas echt leuk als je naar de 5800X3D gaat kijken met AMD en Nvidia. Daar draaien resultaten wel eens om als je van 720P naar 1080P gaat en ook qua videokaart. Zie:
DaniëlWW2 in "AMD Nieuwsdiscussietopic - Deel 38"

x86-64 CPU's zijn dan ook zeer complexe dingen waarbij GPU's eigenlijk maar simpele parallelle rekenclusters bij zijn. Ik ga niet eens pretenderen dat ik ze goed begrijp tot het punt dat ik je de fijne details zo kan ga uitleggen. Wat ik wel begrijp is dat voor het scenario gaming, goed genoeg het enige is waar je waarschijnlijk druk om zou moeten maken. Dat is waarom ik hier al jarenlang ageer tegen de extreem high end CPU's in BBG systemen of de constante focus op een paar procent sneller uit een selectie van benchmarks. Ik kijk altijd liever naar het bredere platform. Daarvoor ben ik meermaals uitgemaakt voor AMD fanboy, maar het punt blijft wel staan. Ik maak me dus niet zoveel zorgen over individuele games of zelfs een selectie van de titels die werkelijk iedereen test. Ik kijk eigenlijk alleen naar de inschatting dat een CPU afdoende zou moeten zijn voor de GPU.
[...]

Tja, wiens schuld het is maakt eingelijk weinig uit want je zit er dan wel mee als je een AMD GPU hebt. Iets dat ik al lange geleden heb geleerd is dat je niet op devs moet vertrouwen.

Je zegt dat het helaas is dat God Of War dx11 is maar als Nvidia gebruiker vind ik hier niets jammers aan. Als ik DX12 hoor dan is het eerste dat bij me op komt stotter stotter stotter. De kwalitiet van ports is echt de laatste jaren omlaag gegaan dankzij DX12. Tegenwoordig heb je geregeld beter presterende games op console dan op PC omwille van alle stotter.

De devs van GOW zijn hier eigenlijk heel eerlijk in geweest. Ze hebben letterlijk gezegd dat DX12 veel meer werk was en buiten de scope van het budget viel. Met andere woorden als ze DX12 zouden gebruiken dan zou de kwaliteit van de port veel lager liggen. Nu hebben dan enkel AMD gebruikers hier nadeel van.

Veel devs krijgen gewoon niet het budget of capaciteiten om met een low level API te werken. Ik hoop echt dat een DX13 terug meer verantwoordelijkheden legt bij AMD/Nvidia.

Als ik soms Kaldaien hoor over wat hij onder de moterkap tegenkomt in ports dan stel je je toch wel vragen over de bekwaamheid van veel devs. Een recent voorbeeld was dat bij Capcom de games elke zoveel tijd, misschien zelfs elke frame (ik kan het niet nagaan op Discord momenteel), totaal onnodig een lijst van resoluties opvraagt van het systeem. Dit gebruikt natuurlijk CPU-cycles zonder enige meerwaarde.
Ik hoop het absoluut niet.
Want game developers zijn hier zeker niet eerlijk in als ze het alleen maar over het extra werk en kosten hebben. DX12 bestaat om game developers betere toegang te geven tot hardware zodat ze meer grafisch indrukwekkende zaken kunnen renderen zonder dat de API in de weg gaat zitten van wat ze willen bereiken. Daarvoor moeten ze wel zelf het werk erin steken.

En het optimalisatiewerk ongeacht de API, doen ze ook al voor de consoles. Zeker de XBONE en PS4 beschikten immers over zeer trage AMD Jaguar processoren met acht cores. Het was en is geen optie om maar een core te gebruiken en alles hierop te laten draaien. Het argument dat ze dit wel doen voor de PC port omdat het te veel tijd kost om het goed te doen, is dan ook een beetje belachelijk. Zeker omdat heel wat games het wel fatsoenlijk doen en zo ongeveer elke grote titel tegenwoordig met winst verkocht word.

Komt nog eens bij dat de XSX expliciet gebruik maakt van DX12 en de PS5 haar eigen low level API heeft. Ook beschikken beide consoles over een Zen 2 + RDNA2 combinatie. Het is geen optionele keuze om het niet meer te doen. Je moet het doen en de studio's die deze kennis niet zelf opbouwen, gaan onherroepelijk achterlopen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
napata schreef op woensdag 22 juni 2022 @ 11:03:
[...]
Je zegt dat het helaas is dat God Of War dx11 is maar als Nvidia gebruiker vind ik hier niets jammers aan. Als ik DX12 hoor dan is het eerste dat bij me op komt stotter stotter stotter. De kwalitiet van ports is echt de laatste jaren omlaag gegaan dankzij DX12. Tegenwoordig heb je geregeld beter presterende games op console dan op PC omwille van alle stotter.

De devs van GOW zijn hier eigenlijk heel eerlijk in geweest. Ze hebben letterlijk gezegd dat DX12 veel meer werk was en buiten de scope van het budget viel. Met andere woorden als ze DX12 zouden gebruiken dan zou de kwaliteit van de port veel lager liggen. Nu hebben dan enkel AMD gebruikers hier nadeel van.
Als ik het mij goed herinner was Gears of War Ultimate (met DX12) een van de slechtste ports ooit. Dat was een controversie, dus nee in zo'n geval leg ik de schuld niet bij AMD.
Nogal triest omdat het ook door Xbox Game Studios is gepublished en je mag toch wel verwachten dat MS in staat is om een goede port te maken op hun nieuwe API. Bijvoorbeeld door extra hulp aan de studio te geven.

Die moderne API's kunnen veel meer uit de hardware halen en ik hoop dan ook dat ze niet meer terug gaan naar DX11 vergelijkbare API's.
Volgens mij gebruikt Proton nu Vulkan eigenlijk altijd als backend. Als die mensen het kunnen dan moet een (grotere) game studio het ook kunnen tegenwoordig.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Toms Hardware heeft een interview gedaan met een AMD engineer voor RDNA3. Dit zijn niet de beelden, maar de bespreking hiervan.


Wat details en speculatie details staan verder uitgetypt.
We hebben:
-De problemen met node scaling en oplopende vermogenswaarden omdat ze simpelweg tegen natuurwetten aan het lopen zijn.
-Bevestiging dat het inderdaad chiplet based is en niet bijvoorbeeld HBM. Wat horen we uiteraard niet.
-Toms Hardware lijkt te neigen naar verschillende GPU chiplets en meer richting hoe het met Zen 2/3 werkt, maar precies weten ze het ook niet.
-Bij AMD lijken ze ook te werken aan verbeteringen van de L3 cache implementatie van RDNA2.
Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/yxcZZ8c8kxhJvAxwdkYm2W-970-80.jpg

https://www.tomshardware....terview-amd-sam-naffziger

[ Voor 5% gewijzigd door DaniëlWW2 op 24-06-2022 00:13 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Igor: FSR 2.0 in Farming Simulator 2022 – Despite better performance, finally sharp and streak-free edge smoothing?

'In conclusion, it has to be said that AMD has really managed a gigantic step with FSR 2.0. Definitely also bigger than the step from DLSS 1.0 to DLSS 2.0, although to be fair it has to be said that DLSS has really worked better than FSR for the most part so far. However, considering the fact that AMD’s technology is purely software-based and can therefore even be used by older (non-RTX) GeForce GPUs, the complicated DLSS technology soberly loses some of its shine. FSR 2.0 still delivers about 20% more FPS than native resolution with very good image quality, does not require any special hardware and is probably much easier to implement according to some game developers. All arguments that could lead to FSR outranking DLSS sooner or later.'

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Dennism schreef op maandag 20 juni 2022 @ 14:22:
[...]


Dat zou me erg sterk lijken, immers GA104 voorziet al in 3070 performance bij een TBP van 220W, als AD104 dan 3070 performance zou leveren bij 225-250W zou dat een verslechtering zijn t.o.v. GA104, niet heel erg logisch.

AD106 zou m.i. RTX3070 performance of beter moeten gaan leveren bij een TBP van flink minder dan 220W, terwijl AD104 mijn inziens minimaal RTX3080 performance gaat leveren, en dat zou dan inderdaad ergens in jouw range qua verbruik moeten zijn, anders zou de vooruitgang qua efficiëntie tegen vallen.
Mijn voorspelling daar was vrij pessimistisch, als ondergrens bedoeld. Ik denk dat ze de klokfrequentie van de GA104 zullen verhogen om weer rond de 225W uit te komen, met meer performance dan een 3070, en ongeveer dezelfde prijs (hopelijk). Hoeveel meer? Dat durf ik niet te zeggen op voorhand. AD106 zou best eens op 3070 niveau uit kunnen komen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

FSR2.0 heeft zo te zien hun plugin voor UE4 en UE5.
https://videocardz.com/ne...-4-and-5-is-now-available

Interessanter is dit. Iemand heeft FSR2.0 in Cyberpunk gemod door een paar DLL bestanden voor DLSS te vervangen. Het lijkt zeer provisorisch te zijn, maar het werkt wel.
https://www.nexusmods.com...mods/3001?tab=description

[ Voor 8% gewijzigd door DaniëlWW2 op 25-06-2022 12:59 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op zaterdag 25 juni 2022 @ 12:57:
FSR2.0 heeft zo te zien hun plugin voor UE4 en UE5.
https://videocardz.com/ne...-4-and-5-is-now-available

Interessanter is dit. Iemand heeft FSR2.0 in Cyberpunk gemod door een paar DLL bestanden voor DLSS te vervangen. Het lijkt zeer provisorisch te zijn, maar het werkt wel.
https://www.nexusmods.com...mods/3001?tab=description
Nog interessanter is dat dit blijkbaar waarschijnlijk voor elk spel met DLSS kan (althans volgens de modder). Als dit een beetje goed werkbaar wordt dan is dit super.
Pagina: 1 ... 61 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.