Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Dat wordt prima uitgelegd door Epic, zie https://docs.unrealengine...details-in-unreal-engine/DaniëlWW2 schreef op dinsdag 31 mei 2022 @ 19:01:
Lumen zo in actie zien roept bij mij ook een andere vraag op. Waarom hebben we ook alweer RT hardware nodig? Dit lijkt me namelijk afdoende kwaliteit qua belichting.
Raytracing voor skinned meshes is wat mij betreft het belangrijkste verschil.
Vraag is natuurlijk hoeveel van die technologie wij in games zullen zien, dat soort demo's halen alles uit de kast maar een game moet wel speelbaar zijn. Met RT kan in elk geval een aardige framerate gehaald worden.DaniëlWW2 schreef op dinsdag 31 mei 2022 @ 19:01:
Beetje offtopic dan.
Dit is gerenderd in UE5 en het zou draaien op een RTX2080 met 7fps op 1440p.![]()
[YouTube: 【UE5】etchū-daimon station - 越中大門駅]
Ik wist dat UE5 een goede engine was. Maar de overdag beelden komen echt heel erg dichtbij fotorealisme. Je kan net zien dat het gerendered is als je heel goed kijkt. De nachtscènes zijn iets duidelijker, maar het is nog steeds zo bizar indrukwekkend.
Lumen zo in actie zien roept bij mij ook een andere vraag op. Waarom hebben we ook alweer RT hardware nodig? Dit lijkt me namelijk afdoende kwaliteit qua belichting.
Laat de volgende maar even achter van een kanaal dat ik volg (hij is bezig met het maken van een eigen game engine nadat hij bij EA is gestopt). Ik vind zijn analyse best goed.DaniëlWW2 schreef op dinsdag 31 mei 2022 @ 19:01:
Beetje offtopic dan.
Dit is gerenderd in UE5 en het zou draaien op een RTX2080 met 7fps op 1440p.![]()
[YouTube: 【UE5】etchū-daimon station - 越中大門駅]
Ik wist dat UE5 een goede engine was. Maar de overdag beelden komen echt heel erg dichtbij fotorealisme. Je kan net zien dat het gerendered is als je heel goed kijkt. De nachtscènes zijn iets duidelijker, maar het is nog steeds zo bizar indrukwekkend.
Lumen zo in actie zien roept bij mij ook een andere vraag op. Waarom hebben we ook alweer RT hardware nodig? Dit lijkt me namelijk afdoende kwaliteit qua belichting.
Ik dacht overigens dat dit een offline render was?
RT is niet speelbaar als je geen splinternieuwe hardware hebtXWB schreef op dinsdag 31 mei 2022 @ 21:41:
Vraag is natuurlijk hoeveel van die technologie wij in games zullen zien, dat soort demo's halen alles uit de kast maar een game moet wel speelbaar zijn. Met RT kan in elk geval een aardige framerate gehaald worden.
Lumen wel. Ik heb op m'n 1080 Ti de oorspronkelijke Valley demo gedraaid, inmiddels ook de Matrix demo. Die laatste draait ~20-25 FPS op z'n standaard instellingen, waarbij m'n 1700X volgens mij de boel nog wat tegen houdt. De Matrix demo kun je builds van vinden met een beetje zoekwerk als je hem niet zelf wilt compilen.
Daarnaast zou het resultaat van deze demo met 100% RT (Lumen is hybride; het gebruikt DXR tot op zekere hoogte wanneer beschikbaar) ook niet speelbaar zijn.
Zie hieronder voor meer over deze demo.
+1 voor ChernoSp3ci3s8472 schreef op dinsdag 31 mei 2022 @ 22:46:
[...]
Laat de volgende maar even achter van een kanaal dat ik volg (hij is bezig met het maken van een eigen game engine nadat hij bij EA is gestopt). Ik vind zijn analyse best goed.
[YouTube: THE MOST PHOTOREALISTIC Unreal Engine 5 Demo So Far! // Game Engine Dev Reacts]
Ik dacht overigens dat dit een offline render was?
De video is inderdaad een offline, high-res render. En dan is 7 FPS best netjes. Real time draait hij het 30-50 FPS @ 1440p (op een 2080). "Image quality is worse" is alles wat hij er over heeft gezegd. Geen Nanite, textures zijn zelf gemaakt op basis van ook zelf gemaakte foto's. Camerawerk is gedaan door een VR controller te gebruiken als handheld camera.
Wat betreft het antwoord op jouw vraag waar we RT voor nodig hebben @DaniëlWW2: om dit verhaal te versnellen. Lumen gebruikt DXR wanneer beschikbaar voor betere performance, maar in tegenstelling tot sommige andere RT implementaties is er dus een fallback, waardoor de on/off eerlijk wordt.
De RT implementatie in Hitman 3 laat echter precies zien waar veel devs het nog fout doen.
Laat ik even voorop stellen dat IOI niet genoeg waardering krijgt voor hun engine. Dat ding is echt een prachtig staaltje werk. De manier waarop zij bijvoorbeeld hun reflecties doen (zonder RT) is door letterlijk de scene een tweede keer te renderen (op lagere resolutie) en dan als texture op spiegels/ramen te plakken. Dat is geen nieuwe techniek (integendeel, is al heel oud), maar het betekent ook dat hun engine dus efficiënt genoeg is om dat te doen en alsnog soepel te draaien. Hitman 3 heb ik niet, maar ik heb wel Hitman 2 en ben dat onlangs beginnen te spelen wanneer ik tijd heb (m'n games backlog houdt me het komende decennium nog wel bezig
Met de RT patch zie je echter ook precies wat ik al 4 jaar roep: de RT hardware is er nog steeds niet. Zelfs op een 3090 lever je nog 60% van je performance in met beide aan - en het ziet er dan niet altijd beter uit, omdat ze de materialen niet hebben aangepast. De vloeren reflecteren veel te veel, omdat de roughness op dezelfde waarde staat als voor SSR, waardoor de SSR versie er soms niet alleen beter, maar vooral ook realistischer uit ziet. In DF's analyse video is dat bijvoorbeeld heel duidelijk in het Nieuw Zeeland level (6:30 in DF's video), waar de reflectie ineens haarscherp wordt met RT. Dat is een reflectie op een granieten vloer..van een projectie op een betonnen muur. Graniet reflecteert, maar het is geen haarscherpe spiegel. En zeker een projectie op een betonnen muur zou je van z'n leven niet zo scherp kunnen zien. De SSR versie ziet er dus oneindig veel realistischer uit. Dat zet door in alle andere levels, waar reflecties ineens onrealistisch scherp worden waar ze dat niet horen te zijn. Daar kan IOI echter niet veel aan doen, zonder alle levels volledig te herbouwen met andere materialen specifiek voor gebruik met RT. Dus dan moeten ze twee levels onderhouden. Ze kunnen niet minder bounces gaan gebruiken (en ze lijken er best veel te gebruiken, er komt veel detail terug in de reflecties; zeker een bounce of 5-6), want dan bereiken ze de kwaliteit van hun SSR niet.
En de "platte" reflecties (rechte ramen, spiegels) zijn ten alle tijde hun "oude" systeem. Dat doen ze niet met RT, zelfs als je RT reflecties op ultra zet. Zo goed is hun implementatie van die reflecties.
Dat geldt ook voor de schaduw. Ze hebben vrij veel bounces nodig om hun baked maps te benaderen, waardoor er 90% van de tijd nauwelijks waarneembaar verschil is. Er zijn wat situaties waar de onderkant van sommige objecten over-/onderbelicht is en RT dat corrigeert, maar voor de rest heb je het enkel over soft shadows die net iets harder of zachter worden. Tijdens het daadwerkelijk spelen van het spel valt je dat niet eens op.
Ik blijf er bij dat de push voor RT op de foute manier gebeurt. Te weinig mensen hebben überhaupt toegang tot RT hardware en zolang dat het geval is, moet RT mondjesmaat toegepast worden en moeten "oude" technieken gewoon gehandhaafd worden. Gebruik het niet voor reflecties op vloeren en dergelijke (dat kan niet met dezelfde roughness als voor SSR), enkel voor daadwerkelijk reflecterende oppervlakken zoals glas/spiegels; laat gekleurd licht maar lekker bouncen via die oppervlakken. Gebruik RT voor directe verlichting, niet ambient, want dan kan soms zelfs performance winst opleveren; maar houdt wel de baked maps voor het gros van het publiek, zodat zij geen 90's spel te zien krijgen. Zelfs als we een punt bereiken waar 3090 Ti RT performance beschikbaar is onder de €300 gaat het nog een hele tijd duren voordat het gros van het publiek die hardware ook heeft. En dat RT/$ niveau is nog ver van ons verwijderd.
Nanite is en blijft voor mij de interessantere technologie op korte termijn. Geef mij maar meer poly's op de models als ik er pal tegen aan sta. Bespaar die tijd maar op LOD versies van de models, dat zal waarschijnlijk zelfs meer tijd besparen dan RT vs baked maps zou besparen.
Jon Peddie Research: Q1 of 2022 Saw a Decline in GPU Shipments Quarter-to-Quarter
[ Voor 3% gewijzigd door Help!!!! op 02-06-2022 13:47 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Misschien dat ik de tabel verkeerd lees, maar AMD verliest toch juist iets?Help!!!! schreef op donderdag 2 juni 2022 @ 13:47:
Heel klein plusje voor AMD qua marketshare.
Jon Peddie Research: Q1 of 2022 Saw a Decline in GPU Shipments Quarter-to-Quarter

van 19% naar 17% YoY tenzij ik iets mis.
[ Voor 4% gewijzigd door Dennism op 02-06-2022 14:16 ]
Je leest de verkeerde tabel. Je moet deze staafdiagram hebben.Dennism schreef op donderdag 2 juni 2022 @ 14:15:
[...]
Misschien dat ik de tabel verkeerd lees, maar AMD verliest toch juist iets?
[Afbeelding]
van 19% naar 17% YoY tenzij ik iets mis.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ah overall hebben ze een plusje van 2%, maar in dGPU verliezen ze 2%DaniëlWW2 schreef op donderdag 2 juni 2022 @ 15:21:
[...]
Je leest de verkeerde tabel. Je moet deze staafdiagram hebben.
[Afbeelding]
Ik weet niet wat we daarvan moeten denken. 6750XT introduceren met een iets hoger prijsje. Even later een 6700 introduceren die daar net onder ligt. 6700XT vervanger, met minder prestaties maar ongeveer dezelfde prijs? We zien het vast 9 juni (tijdens de Financial Analyst Day van AMD).
Die's met een defecte geheugen controller (160b bus) en extra defect cu's. Gewoon verkopen wat je nog hebt liggen. Dat zijn wrs nog die's van de 6700XT en nu ook de 6750XT die het niet halen maar nog teveel cu's hebben voor de 6500XTLongBowNL schreef op donderdag 2 juni 2022 @ 16:46:
nieuws: Afbeeldingen tonen Sapphire Radeon RX 6700-videokaarten met 10GB gehe...
Ik weet niet wat we daarvan moeten denken. 6750XT introduceren met een iets hoger prijsje. Even later een 6700 introduceren die daar net onder ligt. 6700XT vervanger, met minder prestaties maar ongeveer dezelfde prijs? We zien het vast 9 juni (tijdens de Financial Analyst Day van AMD).
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
:strip_exif()/i/2005167714.jpeg?f=imagegallery)
Eigenlijk de dingen die al het meest vermoed werden maar toch. Weer 50% perf wat is gewoon netjes, aanpassingen aan CU en pipeline werden ook al vermoed en chiplets zijn er nu echt.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
X264 cpu is de betere optie maar daat heb je echt gewoon een 16 core cpu voor nodig om een beetje kwaliteit te kunnen streamen. Dat kan gewoon niet met mijn 9900k die verder totaal niet aan vervanging toe is.
En zoals 4xxx eruit ziet qua stroomverbruik is die kaar al helemaal geen optie voor mij het is nu alweer 26 graden in de game kamer na een uurtje gamen en het is nog niet eens echt zomer.
[ Voor 16% gewijzigd door computerjunky op 10-06-2022 12:48 ]
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Omdat de rest van de opties niet echt een goede kwaliteit geeft voor snellere beelden. X264 is de beste streaming optie na Nvenc alshet op kwaliteit aankomt met beperkte bitrate.
Als bitrate geen factor zou zijn zou het niet uitmaken aar AMD heeft gewoon veel meer bitrate nodig voor dezelfde kwaliteit. Helaas is twitch gewoon keihard gelimiteerd op 6Mbit en is youtube met 8 niet veel beter.
En youtube gebruik ik niet graag meer door het nieuwe dachboard wat gewoon een hoop heisa is vooirdst je stream werkt. Het is niet meer start en go zoals het ooit was met OBS.
[ Voor 13% gewijzigd door computerjunky op 10-06-2022 13:38 ]
Het zal mij vooral benieuwen hoe de chiplets opgebouwd zijn. Er gaan veel geruchten rond, van één graphics chip en verschillende memory complex units tot een mix van beide. Die laatste setup zou wat spectaculairder zijn.DaniëlWW2 schreef op vrijdag 10 juni 2022 @ 10:48:
Informatie.![]()
Eigenlijk de dingen die al het meest vermoed werden maar toch. Weer 50% perf wat is gewoon netjes, aanpassingen aan CU en pipeline werden ook al vermoed en chiplets zijn er nu echt.
Ik vermoed dat het een GPU chip gaat worden. Daarnaast een aantal gecombineerde geheugencontrollers + L3 cache chiplets. Immers was het hele idee van meerdere GPU chiplets ook dat je er dan een kan nemen voor Navi 32 en twee voor Navi 31. Maar ik betwijfel of ze dit gaan doen.XWB schreef op vrijdag 10 juni 2022 @ 14:12:
[...]
Het zal mij vooral benieuwen hoe de chiplets opgebouwd zijn. Er gaan veel geruchten rond, van één graphics chip en verschillende memory complex units tot een mix van beide. Die laatste setup zou wat spectaculairder zijn.
Ik durf alleen niks meer met zekerheid te zeggen omdat het zo'n chaos is qua leakers. De chiplets was een beetje een inkoppertje na RDNA2 hun L3 cache en dat besefte me ik al in 2020. En eigenlijk zal het er al aan te komen sinds Zen 2. Hoe ze het gaan doen is het raadsel.
@computerjunky Er zijn al referenties naar AV1 opgedoken in linux drivers voor RDNA3. Gewoon afwachten, maar het is een serieuze mogelijkheid dat AV1 ook gaat komen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik verwacht omdat bijv. Twitch, een van de bekende platformen enkel met x264 of NVENC lijkt te werken ( https://stream.twitch.tv/encoding/ ) (misschien dat AMD's GPU encoding ook werkt, maar die staat als zeer zwak bekend volgens mij). Heb je dus een AMD kaart en wil je hoge kwaliteit streamen lijk je vast te zitten op x264
Klinkt logischDaniëlWW2 schreef op vrijdag 10 juni 2022 @ 14:19:
[...]
Ik vermoed dat het een GPU chip gaat worden. Daarnaast een aantal gecombineerde geheugencontrollers + L3 cache chiplets. Immers was het hele idee van meerdere GPU chiplets ook dat je er dan een kan nemen voor Navi 32 en twee voor Navi 31. Maar ik betwijfel of ze dit gaan doen.
Ja, en deze leaker moet ook toegeven dat zijn informatie niet altijd correct is:Ik durf alleen niks meer met zekerheid te zeggen omdat het zo'n chaos is qua leakers. De chiplets was een beetje een inkoppertje na RDNA2 hun L3 cache en dat besefte me ik al in 2020. En eigenlijk zal het er al aan te komen sinds Zen 2. Hoe ze het gaan doen is het raadsel.
[Twitter: https://twitter.com/greymon55/status/1535215590645723137]
Een leaker waarbij de informatie niet altijd correct is?! Hold the phone!XWB schreef op vrijdag 10 juni 2022 @ 14:45:
Ja, en deze leaker moet ook toegeven dat zijn informatie niet altijd correct is:
[Twitter]
Wel aardig dat hij in ieder geval nog het boetekleed aantrekt. De meesten lullen er gewoon overheen als blijkt dat ze onzin hebben lopen verkondigen, als ze om te beginnen al niet 20 verschillende, tegenstrijdige dingen geroepen hebben waarvan ze hoopten dat er dan minstens 1 goed was.
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
De opzet die de leakers nu tonen met aparte IO/cache dies op 6 nm is veel logischer, met name omdat ze zo flink hogere productie kunnen halen (omdat ze minder 5 nm wafers nodig hebben) en de kosten kunnen verlagen (omdat produceren op 6 nm flink goedkoper is). In de huidige marktsituatie, met crashende miningwinsten en productietekorten, lijkt me dat een hele goede keuze.
Hoge productie en lage kosten zijn nu de manier om meer marktaandeel te krijgen en toch prima winst te maken.
Moore's Law Is Dead haalt gewoon zijn oude video's weg, kan niemand meer bewijzen dat hij ongelijk had.De meeste [leakers] lullen er gewoon overheen als blijkt dat ze onzin hebben lopen verkondigen
[ Voor 8% gewijzigd door Ludewig op 10-06-2022 15:21 ]
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason

Neemt niet weg dat >50% heel solide is. Vooral gezien het feit dat dit de derde keer op rij wordt.
Gelukkig gebruikt hij nu voortaan wel een glazenbol, zodat hij kan aangeven of de informatie betrouwbaar isXWB schreef op vrijdag 10 juni 2022 @ 14:45:
Ja, en deze leaker moet ook toegeven dat zijn informatie niet altijd correct is:
[Twitter]

[Twitter: https://twitter.com/greymon55/status/1535215590645723137]
Gelukkig is misinformatie op Twitter een uitzondering
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Encoding van x264 van AMD was inderdaad minder; maar volgens een review die ik niet direct kan terugvinden zijn ze in x265 een stuk beter en misschien op het niveau van Nvidia.Dennism schreef op vrijdag 10 juni 2022 @ 14:20:
[...]
Ik verwacht omdat bijv. Twitch, een van de bekende platformen enkel met x264 of NVENC lijkt te werken ( https://stream.twitch.tv/encoding/ ) (misschien dat AMD's GPU encoding ook werkt, maar die staat als zeer zwak bekend volgens mij). Heb je dus een AMD kaart en wil je hoge kwaliteit streamen lijk je vast te zitten op x264
Hopen dat x265 een grotere adoptie krijgt.
Zat het voor mijzelf nog even na te lezen. Blijkbaar zijn x264/x265 de codec/encoder en H.264/H.265/HEVC de standaarden.
X265 recording is idd prima maar er helaas geen x265 support voor streaming. En ik ben bang dat AV1 niet anders gaat zijn. Wie zijn schuld dit onder de streep is doet er echter als eindgebruiker niet toe. Het werkt simpelweg niet. Hoop dan ook dat YouTube Twitch en AMD en eventueel Intel en Nvidia de handen ineen slaan en een goede standaard maken. Maar die kans is nihil.Sp3ci3s8472 schreef op zaterdag 11 juni 2022 @ 15:12:
[...]
Encoding van x264 van AMD was inderdaad minder; maar volgens een review die ik niet direct kan terugvinden zijn ze in x265 een stuk beter en misschien op het niveau van Nvidia.
Hopen dat x265 een grotere adoptie krijgt.
offtopic:
Zat het voor mijzelf nog even na te lezen. Blijkbaar zijn x264/x265 de codec/encoder en H.264/H.265/HEVC de standaarden.
nVidia heeft een stuk meer software developers in huis dan AMD, en optimaliseert daardoor meer (DLSS, streaming, CUDA). AMD haalt ze achteraf wel deels in (FSR2), maar zal softwarematig altijd achterlopen.computerjunky schreef op zaterdag 11 juni 2022 @ 19:23:
[...]
X265 recording is idd prima maar er helaas geen x265 support voor streaming. En ik ben bang dat AV1 niet anders gaat zijn. Wie zijn schuld dit onder de streep is doet er echter als eindgebruiker niet toe. Het werkt simpelweg niet. Hoop dan ook dat YouTube Twitch en AMD en eventueel Intel en Nvidia de handen ineen slaan en een goede standaard maken. Maar die kans is nihil.
AMD heeft meer ingenieurs, vooral op leidinggevende posities, en zal eerder op hardware gebied voorlopen of innoveren, zoals infinity cache en chiplets. Dat kopieert nVidia dan weer een generatie later.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Ja dit is volgens mij dels waarom intel zijn gpu NOG STEEDS NIET. Uitgebracht heeft. Ze hebben gewoon enorme stappen te zetten qua software en kunnenndat niet snel.sunsmountain schreef op zondag 12 juni 2022 @ 10:00:
[...]
nVidia heeft een stuk meer software developers in huis dan AMD, en optimaliseert daardoor meer (DLSS, streaming, CUDA). AMD haalt ze achteraf wel deels in (FSR2), maar zal softwarematig altijd achterlopen.
AMD heeft meer ingenieurs, vooral op leidinggevende posities, en zal eerder op hardware gebied voorlopen of innoveren, zoals infinity cache en chiplets. Dat kopieert nVidia dan weer een generatie later.
Een beetje zoals AMD & RT hardware?sunsmountain schreef op zondag 12 juni 2022 @ 10:00:
[...]
nVidia heeft een stuk meer software developers in huis dan AMD, en optimaliseert daardoor meer (DLSS, streaming, CUDA). AMD haalt ze achteraf wel deels in (FSR2), maar zal softwarematig altijd achterlopen.
AMD heeft meer ingenieurs, vooral op leidinggevende posities, en zal eerder op hardware gebied voorlopen of innoveren, zoals infinity cache en chiplets. Dat kopieert nVidia dan weer een generatie later.
CUDA hardware (Tensors, niet per se nodig voor RT of beter dan TMUs) verkleed als RT bedoel ik, en ja daarbij bracht nVidia een deel workstation naar consumer hardware, omdat ze nu de helft van hun omzet nu in servers/compute farms zitten.
RT wat nog steeds veel performance kost, en veel nog steeds softwarematig gebeurt, waar nVidia sterk in is. Maar true, het was een stukje hardware innovatie, al kwam die meer voort uit marktoverweging dan de ingenieurs. Gezien de niet-Tensor keuze van Intel zullen ze die op enig moment wel weer weghalen.
Terwijl RDNA3 maar voor 1 doel is gemaakt, gaming. Hardwarematig dan
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Ja ze moeten ergens beginnen, en de laptop eis voor Alchemist betekent dat je niet zomaar kan losbreken van de huidige laptop drivers, met alle energie bespaar etc. ongein van dien.computerjunky schreef op zondag 12 juni 2022 @ 10:44:
[...]
Ja dit is volgens mij dels waarom intel zijn gpu NOG STEEDS NIET. Uitgebracht heeft. Ze hebben gewoon enorme stappen te zetten qua software en kunnenndat niet snel.
Maar ik denk wel dat ze dat (alsnog) moeten doen.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
ergens hoop ik dat intel nog niet ver is met de productie van de huidige arc serie en ze die gewoon overslaan voor de desktop. niemand wil dat ding ondertussen nog nu de prijzen gezakt zijn. Ze hebben echt een gouden kans compleet verpest bij intel. Er was nooit en zal nooit een betere tijd komen om een gpu te lanceren.sunsmountain schreef op zondag 12 juni 2022 @ 15:30:
[...]
Ja ze moeten ergens beginnen, en de laptop eis voor Alchemist betekent dat je niet zomaar kan losbreken van de huidige laptop drivers, met alle energie bespaar etc. ongein van dien.
Maar ik denk wel dat ze dat (alsnog) moeten doen.
Ze zullen het vast niet bewust gedaan hebben maar het is voor de consument helaas een domper omdat een 3de speler echt goed zou zijn.
Ach ja misschien lachen ze in 5 jaar AMD en Nvidia wel uit. Ze hebben genoeg geld voor een lange adem.
Al me al gaan we zien wat de nieuwe generatie brengt. Mijn enige reden/motivatie tot upgraden zijn :
-Streaming in hoge kwaliteit
- RTX on zonder 50-75% prestatie hit
- flink lager stroomverbruik.
Verder zit ik de komende jaren prima met een 6900XT. En zoals je kan verwachten is dat me niet nog eens 1100 euro waard.
Dat is nogal naief. Dat zou betekenen dat AMD pas op het moment dat Nvidia met Turing kwam was begonnen aan RT hardware voor RDNA2. Verbeter mij maar als ik fout zit, maar zo'n chip heeft een ontwerpfase van meerdere jaren en zoiets kan niet op het laatste moment worden toegevoegd.
Edit: als ze het inderdaad pas op dat late moment wisten dat zegt alleen maar meer hoe goed AMD engineers zijn dat ze het op die korte termijn erin hebben gekregen.
Ik weet niet precies hoe het zat; maar AMD was al bezig met Zen 3 of 4 op het moment dat Zen 1 uitkwam.
Wat ik denk dat eerder het geval was is dat AMD lucht heeft gekregen dat Nvidia met RT bezig zou zijn; nog voordat Turing uit was. Dit is speculatie aan mijn kant.
Er zijn wel meer dingen waar AMD op voor liep; Tesselation en multi monitor (Eyefinity).
[ Voor 9% gewijzigd door Sp3ci3s8472 op 14-06-2022 02:57 ]
Het kan heel goed andersom zijn geweest. Namelijk dat AMD met RT hardware kwam op verzoek van Sony en/of Microsoft. Vervolgens heeft Microsoft DXR ontwikkeld en dit in het geheim met Nvidia gedeeld zodat die ook konden anticiperen.Sp3ci3s8472 schreef op dinsdag 14 juni 2022 @ 02:56:
[...]
Dat is nogal naief. Dat zou betekenen dat AMD pas op het moment dat Nvidia met Turing kwam was begonnen aan RT hardware voor RDNA2. Verbeter mij maar als ik fout zit, maar zo'n chip heeft een ontwerpfase van meerdere jaren en zoiets kan niet op het laatste moment worden toegevoegd.
Edit: als ze het inderdaad pas op dat late moment wisten dat zegt alleen maar meer hoe goed AMD engineers zijn dat ze het op die korte termijn erin hebben gekregen.
Ik weet niet precies hoe het zat; maar AMD was al bezig met Zen 3 of 4 op het moment dat Zen 1 uitkwam.
Wat ik denk dat eerder het geval was is dat AMD lucht heeft gekregen dat Nvidia met RT bezig zou zijn; nog voordat Turing uit was. Dit is speculatie aan mijn kant.
Er zijn wel meer dingen waar AMD op voor liep; Tesselation en multi monitor (Eyefinity).
Het kan ook zijn dat Nvidia wel als eerste was, dit met Microsoft deelde waarna DXR werd ontwikkeld. En via die weg AMD er ook mee begonnen is, al dan niet omdat Microsoft of Sony hierom vroegen. Ik zie eigenlijk niet hoe de tijdslijnen kunnen verklaren hoe AMD dit in een jaar geïmplementeerd moet hebben op RDNA2 voordat de tape-out kwam.
Tweede is dat ik AMD hun implementatie van RT op hardware niveau, veel eleganter vind dan Nvidia. Het is niet zo goed met RDNA2, maar dat betekend niet dat het niet netjes geïmplementeerd is binnen de TMU. Die gebruik je immers niet als je CU toch in RT mode staat.
[ Voor 5% gewijzigd door DaniëlWW2 op 14-06-2022 10:50 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Nou ja ze hebben “window of opportunity” gemist. Maar als troef OEM markt en mobile markt kunnen zij bundels slijten en dan kan nV beter zijn maar die setjes komt nv moeilijk tussen. En dan nv alleen voor een high-end gaming laptop.computerjunky schreef op zondag 12 juni 2022 @ 15:39:
[...]
ergens hoop ik dat intel nog niet ver is met de productie van de huidige arc serie en ze die gewoon overslaan voor de desktop. niemand wil dat ding ondertussen nog nu de prijzen gezakt zijn. Ze hebben echt een gouden kans compleet verpest bij intel. Er was nooit en zal nooit een betere tijd komen om een gpu te lanceren.
Ze zullen het vast niet bewust gedaan hebben maar het is voor de consument helaas een domper omdat een 3de speler echt goed zou zijn.
Ach ja misschien lachen ze in 5 jaar AMD en Nvidia wel uit. Ze hebben genoeg geld voor een lange adem.
Al me al gaan we zien wat de nieuwe generatie brengt. Mijn enige reden/motivatie tot upgraden zijn :
-Streaming in hoge kwaliteit
- RTX on zonder 50-75% prestatie hit
- flink lager stroomverbruik.
Verder zit ik de komende jaren prima met een 6900XT. En zoals je kan verwachten is dat me niet nog eens 1100 euro waard.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Nou ik denk dat onder ATI de software afdelingen ATI == nV redelijk gelijk zijn. En dat onder AMD decades verlies draaien dat niet alleen R&D krimpt ook foundry allocatie krimpt de afdelingen krimpen en dat alleen hun core afdelingen nog enigzins een redelijke minimale size hebben .sunsmountain schreef op zondag 12 juni 2022 @ 10:00:
[...]
nVidia heeft een stuk meer software developers in huis dan AMD, en optimaliseert daardoor meer (DLSS, streaming, CUDA). AMD haalt ze achteraf wel deels in (FSR2), maar zal softwarematig altijd achterlopen.
Nu na enkele jaren sucses en dus meer R&D kapitaal kunnen de afdelingen opgeschaald worden naar grote waarmee ze vol mee kunnen met de concurrentie. Kan zijn dat het nog steeds minder is dan nV maar groot genoeg om goed mee te komen. Naast dat nv de cuda pro afdelingen groot zijn en de software uithulpjes die naar gamedevs en ook pro afdelingen. Dus groot deel van nV software zit meer in de pro tak en heeft niet die invloed op de game tak. Gezien de berichten in grote driver stappen is meer een hint dat driver afdelingen bij AMD op gewenste slagkrachtige grote en ook al goed ingewerkt zijn dat je dus nu de resultaat van kan merken.
nou nee AMD heeft grote cpu tak, iets waar nV ook in uitbreid maar dan ARM. Wat nV en AMD doen is meer een wisselwerking tussen de verschillende industrieën.AMD heeft meer ingenieurs, vooral op leidinggevende posities, en zal eerder op hardware gebied voorlopen of innoveren, zoals infinity cache en chiplets. Dat kopieert nVidia dan weer een generatie later.
De feedback tussen kopstukken in OS API dus Vulkan Directx dus Chronus en MS. De branch leading dev en hun feedback. En hardware nv AMD daaruit vloeit innovatie van wie pakt welke wensen van game branch op. Zo is er Mantle -> Vulkan /DX12 werd is een dev wens waar AMD op pakte en MS liet liggen. Ik denk dat RT ook misschien een wens is vanuit de dev en nV dit op pakte2 a 4 jaar voor RTX20 omdat die RT cores ook ontwikkeld moesten worden.
Want de RT software kant wordt uiteraard ook mee ontwikkeld en als doel de markt te binden.
Daarnaast past het in nv visie om exclusief features te verzinnen die niet gestandaardiseerd zijn zo je de markt kan binden. Met zware software lockin zelfs placebo chips zoals mobo sli feature.
Wat mij opvalt is dat AMD innovatie meer de branch evolueert. En dat nV innovatie de markt van hun afhankelijk maakt. Ook features die uit standaard halen zoals gsync en nv only maken. Terwijl dit al een laptop paneel aanstuur feature is met daar doel batterij ontlasting.
Dat Radeon AMD driver berg afwaarts ging tja geen kapitaal er zal toch ergen in gehakt worden. Maar na enkele jaren success van cpu tak, kunnen ze de radeon tak weer opbouwen zodat ze weer vol kunnen concurreren. Zo ook de driver team. Dat is denk ik sinds zen2 al dus nu merk je resultaat van.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
ATi is al lang geleden, mijn beweringen zijn meer over de AMD van de afgelopen 10 jaar. Er zullen vast redenen zijn geweest om weinig driver of software developers in dienst te hebben. Mijn punt was: dat nVidia sterker in software is en blijft, ondanks het inhalen van AMD met FSR2. Namelijk:SG schreef op woensdag 15 juni 2022 @ 10:40:
[...]
Nou ik denk dat onder ATI de software afdelingen ATI == nV redelijk gelijk zijn. En dat onder AMD decades verlies draaien dat niet alleen R&D krimpt ook foundry allocatie krimpt de afdelingen krimpen en dat alleen hun core afdelingen nog enigzins een redelijke minimale size hebben .
Nu na enkele jaren sucses en dus meer R&D kapitaal kunnen de afdelingen opgeschaald worden naar grote waarmee ze vol mee kunnen met de concurrentie. Kan zijn dat het nog steeds minder is dan nV maar groot genoeg om goed mee te komen. Naast dat nv de cuda pro afdelingen groot zijn en de software uithulpjes die naar gamedevs en ook pro afdelingen. Dus groot deel van nV software zit meer in de pro tak en heeft niet die invloed op de game tak. Gezien de berichten in grote driver stappen is meer een hint dat driver afdelingen bij AMD op gewenste slagkrachtige grote en ook al goed ingewerkt zijn dat je dus nu de resultaat van kan merken.
[...]
nou nee AMD heeft grote cpu tak, iets waar nV ook in uitbreid maar dan ARM. Wat nV en AMD doen is meer een wisselwerking tussen de verschillende industrieën.
De feedback tussen kopstukken in OS API dus Vulkan Directx dus Chronus en MS. De branch leading dev en hun feedback. En hardware nv AMD daaruit vloeit innovatie van wie pakt welke wensen van game branch op. Zo is er Mantle -> Vulkan /DX12 werd is een dev wens waar AMD op pakte en MS liet liggen. Ik denk dat RT ook misschien een wens is vanuit de dev en nV dit op pakte2 a 4 jaar voor RTX20 omdat die RT cores ook ontwikkeld moesten worden.
Want de RT software kant wordt uiteraard ook mee ontwikkeld en als doel de markt te binden.
Daarnaast past het in nv visie om exclusief features te verzinnen die niet gestandaardiseerd zijn zo je de markt kan binden. Met zware software lockin zelfs placebo chips zoals mobo sli feature.
Wat mij opvalt is dat AMD innovatie meer de branch evolueert. En dat nV innovatie de markt van hun afhankelijk maakt. Ook features die uit standaard halen zoals gsync en nv only maken. Terwijl dit al een laptop paneel aanstuur feature is met daar doel batterij ontlasting.
Dat Radeon AMD driver berg afwaarts ging tja geen kapitaal er zal toch ergen in gehakt worden. Maar na enkele jaren success van cpu tak, kunnen ze de radeon tak weer opbouwen zodat ze weer vol kunnen concurreren. Zo ook de driver team. Dat is denk ik sinds zen2 al dus nu merk je resultaat van.
- CUDA compute, in de wetenschappelijke wereld halen ze hier veel profijt uit
- bredere en betere ondersteuning voor video en streaming encoding
- betere game performance bij gelijke hardware (3070 vs 6700 XT, 3080 vs 6800 XT, etc.)
- beter control panel
- DLSS2.3 nog steeds beter dan FSR2
- etc.
Ik denk net als jij zeker dat er softwarematig uitwisseling is (Vulkan/DX12), maar dat beïnvloedt denk ik hardware specificaties, niet zozeer andersom. Zoals anderen al opgemerkt hadden, was de enige nVidia hardware innovatie die ik kan aanwijzen (RT tensor cores), waarschijnlijk ontwikkeld in samenwerking met Microsoft of Sony. En is de AMD oplossing inderdaad eleganter via de TMU, waarmee mijn punt dat AMD ingenieurs sterker en innovatiever zijn bevestigd wordt. Inclusief:
- Infinity Cache voor Navi21
- Chiplet ontwerp voor Navi31
- gemiddeld betere performance per watt dan nVidia
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
De koffer uit Pulp Fiction ?
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Nou maar dat is ook de bron van de kennis die ze nu hebben. De top engineers die how je ,de onderkader krimp in de donkere tijden. En in de global foundry tijd is dat richting faillisement gingen. Daarvoor hak je in alles en moet vooral alles wat geen core business is krimpen de reden dat Radeon niet zo aktief was in de markt. En ook niet veel meer kon.sunsmountain schreef op woensdag 15 juni 2022 @ 12:35:
[...]
ATi is al lang geleden, mijn beweringen zijn meer over de AMD van de afgelopen 10 jaar.
en die reden is algemeen bekend dat er drastisch gehakt is en met name in de Radeon afdelingen.ivm vele jaren verlies draaien en kans op faillissement.Er zullen vast redenen zijn geweest om weinig driver of software developers in dienst te hebben.
Jouw punt is obvious het gaat om de reden dat zo is en kop je ondergaan is grote reden dat stuk minder was. Maar nu het goed gaat komen ze weer terug. Op driver en feature niveau zeker.Mijn punt was: dat nVidia sterker in software is en blijft, ondanks het inhalen van AMD met FSR2. Namelijk:
Dat nv sterk in software is is al iets uit de ATI concurrentie tijdperk. nV gaf alles catchy naam ideeal voormarketing na Cg werd het Cuda en werd zwaar gepushed. ATI had ook zoiets in die tijd maar geen catchy naam en werd amper gepushed tot het al te laat was en de markt het zwaar heeft opgepakt. Want gpgpu compute is ATI innovatie waar nV dat later opgepakt heeft en met Cuda eigen heeft gemaakt.
dat is oude beslissing toen ATI met hardware vooruit liep heeft nv zwaar in pushen van pro sdk en talen Cg en Cuda in de pro markt. En ja toen overheersten zij die markt en was ATI al te laat en ook onder AMD was opensource eigenlijk meer enige optie. Nu met meer resources kunnen ze ook meer daar op pro markt inzetten maar die achterstand en deep gewortelde cuda commitment is denk ik te laat en zal ook de hardware voorsprong aanzienlijk moeten zijn om overstap van cuda entranced te laten overstappen. Epyc APU met allerlei extra versnellers en HBM. Misschien[list]
• CUDA compute, in de wetenschappelijke wereld halen ze hier veel profijt uit
dat zijn extra features gericht op sub markt niet zo zeer pro of gamers maar die veel met video editing doen. Denk dat ik ARC A3?? of 4050 er dan bij prikt of voor Treadripper maximale CPU encoding kwaliteit voor ga. Die hardware encoder zijn niet zo flexibel. Naast dat met elke nextgen de kans er is dat AMD dat oppakt.• bredere en betere ondersteuning voor video en streaming encoding
dat kan in de toekomst stuk beter worden en bij elke gen kan de hardware alle kanten op gaan ook bij nv of de kroon ruim of faal of dicht bij elkaar.• betere game performance bij gelijke hardware (3070 vs 6700 XT, 3080 vs 6800 XT, etc.)
geen idee ik heb sinds GTX580 geen nv meer gehad.• beter control panel
nou beter dat zo subtiel dat het niet zo relevant is.• DLSS2.3 nog steeds beter dan FSR2
Naast upschalen van 640 of 720p met low budged gpu en dat waar het beide goed doet van 1440p naar 4k gewoon goed is. Is DLSS niet meer de nv selling point. Nu zitten nv fan twee screenshot zwaar intesief te analiseren wie gamed merkt daar weinig van. Op games die bij nv of amd wat artifacts kunnen geven.
en dat is niet voor iedereen belangrijk. Zo heb ik geen yt kanaal waar ik zooi vids op pleur.• etc.
[/list]
Ik heb er vertrouwen in dat de drivers van zowel AMD als nVidia goed zullen zijn, maar er is meer software dan alleen maar drivers.
Is Cuda ook meer iets voor de pro. Maar voor games is Vulkan en DX12 compute veel belangrijker en dan zou ik toch liever voor OpenCL gaan omdat dat op alle PU gericht is.
De huidige aanpak van AMD berust op legacy van dark ages van bijna faillissement. Uit die oorsprong van beperkte resources is strategie van aanpak dat producten efficient geproduceerd moeten worden uit ten 1st noodzaak en dus maximale uit wafers van en TSMC . De chiplet aanpak heeft grote voordeel productie efficiëntie door het oplossen van zeer on rendabel zeer grote monolitische chips. En daarmee hebben ze de server markt bestormd en dat is met EPYC hun core business.Ik denk net als jij zeker dat er softwarematig uitwisseling is (Vulkan/DX12), maar dat beïnvloedt denk ik hardware specificaties, niet zozeer andersom. Zoals anderen al opgemerkt hadden, was de enige nVidia hardware innovatie die ik kan aanwijzen (RT tensor cores), waarschijnlijk ontwikkeld in samenwerking met Microsoft of Sony. En is de AMD oplossing inderdaad eleganter via de TMU, waarmee mijn punt dat AMD ingenieurs sterker en innovatiever zijn bevestigd wordt. Inclusief:
- Infinity Cache voor Navi21
- Chiplet ontwerp voor Navi31
- gemiddeld betere performance per watt dan nVidia
Infinity cache is ook voor efficiëntie omdat hoog vermogen highbandwide memory mijd .
Daarnaast de softwarekant is de pro markt belangrijk dus de resources die in software gestopt worden is er ook 1st voor de pro gpgpu markt met CDNA . Met hun roadmap EPYC CDNA APU en HBM plannen is mits met grote voorsprong die mogelijk is door pro costumer die EPYC met CDNA aan HBM dat er wel bereidheid kan zijn om de software stack intel/nv overboard te gooien voor custom EPYC APU oplossing. In die markt krijg je de keuze tussen intel rond de 50cores vs 256 cores bij Epyc.
Naast dat vermogen in blade node ook reduceert omdat pci-e en externe ram de traces ook oorzaak zijn van vermogen verbruik en on soc mem en gpu dat vermogen ook reduceren
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
https://ir.amd.com/news-e...022-financial-analyst-day
/f/image/bGyA84SoMLoPwoZ8OAdIlQwa.png?f=fotoalbum_large)
GPU boven op de Infinity Cache, weliswaar voor CDNA3, maar niets verhindert dat ze dat ook doen voor Navi31 en Navi32 (gezien de Chiplets bevestiging).
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Daar ben ik het dus echt niet mee eens. Als je van Internet Explorer 6 interface houdt dan misschien maar het ziet er echt slecht uit. GFE is geen controle panel.
AMD drivers zijn echt heel goed geworden en ik heb ook geen enkele crash meer gehad met de 6000 serie. Nog wel met de 5000 serie, maar ik vermoed dat ik een kapotte geheugen chip heb op mijn 5700 XT.
Met mijn Nvidia kaart (3070) in mijn laptop (Linux) is het altijd een gevecht om multidisplay netjes werkend te krijgen met de juiste resoluties. Uit ellende heb ik nu gewoon scripts gemaakt die ik draai om het goed te krijgen.
Nvidia drivers op Linux zijn nog steeds een drama imho.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Looks zijn bij AMD inderdaad beter, maar functioneel kan ik vaak zo'n 'gedateerd uitziend' control panel wel waarderen. Daarnaast kan het AMD controle paneel best een resource hog zijn zo nu en dan.Sp3ci3s8472 schreef op donderdag 16 juni 2022 @ 16:07:
[...]
Daar ben ik het dus echt niet mee eens. Als je van Internet Explorer 6 interface houdt dan misschien maar het ziet er echt slecht uit. GFE is geen controle panel.
Ik heb toch nog wel eens crashes met de AMD drivers, niet vaak, maar 100% stabiel is het ook niet. Met de eerste paar driver versie's met mijn 6900XT crashte de AMD driver hier zelfs op stock wanneer ik 3D Mark draaide in bepaalde gevallen, altijd op hetzelfde moment in de run, iets waar anderen op o.a. Reddit en de AMD support forums ook melding van maakten. Dit hebben ze waarschijnlijk met een driver update opgelost , want vanaf een bepaald moment is het opgelost en kan ik het ook niet meer reproduceren. Allemaal geen onoverkomelijke problemen, maar perfect is AMD qua drivers ook zeker niet.AMD drivers zijn echt heel goed geworden en ik heb ook geen enkele crash meer gehad met de 6000 serie. Nog wel met de 5000 serie, maar ik vermoed dat ik een kapotte geheugen chip heb op mijn 5700 XT.
[ Voor 10% gewijzigd door Dennism op 16-06-2022 18:40 ]
Dat eerste kan ik mij best in vinden, het hoeft er niet super uit te zien om goed zijn doel te kunnen vervullen. @Help!!!! maakt ook hetzelfde punt als jij. Volgens mij is het Nvidia controle paneel nog in de stijl van Windows XP; ze hebben daar toch zoveel resources een klein beetje mooier kan wel wat mij betreft.Dennism schreef op donderdag 16 juni 2022 @ 18:35:
[...]
Looks zijn bij AMD inderdaad beter, maar functioneel kan ik vaak zo'n 'gedateerd uitziend' control panel wel waarderen. Daarnaast kan het AMD controle paneel best een resource hog zijn zo nu en dan.
[...]
Ik heb toch nog wel eens crashes met de AMD drivers, niet vaak, maar 100% stabiel is het ook niet. Met de eerste paar driver versie's met mijn 6900XT crashte de AMD driver hier zelfs op stock wanneer ik 3D Mark draaide in bepaalde gevallen, altijd op hetzelfde moment in de run, iets waar anderen op o.a. Reddit en de AMD support forums ook melding van maakten. Dit hebben ze waarschijnlijk met een driver update opgelost , want vanaf een bepaald moment is het opgelost en kan ik het ook niet meer reproduceren. Allemaal geen onoverkomelijke problemen, maar perfect is AMD qua drivers ook zeker niet.
Zelf geen last van gehad; maar ik start hem ook alleen maar als ik hem nodig heb. Ik heb ook een boel functies uitgezet, alle tracking en reclame etc. Dat is wel een ding waar ik mij aan kan ergeren. Die troep hoeft wat mij betreft niet in een driver. Gelukkig kan je het uitzetten.
Gelukkig zelf geen last van gehad, ik heb een reference 6900 XT gehad 2 weken na launch en twee weken daarna een Asrock 6900 XT Phantom Gaming. Dat is wel maar een samplesize van 2
Dat is een afbeelding.
Nee serieus, hier valt helemaal niks uit op te maken.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Een schematische voorstelling van een leviterende maglev koeling met RGB?
Help!!!! schreef op donderdag 16 juni 2022 @ 16:18:
Ik geef de voorkeur aan het klassieke driver controlpanel bij nvidia. Echter dat komt qua UI echt nog uit de steentijd. Denk dat nvidia daar niks aan doet omdat ze iedereen eigenlijk aan de Geforce Experience willen hebben....
Looks maken mij ook niet veel uit, hoewel de looks van AMD's software wel goed zijn (althans op basis van Ryzen MasterDennism schreef op donderdag 16 juni 2022 @ 18:35:
Looks zijn bij AMD inderdaad beter, maar functioneel kan ik vaak zo'n 'gedateerd uitziend' control panel wel waarderen. Daarnaast kan het AMD controle paneel best een resource hog zijn zo nu en dan.
Qua functionaliteit kan ik echter niet zeggen dat ik NVCP geweldig vind. NVCP is inderdaad nog gewoon hetzelfde spul als 15 jaar geleden. Je zou zeggen "don't fix it if it ain't broke", maar de indeling is juist nooit logisch geweest (naar mijn mening
En technisch is het ook niet geweldig. Ze draaien zelfs met een minimale installatie alsnog een tweetal services, maar geen van beide helpt met de snelheid van NVCP. Koude start duurt makkelijk 4-5 seconden, wat voor zo'n basale interface gewoon dom is. Vervolgens klik je op een willekeurig kopje en moet hij weer heel even laden, waardoor het geheel onnodig traag aan voelt.
Kan altijd erger, GFE is een afgrijselijk stuk software. Ik ga er van uit dat AMD's Radeon software net als Ryzen Master op QT draait en dus ook net zo soepel rendert. In tegenstelling tot GFE, wat één van de vele luie Electron apps is waar men 0,0 tijd steekt in het optimaliseren. Electron kán goed werken, maar 99,9% van de tijd is dat niet het geval, zo ook niet in GFE. Het is traag op alle vlakken (starten en gebruik), gigantische resource hog (ik vermoed meer dan AMD's software
Gelukkig is het optioneel. Shadowplay is lekker makkelijk, maar ik doe het wel zonder zolang dat niet zonder GFE kan

Echt serieus, Crimson was zo geweldig. Je kon alle settings zo vinden. Het was allemaal logisch ingedeeld en het werkte gewoon. Ik kan na ruim twee jaar nog steeds de helft niet vinden in Adrenalin. Adrenalin moet je gewoon leren. En als dat begint, dan zie je pas hoe goed het eigenlijk is. Maar wie wil er nu serieus een driver settings menu gaan leren.
Heb ik het nog niet gehad over bloatware zoals een browser of de mogelijkheid om je drivermenu te koppelen met Facebook. Echt zeer belangrijke features. Het feit dat je een functionele zoekfunctie hebt, zegt ergens ook iets.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Precies, ze hadden bij Crimson moeten stoppen (of incrementeel). Dat zag er netjes uit en alles was goed te vinden.DaniëlWW2 schreef op donderdag 16 juni 2022 @ 23:23:
* DaniëlWW2 gruwelt bij de gedachte om NVCP te moeten gebruiken. DaniëlWW2 zal het AMD ook niet vergeven wat ze met de UI van Radeon Software hebben gedaan.
Echt serieus, Crimson was zo geweldig. Je kon alle settings zo vinden. Het was allemaal logisch ingedeeld en het werkte gewoon. Ik kan na ruim twee jaar nog steeds de helft niet vinden in Adrenalin. Adrenalin moet je gewoon leren. En als dat begint, dan zie je pas hoe goed het eigenlijk is. Maar wie wil er nu serieus een driver settings menu gaan leren.
Heb ik het nog niet gehad over bloatware zoals een browser of de mogelijkheid om je drivermenu te koppelen met Facebook. Echt zeer belangrijke features. Het feit dat je een functionele zoekfunctie hebt, zegt ergens ook iets.
Het wordt tijd dat RDNA3 uit komt zodat ik eindelijk weer eens AMD graphics drivers kan gebruiken
Ze zijn van die mooie, simpele stijl die Ryzen Master heeft overgenomen, naar dit gedrocht gegaan...Werelds schreef op vrijdag 17 juni 2022 @ 08:28:
Wat hebben ze tussen Crimson en Adrenalin dan veranderd? Want Crimson was volgens mij hetzelfde opgezet als Ryzen Master?
Het wordt tijd dat RDNA3 uit komt zodat ik eindelijk weer eens AMD graphics drivers kan gebruiken

Het grootste probleem hiermee is dat je bovenin een aantal menu's hebt, waaronder weer submenu's zitten. En dan zit er ook nog een hele hoop onder het tandwiel van Settings, waaronder weer een hele hoop submenu's zitten. En sommige zaken zou je juist verwachten onder een van die hoofdmenu's, zijn gesplitst en staan op verschillende plekken.
Op zich is Gaming helemaal in orde. Daaronder vind je alle games die je hebt en kan je per game allemaal dingen instellen zoals Chill, RSR, Anti Lag, je kan per game een OC profiel importeren etc.
De rest is minder. Onder Streaming zitten de geavanceerde functies verstopt in een hoekje waarna je naar een menu onder Settings word doorgestuurd. Hetzelfde gebeurd met Performance, maar de link hier zit juist rechtsonder en niet linksonder. De meeste geavanceerde instellingen vind je dan ook onder Settings. Je moet verder ook overal goed opletten dat je niet een of andere functie mist. Ik zag bijvoorbeeld net ook dat er nu een stresstest programmaatje te vinden is voor je videokaart onder het OC menu.
Het werkt allemaal wel, maar het is niet bepaald goed georganiseerd. En dat is jammer als je het vorige menu hebt meegekregen. Niet dat dit alsnog niet veel beter is dan Nvidia hun antieke gedrocht, maar het is een stap achteruit.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Functioneel klinkt het wel nog steeds beter dan GFE. Net zo onlogisch ingedeeld, maar wel veel meer opties? Want GFE is eigenlijk vrij beperkt, hoewel ze iets meer zijn gaan ondersteunen. Zit wel nog allemaal onder een "experimental" toggle die je eerst om moet gooien.
Maar je kan ook kiezen voor de minimale driver installatie, dan ziet het er al een stuk frisser uit
Een gebrek aan opties zou ik niet durven beweren. Ze vinden is hier het probleem.Werelds schreef op vrijdag 17 juni 2022 @ 09:42:
Aha, ze hebben dus GFE en NVCP gecombineerd
Functioneel klinkt het wel nog steeds beter dan GFE. Net zo onlogisch ingedeeld, maar wel veel meer opties? Want GFE is eigenlijk vrij beperkt, hoewel ze iets meer zijn gaan ondersteunen. Zit wel nog allemaal onder een "experimental" toggle die je eerst om moet gooien.
Verder staat hier niks onder experimenteel. Het werkt gewoon.
Het gaat niet om de games die je ziet of je gemiddelde framerate. Dat is een leuke extra. Het gaat erom dat je een profiel rond elke game kan bouwen met de verschillende opties die AMD je bied.XWB schreef op vrijdag 17 juni 2022 @ 09:56:
Die games hoef ik ook niet te zien, daar heb ik simpelweg Steam voor.
Maar je kan ook kiezen voor de minimale driver installatie, dan ziet het er al een stuk frisser uit
Voor een competitieve shooter zal je Anti Lag aanzetten en misschien ook RSR met wat RIS. Voor een relaxte game kan je zo Chill aanzetten met een dynamische minimum en maximum FPS waarmee je heel veel stroom kan besparen.
:strip_exif()/f/image/2IN6px1D3TjyxNTTBITBm3Y2.jpg?f=fotoalbum_large)
Daarnaast kan je een OC profiel aan je game hangen. Bijvoorbeeld voor je competitieve shooter gebruik je wel een OC, maar een relaxte game niet. Je hebt ook automatische OC en UV opties, hoewel je die niet erg zou moeten vertrouwen.
Dit is voor mij ook het beste deel van het hele pakket. Ik wou alleen dat de rest net zo makkelijk te gebruiken was.
[ Voor 55% gewijzigd door DaniëlWW2 op 17-06-2022 11:31 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
En uit die tweede afbeelding?DaniëlWW2 schreef op donderdag 16 juni 2022 @ 19:31:
[...]
Dat is een afbeelding.![]()
Nee serieus, hier valt helemaal niks uit op te maken.
/f/image/bGyA84SoMLoPwoZ8OAdIlQwa.png?f=fotoalbum_large)
Valt het je op dat in dit geval de base die van Infinity Cache *onder* de compute chiplets zit in plaats van *boven*? Zou dat uit kunnen maken voor de koeling, die in de regel aan de bovenkant zit?
:strip_exif()/f/image/tJIjFt2E8MvvFTqPIq0hnHOn.jpg?f=fotoalbum_large)
Dus mogelijk minder beperking qua overclocken dan de Ryzen 58003D
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Wel grappig dat 1 punt van mijn lijstje gelijk een hele discussie oplevertSp3ci3s8472 schreef op donderdag 16 juni 2022 @ 16:07:
[...]
Daar ben ik het dus echt niet mee eens. Als je van Internet Explorer 6 interface houdt dan misschien maar het ziet er echt slecht uit. GFE is geen controle panel.
AMD drivers zijn echt heel goed geworden en ik heb ook geen enkele crash meer gehad met de 6000 serie. Nog wel met de 5000 serie, maar ik vermoed dat ik een kapotte geheugen chip heb op mijn 5700 XT.
Met mijn Nvidia kaart (3070) in mijn laptop (Linux) is het altijd een gevecht om multidisplay netjes werkend te krijgen met de juiste resoluties. Uit ellende heb ik nu gewoon scripts gemaakt die ik draai om het goed te krijgen.
Nvidia drivers op Linux zijn nog steeds een drama imho.
Wat ik bedoelde was dat nVidia hierin eerder innoveerde, met een game profiel per game, waar je bij AMD alleen globale settings kon instellen. Niks over de UX of gebruikerservaring.
Verder ben ik het met je eens.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Dat is CDNA. Compleet andere architectuur met een compleet andere doelgroep.sunsmountain schreef op vrijdag 17 juni 2022 @ 14:36:
[...]
En uit die tweede afbeelding?
[Afbeelding]
Heel andere pipeline, veel lagere clock speeds dan RDNA2 en er is ook geen video out. Je kan hier met geen mogelijkheid conclusies uit trekken.
Wederom kan je hier ook niks uit afleiden. Niemand die de antwoorden voor RDNA3 weet, zal het nu publiekelijk vertellen. Verder is afleiden vanuit Zen 3 ook niet zeggend. De 5800X3D is letterlijk een idee uit de serverwereld, Milan X, naar desktop gaming brengen omdat AMD zich besefte dat ze hiermee vrij gemakkelijk Alder Lake konden neerknuppelen voor high end gaming. Het is allesbehalve een gespecialiseerde oplossing. Komt ook nog eens bij dat een CPU en een GPU andere vereisten hebben als het gaat om geheugencapaciteit, snelheden en latency.Valt het je op dat in dit geval de base die van Infinity Cache *onder* de compute chiplets zit in plaats van *boven*? Zou dat uit kunnen maken voor de koeling, die in de regel aan de bovenkant zit?
[Afbeelding]
Dus mogelijk minder beperking qua overclocken dan de Ryzen 58003D
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
En als je het nou eens niet ziet als een feit, maar een implicatie? Natuurlijk kan ik niet zeggen dat dit een feit is, maar voor iemand die zich veel met geruchten bezig houdt (jij en ik), vind ik dit nogal een negatieve reactie van je. Zie het anders als een "waarschijnlijk gerucht", en ga in de toekomst niet zeggen "niemand zag gestapelde memory chiplets voor Navi31 en Navi32 aankomen".DaniëlWW2 schreef op vrijdag 17 juni 2022 @ 15:13:
[...]
Dat is CDNA. Compleet andere architectuur met een compleet andere doelgroep.
Heel andere pipeline, veel lagere clock speeds dan RDNA2 en er is ook geen video out. Je kan hier met geen mogelijkheid conclusies uit trekken.
[...]
Wederom kan je hier ook niks uit afleiden. Niemand die de antwoorden voor RDNA3 weet, zal het nu publiekelijk vertellen. Verder is afleiden vanuit Zen 3 ook niet zeggend. De 5800X3D is letterlijk een idee uit de serverwereld, Milan X, naar desktop gaming brengen omdat AMD zich besefte dat ze hiermee vrij gemakkelijk Alder Lake konden neerknuppelen voor high end gaming. Het is allesbehalve een gespecialiseerde oplossing. Komt ook nog eens bij dat een CPU en een GPU andere vereisten hebben als het gaat om geheugencapaciteit, snelheden en latency.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Ik zeg dit omdat ik me besef dat er deze generatie, te veel geruchten of aannamen rondgaan die niet blijken te kloppen of zelf niet kunnen kloppen. En ik besef me dat ik er ook ingetrapt ben. Daarom neem ik bewust een zeer terughoudende houding in en wacht ik op echte, concrete informatie.sunsmountain schreef op vrijdag 17 juni 2022 @ 15:17:
[...]
En als je het nou eens niet ziet als een feit, maar een implicatie? Natuurlijk kan ik niet zeggen dat dit een feit is, maar voor iemand die zich veel met geruchten bezig houdt (jij en ik), vind ik dit nogal een negatieve reactie van je. Zie het anders als een "waarschijnlijk gerucht", en ga in de toekomst niet zeggen "niemand zag gestapelde memory chiplets voor Navi31 en Navi32 aankomen".
Want van wat we zeker weten, lijkt het aannemelijk dat we echt een spectaculaire generatie tegemoet gaan, maar de details zijn compleet onduidelijk. Nvidia gaat met een gigantische AD102 komen, dat is duidelijk vanwege die hack. AMD gaat iets met chiplet based doen, dat is ook duidelijk omdat AMD het zelf gezegd heeft. Hoe is de vraag waar niemand een antwoord op heeft.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ok, ik snap je terughoudendheid. Het is meer dat ik de hints en implicaties die er zijn in de Financial Day presentatie (aanrader), wil delen.DaniëlWW2 schreef op vrijdag 17 juni 2022 @ 21:48:
[...]
Ik zeg dit omdat ik me besef dat er deze generatie, te veel geruchten of aannamen rondgaan die niet blijken te kloppen of zelf niet kunnen kloppen. En ik besef me dat ik er ook ingetrapt ben. Daarom neem ik bewust een zeer terughoudende houding in en wacht ik op echte, concrete informatie.
Want van wat we zeker weten, lijkt het aannemelijk dat we echt een spectaculaire generatie tegemoet gaan, maar de details zijn compleet onduidelijk. Nvidia gaat met een gigantische AD102 komen, dat is duidelijk vanwege die hack. AMD gaat iets met chiplet based doen, dat is ook duidelijk omdat AMD het zelf gezegd heeft. Hoe is de vraag waar niemand een antwoord op heeft.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Was Nvidia hier eerder mee? Het is zo lang geledensunsmountain schreef op vrijdag 17 juni 2022 @ 14:38:
[...]
Wel grappig dat 1 punt van mijn lijstje gelijk een hele discussie oplevert![]()
Wat ik bedoelde was dat nVidia hierin eerder innoveerde, met een game profiel per game, waar je bij AMD alleen globale settings kon instellen. Niks over de UX of gebruikerservaring.
Verder ben ik het met je eens.
Het is niet alleen UX, maar er zijn ook andere dingen zoal Radeon Chill etc. Beide fabrikanten hebben hun dingen in de drivers.
In ieder geval heeft nVidia betere marketing voor de software die ze makenSp3ci3s8472 schreef op vrijdag 17 juni 2022 @ 22:43:
[...]
Was Nvidia hier eerder mee? Het is zo lang geleden.
Het is niet alleen UX, maar er zijn ook andere dingen zoal Radeon Chill etc. Beide fabrikanten hebben hun dingen in de drivers.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Ik ben wel bang dat een deel van de verbetering behaald gaat worden door de kaarten standaard erg over te klokken, waardoor je moet gaan underklokken om de kaart weer efficient te maken. Als men dan een meerprijs gaat vragen voor die extra performance die puur komt door overklokken zou ik daar niet tevreden mee zijn.DaniëlWW2 schreef op vrijdag 17 juni 2022 @ 21:48:
[...]
Want van wat we zeker weten, lijkt het aannemelijk dat we echt een spectaculaire generatie tegemoet gaan, maar de details zijn compleet onduidelijk.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Dat is ook te simpel gedacht.Ludewig schreef op zaterdag 18 juni 2022 @ 03:17:
[...]
Ik ben wel bang dat een deel van de verbetering behaald gaat worden door de kaarten standaard erg over te klokken, waardoor je moet gaan underklokken om de kaart weer efficient te maken. Als men dan een meerprijs gaat vragen voor die extra performance die puur komt door overklokken zou ik daar niet tevreden mee zijn.
Voor RDNA3 lijken we te kijken naar een gigantische toename van rekeneenheden alsmede optimalisaties aan de indeling hiervan. Klopt 12288 dan zit je al tegen de 2,5x over Navi 21 in termen van fysieke rekeneenheden. AMD moet haar best doen om dan niet minstens 2x te halen. Het verbruik is meer dan 50% verbeterd, maar dat is waarschijnlijk alsnog niet afdoende om het totale verbruik nog "redelijk" te houden. Het zal alleen niet naar een "overclock" gaan, maar naar veel en veel meer hardware.
Bij Nvidia weten we dat AD102 beschikt over 18432 ALU's. We weten alleen niet of dit FP + INT of alleen FP ALU's zijn. En dat maakt heel wat uit. Want als het FP ALU's zijn en dat gerucht van laatst klopt, dan ga je van 5376 FP en 5376 FP+INT naar 18432 FP en 9216 INT. Die sprong zou nog groter dan Navi 21 naar de rondgaande Navi 31 specificatie. Is het alleen 18432 ALU's voor zowel FP als INT, dan is het misschien eerder 12288 FP en 6144 INT (eventueel + FP) ALU's. Dat lijkt me ergens wat realistischer omdat dat eerste scenario wel heel groot is. Maar ook hier geld dat er een reden lijkt te zijn waarom we zulke enorme sprongen in verbruik mogen verwachten. AD102 is enorm, hoe de indeling ook mag zijn.
Qua precieze clock speeds moet je echt afwachten omdat dit naar van wat ik altijd heb begrepen, pas vlak voor release bepaald word. Prijs al helemaal. Dat kunnen ze een halfuur voor de presentatie nog aanpassen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik wil een AM5-setup met een zuinig en klein GPU'tje, N5 zou daar prachtig voor zijn (want zuinig) en RDNA3 wat betreft geruchten omtrent efficiëntie ook, maar in het segment RX 6600 (XT) en mogelijk zelfs RX 6700 XT staat er schijnbaar maar barweinig op de planning.
Heeft geen speciale krachten en is daar erg boos over.
Ik vraag me elke keer af als ik de toename lees, waarom NU?. Dat ze van elkaar aardig weten wat ze aan het doen zijn verbaasd me niet. Dus als de één een flinke sprong gaat maken, dat de ander dan meegaat, of er nog overheen gaat.DaniëlWW2 schreef op zaterdag 18 juni 2022 @ 10:04:
[...]
Dat is ook te simpel gedacht.
Voor RDNA3 lijken we te kijken naar een gigantische toename van rekeneenheden alsmede optimalisaties aan de indeling hiervan. Klopt 12288 dan zit je al tegen de 2,5x over Navi 21 in termen van fysieke rekeneenheden. AMD moet haar best doen om dan niet minstens 2x te halen.
Bij Nvidia weten we dat AD102 beschikt over 18432 ALU's. We weten alleen niet of dit FP + INT of alleen FP ALU's zijn. En dat maakt heel wat uit. Want als het FP ALU's zijn en dat gerucht van laatst klopt, dan ga je van 5376 FP en 5376 FP+INT naar 18432 FP en 9216 INT. Die sprong zou nog groter dan Navi 21 naar de rondgaande Navi 31 specificatie. Is het alleen 18432 ALU's voor zowel FP als INT, dan is het misschien eerder 12288 FP en 6144 INT (eventueel + FP) ALU's.
Vraag me wel verder af wat de volgende serie dan wordt qua prestatie winst en bijbehorend vermogen
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
ATI had bij de eerste generatie Radeons al meer in de driver zitten wat je kon forceren. Nvidia had toen nog geen AF of AA, daar moest je RivaTuner voor gebruiken. Die hadden enkel dingen als V-Sync. Bij beide wilde je echter toch RivaTuner (Nvidia) of ATI Tray Tools hebben, omdat de drivers zo beperkt waren.
Wanneer ze allebei profielen per game zijn gaan doen weet ik niet, maar ik weet wel nog dat dat met m'n 6800 GT níet kon, met m'n 8800 GTS wél. Dus dat is rond 2006. Aan ATI's/AMD's kant heb ik veel minder GPU's gehad, maar het kon sowieso wel al met m'n 5870 (2009). De 9700 (de laatste ATI GPU vóór de 5870
Iemand hier iets van een X1900 of HD2000 serie gehad die zich nog kan herinneren wat Catalyst toen kon doen? Dat is rond de tijd van G80
Edit: je had toentertijd ook nog allerlei aangepaste drivers die vaak beter werkten, dingen als Omega en NGO.
[ Voor 5% gewijzigd door Werelds op 18-06-2022 11:54 ]
Ik heb geen idee waarom precies.Mars Warrior schreef op zaterdag 18 juni 2022 @ 11:34:
[...]
Ik vraag me elke keer af als ik de toename lees, waarom NU?. Dat ze van elkaar aardig weten wat ze aan het doen zijn verbaasd me niet. Dus als de één een flinke sprong gaat maken, dat de ander dan meegaat, of er nog overheen gaat.
Vraag me wel verder af wat de volgende serie dan wordt qua prestatie winst en bijbehorend vermogen
Mijn persoonlijke vermoeden is dat het te maken heeft met AMD hun herintreden in de hogere segmenten alsmede hun genadeloze innovatiedrang, waar Nvidia op moet reageren. En Nvidia is geen Intel die het maar laat gebeuren. Voor Nvidia geld wel dat ze een gigantische node jump gaan maken van eigenlijk Samsung 10nm (8nm is een optimalisatie + rebrand) naar TSMC N5. Tweede is dat er ook bewezen is dat er een markt voor dergelijke super high end producten is.
Ik ga er volledig vanuit dat weinig mensen, werkelijk AD102 of Navi 31 kunnen of willen betalen. Maar AD103 weten we ook al en die is meteen al bijna 60% kleiner met 10572 ALU's. Je gaat waarschijnlijk echte halo SKU's krijgen en de rest van de lijn is dan meer "betaalbaar". Verder betwijfel ik nog steeds of AMD nog wel iets in het lagere segment gaat uitbrengen. Nvidia gaat het zeker wel doen, maar voor AMD lijkt het erop dat ze mensen aan hun APU's willen brengen en het lagere desktop segment opgeven.bwerg schreef op zaterdag 18 juni 2022 @ 11:16:
Verbruik terzijde, de kosten van chips van dit formaat op TSMC N5 gaan alleen maar omhoog. Leuk voor ultra-high-end maar ik zie mid-range en low-end niet echt met optimisme tegemoet. Chiplet-ontwerp is leuk voor low-end als een enkele chiplet ook daadwerkelijk klein genoeg is om als GPU te dienen, maar daar wordt Navi 3x gewoon te groot voor.
Ik wil een AM5-setup met een zuinig en klein GPU'tje, N5 zou daar prachtig voor zijn (want zuinig) en RDNA3 wat betreft geruchten omtrent efficiëntie ook, maar in het segment RX 6600 (XT) en mogelijk zelfs RX 6700 XT staat er schijnbaar maar barweinig op de planning.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Het valt me ook op dat het chip oppervlak de laatste 10 jaren elke generatie toeneemt. Je krijgt meer performance, maar betaalt dan ook meer. Gelukkig zijn en blijven er kleinere chips. Behalve de dure en grote Navi31 t/m Navi33, zullen daaronder waarschijnlijk de Navi2x chips een "refresh" krijgen op 6nm (eigenlijk 7nm, verbeterd, tegen die tijd een stuk goedkoper dan 1,5 jaar geleden), maar pas in 2023 Q1 op z'n vroegst:bwerg schreef op zaterdag 18 juni 2022 @ 11:16:
Verbruik terzijde, de kosten van chips van dit formaat op TSMC N5 gaan alleen maar omhoog. Leuk voor ultra-high-end maar ik zie mid-range en low-end niet echt met optimisme tegemoet. Chiplet-ontwerp is leuk voor low-end als een enkele chiplet ook daadwerkelijk klein genoeg is om als GPU te dienen, maar daar wordt Navi 3x gewoon te groot voor.
Ik wil een AM5-setup met een zuinig en klein GPU'tje, N5 zou daar prachtig voor zijn (want zuinig) en RDNA3 wat betreft geruchten omtrent efficiëntie ook, maar in het segment RX 6600 (XT) en mogelijk zelfs RX 6700 XT staat er schijnbaar maar barweinig op de planning.
https://videocardz.com/ne...efreshed-6nm-navi-2x-gpus
De 6700XT en 6600XT zullen dus de 7600XT en de 7500XT worden, goedkoper en meer performance. Ik vermoed concreect dat:
- de 7600XT tussen de $379-$399 gaat kosten, voor wat nu een 6700XT is, die tegen die tijd (volgend jaar 2023 op z'n vroegst) tweedehands ook zoiets zullen kosten.
- de 7500XT tussen $249-$299 gaat kosten, voor wat nu een 6600XT is, zelfde verhaal. Er van uit gaande dat ze niet weer de PCI Express lanes beperken tot x4.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
De nieuwe AMD APU's zien er krachtiger uit dan huidige laptop graphics, maar zullen echt niet sneller zijn dan een 7500XT (Navi23 refresh met 32 CU), ook niet als je RDNA3 meerekent:DaniëlWW2 schreef op zaterdag 18 juni 2022 @ 11:58:
[...]
Ik heb geen idee waarom precies.
Mijn persoonlijke vermoeden is dat het te maken heeft met AMD hun herintreden in de hogere segmenten alsmede hun genadeloze innovatiedrang, waar Nvidia op moet reageren. En Nvidia is geen Intel die het maar laat gebeuren. Voor Nvidia geld wel dat ze een gigantische node jump gaan maken van eigenlijk Samsung 10nm (8nm is een optimalisatie + rebrand) naar TSMC N5. Tweede is dat er ook bewezen is dat er een markt voor dergelijke super high end producten is.
[...]
Ik ga er volledig vanuit dat weinig mensen, werkelijk AD102 of Navi 31 kunnen of willen betalen. Maar AD103 weten we ook al en die is meteen al bijna 60% kleiner met 10572 ALU's. Je gaat waarschijnlijk echte halo SKU's krijgen en de rest van de lijn is dan meer "betaalbaar". Verder betwijfel ik nog steeds of AMD nog wel iets in het lagere segment gaat uitbrengen. Nvidia gaat het zeker wel doen, maar voor AMD lijkt het erop dat ze mensen aan hun APU's willen brengen en het lagere desktop segment opgeven.
Mendocino: 4C/8T Zen 2, 2 CU RDNA2, 4-10W TDP, budget low-end mobile, steam deck, etc.
Dragon Range: 16C/32T Zen4, 2 CU RDNA2, 35-54W TDP high-end laptop
Phoenix: 8C/16T Zen4, 12 CU RDNA3 qua theoretische compute performance verdubbelt een RDNA3 CU waarschijnlijk ten op zichte van een RDNA2 CU, dus dit zou je als 24 CU kunnen opvatten. 35-45W TDP premium thin & light, mid-range gaming laptops.
Van je favoriete bron: YouTube: AMD Little Phoenix APU Leak: The Steam Deck 2 could be AMAZING with ...
Maar waarschijnlijk komt er inderdaad geen 7400XT, zoals we nu nog een 6400XT zien. Dat is straks afgelopen bij AMD. Net zoals de 5300 vermoed ik niet terug zal komen als 6300 deze generatie
Wikipedia: Radeon RX 5000 series
Terwijl de Radeon 5xx nog tot de 520 ging ja ja:
Wikipedia: Radeon RX 500 series
^^ Dus dit is een trend die al langer speelt bij AMD.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Bij een normale markt zouden ze te weinig geld kunnen vragen voor zo'n kaart en zouden ze die niet uitbrengen, en kopen mensen gewoon een tweedehands kaart als ze erg weinig te besteden hebben.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
60% kleiner dan extreem groot is nog steeds heel groot.DaniëlWW2 schreef op zaterdag 18 juni 2022 @ 11:58:
Maar AD103 weten we ook al en die is meteen al bijna 60% kleiner met 10572 ALU's.
Heeft geen speciale krachten en is daar erg boos over.
4k gaming voor $/€500 zou gaaf zijn, AD103 en mogelijk Navi32 lijken de betere koop, zoals wel vaker sub high-end. Alleen dit keer niet een lagere yield chip van de grootste chip, maar gewoon de tweede chip qua grootte.bwerg schreef op zondag 19 juni 2022 @ 16:23:
[...]
60% kleiner dan extreem groot is nog steeds heel groot.Volgens het zustertopic heeft de kleinste nu bekende chip van NVidia (AD106) alsnog een verbruik van 260W, en navi 33 zal ook wel iets in die richting zijn. Dat is nog steeds een bakbeest als je gewoon een beetje stil en zuinig wil gamen (wat prima kan, á la RX6600).
Die verbruik cijfers in Watt zijn maxima bij overclocken, niet zo realistisch voor gewone gamers. De TDPs zijn anders, ik vermoed:
AD102: 450-600 W, ATX v3.0 voeding vereist.
AD103: 300-375W
AD104: 225-250W (3070 performance)
bij AMD:
Navi31: 375-450W, onzeker of ATX v3.0 nodig is, maar waarschijnlijk recommended.
Navi32: 300-375W
Navi33: 225-250W (6900XT performance)
Er zijn nog geen ATX v3.0 gecertificeerde voedingen, en ik vermoed dat alleen huidige 1600W+ voedingen een kans maken de piekbelasting testen te halen.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Er is een AD107. Dit is ook uitgelekt bij de Nvidia hack. Zie bijvoorbeeld:bwerg schreef op zondag 19 juni 2022 @ 16:23:
[...]
60% kleiner dan extreem groot is nog steeds heel groot.Volgens het zustertopic heeft de kleinste nu bekende chip van NVidia (AD106) alsnog een verbruik van 260W, en navi 33 zal ook wel iets in die richting zijn. Dat is nog steeds een bakbeest als je gewoon een beetje stil en zuinig wil gamen (wat prima kan, á la RX6600).
https://nl.hardware.info/...-eisen-opensource-drivers
Verder weet nog steeds niet wat ik moet denken van die verbruikswaardes moet vinden. AD102 zal wel veel worden, maar die anderen denk ik toch minder. Immers lijkt Nvidia een volledige lijn te lanceren zoals altijd en de lagere SKU's gaan erg duur worden als je een flink PCB + koelblok nodig hebt voor een kleine chip.
En voor AD103 geld dat het aantal ALU's identiek zou zijn aan GA102. Voor Navi 33 zou de vermoede gelijkwaardigheid aan Navi 21, met rond 225W moeten kunnen (immers >50% perf/watt) en ik denk dat die eerder tegenover AD104 komt te staan. Klopt dat, dan is 260W voor een slechter presterende, kleinere chip gewoon een mislukking.
[ Voor 5% gewijzigd door DaniëlWW2 op 19-06-2022 17:33 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Mechwarrior Online: Flapdrol
Dat betekent niet dat die ook op een videokaart komt. Die kan ook bedoeld zijn voor laptops.DaniëlWW2 schreef op zondag 19 juni 2022 @ 17:28:
[...]
Er is een AD107. Dit is ook uitgelekt bij de Nvidia hack.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Verwijderd
Dat zou me erg sterk lijken, immers GA104 voorziet al in 3070 performance bij een TBP van 220W, als AD104 dan 3070 performance zou leveren bij 225-250W zou dat een verslechtering zijn t.o.v. GA104, niet heel erg logisch.
AD106 zou m.i. RTX3070 performance of beter moeten gaan leveren bij een TBP van flink minder dan 220W, terwijl AD104 mijn inziens minimaal RTX3080 performance gaat leveren, en dat zou dan inderdaad ergens in jouw range qua verbruik moeten zijn, anders zou de vooruitgang qua efficiëntie tegen vallen.
Dat lijkt me ook.Dennism schreef op maandag 20 juni 2022 @ 14:22:
[...]
Dat zou me erg sterk lijken, immers GA104 voorziet al in 3070 performance bij een TBP van 220W, als AD104 dan 3070 performance zou leveren bij 225-250W zou dat een verslechtering zijn t.o.v. GA104, niet heel erg logisch.
AD106 zou m.i. RTX3070 performance of beter moeten gaan leveren bij een TBP van flink minder dan 220W, terwijl AD104 mijn inziens minimaal RTX3080 performance gaat leveren, en dat zou dan inderdaad ergens in jouw range qua verbruik moeten zijn, anders zou de vooruitgang qua efficiëntie tegen vallen.
We weten namelijk ook uit de Nvidia hack dat Lovelace met een flink grotere L2 cache gaat komen. En bij Nvidia lijkt L2 het hoogste niveau te blijven en gaan ze niet mee met AMD hun introductie van L3 in dGPU. Het lijkt een afweging te zijn van latency vs capaciteit. Minder cache, maar dichterbij de rekeneenheden vs. een extra grote L3 cache verder van de rekeneenheden. Nvidia zal het verschil in capaciteit waarschijnlijk afvangen met sneller GDDR6(X).
Dat is belangrijk omdat zeker GA102 de indruk werkt, behoorlijk data gelimiteerd te zijn. Die chip schaalt voor geen meter tussen een RTX3080 en RTX3090. Het lijkt een combinatie van context switching, scheduling en gebrek aan data te zijn die de occupency percentages zo laag lijkt te maken. Iets waar RDNA2 absoluut geen last van heeft. Daarom zie je een GA102 eigenlijk onderpresteren in hogere frequentie gaming, heeft die al snel een betere CPU nodig om te presteren en presteren GA102 chips iets beter met hogere resoluties en lagere framerates.
Ik wil er eigenlijk nog eens op hameren dan RDNA2 de standaard had moeten zijn deze generatie waar een Ampere SKU tegen vergeleken werd op verschillende resoluties en met verschillende configuraties, niet andersom zoals gebeurd. Want RDNA2 is de consistent presterende architectuur en Ampere is erg situatiegevoelig. Maar met 80% marktaandeel zal Nvidia altijd worden voorgetrokken in vergelijkingen. En omdat 99% van de reviews alleen maar testen met de meest high end CPU, valt het ook minder op.
Afijn, voor AD106 geld dat het een 4608 ALU chip zou zijn. De RTX3070 heeft 5888 ALU's.
Ik zou niet verbaast zijn als Nvidia dat gat al grotendeels zou overbruggen met betere occupency door die L2 cache uitbreiding naar blijkbaar 32MB (was 4MB), snellere GDDR6 en wat clock speeds. Misschien halen ze het niet helemaal, maar ik zou AD106 vooralsnog ook niet inschatten als zwak. AD104 is met blijkbaar 7680 ALU's al te groot.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Daar ben ik het niet helemaal mee eens omdat Nvidia het beste is op 4k bij de dure kaarten, waar de meeste mensen die kaarten voor gebruiken, terwijl de goedkopere kaarten door DLSS weer sterk presteren.DaniëlWW2 schreef op maandag 20 juni 2022 @ 16:48:
[...]
Want RDNA2 is de consistent presterende architectuur en Ampere is erg situatiegevoelig. Maar met 80% marktaandeel zal Nvidia altijd worden voorgetrokken in vergelijkingen.
De mensen die maximale framerates willen op 1080p zijn toch een beperkte niche.
Een vrij normale vooruitgang is dat de kaarten steeds een niveau opschuiven, zodat de xx60 kaarten van de nieuwe generatie even goed presteren als de xx70 van de vorige generatie. Dus als ze dat al niet halen zou het toch een afgang zijn.Afijn, voor AD106 geld dat het een 4608 ALU chip zou zijn. De RTX3070 heeft 5888 ALU's.
Ik zou niet verbaast zijn als Nvidia dat gat al grotendeels zou overbruggen met betere occupency door die L2 cache uitbreiding naar blijkbaar 32MB (was 4MB), snellere GDDR6 en wat clock speeds. Misschien halen ze het niet helemaal, maar ik zou AD106 vooralsnog ook niet inschatten als zwak.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Wat is er zo gek aan de schaling dan? Als je kijkt naar de specs en de clocks presteert hij toch ongeveer zoals verwacht?DaniëlWW2 schreef op maandag 20 juni 2022 @ 16:48:
Dat is belangrijk omdat zeker GA102 de indruk werkt, behoorlijk data gelimiteerd te zijn. Die chip schaalt voor geen meter tussen een RTX3080 en RTX3090. Het lijkt een combinatie van context switching, scheduling en gebrek aan data te zijn die de occupency percentages zo laag lijkt te maken. Iets waar RDNA2 absoluut geen last van heeft. Daarom zie je een GA102 eigenlijk onderpresteren in hogere frequentie gaming, heeft die al snel een betere CPU nodig om te presteren en presteren GA102 chips iets beter met hogere resoluties en lagere framerates.
De 3090 verbruikt bij techpowerup 11% meer dan de 3080. En moet ook veel meer geheugenchips aan de gang houden, voor weinig meer bandbreedte. Clock zal wel flink lager moeten. Toch 14% sneller op 4k
Mechwarrior Online: Flapdrol
De RTX3090 heeft ook 20% meer ALU's en 176GB/s extra geheugenbrandbreedte voor 30W TBP extra. En de RTX3080Ti heeft hetzelfde probleem, dus het is niet de 24GB vs 10GB. Het is de RTX3090Ti die meer presteert zoals je zou verwachten van alle extra rekeneenheden, behalve dat die nog eens 72GB/s extra heeft en met een TBP van 450W komt. Dat bedoel ik dus met slecht schalen.haarbal schreef op dinsdag 21 juni 2022 @ 08:48:
[...]
Wat is er zo gek aan de schaling dan? Als je kijkt naar de specs en de clocks presteert hij toch ongeveer zoals verwacht?
De 3090 verbruikt bij techpowerup 11% meer dan de 3080. En moet ook veel meer geheugenchips aan de gang houden, voor weinig meer bandbreedte. Clock zal wel flink lager moeten. Toch 14% sneller op 4k
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Is dikgedrukte wel zo? Ik heb altijd begrepen dat tot op heden 1440P nog altijd (flink) populairder is dan 4K in het high end segment en dat het grootste gedeelte binnen het high end segment dus op 1440P speelt.Ludewig schreef op dinsdag 21 juni 2022 @ 02:48:
[...]
Daar ben ik het niet helemaal mee eens omdat Nvidia het beste is op 4k bij de dure kaarten, waar de meeste mensen die kaarten voor gebruiken, terwijl de goedkopere kaarten door DLSS weer sterk presteren.
De mensen die maximale framerates willen op 1080p zijn toch een beperkte niche.
Klein sample size, maar als ik in mijn omgeving kijk lijkt dat ook wel redelijk te kloppen, het overgrote deel (waaronder ik zelf met een 6900XT) met een high end kaart (en dan reken ik 6800XT / RTX 3080 of hoger als high end), gamed op 1440P. 4K lijkt juist een niche, net als inderdaad 1080P redelijk een niche aan het worden is.
Dat van de CPU heeft weinig te maken met GA012 specifiek en volgens mij meer met dat de drivers bij DX12 niet meer tussenkomen bij het schedulen. Het hangt ook puur af van welke games je test. Immers de meeste games zijn nog steeds DX11 waar AMD het zeer slecht doet/deed (?) qua CPU overhead. Bij Elex 2 hebben ze een DX12 beta branch moeten lanceren omdat het onspeelbaar was op AMD GPUs.DaniëlWW2 schreef op maandag 20 juni 2022 @ 16:48:
[...]
Dat is belangrijk omdat zeker GA102 de indruk werkt, behoorlijk data gelimiteerd te zijn. Die chip schaalt voor geen meter tussen een RTX3080 en RTX3090. Het lijkt een combinatie van context switching, scheduling en gebrek aan data te zijn die de occupency percentages zo laag lijkt te maken. Iets waar RDNA2 absoluut geen last van heeft. Daarom zie je een GA102 eigenlijk onderpresteren in hogere frequentie gaming, heeft die al snel een betere CPU nodig om te presteren en presteren GA102 chips iets beter met hogere resoluties en lagere framerates.
/f/image/cRAZXMmwLgUBVCm6ZaWV97ZF.png?f=fotoalbum_large)
Dit is wel de meest extreme CPU bottleneck die ik tot nu toe gezien heb.
Alle prestatiesproblemen bij God Of War bvb op AMD GPUs hadden hier ook mee te maken. Zelfs met een Zen 3 kon je niet overal 60fps krijgen. De devs hebben zelfs extra object culling ingevoerd om de CPU load te verminderen en het probleem zo veel mogelijk te omzeilen.
Ik zit hier al jaren over te klagen. Het verbaasde me dan ook positief dat ze in mei via een driver update dit deels hebben aangepakt. Ik had de hoop al lang opgegeven en ik speel nog veel DX11 games dus dit was toch wel iets dat me tegenhield om een AMD GPU aan te schaffen. Ik ben nu ook niet zeker of het probleem volledig is aangepakt voor alle DX11 games want helaas gebeuren hier weinig tests over.Implemented small object culling to help reduce the number of objects being processed by the CPU
Developed in response to recurring AMD performance issues, this change should improve minimum framerates in scenes where there are many objects on-screen. During our testing, we saw an average 20% improvement in frametimes above the 95th percentile.
Bij AMD gebeurd het schedulen dan ook op de GPU zelf terwijl het bij Nvidia de CPU is. Immers heeft Nvidia al jarenlang geen scheduling hardware meer op hun gaming GPU's. Wat je dus krijgt is dat onder DX11, AMD videokaarten ook gevoelig zijn voor de optimalisatie van de game. Heeft de developer alles op een thread gegooid, dan gaat dat niet goed werken. Nvidia heeft in hun driver een beperkte vorm van multithreaded scheduling geïmplementeerd die taken naar andere cores kunnen delegeren. Het probleem is dat voor DX12, de oplossing van Nvidia eerder in de weg zit als onnodige overhead.napata schreef op dinsdag 21 juni 2022 @ 10:44:
[...]
Dat van de CPU heeft weinig te maken met GA012 specifiek en volgens mij meer met dat de drivers bij DX12 niet meer tussenkomen bij het schedulen.
Zie ook: (het is een linkdrop, maar het legt het probleem heel erg goed uit
Tja het is 720P en dit is denk ik echt een voorbeeld van een developer die zelf hun zaken niet op orde heeft. Hier kan je moeilijk AMD de schuld van geven. AMD heeft al jaren de filosofie dat ze je veelzijdige en capabele hardware geven alsmede een hoge mate van toegang om er gebruik van te maken. Maar je moet het uiteindelijk zelf doen. Nvidia hun inzet is juist meer om zaken te herordenen en zelf te optimaliseren. Je ziet dit ook al jaren terug omdat elke "trainwreck" launch, nog een beetje op Nvidia draait en voor geen ene meter op GCN. RDNA is al wat beter, maar nog steeds niet ideaal.Het hangt ook puur af van welke games je test. Immers de meeste games zijn nog steeds DX11 waar AMD het zeer slecht doet/deed (?) qua CPU overhead. Bij Elex 2 hebben ze een DX12 beta branch moeten lanceren omdat het onspeelbaar was op AMD GPUs. [Afbeelding]
Dit is wel de meest extreme CPU bottleneck die ik tot nu toe gezien heb.
Voor GCN gold namelijk dat ze maximaal 25% occupency per clock konden halen door de architectuur zelf. En dat lukt alleen met relatief lange waves tot 64 threads. Toen ik mijn Vega 56 min of meer had gesloopt en naar de RX5700XT overging, merkte ik het verschil meteen in oudere games. AMD heeft voor RDNA eigenlijk Maxwell haar warp32/ wave32 single issue per clock overgenomen. Dat hebben ze gecombineerd met Vega haar zeer capabele ALU's en wat verbeteringen aan de scheduler alsmede een veel betere cache structuur. Dat is het grote geheim van RDNA haar succes.
En dat komt omdat GoW helaas nog op DX11 werkt en waar lopen ze tegenaan, juist ja, te veel draw calls op een CPU thread. En dan gaan ze zelf wat culling doen en het probleem is weg.Alle prestatiesproblemen bij God Of War bvb op AMD GPUs hadden hier ook mee te maken. Zelfs met een Zen 3 kon je niet overal 60fps krijgen. De devs hebben zelfs extra object culling ingevoerd om de CPU load te verminderen en het probleem zo veel mogelijk te omzeilen.
Je kan het natuurlijk een beetje forceren, maar dan moet je wel een 5800X3D kopen.
Die grote driver deed niet heel veel. Er waren een aantal games waar wat winst behaald werd, maar veel ook niet. Zie: https://www.techspot.com/...preview-driver-benchmark/[...]
Ik zit hier al jaren over te klagen. Het verbaasde me dan ook positief dat ze in mei via een driver update dit deels hebben aangepakt. Ik had de hoop al lang opgegeven en ik speel nog veel DX11 games dus dit was toch wel iets dat me tegenhield om een AMD GPU aan te schaffen. Ik ben nu ook niet zeker of het probleem volledig is aangepakt voor alle DX11 games want helaas gebeuren hier weinig tests over.
Het blijft gewoon staan dat AMD hun drivers niet in staat lijken te zijn om developers hun slechte optimalisaties te fixen zoals Nvidia dit wel kan. Nvidia hun scheduling zal alleen steeds meer een nadeel gaan worden omdat steeds meer games overstappen naar DX12. En ironisch genoeg is Nvidia goed bezig hiermee omdat je zonder DX12 geen RT hebt. Laatste is dat ik me al een hele tijd afvraag wanneer Nvidia teruggaat naar hardwarematige scheduling. Want ik denk niet dat dit een of vraag is, maar wanneer. Want met elke sprong in aantal ALU's, maakt Nvidia hun driveroverhead probleem groter. Ik zou echt niet verbaast zijn als het met Lovelace gebeurd. Impliceert wel dat Nvidia hun DX11 prestaties ook gaan inzakken tenzij Nvidia daar een andere truc voor weet te bedenken.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
https://www.phoronix.com/...ar-warhammer3-linux&num=1
Ik heb de oudere spellen van Piranha Bytes (Gothic 1, 2 en 3) helemaal platgespeeld. Alleen ik kan niet zeggen dat ze goed geoptimaliseerd waren of bug vrij. Goede zaak dat ze nu een DX12 versie hebben gemaakt.napata schreef op dinsdag 21 juni 2022 @ 10:44:
[...]
Dat van de CPU heeft weinig te maken met GA012 specifiek en volgens mij meer met dat de drivers bij DX12 niet meer tussenkomen bij het schedulen. Het hangt ook puur af van welke games je test. Immers de meeste games zijn nog steeds DX11 waar AMD het zeer slecht doet/deed (?) qua CPU overhead. Bij Elex 2 hebben ze een DX12 beta branch moeten lanceren omdat het onspeelbaar was op AMD GPUs. [Afbeelding]
Dit is wel de meest extreme CPU bottleneck die ik tot nu toe gezien heb.
Alle prestatiesproblemen bij God Of War bvb op AMD GPUs hadden hier ook mee te maken. Zelfs met een Zen 3 kon je niet overal 60fps krijgen. De devs hebben zelfs extra object culling ingevoerd om de CPU load te verminderen en het probleem zo veel mogelijk te omzeilen.
[...]
Ik zit hier al jaren over te klagen. Het verbaasde me dan ook positief dat ze in mei via een driver update dit deels hebben aangepakt. Ik had de hoop al lang opgegeven en ik speel nog veel DX11 games dus dit was toch wel iets dat me tegenhield om een AMD GPU aan te schaffen. Ik ben nu ook niet zeker of het probleem volledig is aangepakt voor alle DX11 games want helaas gebeuren hier weinig tests over.
Dat grotere games nog niet over zijn op Vulkan of DX12 is gewoon jammer. Ja, cpu's worden krachtiger maar DX11 heeft en zal altijd een gigantische limiet zijn als het gaat om het maken van draw calls. Een limiet die de consoles niet hebben en als je het spel dan op pc uitbrengt en je had geen problemen op de consoles dan kom je er in eens achter dat je te veel draw calls maakte.
Zoals Daniel al aangeeft,Nvidia kan in DX11 meerdere threads gebruiken voor draw call batching. AMD volgens mij maar 1. Alleen die ene thread van AMD heeft veel minder overhead dan de MT oplossing van Nvidia.
AMD kan dat ook, enkel forceren ze dat niet zoals Nvidia dat doetSp3ci3s8472 schreef op dinsdag 21 juni 2022 @ 16:48:
Zoals Daniel al aangeeft,Nvidia kan in DX11 meerdere threads gebruiken voor draw call batching. AMD volgens mij maar 1. Alleen die ene thread van AMD heeft veel minder overhead dan de MT oplossing van Nvidia.
Nvidia probeert in de driver het werk van de luie devs te fixen. AMD doet die moeite gewoon niet en verwacht dat devs dat zelf doen. Het (DX11 MT) is inmiddels meer dan 10 jaar beschikbaar, dus dat mag eigenlijk ook wel. Het zegt wat mij betreft meer over Piranha dan over AMD. Helaas zal de gemiddelde gamer enkel naar de cijfertjes kijken en zeggen dat AMD's drivers ruk zijn.
Threaded optimization kan uitgeschakeld worden in de driver instellingen.Werelds schreef op dinsdag 21 juni 2022 @ 21:09:
[...]
AMD kan dat ook, enkel forceren ze dat niet zoals Nvidia dat doet
Bij Nvidia bedoel je? Klopt. En in games die zélf fatsoenlijk multithreaden levert "off" vaak ook betere framerates opcnieuweboer schreef op dinsdag 21 juni 2022 @ 21:29:
[...]
Threaded optimization kan uitgeschakeld worden in de driver instellingen.
Standaard staat het echter op auto, wat voor moderne games meestal "on" betekent.
Het vreemde is dat de resultaten niet eens eenduidig zijn in DX12 games terwijl je dit dan wel zou verwachten op basis van je uitleg.DaniëlWW2 schreef op dinsdag 21 juni 2022 @ 11:20:
[...]
Bij AMD gebeurd het schedulen dan ook op de GPU zelf terwijl het bij Nvidia de CPU is. Immers heeft Nvidia al jarenlang geen scheduling hardware meer op hun gaming GPU's. Wat je dus krijgt is dat onder DX11, AMD videokaarten ook gevoelig zijn voor de optimalisatie van de game. Heeft de developer alles op een thread gegooid, dan gaat dat niet goed werken. Nvidia heeft in hun driver een beperkte vorm van multithreaded scheduling geïmplementeerd die taken naar andere cores kunnen delegeren. Het probleem is dat voor DX12, de oplossing van Nvidia eerder in de weg zit als onnodige overhead.
Zie ook: (het is een linkdrop, maar het legt het probleem heel erg goed uit)
[YouTube: AMD vs NV Drivers: A Brief History and Understanding Scheduling & CPU Overhead]

Er blijken zelfs verschillen te zitten afhankelijk van de CPU die je hebt: AMD doet het beter met een 12900k dan met een 5900x. Ik vermoed dat dit te maken heeft met dat de bottlenecks in een CPU verschillend kunnen zijn.

Tja, wiens schuld het is maakt eingelijk weinig uit want je zit er dan wel mee als je een AMD GPU hebt. Iets dat ik al lange geleden heb geleerd is dat je niet op devs moet vertrouwen.DaniëlWW2 schreef op dinsdag 21 juni 2022 @ 11:20:
Tja het is 720P en dit is denk ik echt een voorbeeld van een developer die zelf hun zaken niet op orde heeft. Hier kan je moeilijk AMD de schuld van geven. AMD heeft al jaren de filosofie dat ze je veelzijdige en capabele hardware geven alsmede een hoge mate van toegang om er gebruik van te maken. Maar je moet het uiteindelijk zelf doen. Nvidia hun inzet is juist meer om zaken te herordenen en zelf te optimaliseren. Je ziet dit ook al jaren terug omdat elke "trainwreck" launch, nog een beetje op Nvidia draait en voor geen ene meter op GCN. RDNA is al wat beter, maar nog steeds niet ideaal.
Je zegt dat het helaas is dat God Of War dx11 is maar als Nvidia gebruiker vind ik hier niets jammers aan. Als ik DX12 hoor dan is het eerste dat bij me op komt stotter stotter stotter. De kwalitiet van ports is echt de laatste jaren omlaag gegaan dankzij DX12. Tegenwoordig heb je geregeld beter presterende games op console dan op PC omwille van alle stotter.
De devs van GOW zijn hier eigenlijk heel eerlijk in geweest. Ze hebben letterlijk gezegd dat DX12 veel meer werk was en buiten de scope van het budget viel. Met andere woorden als ze DX12 zouden gebruiken dan zou de kwaliteit van de port veel lager liggen. Nu hebben dan enkel AMD gebruikers hier nadeel van.
Veel devs krijgen gewoon niet het budget of capaciteiten om met een low level API te werken. Ik hoop echt dat een DX13 terug meer verantwoordelijkheden legt bij AMD/Nvidia.
Als ik soms Kaldaien hoor over wat hij onder de moterkap tegenkomt in ports dan stel je je toch wel vragen over de bekwaamheid van veel devs. Een recent voorbeeld was dat bij Capcom de games elke zoveel tijd, misschien zelfs elke frame (ik kan het niet nagaan op Discord momenteel), totaal onnodig een lijst van resoluties opvraagt van het systeem. Dit gebruikt natuurlijk CPU-cycles zonder enige meerwaarde.
Ja dat zijn variaties in hoe de game gecodeerd is en hoe snel een CPU zaken kan berekenen. En een 12900K is gewoon sneller dan een 5900X. Het wordt overigens pas echt leuk als je naar de 5800X3D gaat kijken met AMD en Nvidia. Daar draaien resultaten wel eens om als je van 720P naar 1080P gaat en ook qua videokaart. Zie:napata schreef op woensdag 22 juni 2022 @ 11:03:
[...]
Het vreemde is dat de resultaten niet eens eenduidig zijn in DX12 games terwijl je dit dan wel zou verwachten op basis van je uitleg. [Afbeelding]
Er blijken zelfs verschillen te zitten afhankelijk van de CPU die je hebt: AMD doet het beter met een 12900k dan met een 5900x. Ik vermoed dat dit te maken heeft met dat de bottlenecks in een CPU verschillend kunnen zijn.
[Afbeelding]
DaniëlWW2 in "AMD Nieuwsdiscussietopic - Deel 38"
x86-64 CPU's zijn dan ook zeer complexe dingen waarbij GPU's eigenlijk maar simpele parallelle rekenclusters bij zijn. Ik ga niet eens pretenderen dat ik ze goed begrijp tot het punt dat ik je de fijne details zo kan ga uitleggen. Wat ik wel begrijp is dat voor het scenario gaming, goed genoeg het enige is waar je waarschijnlijk druk om zou moeten maken. Dat is waarom ik hier al jarenlang ageer tegen de extreem high end CPU's in BBG systemen of de constante focus op een paar procent sneller uit een selectie van benchmarks. Ik kijk altijd liever naar het bredere platform. Daarvoor ben ik meermaals uitgemaakt voor AMD fanboy, maar het punt blijft wel staan. Ik maak me dus niet zoveel zorgen over individuele games of zelfs een selectie van de titels die werkelijk iedereen test. Ik kijk eigenlijk alleen naar de inschatting dat een CPU afdoende zou moeten zijn voor de GPU.
Ik hoop het absoluut niet.[...]
Tja, wiens schuld het is maakt eingelijk weinig uit want je zit er dan wel mee als je een AMD GPU hebt. Iets dat ik al lange geleden heb geleerd is dat je niet op devs moet vertrouwen.
Je zegt dat het helaas is dat God Of War dx11 is maar als Nvidia gebruiker vind ik hier niets jammers aan. Als ik DX12 hoor dan is het eerste dat bij me op komt stotter stotter stotter. De kwalitiet van ports is echt de laatste jaren omlaag gegaan dankzij DX12. Tegenwoordig heb je geregeld beter presterende games op console dan op PC omwille van alle stotter.
De devs van GOW zijn hier eigenlijk heel eerlijk in geweest. Ze hebben letterlijk gezegd dat DX12 veel meer werk was en buiten de scope van het budget viel. Met andere woorden als ze DX12 zouden gebruiken dan zou de kwaliteit van de port veel lager liggen. Nu hebben dan enkel AMD gebruikers hier nadeel van.
Veel devs krijgen gewoon niet het budget of capaciteiten om met een low level API te werken. Ik hoop echt dat een DX13 terug meer verantwoordelijkheden legt bij AMD/Nvidia.
Als ik soms Kaldaien hoor over wat hij onder de moterkap tegenkomt in ports dan stel je je toch wel vragen over de bekwaamheid van veel devs. Een recent voorbeeld was dat bij Capcom de games elke zoveel tijd, misschien zelfs elke frame (ik kan het niet nagaan op Discord momenteel), totaal onnodig een lijst van resoluties opvraagt van het systeem. Dit gebruikt natuurlijk CPU-cycles zonder enige meerwaarde.
Want game developers zijn hier zeker niet eerlijk in als ze het alleen maar over het extra werk en kosten hebben. DX12 bestaat om game developers betere toegang te geven tot hardware zodat ze meer grafisch indrukwekkende zaken kunnen renderen zonder dat de API in de weg gaat zitten van wat ze willen bereiken. Daarvoor moeten ze wel zelf het werk erin steken.
En het optimalisatiewerk ongeacht de API, doen ze ook al voor de consoles. Zeker de XBONE en PS4 beschikten immers over zeer trage AMD Jaguar processoren met acht cores. Het was en is geen optie om maar een core te gebruiken en alles hierop te laten draaien. Het argument dat ze dit wel doen voor de PC port omdat het te veel tijd kost om het goed te doen, is dan ook een beetje belachelijk. Zeker omdat heel wat games het wel fatsoenlijk doen en zo ongeveer elke grote titel tegenwoordig met winst verkocht word.
Komt nog eens bij dat de XSX expliciet gebruik maakt van DX12 en de PS5 haar eigen low level API heeft. Ook beschikken beide consoles over een Zen 2 + RDNA2 combinatie. Het is geen optionele keuze om het niet meer te doen. Je moet het doen en de studio's die deze kennis niet zelf opbouwen, gaan onherroepelijk achterlopen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Als ik het mij goed herinner was Gears of War Ultimate (met DX12) een van de slechtste ports ooit. Dat was een controversie, dus nee in zo'n geval leg ik de schuld niet bij AMD.napata schreef op woensdag 22 juni 2022 @ 11:03:
[...]
Je zegt dat het helaas is dat God Of War dx11 is maar als Nvidia gebruiker vind ik hier niets jammers aan. Als ik DX12 hoor dan is het eerste dat bij me op komt stotter stotter stotter. De kwalitiet van ports is echt de laatste jaren omlaag gegaan dankzij DX12. Tegenwoordig heb je geregeld beter presterende games op console dan op PC omwille van alle stotter.
De devs van GOW zijn hier eigenlijk heel eerlijk in geweest. Ze hebben letterlijk gezegd dat DX12 veel meer werk was en buiten de scope van het budget viel. Met andere woorden als ze DX12 zouden gebruiken dan zou de kwaliteit van de port veel lager liggen. Nu hebben dan enkel AMD gebruikers hier nadeel van.
Nogal triest omdat het ook door Xbox Game Studios is gepublished en je mag toch wel verwachten dat MS in staat is om een goede port te maken op hun nieuwe API. Bijvoorbeeld door extra hulp aan de studio te geven.
Die moderne API's kunnen veel meer uit de hardware halen en ik hoop dan ook dat ze niet meer terug gaan naar DX11 vergelijkbare API's.
Volgens mij gebruikt Proton nu Vulkan eigenlijk altijd als backend. Als die mensen het kunnen dan moet een (grotere) game studio het ook kunnen tegenwoordig.
Wat details en speculatie details staan verder uitgetypt.
We hebben:
-De problemen met node scaling en oplopende vermogenswaarden omdat ze simpelweg tegen natuurwetten aan het lopen zijn.
-Bevestiging dat het inderdaad chiplet based is en niet bijvoorbeeld HBM. Wat horen we uiteraard niet.
-Toms Hardware lijkt te neigen naar verschillende GPU chiplets en meer richting hoe het met Zen 2/3 werkt, maar precies weten ze het ook niet.
-Bij AMD lijken ze ook te werken aan verbeteringen van de L3 cache implementatie van RDNA2.

https://www.tomshardware....terview-amd-sam-naffziger
[ Voor 5% gewijzigd door DaniëlWW2 op 24-06-2022 00:13 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
'In conclusion, it has to be said that AMD has really managed a gigantic step with FSR 2.0. Definitely also bigger than the step from DLSS 1.0 to DLSS 2.0, although to be fair it has to be said that DLSS has really worked better than FSR for the most part so far. However, considering the fact that AMD’s technology is purely software-based and can therefore even be used by older (non-RTX) GeForce GPUs, the complicated DLSS technology soberly loses some of its shine. FSR 2.0 still delivers about 20% more FPS than native resolution with very good image quality, does not require any special hardware and is probably much easier to implement according to some game developers. All arguments that could lead to FSR outranking DLSS sooner or later.'
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Mijn voorspelling daar was vrij pessimistisch, als ondergrens bedoeld. Ik denk dat ze de klokfrequentie van de GA104 zullen verhogen om weer rond de 225W uit te komen, met meer performance dan een 3070, en ongeveer dezelfde prijs (hopelijk). Hoeveel meer? Dat durf ik niet te zeggen op voorhand. AD106 zou best eens op 3070 niveau uit kunnen komen.Dennism schreef op maandag 20 juni 2022 @ 14:22:
[...]
Dat zou me erg sterk lijken, immers GA104 voorziet al in 3070 performance bij een TBP van 220W, als AD104 dan 3070 performance zou leveren bij 225-250W zou dat een verslechtering zijn t.o.v. GA104, niet heel erg logisch.
AD106 zou m.i. RTX3070 performance of beter moeten gaan leveren bij een TBP van flink minder dan 220W, terwijl AD104 mijn inziens minimaal RTX3080 performance gaat leveren, en dat zou dan inderdaad ergens in jouw range qua verbruik moeten zijn, anders zou de vooruitgang qua efficiëntie tegen vallen.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
https://videocardz.com/ne...-4-and-5-is-now-available
Interessanter is dit. Iemand heeft FSR2.0 in Cyberpunk gemod door een paar DLL bestanden voor DLSS te vervangen. Het lijkt zeer provisorisch te zijn, maar het werkt wel.
https://www.nexusmods.com...mods/3001?tab=description
[ Voor 8% gewijzigd door DaniëlWW2 op 25-06-2022 12:59 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Nog interessanter is dat dit blijkbaar waarschijnlijk voor elk spel met DLSS kan (althans volgens de modder). Als dit een beetje goed werkbaar wordt dan is dit super.DaniëlWW2 schreef op zaterdag 25 juni 2022 @ 12:57:
FSR2.0 heeft zo te zien hun plugin voor UE4 en UE5.
https://videocardz.com/ne...-4-and-5-is-now-available
Interessanter is dit. Iemand heeft FSR2.0 in Cyberpunk gemod door een paar DLL bestanden voor DLSS te vervangen. Het lijkt zeer provisorisch te zijn, maar het werkt wel.
https://www.nexusmods.com...mods/3001?tab=description
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.