Never argue with an idiot. He will drag you down to his own level and beat you with experience.
edit: Dag later en ik denk dat dit alleen mobiele GPUs zijn. Want anders krijg je echt hele rare dingen zoals de RX7700 series die langzamer zijn dan de RX6700 series en maar 8GB hebben.
https://www.phoronix.com/news/GPUOpen-RX-7600-7700
https://github.com/GPUOpe...alyzer/releases/tag/2.7.1
Beiden worden beschreven als de gfx1102 architecture. Tja, dat is Navi 33 en niet Navi 32...
{11, 0, 0, Pal::GfxIpLevel::GfxIp11_0, "gfx1100", Pal::AsicRevision::Navi31},
{11, 0, 1, Pal::GfxIpLevel::GfxIp11_0, "gfx1101", Pal::AsicRevision::Navi32},
{11, 0, 2, Pal::GfxIpLevel::GfxIp11_0, "gfx1102", Pal::AsicRevision::Navi33},
{11, 0, 3, Pal::GfxIpLevel::GfxIp11_0, "gfx1103", Pal::AsicRevision::Phoenix1},
PHX2 confirmed by AMD finally 🙂https://t.co/KNZynFEhhG pic.twitter.com/V753LiXobN
— Kepler (@Kepler_L2) 26 april 2023
[ Voor 17% gewijzigd door DaniëlWW2 op 28-04-2023 10:43 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Waarom zou je het dichter bij elkaar verwachten? Beide drivers doen het anders en Nvidia heeft zoals al heel lang bekend is een gigantische driver overhead. Nvidia had met DX11 een groot voordeel doordat ze met de driver betere MT hadden ten koste van meer overhead. Met de nieuwere api's is dat voordeel weg en heeft AMD het voordeel doordat de overhead veel lager is.Koldur schreef op donderdag 27 april 2023 @ 19:42:
De reden dat ik het aannemelijker vind dat er iets anders aan de hand is, in beide gevallen, is dat erg groot verschil is met de AMD CPU belasting tegenover de Nvidia. Als het dan een CPU bottleneck is, zou ik die wel meer bij elkaar verwachten. Maar nogmaals, we gaan het zien.
Deze uitleg is wel iets te simplistisch, maar je kan ver genoeg terug gaan in het topic voor een gedetaileerde uitleg.
Wat enigzins leuk is om te zien, ik zit nu een tijdje op Linux en heb behoorlijk wat onderzoek gedaan voor gamen op Linux voordat ik de stap maakte (want naast werken wil ik ook wel wat gamen). Zo'n beetje elk DX11 spel op Linux draait sneller met een AMD kaart vergeleken met Windows doordat de DXVK laag wel meerdere threads gebruikt ipv de DX11 driver van AMD. Je moet in zo'n geval wel eerst een cpu bottleneck hebben, anders zijn de games gewoon door de gpu gelimiteerd.
Dit geldt overigens ook voor DX9 en DX10 spellen, hoewel de kans dat je daar een cpu bottleneck hebt nogal klein is
Moet nog steeds wachten op mijn kast voordat ik echt met mijn Linux bak aan de gang kan gaan. De kartonnen doos doet het geen eer aan
Wat ik eerder verkeerd zag, is dat bij de 7900XTX op 4K is en de 4090 op 1440p. Ik geloof echt wel dat er een verschil in het voordeel van de 7900XTX kan zijn, maar dit verschil is zo groot dat er echt iets niet klopt.Sp3ci3s8472 schreef op vrijdag 28 april 2023 @ 01:45:
[...]
Waarom zou je het dichter bij elkaar verwachten? Beide drivers doen het anders en Nvidia heeft zoals al heel lang bekend is een gigantische driver overhead. Nvidia had met DX11 een groot voordeel doordat ze met de driver betere MT hadden ten koste van meer overhead. Met de nieuwere api's is dat voordeel weg en heeft AMD het voordeel doordat de overhead veel lager is.
Deze uitleg is wel iets te simplistisch, maar je kan ver genoeg terug gaan in het topic voor een gedetaileerde uitleg.
Wat enigzins leuk is om te zien, ik zit nu een tijdje op Linux en heb behoorlijk wat onderzoek gedaan voor gamen op Linux voordat ik de stap maakte (want naast werken wil ik ook wel wat gamen). Zo'n beetje elk DX11 spel op Linux draait sneller met een AMD kaart vergeleken met Windows doordat de DXVK laag wel meerdere threads gebruikt ipv de DX11 driver van AMD. Je moet in zo'n geval wel eerst een cpu bottleneck hebben, anders zijn de games gewoon door de gpu gelimiteerd.
Dit geldt overigens ook voor DX9 en DX10 spellen, hoewel de kans dat je daar een cpu bottleneck hebt nogal klein is.
Moet nog steeds wachten op mijn kast voordat ik echt met mijn Linux bak aan de gang kan gaan. De kartonnen doos doet het geen eer aan.
Ik durf te stellen dat de 4090 maximaal 10% trager zou kunnen zijn in als in het geval van de 7900XTX, maar verwacht dat het een stuk minder zal zijn.
Als dat na fixes (als het bij de officiële release nog steeds zo'n groot verschil is) vanuit Nvidia en/of EA nog steeds niet zo is, dan mag je mij dit quoten en zal ik volledig toegeven dat ik het verkeerd had.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Ik begrijp dat je shtick is Nvidia zo negatief als mogelijk neer te zetten maar dan vind ik echt niet dat deze game een goed voorbeeld is om aan te halen want het is gewoon een afgrijselijke port. De game draait wel degelijk heel slecht op elke GPU die er maar is, inclusief de 7900xtx, want tot op een zeker niveau is de GPU min of meer irrelevant. Iedereen loopt immers tegen een CPU bottleneck aan.DaniëlWW2 schreef op donderdag 27 april 2023 @ 20:37:
[...]
De game draait niet slecht op beide kaarten, alleen op die van Nvidia. Want de RX7900XTX loopt nu zelfs op 4K met RT weg in die vergelijking. 1440p kan gebeuren, 4K met RT is een dingetje.
[...]
Omdat menig reviewer er niks van begrijpt. Zo begon mijn punt ook van morgen. Er liepen er weer een aantal te klagen dat het spel niet draaide en toen kwam er iemand met een RTX7900XTX met 7700X die nergens last van had.
Je claimt dan dat die persooon met z'n 7700x nergens last van had maar ik heb meerdere posts gezien van hem en hij zei dat hij verschrikkelijke performance had ondanks z'n hardware. Hij had dus wel degelijk een hoop prestatieproblemen en kon geen 60fps halen. Dat is dan met 1 van de beste CPUs die er zijn.
De screenshot die je liet zien toont een scene met <60fps waar eigenlijk niets gebeurt dat de CPU zou moeten belasten. Je kan dan al inschatten dat in drukkere scenes je nog veel lagere prestaties gaat krijgen en inderdaad als je de indrukken leest van mensen met gelijkaardige hardware dan lijkt dit te kloppen:
Er is waarschijnlijk geen CPU in de wereld die boven de 60 blijft als zelfs een 5800x3D al moeite heeft en ver van de 60 zit. Om het dan om te draaien: een 7900xtx kan geen 60fps halen op 720p FSR performance. In de huidige staat van de game zullen we nog 2-4 jaar mogen wachten tot we betere CPUs kunnen kopen.traversal stutters 😅
Getting around 40-50fps in the more open section of coruscant in the beginning. With FSR on quality and RT on at 1440p UW on my 5800x3d/7900XTX setup. Utilisation is definitely on the funny side. GPU sits around 60-70% in game and CPU around 30%
Dat de overhead waarschijnlijk minder is bij AMD is in dergelijke gevallen natuurlijk een voordeel maar voor mij is dit spel onspeelbaar op elke GPU dus gewoon een slecht voorbeeld om een argument rond te bouwen.
Als dit de toekomst is dan is de discussie van AMD vs Nvidia onzinnig en kan je je beter de vraag stellen waarom je in godsnaam een gaming PC koopt in de eerste plaats. Je betaalt een hoop geld en je krijgt eigenlijk geen betere prestaties dan een console die een fractie van de prijs kost.
Voor nu neig ik ernaar dat het qua CPU optimalisatie behoorlijk slecht is en het effect versterkt lijkt te worden met bepaalde CPU + Nvidia GPU combinaties. VRAM lijkt daar nog een extra factor in te kunnen zijn. Ook vermoed ik dat er VRAM lekken lijken op te treden waardoor allocaties maar blijven oplopen.
7800X3D + RTX4090 op 4K met RT in zo iet zien niet eens de meest complexe of uitdagende scene.
Begint al met een bug dat RT pas enabled lijkt te worden nadat je het eerst uit en daarna aanzet.
Zet je RT echt aan, dan zit je hier rond de 55 fps. Met FSR2 uit zit de GPU rond de 80%, met FSR2 op performance zit je rond de 45%.
Dan zonder RT of FSR2 zit je rond de 70fps en zit de GPU wel bij de 100%. Je kan de RTX4090 dus naar de 100% krijgen, met de snelste gaming CPU die er nu is, op 4K.
Met FSR2 op performance loopt de GPU terug naar net onder de 50% en framerate boven de 80.
Alles low met FSR2 performance laat de GPU utilisatie richting de 40% zakken en framerate zit nu rond de 90fos.
Verder zou veel van de game ongeveer dit zijn, of erger.
Dat is een vrij brute CPU bottleneck. Maar de vraag is wat een AMD GPU gaat doen in deze scene. Dan met name met instellingen anders dan maximale settings, FSR2 en RT uit.
[ Voor 22% gewijzigd door DaniëlWW2 op 28-04-2023 13:52 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Op dit moment wordt de gaming pc markt eigenlijk gewoon stuk gemaakt. Je betaalt meer en krijgt dan grote VRAM bottlenecks en andere problemen op de koop toe, tenzij je vele malen de prijs van een console uitgeeft.napata schreef op vrijdag 28 april 2023 @ 09:22:
[...]
Als dit de toekomst is dan is de discussie van AMD vs Nvidia onzinnig en kan je je beter de vraag stellen waarom je in godsnaam een gaming PC koopt in de eerste plaats. Je betaalt een hoop geld en je krijgt eigenlijk geen betere prestaties dan een console die een fractie van de prijs kost.
Eigenlijk kan alleen AMD de boel nu nog een beetje redden. Met zoiets:
7800 XT = N32 16 GB of N31 20 GB
7700 XT = N32 16 GB
7650 XT = N33 12/16 GB clamshell of N32 16 GB (die laatste zouden ze dan ook de 7700 non-XT kunnen noemen)
7600 XT = N33 8 GB of N33 12/16 GB clamshell
7600 = N33 8 GB
En dan met aggressieve prijzen. Dan kan de marketing van AMD vol inzetten op het extra geheugen en heeft AMD zijn killer feature. Want stel dat AMD ongeveer even veel vraagt voor een 12/16 GB kaart die minimaal even snel is in raster als Nvidia vraagt voor de 4060 8 GB. Wie koopt er dan een 4060 behalve totale fanboys?
En als je dan voor $450-$500 een kaart kunt kopen die even snel is als de 4070, maar 16 GB heeft, dan wordt dat ook heel aantrekkelijk.
[ Voor 7% gewijzigd door Ludewig op 28-04-2023 10:52 ]
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason

Ze lijken content te zijn om Nvidia een beetje te volgen, net iets goedkoper te zijn, wat meer VRAM omdat AMD zelden de 192 bit bus gebruikt voor hun producten en dat is het. Betekent niet dat N32 niet een erg goed product kan zijn. Immers neig ik er steeds meer naar dat die wel 3GHz kan halen, met een TDP van 250W+, waarmee je op 23TFOPS komt = RX6900XT match. Daarbij vermoed ik dat AMD hier ook 20Gbps GDDR6 mee zal leveren, winst over de 16Gbps van de RX6900XT en 18Gbps van de RX6950XT. Ga je dus van 512GB/s of 576GB/s naar 640GB/s. Bij een match met de RX6950XT zit je 15% van de RX7900XT af. 5% beter en dan zit je bij de RTX4070Ti.
Voor mij is de vraag alleen wat ze ervoor durven te vragen. Ooit, toen er nog reden was om te denken dat AMD deze generatie zelfs ging winnen, stelde ik max $1000 voor N31 en max $600 voor N32. Maar met de behoorlijk verslechterde markt en de tegenvallende prestaties van RDNA3, betwijfel ik op zijn zachts of N32 als een directe RX6950XT vervanger wel $600 mag kosten. Iets waar ik wel een beetje vanuit ga. Ook al is N32 iets sneller dan de RTX4070 in rasterisation. Want ik vermoed ook dat het verbruik ook wel eens een stuk hoger kan liggen dan de 200W TDP van de RTX4070.
De grap is dat vrijwel iedereen met name de RTX4080 en RTX4070 verafschuwt, maar ik het eigenlijk best goede producten vind. Uiteraard op technische gronden want de prijzen zijn volstrekt belachelijk, maar die twee zijn denk ik zo slecht niet.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Maar als het een 4070-concurrent wordt, dan moet de prijs wel lager.
De 4070 heeft wat mij betreft twee grote zwakke punten. De VRAM en de prijs. Al is de VRAM minder een probleem als de prijs lager is.
Ik denk zelf dat Nvidia of de prijs moet verlagen, of de 4070 moet vervangen door een snellere 4070 Super om de kaart wel goed te verkopen.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Ja wat betreft een hoop geld betalen: ik overweeg zelf een RTX 4080 te kopen, maar voel me dan net als Bitwit:napata schreef op vrijdag 28 april 2023 @ 09:22:
[...]
Ik begrijp dat je shtick is Nvidia zo negatief als mogelijk neer te zetten maar dan vind ik echt niet dat deze game een goed voorbeeld is om aan te halen want het is gewoon een afgrijselijke port. De game draait wel degelijk heel slecht op elke GPU die er maar is, inclusief de 7900xtx, want tot op een zeker niveau is de GPU min of meer irrelevant. Iedereen loopt immers tegen een CPU bottleneck aan.
Je claimt dan dat die persooon met z'n 7700x nergens last van had maar ik heb meerdere posts gezien van hem en hij zei dat hij verschrikkelijke performance had ondanks z'n hardware. Hij had dus wel degelijk een hoop prestatieproblemen en kon geen 60fps halen. Dat is dan met 1 van de beste CPUs die er zijn.
De screenshot die je liet zien toont een scene met <60fps waar eigenlijk niets gebeurt dat de CPU zou moeten belasten. Je kan dan al inschatten dat in drukkere scenes je nog veel lagere prestaties gaat krijgen en inderdaad als je de indrukken leest van mensen met gelijkaardige hardware dan lijkt dit te kloppen:
[...]
Er is waarschijnlijk geen CPU in de wereld die boven de 60 blijft als zelfs een 5800x3D al moeite heeft en ver van de 60 zit. Om het dan om te draaien: een 7900xtx kan geen 60fps halen op 720p FSR performance. In de huidige staat van de game zullen we nog 2-4 jaar mogen wachten tot we betere CPUs kunnen kopen.
Dat de overhead waarschijnlijk minder is bij AMD is in dergelijke gevallen natuurlijk een voordeel maar voor mij is dit spel onspeelbaar op elke GPU dus gewoon een slecht voorbeeld om een argument rond te bouwen.
Als dit de toekomst is dan is de discussie van AMD vs Nvidia onzinnig en kan je je beter de vraag stellen waarom je in godsnaam een gaming PC koopt in de eerste plaats. Je betaalt een hoop geld en je krijgt eigenlijk geen betere prestaties dan een console die een fractie van de prijs kost.
:fill(white):gifsicle():strip_exif()/f/image/TGfRJrS1xe4lcRvJzijjtBjk.gif?f=user_large)

Meer inhoudelijk: De driver overhead zal bij een nieuwe CPU en GPU niet direct een rol spelen tenzij het spel zeer slecht geoptimaliseerd is. Maar bij een nieuwe GPU met een oudere CPU zal een AMD Radeon door overhead wel degelijk een betere koop zijn.
(originele Bitwit video: YouTube: Never-Before-Seen RTX 4080 STARTER PACK! What Was Nvidia THINKING? )
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Niet bepaald hoge kwaliteit en de analyse is nietszeggend, maar de data zegt voor mij al genoeg.
7900X + RTX4090 vs. 5800X3D + RX7900XTX op 4K met RT en FSR2. En ja hoor, de RX7900XTX wint zo te zien met een paar tot wel meer dan tien frames, is zeker stabieler en haalt wel vrij systematisch 90%+ GPU utilisatie.
Precies wat ik dus al vermoedde. AMD haar superieure hardware scheduler, breekt door de brakke CPU optimalisatie heen waardoor je het net trekt. De game is nog steeds een puinzooi op veel vlakken, maar toch.
Dat het een EA product is, moge duidelijk zijn. Maar de pijn zit dus niet alleen in hoe deze game is gelanceerd. Nee dit is ook zeker een probleem van Nvidia hun achterhaalde scheduling systematiek die zeker met de RTX4090, elke CPU verstikt in deze game waarmee de ervaring zo onstabiel word.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Inmiddels heeft EA toegegeven dat Jedi Survivor in slechte staat verkeert. Ergens ben ik verbaasd omdat Fallen Order wel een goede lancering kende in 2019.napata schreef op vrijdag 28 april 2023 @ 09:22:
[...]
Ik begrijp dat je shtick is Nvidia zo negatief als mogelijk neer te zetten maar dan vind ik echt niet dat deze game een goed voorbeeld is om aan te halen want het is gewoon een afgrijselijke port. De game draait wel degelijk heel slecht op elke GPU die er maar is, inclusief de 7900xtx, want tot op een zeker niveau is de GPU min of meer irrelevant. Iedereen loopt immers tegen een CPU bottleneck aan.
Je claimt dan dat die persooon met z'n 7700x nergens last van had maar ik heb meerdere posts gezien van hem en hij zei dat hij verschrikkelijke performance had ondanks z'n hardware. Hij had dus wel degelijk een hoop prestatieproblemen en kon geen 60fps halen. Dat is dan met 1 van de beste CPUs die er zijn.
De screenshot die je liet zien toont een scene met <60fps waar eigenlijk niets gebeurt dat de CPU zou moeten belasten. Je kan dan al inschatten dat in drukkere scenes je nog veel lagere prestaties gaat krijgen en inderdaad als je de indrukken leest van mensen met gelijkaardige hardware dan lijkt dit te kloppen:
[...]
Er is waarschijnlijk geen CPU in de wereld die boven de 60 blijft als zelfs een 5800x3D al moeite heeft en ver van de 60 zit. Om het dan om te draaien: een 7900xtx kan geen 60fps halen op 720p FSR performance. In de huidige staat van de game zullen we nog 2-4 jaar mogen wachten tot we betere CPUs kunnen kopen.
Dat de overhead waarschijnlijk minder is bij AMD is in dergelijke gevallen natuurlijk een voordeel maar voor mij is dit spel onspeelbaar op elke GPU dus gewoon een slecht voorbeeld om een argument rond te bouwen.
Als dit de toekomst is dan is de discussie van AMD vs Nvidia onzinnig en kan je je beter de vraag stellen waarom je in godsnaam een gaming PC koopt in de eerste plaats. Je betaalt een hoop geld en je krijgt eigenlijk geen betere prestaties dan een console die een fractie van de prijs kost.
Ik denk dat we gewoon enkele patches moeten afwachten, zeker voor high-end hardware verwacht ik nog verbeteringen.
https://www.techpowerup.c...rformance-analysis/4.htmlDaniëlWW2 schreef op zondag 30 april 2023 @ 21:17:
Ik had de hoop al bijna opgegeven op een vergelijking, maar daar is die dan.![]()
Niet bepaald hoge kwaliteit en de analyse is nietszeggend, maar de data zegt voor mij al genoeg.
7900X + RTX4090 vs. 5800X3D + RX7900XTX op 4K met RT en FSR2. En ja hoor, de RX7900XTX wint zo te zien met een paar tot wel meer dan tien frames, is zeker stabieler en haalt wel vrij systematisch 90%+ GPU utilisatie.
Precies wat ik dus al vermoedde. AMD haar superieure hardware scheduler, breekt door de brakke CPU optimalisatie heen waardoor je het net trekt. De game is nog steeds een puinzooi op veel vlakken, maar toch.
Dat het een EA product is, moge duidelijk zijn. Maar de pijn zit dus niet alleen in hoe deze game is gelanceerd. Nee dit is ook zeker een probleem van Nvidia hun achterhaalde scheduling systematiek die zeker met de RTX4090, elke CPU verstikt in deze game waarmee de ervaring zo onstabiel word.
[YouTube: Jedi Survivor 7900 XTX vs RTX 4090 | Jedi Survivor Radeon 7900 XTX + 5800X3D Benchmark | 7900 XTX]
Dit geeft toch een heel ander beeld met goede onderbouwing. Dan nog, is het verschil niet heel groot, maar is er wel. Alleen op 1080p is de 7900XTX de betere.
Ja, de Nvidia is meer CPU demanding, maar niet meer dan hiervoor al bekend was in andere gevallen/games.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Bij digital foundry viel het wel mee:DaniëlWW2 schreef op zondag 30 april 2023 @ 21:17:
Ik had de hoop al bijna opgegeven op een vergelijking, maar daar is die dan.![]()
Niet bepaald hoge kwaliteit en de analyse is nietszeggend, maar de data zegt voor mij al genoeg.
7900X + RTX4090 vs. 5800X3D + RX7900XTX op 4K met RT en FSR2. En ja hoor, de RX7900XTX wint zo te zien met een paar tot wel meer dan tien frames, is zeker stabieler en haalt wel vrij systematisch 90%+ GPU utilisatie.
Precies wat ik dus al vermoedde. AMD haar superieure hardware scheduler, breekt door de brakke CPU optimalisatie heen waardoor je het net trekt. De game is nog steeds een puinzooi op veel vlakken, maar toch.
Dat het een EA product is, moge duidelijk zijn. Maar de pijn zit dus niet alleen in hoe deze game is gelanceerd. Nee dit is ook zeker een probleem van Nvidia hun achterhaalde scheduling systematiek die zeker met de RTX4090, elke CPU verstikt in deze game waarmee de ervaring zo onstabiel word.
[YouTube: Jedi Survivor 7900 XTX vs RTX 4090 | Jedi Survivor Radeon 7900 XTX + 5800X3D Benchmark | 7900 XTX]
YouTube: Star Wars Jedi Survivor PC Review: The Worst Triple-A PC Port of 202...
Mechwarrior Online: Flapdrol
Ze nemen daar wel een vreemde combi van 3600 + RTX3080 / RX6800XT. Maargoed het is dan ook DigitalFoundry.. Ik denk niet dat de 3600 een flinke bottleneck vormt op 1440phaarbal schreef op zondag 30 april 2023 @ 23:07:
[...]
Bij digital foundry viel het wel mee:
YouTube: Star Wars Jedi Survivor PC Review: The Worst Triple-A PC Port of 202...
Doe het dan goed en neem een 13900k met een 7900XTX / 4090FE, zoals Techpowerup het heeft gedaan.
Toevalligerwijs ben ik nu tegen een vergelijkbaar probleem aangelopen, maar dan met WoW - Dragonflight.DaniëlWW2 schreef op zondag 30 april 2023 @ 21:17:
Ik had de hoop al bijna opgegeven op een vergelijking, maar daar is die dan.![]()
Niet bepaald hoge kwaliteit en de analyse is nietszeggend, maar de data zegt voor mij al genoeg.
7900X + RTX4090 vs. 5800X3D + RX7900XTX op 4K met RT en FSR2. En ja hoor, de RX7900XTX wint zo te zien met een paar tot wel meer dan tien frames, is zeker stabieler en haalt wel vrij systematisch 90%+ GPU utilisatie.
Precies wat ik dus al vermoedde. AMD haar superieure hardware scheduler, breekt door de brakke CPU optimalisatie heen waardoor je het net trekt. De game is nog steeds een puinzooi op veel vlakken, maar toch.
Dat het een EA product is, moge duidelijk zijn. Maar de pijn zit dus niet alleen in hoe deze game is gelanceerd. Nee dit is ook zeker een probleem van Nvidia hun achterhaalde scheduling systematiek die zeker met de RTX4090, elke CPU verstikt in deze game waarmee de ervaring zo onstabiel word.
[YouTube: Jedi Survivor 7900 XTX vs RTX 4090 | Jedi Survivor Radeon 7900 XTX + 5800X3D Benchmark | 7900 XTX]
Mijn hoofdpc met een 5800X3D + RX6900XT doet op 3440x1440 resolutie met de hoogste instellingen avg. 70 fps in Valdrakken, terwijl een testpc met een 5800X + 4090FE daar een avg. van 50 fps haalt.
Dat is een 70/50 = 40% verschil (35% als je de 4090FE het voordeel geeft).
Dat is niet alleen te verklaren door het verschil in CPU snelheid

Op die plek is er sprake van een klassieke cpu thread bottleneck, waarbij hoofdzakelijk 4 cores belast worden, waarvan 1 core dan de volle mep krijgt.
Ik had er helemaal niet bij stil gestaan dat Nvidia een deel van de scheduling door de cpu laat afhandelen.
En dat ik daar met een UW resolutie flink last van kan hebben.
Een 7800X3D is gemiddeld +20% sneller dan een 5800X3D, dus daarmee verwacht ik geen sneller systeem te hebben..het komt er op neer dat ik heel hard moet nadenken of ik de 4090FE houd, want ik speel hoofdzakelijk WoW.
De gpu's komen daar amper boven de 50% load uit dus ik denk het wel.CMT schreef op zondag 30 april 2023 @ 23:41:
Ze nemen daar wel een vreemde combi van 3600 + RTX3080 / RX6800XT. Maargoed het is dan ook DigitalFoundry.. Ik denk niet dat de 3600 een flinke bottleneck vormt op 1440p
Mechwarrior Online: Flapdrol
Tja ik weet niet of ik nu zo gelukkig word van de 3600 nemen in een game die enorme CPU load issues vertoont. Uiteindelijk mis je hiermee zowel cores (gunstiger voor AMD) als single core frequentie en rekenkracht (gunstig voor Nvidia). Nu heb je een beetje een test van niks van twee al wat oudere videokaarten die toch al grotendeels gelijkwaardig zijn en ook zo presteren. Want ze worden nu beiden tegen een CPU beperking aangedrukt. Neem dan een 3700X of nog liever een 5800X3D. Idem voor RX6800XT en RTX3080. Ik zou liever bijvoorbeeld een RX7900XT en RTX3090Ti zien. Die zijn al wat moeilijker te voorzien, met name de RTX3090Ti omdat die zoveel breder is qua opzet.haarbal schreef op zondag 30 april 2023 @ 23:07:
[...]
Bij digital foundry viel het wel mee:
YouTube: Star Wars Jedi Survivor PC Review: The Worst Triple-A PC Port of 202...
Tja ik zit al sinds Turing te wachten op dit moment. Want dat het ging komen, was me wel duidelijk.CMT schreef op zondag 30 april 2023 @ 23:41:
Toevalligerwijs ben ik nu tegen een vergelijkbaar probleem aangelopen, maar dan met WoW - Dragonflight.
Mijn hoofdpc met een 5800X3D + RX6900XT doet op 3440x1440 resolutie met de hoogste instellingen avg. 70 fps in Valdrakken, terwijl een testpc met een 5800X + 4090FE daar een avg. van 50 fps haalt.
Dat is een 70/50 = 40% verschil (35% als je de 4090FE het voordeel geeft).
Dat is niet alleen te verklaren door het verschil in CPU snelheid.
Op die plek is er sprake van een klassieke cpu thread bottleneck, waarbij hoofdzakelijk 4 cores belast worden, waarvan 1 core dan de volle mep krijgt.
Ik had er helemaal niet bij stil gestaan dat Nvidia een deel van de scheduling door de cpu laat afhandelen.
En dat ik daar met een UW resolutie flink last van kan hebben.
Een 7800X3D is gemiddeld +20% sneller dan een 5800X3D, dus daarmee verwacht ik geen sneller systeem te hebben..het komt er op neer dat ik heel hard moet nadenken of ik de 4090FE houd, want ik speel hoofdzakelijk WoW.

Ik snap ook niet waarom Nvidia het deze generatie niet heeft aangepakt. Ze zijn zo afhankelijk van single thread CPU verbeteringen om bij te blijven. En die groeien helemaal niet zo snel. Dat is al een paar jaar een doodlopend pad. Verder is Nvidia hier eigenlijk ook eens door AMD eruit gemanoeuvreerd. Het begon uiteindelijk allemaal met Mantle. Maar nu tussen DX12 en Vulkan heb je twee dominante gaming oriented API's die min of meer een hardware scheduling eisen omdat ze makkelijk met 8c/16t om kunnen gaan voor draw calls. Dit proces forceren met een master thread zoals Nvidia nog steeds lijkt te doen, is botweg inefficient en gaat alleen maar voor meer problemen zorgen.
Nu ging de RTX2080Ti wel aardig omdat een 8700K een mooie match was. Maar bij GA102 begon het al op 1440p. Er waren altijd al die games waar de RTX3080 net niet meekwam met de RX6800XT. RTX3090 had die problemen al meer. De nieuwste CPU's lijken ervoor te zorgen dat de RTX4080 (buiten de belachelijke prijs ben ik stiekem best gecharmeerd van de RTX4080) ook nog goed werkt, maar de RTX4090 zit wel echt op de limiet. Ik blijf erbij dat 68% meer SM's totaal niet tot hun recht komen. Dat ding vraagt zowat om een 7800X3D als minimale standaard. En zelfs dan ben je nog afhankelijk van de game. Tja, WoW daar ben je denk ik kansloos. De 7800X3D doet waarschijnlijk nog wat, maar of je dit gat dichttrekt durf ik je gewoon niet te zeggen.

Ergens is het ook wel typerend. De laatste tijd hoor ik nog wel eens gemopper dat AMD een "killer feature" mist om mensen over de streep te trekken. Tja die hebben ze gewoon, maar bijna niemand die het snapt. Dit is hun killer feature. Hun GPU's werken gewoon met mindere CPU's en/of mindere optimalisatie van de game. Uiteraard falen ze in de marketing hiervan.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
De cpu beperking is toch de bedoeling van de test? Om te kijken hoeveel het scheelt in zo'n geval?DaniëlWW2 schreef op maandag 1 mei 2023 @ 09:00:
Tja ik weet niet of ik nu zo gelukkig word van de 3600 nemen in een game die enorme CPU load issues vertoont. Uiteindelijk mis je hiermee zowel cores (gunstiger voor AMD) als single core frequentie en rekenkracht (gunstig voor Nvidia). Nu heb je een beetje een test van niks van twee al wat oudere videokaarten die toch al grotendeels gelijkwaardig zijn en ook zo presteren. Want ze worden nu beiden tegen een CPU beperking aangedrukt.
Mechwarrior Online: Flapdrol
Misschien van DF, maar ik vind het vrij zinloos.haarbal schreef op maandag 1 mei 2023 @ 09:12:
[...]
De cpu beperking is toch de bedoeling van de test? Om te kijken hoeveel het scheelt in zo'n geval?
Ik weet wel dat de game brak is qua CPU optimalisatie. Ik wil zien waar de breekpunten liggen en wat de verschillen tussen AMD en Nvidia zijn. Want het moge inmiddels bekend zijn dat AMD gewoon minder problemen heeft.
Het gaat me er uiteindelijk ook helemaal niet om AMD de hemel in te prijzen en Nvidia af te branden rond deze brakke EA vertoning. Ik heb nota bene de afgelopen tien jaar maar twee EA game gekocht. BF5 nadat die zeer snel in prijs was gedaald en Jedi Fallen Order voor een paar euro. Ik vermijd het bedrijf verder omdat ik gewoon weet dat het meestal een puinzooi zal zijn.
Het gaat mij erom dat ik het zo'n mooie en interessante test case vind waar je die verschillen echt kan zien en uitvergroten. Maar ik lijk dat helaas vooral zelf te vinden en beseffen. Daarbij speelt ook een persoonlijke irritatie dat er de laatste tijd alleen maar word geroepen dat elke nieuwe game brak is. Deze game is brak, Last of Us was brak, maar er waren ook gewoon erg goede games die hardware vereisten hadden waar met name veel Nvidia videokaarten niet tegenop kunnen. En die nuance gaat ook verloren. Uiteindelijk ben ik vooral "team consument". Het kan me niet zoveel schelen wie wat doet. Ik wil vooral dat het duidelijk gemaakt word voor consumenten zodat ze betere aankoopbeslissingen kunnen maken. Mijn vaak negatieve houding naar Nvidia komt daar ook uit. Ze zijn vaak gewoon nog erger dan AMD soms al is. En AMD heeft de laatste tijd ook nogal wat dingen uitgehaald.

Bijvoorbeeld stel dat de RX7900XTX en RTX4080 beiden rond een meer redelijke €800 zouden zitten. Tja, ik neig erna om dan de RTX4080 de voorkeur te geven omdat ik denk dat het totaalpakket nu beter is. Maar bijvoorbeeld een €650 kostende RX7900XT vs. RTX4070Ti zou ik eerder de RX7900XT overwegen. Ook neig ik eigenlijk nu meer naar de RTX4070 (mits de prijs rond de €500 zou zijn) dan de RX6800XT of zeker de RTX3080. Daarbij speelt voor mij vooral de twijfel over 12GB vs. 16GB. Wist ik nu dat 12GB het nog drie jaar vol gaat houden in vrijwel elke game met max settings + RT op tenminste 1440p, dan was het makkelijk RTX4070. Maar ik ben er niet zo zeker van waardoor ik die lastig vind. Want op eigenlijk elk ander vlak is de RTX4070 gewoon beter tot beduidend beter. Alleen de minstens 100W minder verbruik is al enorm.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
https://www.techpowerup.c...rformance-analysis/4.htmlDaniëlWW2 schreef op maandag 1 mei 2023 @ 09:00:
[...]
Tja ik weet niet of ik nu zo gelukkig word van de 3600 nemen in een game die enorme CPU load issues vertoont. Uiteindelijk mis je hiermee zowel cores (gunstiger voor AMD) als single core frequentie en rekenkracht (gunstig voor Nvidia). Nu heb je een beetje een test van niks van twee al wat oudere videokaarten die toch al grotendeels gelijkwaardig zijn en ook zo presteren. Want ze worden nu beiden tegen een CPU beperking aangedrukt. Neem dan een 3700X of nog liever een 5800X3D. Idem voor RX6800XT en RTX3080. Ik zou liever bijvoorbeeld een RX7900XT en RTX3090Ti zien. Die zijn al wat moeilijker te voorzien, met name de RTX3090Ti omdat die zoveel breder is qua opzet.
[...]
Tja ik zit al sinds Turing te wachten op dit moment. Want dat het ging komen, was me wel duidelijk.![]()
Ik snap ook niet waarom Nvidia het deze generatie niet heeft aangepakt. Ze zijn zo afhankelijk van single thread CPU verbeteringen om bij te blijven. En die groeien helemaal niet zo snel. Dat is al een paar jaar een doodlopend pad. Verder is Nvidia hier eigenlijk ook eens door AMD eruit gemanoeuvreerd. Het begon uiteindelijk allemaal met Mantle. Maar nu tussen DX12 en Vulkan heb je twee dominante gaming oriented API's die min of meer een hardware scheduling eisen omdat ze makkelijk met 8c/16t om kunnen gaan voor draw calls. Dit proces forceren met een master thread zoals Nvidia nog steeds lijkt te doen, is botweg inefficient en gaat alleen maar voor meer problemen zorgen.
Nu ging de RTX2080Ti wel aardig omdat een 8700K een mooie match was. Maar bij GA102 begon het al op 1440p. Er waren altijd al die games waar de RTX3080 net niet meekwam met de RX6800XT. RTX3090 had die problemen al meer. De nieuwste CPU's lijken ervoor te zorgen dat de RTX4080 (buiten de belachelijke prijs ben ik stiekem best gecharmeerd van de RTX4080) ook nog goed werkt, maar de RTX4090 zit wel echt op de limiet. Ik blijf erbij dat 68% meer SM's totaal niet tot hun recht komen. Dat ding vraagt zowat om een 7800X3D als minimale standaard. En zelfs dan ben je nog afhankelijk van de game. Tja, WoW daar ben je denk ik kansloos. De 7800X3D doet waarschijnlijk nog wat, maar of je dit gat dichttrekt durf ik je gewoon niet te zeggen.![]()
Ergens is het ook wel typerend. De laatste tijd hoor ik nog wel eens gemopper dat AMD een "killer feature" mist om mensen over de streep te trekken. Tja die hebben ze gewoon, maar bijna niemand die het snapt. Dit is hun killer feature. Hun GPU's werken gewoon met mindere CPU's en/of mindere optimalisatie van de game. Uiteraard falen ze in de marketing hiervan.
Een betere bron met objectieve testen, hieruit blijkt dat het moment er nog steeds niet is, maar wel dichterbij komt.
Op 1440/4K, welke de meer relevante tests zijn aangezien er boven de 90fps het verschil vrij nihil is. En zelfs op 1440 is de het fps gehalte erg hoog.
Dat YouTube filmpje wat je linkte was niet van een erg betrouwbare bron. TPU dan weer wel en daar blijkt een andere conclusie getrokken te kunnen worden.
Neemt niet weg dat AMD inderdaad beter omgaat met CPU scheduling, want dat is een gegeven, vooral als je naar 1080 kijkt. Toch blijkt dat de 7900XTX het nog niet kan winnen, wat ook heel logisch is en hoe dichtbij het hier komt erg netjes is als je bedenkt wat het prijsverschil is.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Dat vind ik niet erg overtuigend, want dit is vooral een probleem bij snellere kaarten op lagere resoluties. Maar hoeveel gamers vallen daaronder? Budget gamers kopen echt geen 4080/4090 en als je die koopt, dan kan een 5800X3D of sneller er ook wel bij.DaniëlWW2 schreef op maandag 1 mei 2023 @ 09:00:
[...]
Ergens is het ook wel typerend. De laatste tijd hoor ik nog wel eens gemopper dat AMD een "killer feature" mist om mensen over de streep te trekken. Tja die hebben ze gewoon, maar bijna niemand die het snapt. Dit is hun killer feature. Hun GPU's werken gewoon met mindere CPU's en/of mindere optimalisatie van de game. Uiteraard falen ze in de marketing hiervan.
Nvidia heeft ook weer betere manieren om de CPU-load te beperken met DLSS 2 en 3.
Op dit moment zie ik eigenlijk alleen de grotere VRAM-hoeveelheden per tier als een echt sterke reden om voor AMD te gaan, op basis van features ipv alleen op prijs.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Misschien een beetje een vervelend antwoord, maar ik weet niet waar TPU heeft getest, dus ik kan de waarde van deze resultaten niet goed inschatten. Die link van mij, tja analyse was dramatisch maar die gaf het wel weer. Voor dit soort problemen heb ik ook een voorkeur voor beelden boven grafieken omdat het zo gevoelig kan zijn.Koldur schreef op maandag 1 mei 2023 @ 09:53:
[...]
https://www.techpowerup.c...rformance-analysis/4.html
Een betere bron met objectieve testen, hieruit blijkt dat het moment er nog steeds niet is, maar wel dichterbij komt.
Op 1440/4K, welke de meer relevante tests zijn aangezien er boven de 90fps het verschil vrij nihil is. En zelfs op 1440 is de het fps gehalte erg hoog.
Dat YouTube filmpje wat je linkte was niet van een erg betrouwbare bron. TPU dan weer wel en daar blijkt een andere conclusie getrokken te kunnen worden.
Neemt niet weg dat AMD inderdaad beter omgaat met CPU scheduling, want dat is een gegeven, vooral als je naar 1080 kijkt. Toch blijkt dat de 7900XTX het nog niet kan winnen, wat ook heel logisch is en hoe dichtbij het hier komt erg netjes is als je bedenkt wat het prijsverschil is.
En juist in dit geval met zoveel mensen die klagen dat het niet draait en/of zulke enorme problemen ervaren, heb ik moeite met de conclusie dat het wel meevalt. Want het verschil heb ik inmiddels gewoon gezien. Komt bij dat de 13900K niet bepaald een doorsnee CPU is. Die zal iets maskeren voor met name de RTX4090. Daarmee sluit dit denk ik ook niet echt aan op wat mensen ervaren in de game zelf. Het is immers niet alleen RTX4090, het zijn vele GPU configuraties waar de problemen spelen. En vaak lijkt het erop dat het best gebalanceerde systemen zijn tussen de GPU en CPU, maar in deze game lijken het eerder de Nvidia GPU's te treffen. De oplossing van dan maar een (veel) betere CPU is geen oplossing voor die spelers en suggereert juist dat er iets aan de hand is. Los daarvan staat natuurlijk VRAM die alweer de RTX3070 de nek om lijkt te draaien.

Van wat ik begrepen heb, draait het eerste stukje van de game ook nog wel. Maar zodra je naar meer open stukken van de game gaat, worden de problemen veel erger. Overigens zou ik juist daar nog graag alsnog RTX4090 vs. RX7900XTX willen zien. Want daar kan het denk ik ook wel gebeuren dat de RX7900XTX alsnog in de problemen komt. De game is immers brak en de RX7900XTX is denk ik ook geen wonderdoctor.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat het een voordeel van AMD kan zijn ben ik met je eens. Maar iets dat alleen een beperkte niche van de klantenkring snapt zou ik niet direct een 'killer feature' willen moeten. Een killer feature is immers over het algemeen een feature die ook heel makkelijk te verkopen is. En dat is een hardware scheduler nu naar mijn mening in ieder geval niet echt.DaniëlWW2 schreef op maandag 1 mei 2023 @ 09:00:
Ergens is het ook wel typerend. De laatste tijd hoor ik nog wel eens gemopper dat AMD een "killer feature" mist om mensen over de streep te trekken. Tja die hebben ze gewoon, maar bijna niemand die het snapt. Dit is hun killer feature. Hun GPU's werken gewoon met mindere CPU's en/of mindere optimalisatie van de game. Uiteraard falen ze in de marketing hiervan.
En ik hou ook mijn hart al weer vast voor AMD's nieuwe marketing strategie ten aanzien van VRAM en die slides dat ze wel 16GB VRAM aanbieden op een bepaald prijspunt. Ik hoop echter dat ze dan straks niet zo dom zijn om zelf alsnog 8 of 12GB kaarten te lanceren op prijspunten waar ze nu 16GB verkopen of dicht daarbij om zichzelf zo weer in de voet te schieten.
[ Voor 17% gewijzigd door Dennism op 01-05-2023 11:13 ]
Met ruwe kracht ga je het ook niet redden. De enige manier om dit recht te trekken is simpel: koop die prutspellen gewoon niet. Wacht even af met kopen tot je ziet hoe iets draait, en of de ontwikkelaar überhaupt een PC game kan releasen.Ludewig schreef op vrijdag 28 april 2023 @ 10:38:
[...]
Op dit moment wordt de gaming pc markt eigenlijk gewoon stuk gemaakt. Je betaalt meer en krijgt dan grote VRAM bottlenecks en andere problemen op de koop toe, tenzij je vele malen de prijs van een console uitgeeft.
Eigenlijk kan alleen AMD de boel nu nog een beetje redden. Met zoiets:
Dat hele pre-order fenomeen duidt gewoon op consumenten die zichzelf willen naaien.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Misschien nu nog niet, maar ik vraag me inmiddels wel af hoe dat gaat als je echt een zeer indrukwekkende UE5 game gaat krijgen die zwaar is op de CPU is, enorm veel data nodig heeft wat ook heel wat CPU cycles kost en ontiegelijk veel draw calls vraagt die verdeeld zijn over echt minstens 8c/16t. Ik zeg niet dat het dan helemaal misgaat voor Nvidia, maar ik vraag het me inmiddels wel af.Dennism schreef op maandag 1 mei 2023 @ 11:07:
[...]
Dat het een voordeel van AMD kan zijn ben ik met je eens. Maar iets dat alleen een beperkte niche van de klantenkring snapt zou ik niet direct een 'killer feature' willen moeten. Een killer feature is immers over het algemeen een feature die ook heel makkelijk te verkopen is. En dat is een hardware scheduler nu naar mijn mening in ieder geval niet echt.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ontwikkelaars hebben wel gewoon goede redenen om meer VRAM te gebruiken. Met 16 GB consoles worden ontwikkelaars nu ook geconfronteerd met de situatie waar ze op de console bij instap-hardware al 10-12 GB kunnen gebruiken, maar vervolgens op de PC bij vrij sterke hardware maar 8 GB hebben. Dat is ook gewoon heel lastig voor ze.Jeroenneman schreef op maandag 1 mei 2023 @ 11:13:
[...]
Met ruwe kracht ga je het ook niet redden. De enige manier om dit recht te trekken is simpel: koop die prutspellen gewoon niet. Wacht even af met kopen tot je ziet hoe iets draait, en of de ontwikkelaar überhaupt een PC game kan releasen.
Dat hele pre-order fenomeen duidt gewoon op consumenten die zichzelf willen naaien.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Op zich is het inderdaad wel een goed punt dat het grote aantal polygonen van bijvoorbeeld Nanite kan zorgen voor een flinke toename in het aantal draw calls.DaniëlWW2 schreef op maandag 1 mei 2023 @ 11:27:
[...]
Misschien nu nog niet, maar ik vraag me inmiddels wel af hoe dat gaat als je echt een zeer indrukwekkende UE5 game gaat krijgen die zwaar is op de CPU is, enorm veel data nodig heeft wat ook heel wat CPU cycles kost en ontiegelijk veel draw calls vraagt die verdeeld zijn over echt minstens 8c/16t. Ik zeg niet dat het dan helemaal misgaat voor Nvidia, maar ik vraag het me inmiddels wel af.
Sowieso lijkt uit de interviews met developers naar voren te komen dat Nvidia steeds minder naar developers luistert, waardoor ze nu vooral heel gericht zijn op wat ze zelf willen pushen (RT) en wat ze daarvoor nodig hebben (DLSS 2/3), maar niet op wat ontwikkelaars nodig hebben.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Dat is natuurlijk niet direct zo, de instap hardware, bijvoorbeeld de Series S heeft 'slechts' 10GB ram, waarvan 2GB gereserveerd voor het OS en 8GB die de cpu en gpu moeten delen voor games.Ludewig schreef op maandag 1 mei 2023 @ 11:32:
[...]
Ontwikkelaars hebben wel gewoon goede redenen om meer VRAM te gebruiken. Met 16 GB consoles worden ontwikkelaars nu ook geconfronteerd met de situatie waar ze op de console bij instap-hardware al 10-12 GB kunnen gebruiken, maar vervolgens op de PC bij vrij sterke hardware maar 8 GB hebben. Dat is ook gewoon heel lastig voor ze.
Bij de series X is dat 14GB die gebeeld moet worden, maar dat is natuurlijk geen instap hardware.
Voor de PS5 is voor zover ik weet hetzelfde van toepassing, 2GB voor het OS en 14GB vrij die gebeeld moet worden tussen GPU en CPU bij het gamen.
Ik vraag me daarbij ook echt af in hoeverre het niet gewoon 'luiheid' (lees, het levert niet genoeg op) is, toen consoles een stuk minder ram hadden konden ze immers wel ineens vaak optimaliseren tot op het bot.
[ Voor 10% gewijzigd door Dennism op 01-05-2023 11:57 ]
De vraag is natuurlijk wel in hoeverre de Series S niet gaat delen in de malaise.Dennism schreef op maandag 1 mei 2023 @ 11:55:
[...]
Dat is natuurlijk niet direct zo, de instap hardware, bijvoorbeeld de Series S heeft 'slechts' 10GB ram, waarvan 2GB gereserveerd voor het OS en 8GB die de cpu en gpu moeten delen voor games.
Beide consoles hebben ongeveer 2070 Super hardware. Dat is toch echt wel instap-hardware voor de Ada Lovelace/RDNA3 generatie.Bij de series X is dat 14GB die gebeeld moet worden, maar dat is natuurlijk geen instap hardware.
Voor de PS5 is voor zover ik weet hetzelfde van toepassing, 2GB voor het OS en 14GB vrij die gebeeld moet worden tussen GPU en CPU bij het gamen.
Maar die logica kun je natuurlijk doortrekken om te argumenteren dat het luiheid is dat we meer dan 128 MB aan VRAM nodig hebben. Uiteindelijk doen ze natuurlijk ook steeds meer zaken die gewoon meer VRAM nodig hebben, zoals complexere modellen met meer vertexes.Ik vraag me daarbij ook echt af in hoeverre het niet gewoon 'luiheid' (lees, het levert niet genoeg op) is, toen consoles een stuk minder ram hadden konden ze immers wel ineens vaak optimaliseren tot op het bot.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Denk dat je een beetje op zoek bent naar de welkbekende confirmation bias bij het uitzoeken van de bron in dit geval.DaniëlWW2 schreef op maandag 1 mei 2023 @ 10:44:
[...]
Misschien een beetje een vervelend antwoord, maar ik weet niet waar TPU heeft getest, dus ik kan de waarde van deze resultaten niet goed inschatten. Die link van mij, tja analyse was dramatisch maar die gaf het wel weer. Voor dit soort problemen heb ik ook een voorkeur voor beelden boven grafieken omdat het zo gevoelig kan zijn.![]()
En juist in dit geval met zoveel mensen die klagen dat het niet draait en/of zulke enorme problemen ervaren, heb ik moeite met de conclusie dat het wel meevalt. Want het verschil heb ik inmiddels gewoon gezien. Komt bij dat de 13900K niet bepaald een doorsnee CPU is. Die zal iets maskeren voor met name de RTX4090. Daarmee sluit dit denk ik ook niet echt aan op wat mensen ervaren in de game zelf. Het is immers niet alleen RTX4090, het zijn vele GPU configuraties waar de problemen spelen. En vaak lijkt het erop dat het best gebalanceerde systemen zijn tussen de GPU en CPU, maar in deze game lijken het eerder de Nvidia GPU's te treffen. De oplossing van dan maar een (veel) betere CPU is geen oplossing voor die spelers en suggereert juist dat er iets aan de hand is. Los daarvan staat natuurlijk VRAM die alweer de RTX3070 de nek om lijkt te draaien.![]()
Van wat ik begrepen heb, draait het eerste stukje van de game ook nog wel. Maar zodra je naar meer open stukken van de game gaat, worden de problemen veel erger. Overigens zou ik juist daar nog graag alsnog RTX4090 vs. RX7900XTX willen zien. Want daar kan het denk ik ook wel gebeuren dat de RX7900XTX alsnog in de problemen komt. De game is immers brak en de RX7900XTX is denk ik ook geen wonderdoctor.
TPU zal je niet onbekend zijn en is een zeer betrouwbare bron op gebied van dergelijke tests. Als je het laatste stuk ook leest, zal het duidelijk zijn dat ze wel degelijk veel door hebben getest.
Wat daar ook duidelijk wordt beschreven, is dat het aantal cores helemaal niet relevant is, dus zou een 13600 niet veel minder moeten presteren Hetzelfde zou dan gelden voor een 5800X3D o.i.d verwacht ik, maar dat laatste is wel een aanname.
i7 12700K,GB WindForce RTX4090,32GB KF436C16RB1K2/32,Gigabyte Z690 UD DDR4,Corsair RM1000x,WD Black SN850 2TB,Phanteks Eclipse P360A,Quest 3 VR Headset,Corsair iCUE H100i RGB Pro XT 240mm
Je bedoelt frame generation lijkt mij? DLSS 2 en 3 speficiek zullen de CPU-load maar marginaal verlagen.Ludewig schreef op maandag 1 mei 2023 @ 10:41:
[...]
Nvidia heeft ook weer betere manieren om de CPU-load te beperken met DLSS 2 en 3.
DLSS 3 is frame generation.Sp3ci3s8472 schreef op maandag 1 mei 2023 @ 13:55:
[...]
Je bedoelt frame generation lijkt mij? DLSS 2 en 3 speficiek zullen de CPU-load maar marginaal verlagen.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Nu lijkt het zaakje omgedraaid, in de zin dat de AMD drivers in DX12 titels veel minder overhead opleveren.
Ik zou alleen, om dit punt te illustreren, weg blijven van games die duidelijk nog stappen te zetten hebben qua optimalisatie. Of dat in de vorm van patches aan de games danwel driver updates is. Je weet namelijk nooit zeker wat er op de achtergrond speelt, we zijn immers geen dev's. We kunnen een gok doen op basis van de metrics die monitoring software uitspuugt, maar zeker weten doen we het nooit. Pas als de devs en de driverboeren zeggen: "Zo is ie af, meer dan dit wordt het niet!" kunnen we wat meer high- level conclusies gaan trekken over voor en nadelen van verschillende aanpakken.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Ik bljif het los frame generation noemen; want DLSS 3.1 verbeterd volgens mij ook namelijk het upscale stukje. Het is voor mij niet logisch om de twee bij elkaar te zetten want het stuk dat upscaled helpt namelijk niks met een cpu bottleneck.
Alleen het stukje frame generation "helpt" met een cpu bottleneck.
Die naamgevingen van Nvidia kan ik mij soms wel aan storen. Alsof ze een nieuwe baby yoda hebben ontdekt gebruiken ze het overal voor; bijv. DLSS RTX etc.
Het grappige is is dat Nvidia alleen dat voordeel heeft op Windows met DX11. Op Linux gaat het via de DXVK laag en heeft AMD hetzelfde voordeel als Nvidia (wellicht zelfs beter). Idem voor DX9 en DX10.Blaat schreef op maandag 1 mei 2023 @ 14:53:
Wel bizar om te bedenken dat dit in de hoogtijdagen van DX11 juist andersom was, waarbij de nVidia drivers dankzij wat googelwerk de renderthread konden multithreaden, daar waar AMD dat niet kon. Het gevolg was een heel scala aan DX11 games die daardoor significant beter draaiden op nVidia hardware software.
Nu lijkt het zaakje omgedraaid, in de zin dat de AMD drivers in DX12 titels veel minder overhead opleveren.
Voor zover ik weet wordt DLSS 2 gewoon apart geupdate. Zo is bijvoorbeeld in december vorig jaar DLSS 2.5.1 gereleased.Sp3ci3s8472 schreef op maandag 1 mei 2023 @ 16:20:
[...]
Ik bljif het los frame generation noemen; want DLSS 3.1 verbeterd volgens mij ook namelijk het upscale stukje.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Los daarvan (en de domme naamgevingen, want wat als we op 2.9 zitten? gaan we dan eindeloos door op 2.9.9.9.9.9?) helpt DLSS 2 niks met je cpuLudewig schreef op maandag 1 mei 2023 @ 16:35:
[...]
Voor zover ik weet wordt DLSS 2 gewoon apart geupdate. Zo is bijvoorbeeld in december vorig jaar DLSS 2.5.1 gereleased.
Het wordt inderdaad apart geupdate en Nvidia noemt het DLSS super resoluition en zijn ze al bij versie 3.1.10: https://github.com/NVIDIA/DLSS/releases Daarom is het zo verwarrend. Het is nu makkelijker om gewoon de termen super resolution en frame generation te gebruiken.Ludewig schreef op maandag 1 mei 2023 @ 16:35:
[...]
Voor zover ik weet wordt DLSS 2 gewoon apart geupdate. Zo is bijvoorbeeld in december vorig jaar DLSS 2.5.1 gereleased.
In de gauwigheid helemaal gemist. Maar ik blijf erbij dat het een vreemde vergelijking is.haarbal schreef op maandag 1 mei 2023 @ 08:45:
[...]
De gpu's komen daar amper boven de 50% load uit dus ik denk het wel.
De RX6800XT en RTX3080 zijn qua hardware aan elkaar gewaagd en je ziet ook dat de RX6800XT hier een (klein) voordeel heeft.
Ik had graag ook een cpu belastingsverdeling willen zien om te zien of 1 thread vol getjokt wordt.
Kan je meestal niet zien omdat zo'n thread de hele tijd van de ene naar de andere core geschopt wordt.CMT schreef op maandag 1 mei 2023 @ 20:13:
Ik had graag ook een cpu belastingsverdeling willen zien om te zien of 1 thread vol getjokt wordt.
Mechwarrior Online: Flapdrol
Die thread belastingverdeling valt wel uit te middelen om daar een goed beeld van te krijgen.
Maar als de mainthread bij een 3600 ook van core tot core springt, dan heb je mogelijk ook met een andere limitering te maken veroorzaakt door de variërende intercore latency van een 2x CCX per CCD opbouw.
Ze hadden bij DF dan beter een 5800X kunnen nemen en daarmee en bottleneck simuleren door het instellen van een lage max klok. Kunnen ze gelijk de schaling met toenemende klok laten zien
Mechwarrior Online: Flapdrol
Het is een lastiger verhaal bij AMD qua marketing om te vertellen. Als je een oudere CPU hebt, upgrade dan met een Radeon. Nieuw systeem? Ja dan is Nvidia beter...DaniëlWW2 schreef op maandag 1 mei 2023 @ 09:00:
[...]
Ergens is het ook wel typerend. De laatste tijd hoor ik nog wel eens gemopper dat AMD een "killer feature" mist om mensen over de streep te trekken. Tja die hebben ze gewoon, maar bijna niemand die het snapt. Dit is hun killer feature. Hun GPU's werken gewoon met mindere CPU's en/of mindere optimalisatie van de game. Uiteraard falen ze in de marketing hiervan.
Ze benadrukken kosten, terwijl door de lagere performance per Watt ze op de RX 7000 serie minder winst kunnen maken dan de RTX 4000 serie. Ja zelfs met chiplets.
Ze benadrukken VRAM, terwijl hun professionele kaarten minder verkopen en dat de enige reden is dat ze scheutig zijn met VRAM.
12VHPWR smelten? Net doen alsof ze bewust kiezen voor 2x 8pin.
Etcetera.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Hun MI250x doet het anders prima; alleen die gebruikt HBM2esunsmountain schreef op dinsdag 2 mei 2023 @ 10:37:
[...]
Ze benadrukken VRAM, terwijl hun professionele kaarten minder verkopen en dat de enige reden is dat ze scheutig zijn met VRAM.
https://www.youtube.com/watch?v=pQzf_1AkNXw&t=643s
Ik zit in hetzelfde bootje, nog erger met een R9 290X en PC stuk (moederbord/voeding).DaniëlWW2 schreef op maandag 1 mei 2023 @ 09:27:
[...]
Bijvoorbeeld stel dat de RX7900XTX en RTX4080 beiden rond een meer redelijke €800 zouden zitten. Tja, ik neig erna om dan de RTX4080 de voorkeur te geven omdat ik denk dat het totaalpakket nu beter is. Maar bijvoorbeeld een €650 kostende RX7900XT vs. RTX4070Ti zou ik eerder de RX7900XT overwegen. Ook neig ik eigenlijk nu meer naar de RTX4070 (mits de prijs rond de €500 zou zijn) dan de RX6800XT of zeker de RTX3080. Daarbij speelt voor mij vooral de twijfel over 12GB vs. 16GB. Wist ik nu dat 12GB het nog drie jaar vol gaat houden in vrijwel elke game met max settings + RT op tenminste 1440p, dan was het makkelijk RTX4070. Maar ik ben er niet zo zeker van waardoor ik die lastig vind. Want op eigenlijk elk ander vlak is de RTX4070 gewoon beter tot beduidend beter. Alleen de minstens 100W minder verbruik is al enorm.
Als je echt 16 GB wil, dan is het het voordeligste om te wachten op de RX 7800 XT(X), of toch maar een RX 6950 XT als je nu nu moet kopen.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Er is blijkbaar al een patch geweest die heel wat problemen opgelost lijkt te hebben qua CPU utilisatie en GPU load. HWU kon hun data die ze net hadden, blijkbaar opnieuw gaan doen. Ik hoop dat we nog van de oude data gaan zien. Ook zag ik ergens al dat de verbeteringen misschien niet uniform werken of voornamelijk voor Nvidia zijn, maar dat AMD er ook nog mee wint. Ben benieuwd.
In ieder geval blijf ik het zo illustratief vinden dat AMD videokaarten gewoon die beperkingen minder hebben. Het blijft in mijn achterhoofd zitten als iets om op te blijven letten.
I've just had my first coffee of the day and now I'm about to delete 132 data points to start my GPU testing form scratch, I love my job 😅
— Hardware Unboxed (@HardwareUnboxed) 1 mei 2023
Game patch which is meant to boost fps. I haven't had a chance to test it against my data yet, so I will do that, but what I'm seeing online suggests my existing data is outdated.
— Hardware Unboxed (@HardwareUnboxed) 1 mei 2023
Our video editor Balin has been playing Star Wars Jedi: Survivor on his 13900K + RTX 4090 system has been suffering from horrible stuttering, as noted in last nights video. He just tested the new patch & is reporting no stutters, anyone else seeing good things from the update?
— Hardware Unboxed (@HardwareUnboxed) 1 mei 2023
Transitioning from cutscenes still stutters now and then but the actual gameplay is much better. Performance on Balin's PC was particularly bad, but it's good to see some improvement already.
— Hardware Unboxed (@HardwareUnboxed) 1 mei 2023
I have the same config here 13900k 4090.. but in my case nothing is changed on sttuters. I got a lilttle bit more performance with RT disabled than before the patch, but with RT on is pretty much the same.
— Saulo Carvalho Rosa (@Saulotankian) 1 mei 2023
7700X/RX 7900 XTX, RT OFF.
— Charlie (@ghost_motley) 1 mei 2023
Latest patch has noticeably improved performance, some videos on YT are showing around 10-15fps improvements in same area, even after clearing cache folder.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
https://videocardz.com/ne...tted-in-rocm-pull-requestAMD bevestigt mainstream Radeon 7000 GPU lancering dit kwartaal, RX 7950XT gespot in ROCm pull request.
Main: Ryzen 5950x | Gigabyte X570 Aorus Elite | Corsair LPX 3600 32Gb (@3800-16) | AMD RX 6800 || 6450 WP | Ratio IO6 | Model S | Megane E-Tech
Heel snel even gekeken, maar de RTX4090 lijkt soms echt enorme sprongen te maken waarbij die van langzamer naar sneller dan de RX7900XTX gaat. Verder zijn de gains op lagere resoluties voor N31 soms ook enorm.
[ Voor 9% gewijzigd door DaniëlWW2 op 03-05-2023 14:58 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Interessante leak. Dat ze een 7950 XTX en XT uitbrengen kan betekenen dat ze met een respin komen, maar ook dat ze deze wat hoger klokken en sneller geheugen geven. Het suggereert op z'n minst wel dat de 7800 XT goed gaat presteren, en dat ze de 7950-kaarten sneller moeten maken om het prestatiegat niet te klein te laten worden. Dus wellicht valt de 7800 XT dan erg mee qua prestaties.DJvL schreef op woensdag 3 mei 2023 @ 14:44:
Zouden ze de "hardware-bug" nu onder controle hebben?
Ook interessant dat er geen 7800 lijkt te komen, wat ik ook wel verwacht had.
Wat er wel heel eng uit ziet is dat dit suggereert dat de 7700 XT gebruik maakt van N33. Als dat echt zo is, lijkt het me dat die kaart totaal kansloos is. Het slaat ook totaal nergens op om maar 1 cut te gebruiken van N33, met 4 MCDs. Dus ik geloof dat eigenlijk niet.
[ Voor 7% gewijzigd door Ludewig op 03-05-2023 15:53 ]
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
ook wel apart dat de 6950 soms ietsje sneller is dan de 7900 kaarten.DaniëlWW2 schreef op woensdag 3 mei 2023 @ 14:56:
Daar is die en het is met oude data:![]()
Heel snel even gekeken, maar de RTX4090 lijkt soms echt enorme sprongen te maken waarbij die van langzamer naar sneller dan de RX7900XTX gaat. Verder zijn de gains op lagere resoluties voor N31 soms ook enorm.![]()
[YouTube: Big GeForce Optimization For Star Wars Jedi: Survivor, Finally Playable?]
Mechwarrior Online: Flapdrol
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Tis alleen nog maar een naam in een lijstje, misschien alleen maar een "placeholder'.Damic schreef op woensdag 3 mei 2023 @ 18:06:
Een 7950XT(X), zijn dat een respins van de 7900XT(X)?
Verder nog geen concrete plannen of specs bekend.
True, maar zou wel eens kunnen zijn dat ze wel een respin hebben gedaan met een hardware fix in waardoor de ze dus de 7900xt(x) gewoon EOL sturen.meljor schreef op woensdag 3 mei 2023 @ 20:35:
[...]
Tis alleen nog maar een naam in een lijstje, misschien alleen maar een "placeholder'.
Verder nog geen concrete plannen of specs bekend.
Anyway we zullen wel zien komende maanden.
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Waar haal je die vandaan?Damic schreef op woensdag 3 mei 2023 @ 18:06:
Een 7950XT(X), zijn dat een respins van de 7900XT(X)?
edit: gevonden. Ja dat is potentieel een refresh.
Maar ik vind de RX7800XT en RX7700XT veel interessanter. De RX7800XT heeft als enige de N32 deviceID. RX7700XT heeft hier alsnog de N33 deviceID. Als ze dat doen, dan mogen ze daar een verdomd goede verklaring voor leveren. Zaken zoals dik over de 3GHz, VRAM aan beide kanten van PCB en dus 16GB of daadwerkelijk functionele dual issue. Want anders gaat die botweg verslagen worden door de RX6700XT.
https://videocardz.com/ne...tted-in-rocm-pull-requestAMD Radeon™ RX 7950 XTX | RDNA3 | gfx1100 | Full | ✅
AMD Radeon™ RX 7950 XT | RDNA3 | gfx1100 | Full | ✅
AMD Radeon™ RX 7900 XTX | RDNA3 | gfx1100 | Full | ✅
AMD Radeon™ RX 7900 XT | RDNA3 | gfx1100 | Full | ✅
AMD Radeon™ RX 7800 XT | RDNA3 | gfx1101 | Runtime | ✅
AMD Radeon™ RX 7700 XT | RDNA3 | gfx1102 | Runtime | ✅
AMD Radeon™ RX 7600 XT | RDNA3 | gfx1102 | Runtime | ✅
AMD Radeon™ RX 7500 XT | RDNA3 | gfx1102 | Runtime | ✅
AMD Radeon™ RX 7600M XT | RDNA3 | gfx1102 | Runtime | ✅
AMD Radeon™ RX 7600M | RDNA3 | gfx1102 | Runtime | ✅
AMD Radeon™ RX 7700S | RDNA3 | gfx1102 | Runtime | ✅
AMD Radeon™ RX 7600S | RDNA3 | gfx1102 | Runtime | ✅
[ Voor 78% gewijzigd door DaniëlWW2 op 03-05-2023 22:23 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Die leak is helaas fake. De commit was niet van AMD, Navi32 maar 1 SKU, en verdacht veel XT varianten.DaniëlWW2 schreef op woensdag 3 mei 2023 @ 21:02:
[...]
Waar haal je die vandaan?
edit: gevonden. Ja dat is potentieel een refresh.![]()
Maar ik vind de RX7800XT en RX7700XT veel interessanter. De RX7800XT heeft als enige de N32 deviceID. RX7700XT heeft hier alsnog de N33 deviceID. Als ze dat doen, dan mogen ze daar een verdomd goede verklaring voor leveren. Zaken zoals dik over de 3GHz, VRAM aan beide kanten van PCB en dus 16GB of daadwerkelijk functionele dual issue. Want anders gaat die botweg verslagen worden door de RX6700XT.
[...]
https://videocardz.com/ne...tted-in-rocm-pull-request
Ik wil de respin hoop houden, maar nee, dit lijkt meer op fantasie.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Focus op Mesa OpenGL zo te zien, zou dat dan vooral voor legacy en professionele applicaties zijn? Gezien OpenGL voor gaming eigenlijk niet gebruikt wordt.
Kijk Nvidia zo kan het dus ook actief meewerken aan een open source project.
Voor vermaak nog een domme reactie uit de comments van dit artikel:
Goh misschien moet een dan een rolling release van Linux draaien of een release die actief die drivers er eerder in zet. Dat ligt niet aan AMD namelijk want die day 1 support is er wel degelijk; zeker op Arch based distro's.Wonder if this means they can support hardware on release day rather than months after…
Reactie van een AMD dev
We've had open source release day support for years now. In most cases support is upstream months ahead of launch.
[ Voor 43% gewijzigd door Sp3ci3s8472 op 09-05-2023 11:42 ]
Het zou dan erg logisch zijn als de 7600 XT een clamshell 16 GB kaart wordt en de 7700 XT en 7800 XT beide N32, allebei met 16 GB.
Dan zou AMD een lineup hebben die behoorlijk aantrekkelijk is (voor de juiste prijs).
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Uitstekend. Krijg je hopelijk een videokaart voor $250 die waarschijnlijk net wat boven een RX6650XT presteert. Dat is een acceptabele prijs voor een 8GB VRAM GPU die net iets beter dan XSX of PS5 presteert. Het had uiteraard beter gekund, maar niet volstrekt hopeloos is inmiddels al iets.Ludewig schreef op dinsdag 9 mei 2023 @ 20:58:
De 7600 lijkt de full die te zijn van N33: https://videocardz.com/ne...rd-spotted-in-asian-store
Het zou dan erg logisch zijn als de 7600 XT een clamshell 16 GB kaart wordt en de 7700 XT en 7800 XT beide N32, allebei met 16 GB.
Dan zou AMD een erg logische lineup hebben die behoorlijk aantrekkelijk is (voor de juiste prijs).

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
https://wccftech.com/sapp...red-dual-slot-8-pin-plug/
Dus een enkele 8 pin connector en twee fans.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
In Singapore zou de 7600 een tijdje al voor zo'n S$550 gestaan hebben (rond de €375) https://www.tomshardware....-7600-listed-in-singapore. Waarbij het nog de vraag is of dat met BTW is. Voor dat ongeveer geld kan je ook een 6700 XT krijgen mét 4GB meer geheugen.DaniëlWW2 schreef op dinsdag 9 mei 2023 @ 21:33:
[...]
Uitstekend. Krijg je hopelijk een videokaart voor $250 die waarschijnlijk net wat boven een RX6650XT presteert. Dat is een acceptabele prijs voor een 8GB VRAM GPU die net iets beter dan XSX of PS5 presteert. Het had uiteraard beter gekund, maar niet volstrekt hopeloos is inmiddels al iets.
Als dat waar is, doa anyone?
In het verleden zijn de echte prijzen eigenlijk altijd lager geweest dan de list-prijzen of de prijzen van de illegale voorverkoop.
Ik schat zelf in dat de prijs sowieso niet boven de $329 komt (MSRP van de 6600), al denk ik dat de prijs onder de $300 moet zijn om een beetje te verkopen en liever nog lager. Maar AMD begint vaak met een te hoge prijs, dus wie weet?
[ Voor 10% gewijzigd door Ludewig op 11-05-2023 16:09 ]
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Het is een andere chip en architectuur. Dus het is totaal niet hetzelfde.dragonlords1 schreef op vrijdag 12 mei 2023 @ 17:09:
Als de 7600 350 euro gaat kosten, dan lijkt dit toch zeer sterk op de rebrand 480 van naar de 580. Het grote voordeel voor amd is dat ze verkoopprijs terug kunnen opkrikken naar de initiële prijs.
De 470,480,570,580,590 hadden allemaal dezelfde chip en architectuur.
Ik zie liever dat het zonder belasting 250 euro is overigens... laten we hopen want 350 euro voor een 8GB kaart lijkt mij geen goede zet van AMD.
[ Voor 13% gewijzigd door Sp3ci3s8472 op 12-05-2023 19:31 ]
Je hebt voor 390 euro een 12 GB 6700 XT die ongeveer even goed zal presteren, dus dan is de vraag ook hoeveel mensen die 40 euro willen besparen ten koste van die hele belangrijke 4 GB.Sp3ci3s8472 schreef op vrijdag 12 mei 2023 @ 19:26:
[...]
Ik zie liever dat het zonder belasting 250 euro is overigens... laten we hopen want 350 euro voor een 8GB kaart lijkt mij geen goede zet van AMD.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Alles boven de 250 dollar is doa, geen excuses.
Bijna 100 korting -> 1149 voor de sapphire nitro+ 7900 XTX in de pricewatch bij onze groene gekko vrienden
Dat komt vermoed ik omdat AMD het een beetje opgegeven lijkt te hebben. De bereidheid om echt onder de belachelijke prijzen van Nvidia te gaan zitten, lijkt er gewoon niet te zijn omdat de meeste toch Nvidia kopen. En die 20-30% die om wat voor reden dan ook, geen Nvidia koopt, tja die hebben ze toch. En als iemand zijn gaming PC inruilt voor een console, tja die hebben ze ook. Vermoedelijk haalt AMD de overgrote meerderheid van hun omzet in hun Gaming segment uit console APU's en is een klein deel maar videokaarten.Techkeizer schreef op vrijdag 12 mei 2023 @ 22:45:
Amd laat altijd de kans liggen om te profiteren van Nvidia..
Alles boven de 250 dollar is doa, geen excuses.
Ergens is deze markt ook geen monopolie of duopoly. Het zijn eigenlijk twee naast elkaar bestaande monopolies waar een paar procent van de markt maar betwist lijkt te zijn tussen AMD en Nvidia. En dat zijn juist de DIY kopers die daadwerkelijk benchmarks kijken, adviezen inwinnen, zich inlezen etc. Die worden nu alleen door beide bedrijven uitgebuit.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Eens, het is echt duopoly. Ook omdat er geruchten zijn, waarbij beide CEO's familie zijn van elkaar. AMD vindt het blijkbaar niet erg om nummer 2 te blijven, ze verdienen volgens mij meer aan cpu en Apu zoals je zegt. Ik zie Nvidia ook in de toekomst achteruitgaan door de AI ontwikkelingen. De gaming markt is blijkbaar uitgedroogd voor hun. Echt jammer, want de normale consument gaat dan dus verliezen:(.DaniëlWW2 schreef op zaterdag 13 mei 2023 @ 10:32:
[...]
Dat komt vermoed ik omdat AMD het een beetje opgegeven lijkt te hebben. De bereidheid om echt onder de belachelijke prijzen van Nvidia te gaan zitten, lijkt er gewoon niet te zijn omdat de meeste toch Nvidia kopen. En die 20-30% die om wat voor reden dan ook, geen Nvidia koopt, tja die hebben ze toch. En als iemand zijn gaming PC inruilt voor een console, tja die hebben ze ook. Vermoedelijk haalt AMD de overgrote meerderheid van hun Gaming segment uit console APU's en is een klein deel maar videokaarten.
Ergens is deze markt geen monopolie of duopoly. Het zijn eigenlijk twee naast elkaar bestaande monopolies waar een paar procent van de markt maar betwist lijkt te zijn tussen AMD en Nvidia. En dat zijn juist de DIY kopers die daadwerkelijk benchmarks kijken, adviezen inwinnen, zich inlezen etc. Die worden nu alleen door beide bedrijven uitgebuit.
Hopelijk kunnen wij nog lang genieten van Gaming, nu het nog redelijk financieel behapbaar is:).
De enige die dit kan doorbreken is Intel. Ik denk dat we echt heel hard moeten hopen dat Battlemage wat wordt.
Overigens is het door een Chinees nieuwskanaal bekend gemaakt dat de grootvader van Lisa Su, de oom is van Jensen: https://www.techtimes.com...uncle-amds-dr-lisa-su.htm
Nu vertrouw ik het Chinese nieuws niet per se, dus of het waar is, is een tweede.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Als marktleider bepaalt Nvidia de prijs, en AMD volgt, omdat:
- ze dan meer winst maken per product, fijn voor de shareholders
- hoge GPU prijzen betekent meer console sales
Tegelijkertijd wil AMD Radeon best winnen en blijven concurreren met Nvidia, zoals ze met de RX 6000 serie hebben laten zien (RDNA2) en op zich ook met de RX 7000 serie van plan waren (alleen niet hebben uitgevoerd met RDNA3). Ze hebben vergelijkbare features, ook al is de implementatie bij Nvidia is net wat beter, van ray tracing hardware tot DLSS. Intel heeft mogelijk betere ray tracing hardware, maar loopt qua drivers nog wel een paar jaar achter.
Laten we hopen dat RDNA4 geen grote vernieuwing brengt behalve ray tracing, ze zich concentreren op het verbeteren van clock speeds en Radeon gewoon gaat voor meer voor minder. De laatste geruchten zeggen 48*3 GCX's, 144 CU voor 3,5 GHz. Lineair extrapoleren en Navi41 zou 2x zoveel performance geven als Navi31.
Blackwell zou volgens de geruchten op 144 SM blijven, maar Nvidia gaat het SM design wel op de schop gooien, vermoedelijk om ook een verdubbeling te krijgen. Ook onderzoekt ze de chiplet aanpak, maar alleen voor de grootste chip. Kennelijk is het verleidelijk om de SMs / CUs te redesignen, als je voor chiplets gaat: je moet dan waarschijnlijk toch wel.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Niemand wilt low margin producten maken, als ik iets maak wil ik het ook niet voor kost prijs doorverkopen, bij kleine winkels moet al 25% marge hebben om ook alle vaste lasten te dekken verkoop je pallet 1000 stuks met 2% marge dan dump je producten in de markt met verlies. Door de vaste lasten. Als Battle mage een faal is dan kan het gedumpt worden in de markt omdat pole positie in concurerende productlijnen ruk is.Ludewig schreef op zaterdag 13 mei 2023 @ 14:03:
Lisa Su lijkt net als Jensen eigenlijk alleen geïnteresseerd in producten met hoge marges en weinig te geven om marktaandeel. Dus de enige manier waarop de concurrentie tussen de twee opgestookt kan worden is als beide erg sterke producten maken en ze elkaar aftroeven op prestaties, want elkaar aftroeven op prijs willen ze niet.
De enige die dit kan doorbreken is Intel. Ik denk dat we echt heel hard moeten hopen dat Battlemage wat wordt.
Overigens is het door een Chinees nieuwskanaal bekend gemaakt dat de grootvader van Lisa Su, de oom is van Jensen: https://www.techtimes.com...uncle-amds-dr-lisa-su.htm
Nu vertrouw ik het Chinese nieuws niet per se, dus of het waar is, is een tweede.
Radeon weet ook dat als big godzilla chips maakt wat erg duur is en bent ermee nummer 2 dat de prijs marge dan ruk is. Vega HBM2 is zo een fiasco en dat moet je mijden.
Dat prestige van de kroon moeten pakken is grote kostenpost voor nV. AMD aanpak houd in dat gemakkelijk rendabel op nr2 plek kan zitten met gezonde marge.
Die gezonde marge is ook R&D middelen voor nextgens in toekomst.
Als battlemage zeer concurerend is dan zal daar ook goede gezonde marges op gehouden worden.
Ik hoop ook op goede battlemage dat houd prijzen schappelijk met gezonde marge. Want dat houd in dat cancelatie van Celestia ook stuk kleiner is. Ook kan betekenen dat bredere produkt range voor nextgen ontwikkeld mag worden. Kan ook zijn dat de slecht lopende server tak R&D bodemloze put is die andere afdelingen beperkt. Net zoals Radeon zwaar last had van dark ages van cpu tak en globalfoundry falen.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Uiteraard, maar de marges voor Nvidia en AMD lijken nu wel erg hoog. Bij Nvidia is dat te begrijpen, zeker omdat ze de dominante positie hebben en weinig echte concurrentie, maar AMD heeft nu toch een vrij laag marktaandeel. Uiteindelijk is het over het algemeen zo dat je wanneer je een relatief slecht product maakt, je de keuze hebt tussen lage marges en weinig marktaandeel.
Een laag marktaandeel heeft allerlei negatieve consequenties zoals dat ontwikkelaars minder snel geneigd zijn om AMD-features te ondersteunen. Dus dan moet AMD bijvoorbeeld games gaan sponsoren om te zorgen dat FSR erin komt. Voor Nvidia is het juist weer relatief makkelijk om ontwikkelaars over te halen om technieken te gebruiken die alleen op Nvidia kaarten werken en daardoor AMD verder op achterstand zetten.
En consumenten zijn ook vaak angstig om iets te kopen dat weinig verkocht wordt, ook omdat ze minder vaak iemand kennen die het ook heeft. En bouwers van laptops en PCs hebben graag een vaste leverancier van componenten, dus als je hen constant een voor consumenten aantrekkelijk product geeft, met voldoende marge voor de bouwer, blijven ze loyaal.
Intel loopt nu achter op AMD. Als je van beide een CPU pakt die ongeveer gelijk presteert, dan is de CPU van Intel een stuk duurder om te maken. Toch heeft Intel er niet voor gekozen om de marges hoog te houden, maar om het marktaandeel zoveel mogelijk vast te houden. De hoop is dat ze voordat het geld op is weer een goede CPU maken, waar ze voldoende marge op kunnen maken. Dan kunnen ze weer profiteren van het feit dat ze consumenten en bedrijven als Dell niet zijn kwijtgeraakt.
Maar stel dat AMD straks een supergoede generatie heeft die de vloer aanveegt met Nvidia. Dan zullen ze daar relatief weinig van profiteren omdat het een flinke tijd kost om het marktaandeel te vergroten, dus wanneer ze dan (terecht) vrij hoge marges rekenen, vallen de inkomsten toch tegen, omdat de verkoopaantallen niet zo heel hoog zijn.
[ Voor 13% gewijzigd door Ludewig op 14-05-2023 18:47 ]
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Zie ook de volgende review op TomsHardware:
https://www.tomshardware....-diffusion-gpu-benchmarks

Zwart is zonder xformers, groen is met.
Die van mij zit er niet ver van af. Ik draai waarschijnlijk een net iets andere stack gezien ik tussen de 18-21 iteraties/seconde haal. Was een heel werk om het werkend te krijgen gezien AMD support voor RDNA3 weer heeft gesloopt met de release van ROCm 5.5; de RC4, RC5 werken wel beiden. Gelukkig zijn er mensen zo slim geweest om de Docker images veilig te stellen.
Ik draai overigens Automatic 1111's versie van stable diffusion.
Helaas werkt xformers nog niet op AMD kaarten; wellicht dat dit in de toekomst wel kan als ROCm verder is.
Ik zou daar wel graag meer bewijs voor willen zien. Met alle respect voor je mening, ik zou het ook graag anders zien, maar bij AMD werken geen domme mensen. Het is een beursgenoteerd bedrijf en die hebben ook andere doelen dan klanten tevreden stellen middels het aanbieden van het best geprijsde product.Ludewig schreef op zondag 14 mei 2023 @ 18:43:
[...]
Uiteraard, maar de marges voor Nvidia en AMD lijken nu wel erg hoog. Bij Nvidia is dat te begrijpen, zeker omdat ze de dominante positie hebben en weinig echte concurrentie, maar AMD heeft nu toch een vrij laag marktaandeel. Uiteindelijk is het over het algemeen zo dat je wanneer je een relatief slecht product maakt, je de keuze hebt tussen lage marges en weinig marktaandeel.
Een laag marktaandeel heeft allerlei negatieve consequenties zoals dat ontwikkelaars minder snel geneigd zijn om AMD-features te ondersteunen. Dus dan moet AMD bijvoorbeeld games gaan sponsoren om te zorgen dat FSR erin komt. Voor Nvidia is het juist weer relatief makkelijk om ontwikkelaars over te halen om technieken te gebruiken die alleen op Nvidia kaarten werken en daardoor AMD verder op achterstand zetten.
En consumenten zijn ook vaak angstig om iets te kopen dat weinig verkocht wordt, ook omdat ze minder vaak iemand kennen die het ook heeft. En bouwers van laptops en PCs hebben graag een vaste leverancier van componenten, dus als je hen constant een voor consumenten aantrekkelijk product geeft, met voldoende marge voor de bouwer, blijven ze loyaal.
Intel loopt nu achter op AMD. Als je van beide een CPU pakt die ongeveer gelijk presteert, dan is de CPU van Intel een stuk duurder om te maken. Toch heeft Intel er niet voor gekozen om de marges hoog te houden, maar om het marktaandeel zoveel mogelijk vast te houden. De hoop is dat ze voordat het geld op is weer een goede CPU maken, waar ze voldoende marge op kunnen maken. Dan kunnen ze weer profiteren van het feit dat ze consumenten en bedrijven als Dell niet zijn kwijtgeraakt.
Maar stel dat AMD straks een supergoede generatie heeft die de vloer aanveegt met Nvidia. Dan zullen ze daar relatief weinig van profiteren omdat het een flinke tijd kost om het marktaandeel te vergroten, dus wanneer ze dan (terecht) vrij hoge marges rekenen, vallen de inkomsten toch tegen, omdat de verkoopaantallen niet zo heel hoog zijn.
AMD heeft sowieso een flink hoger marktaandeel wat moderne gaming hardware betreft, aangezien je er nog miljoenen PS5’s en Xboxen bij op mag tellen. Het is Nvidia die daar vecht tegen de bierkaai wat betreft het laten implementeren van hun exclusieve features. Zaken als FSR komen vanzelf wel als het op RDNA2 hardware kan.
AMD heeft ook een lange termijn strategie en ik denk zelf dat hogere marges behouden hen een grotere garantie geeft op een toekomstige dip in verkopen dan een lagere prijs. Dat laatste kan altijd nog mocht een recessie de afzet werkelijk drukken. Je echter bij voorbaat als budgetmerk neerzetten, zal mogelijk meer kwaad doen dan goed.
Maar, het biedt inderdaad wel echt kansen voor Intel. Tenzij zij geplaagd worden door hun eigen tegenvallende resultaten
Het probleem is dat ik geen bewijs zie dat AMD daadwerkelijk genoeg wil investeren om een beter product te maken dat hogere marges rechtvaardigt. Bij de drivers lopen ze steeds achter bij het stabiliseren en optimaliseren. Bij de features zijn ze grotendeels reactief en kopiëren ze zaken als g-sync en DLSS 2 en 3, ipv zelf met nieuwe features te komen. Ze stoppen ook structureel te weinig moeite in hun encoders, die altijd achterlopen op Nvidia en Intel.
En waar Intel met OneApi innovatief probeert te zijn, maakt AMD simpelweg een CUDA-kloon met ROCm. Dan loop je dus nooit voorop. En dan nog stoppen ze er te weinig moeite in. Zie bijvoorbeeld de reactie van @Sp3ci3s8472 waar hij merkt dat de support voor RDNA3 is gesloopt. Bij RDNA2 was de officiële support ook alleen voor de pro-kaarten en moest je mazzel hebben als het op sommige consumentenkaarten werkt. Dat is totaal anders bij Nvidia waar CUDA overal op werkt en ook gewoon blijft werken.
Een echte ambitie om gelijkwaardig (of beter) te zijn, vereist ook de mate van investering om dat waar te maken. En die ontbreekt nu.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Bij bedrijven zie je wel vaak een tunnelvisie waar ze heel erg onder de indruk zijn van de moeite die ze zelf doen en van wat ze maken, maar ontbreekt het besef wat het perspectief van de consument nu eigenlijk is. Zelfs de blik op wat de concurrenten doen is vaak erg vertroebeld weet ik ook uit eigen ervaring. De mensen die werken aan het product zijn daar de hele dag mee bezig en hebben vaak weinig kennis van de concurrentie.Cid Highwind schreef op maandag 15 mei 2023 @ 07:48:
[...]
Met alle respect voor je mening, ik zou het ook graag anders zien, maar bij AMD werken geen domme mensen.
Dat heeft allemaal weinig te maken met dom of slim zijn, maar vooral met een gebrek aan tijd en interesse. Want een techneut wil zelf leuke dingen maken en uitgebreid naar de concurrentie kijken betekent dat er minder tijd is om zelf leuke dingen te maken. En er is altijd genoeg te doen.
Daarnaast spelen er ook carrièreoverwegingen mee, want binnen een bedrijf maak je veel sneller carrière als je aan het eigen product werkt dan als je expert wordt van het product van de concurrent of expert van wat de klant wil. Dan zit je al snel in een niche binnen het bedrijf waar je moeilijk uitkomt.
Ian Cutress (TechTechPotato) heeft er nu zijn beroep van gemaakt om als externe analist/consultant advies te geven aan chipbedrijven. Die betalen hem geld ipv een eigen medewerker als analist te laten werken, juist om die onafhankelijke blik te krijgen van buiten de bubbel binnen het bedrijf. En dan gaat het nog eens alleen om chips gericht op bedrijven, waarbij het relatief makkelijk is om het klantperspectief te begrijpen omdat er relatief weinig klanten zijn en het relatief makkelijk is om met ze in contact te komen. Bij consumenten is dat een stuk lastiger.
Jezelf afficheren en beprijzen als premium-merk, terwijl je dat niet bent, werkt alleen als je in staat bent om je klanten te misleiden, wat ikzelf niet bepaald waardeer. Het gaat meer richting oplichting dan eerlijk zaken doen.Je echter bij voorbaat als budgetmerk neerzetten, zal mogelijk meer kwaad doen dan goed.
Het vereist ook dat de consument zich laat misleiden, maar ik denk dat dit juist bij discrete videokaarten erg lastig is. Veel van consumenten hebben toch wel enige kennis van zaken en het is ook relatief makkelijk om kaarten te vergelijken doordat je de FPS gewoon kunt meten.
Aangezien de kaarten van AMD ook alleen lijken te verkopen als de prijs flink wat lager is dan de prijs die ze initieel vragen, lijkt het ook niet erg goed te lukken.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Qua eigen kosten dus goed bezig, qua prijs, snelheid, features, ondersteuning en verbruik hebben ze nog wel wat te winnen. Kortom: alles wat voor de consument belangrijker is.
Heb naar tevredenheid wederom gekozen voor AMD maar het is wel een beetje kiezen tussen 2 kwaden.
Want wat is het punt van zo snel itereren met flinke hardware verbeteringen, van Vega naar RDNA1, RDNA2 en RDNA3, als mensen de producten niet kunnen kopen vanwege productietekorten, reputatieschade omdat te vroeg gelanceerd is en/of te hoge prijzen? Ze hebben het allemaal gedaan.
Tweede is dat AMD qua drivers en microcode gewoon in een rot positie zitten. Ze moeten en steeds fundamentele aanpassingen maken omdat de hardware zo veranderd. Ze moeten verschillende generaties meer expliciet ondersteunen, nieuwe features die erbij komen, moeten ook ondersteund worden. En dan moeten ze ook nog steeds reageren op wat Nvidia nu weer heeft bedacht. Iets waar ik soms ook van denk dat ze dit beter niet kunnen doen. Ik zit bijvoorbeeld niet echt te wachten op FSR3. Geef het wel een kans, maar ik verwacht niet veel.
Het helpt natuurlijk ook niet dat de marketingafdeling aan actieve zelf sabotage doet en een paar RTG executives letterlijk een twitterverbod zouden moeten krijgen. Oh en natuurlijk ook het RDNA3 benchmark debacle. Bouw je een reputatie op dat je redelijk eerlijk bent met je eigen interne testen en dan komt Nvidia met zo'n toondove presentatie, en dan gooi je het weg door er doodleuk iets van 20% erbij te liegen. Die 20% die (vooralsnog) niet lijkt te werken in RDNA3.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Het is gelukkig al een heel stuk beter dan de OpenCL implementatie van ze (en HIP op Windows). Ik ben het met je eens dat het nu voornamelijk CUDA achterna loopt, ik hoop dat dit gaat veranderen.Ludewig schreef op maandag 15 mei 2023 @ 08:31:
En waar Intel met OneApi innovatief probeert te zijn, maakt AMD simpelweg een CUDA-kloon met ROCm. Dan loop je dus nooit voorop. En dan nog stoppen ze er te weinig moeite in. Zie bijvoorbeeld de reactie van @Sp3ci3s8472 waar hij merkt dat de support voor RDNA3 is gesloopt. Bij RDNA2 was de officiële support ook alleen voor de pro-kaarten en moest je mazzel hebben als het op sommige consumentenkaarten werkt. Dat is totaal anders bij Nvidia waar CUDA overal op werkt en ook gewoon blijft werken.
Een echte ambitie om gelijkwaardig (of beter) te zijn, vereist ook de mate van investering om dat waar te maken. En die ontbreekt nu.
Het duurde met de OpenCL implementatie werkelijk jaren voordat we een buggy Cycles hadden in Blender. Volgens mij heeft AMD nu met de Blender devs in relatief korte tijd het gefixed met hun nieuwere oplossingen. Langzamerhand lijken ze te versnellen.
Ben benieuwd of Intel met OneApi genoeg presence heeft om een impact te maken.
Ik ben het deels met je eens. Nvidia heeft wel een voordeel omdat de opzet van hun raster-pipeline al lang stabiel is. Ik heb ook het idee dat hun driver ook zo goed werkt omdat de kern in het verleden goed opgezet is. Als je kijkt hoeveel moeite ze lijken te hebben met het fixen van bugs, dan heb ik niet het idee dat het huidige driver-team echt goed is in het maken van wijzigingen en dat ze vooral zo min mogelijk eraan proberen te zitten.
Overigens is dit iets dat ik erg herken als ontwikkelaar. Het komt erg vaak voor dat iemand met verstand van zaken iets maakt dat aardig goed werkt, maar dat vervolgens lastig is te begrijpen door iemand die gevraagd wordt om de wijziging te maken. De persoon die de wijziging maakt wordt geacht om in relatief weinig tijd die wijziging te maken, omdat de wijziging zelf niet zo groot is, maar om de impact van wijzigingen te begrijpen heb je vaak heel veel kennis nodig van een flink deel van het systeem. Die tijd krijgt men vaak niet en het is de vraag of je die kennis uberhaupt kan opbouwen zonder het systeem zelf gemaakt te hebben, want code lezen is lastig en door dingen zelf te maken leer je juist heel veel.
Maar het volgen van Nvidia met zaken als DLSS 1, 2 en 3 kost juist minder dan wanneer je innovatief bent en zelf iets nieuws maakt. In dat geval moet je allerlei alternatieven uitzoeken om te bepalen welke werkt. Bovendien stop je dan energie in dingen die niet werkend te krijgen zijn en dus verspilde moeite blijken te zijn. Door te volgen kan AMD nu profiteren van al dat werk van Nvidia en kan precies zien wat wel werkt. Dus dat bespaart aardig wat ontwikkelwerk, maar het betekent dus wel dat ze continu achterlopen.En dan moeten ze ook nog steeds reageren op wat Nvidia nu weer heeft bedacht. Iets waar ik soms ook van denk dat ze dit beter niet kunnen doen.
Overigens zie je dan alsnog dat AMD moeite heeft om dezelfde kwaliteit te bereiken, wat ook een teken is van onderinvestering.
Als AMD eens een keer een killer feature zouden ontwikkelen zouden ze Nvidia dwingen in de positie van volger. Dan zou het ook beter te pruimen zijn als ze op andere features achterlopen of dat die zelfs ontbreken, want dan hebben ze zelf iets dat de concurrent niet heeft ipv alleen andersom.
De vraag is hoe goed het gaat werken zonder hardware support. Het grote voordeel van de innovatie bij Nvidia is dat wanneer ze zien dat iets beter werkt met een hardware-aanpassing, ze die innovatie gewoon even op de plank kunnen leggen terwijl ze de aanpassing laten doen in het volgende chip-ontwerp.Ik zit bijvoorbeeld niet echt te wachten op FSR3.
Bij AMD hebben ze als volger dan de keuze tussen een software-only oplossing die minder goed werkt, of de hardware laten aanpassen, wat meestal betekent dat het niet in de eerstvolgende hardware release zit, maar in de versie erna. Zolang Nvidia deze feature heeft en zij niet, hebben ze qua marketing een probleem. Dus er zit dan flink wat druk op, die je veel minder hebt als je zelf innoveert.
Dit vind ik geen terechte kritiek op AMD, want ze kunnen zich het ook niet veroorloven om massaal capaciteit te reserveren met het risico op grote onverkochte voorraden. Nvidia is zo dominant dat wanneer ze flink wat onverkochte oude kaarten zouden hebben, terwijl AMD met een kaart komt met veel betere prijs/prestatie, Nvidia die oude kaarten gewoon kan blijven verkopen omdat veel mensen liever een veel langzamere kaart van Nvidia hebben voor dezelfde prijs dan een AMD kaart. AMD heeft die luxe niet.als mensen de producten niet kunnen kopen vanwege productietekorten
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Oh dat denk ik ook.Ludewig schreef op maandag 15 mei 2023 @ 11:43:
@DaniëlWW2
Ik ben het deels met je eens. Nvidia heeft wel een voordeel omdat de opzet van hun raster-pipeline al lang stabiel is. Ik heb ook het idee dat hun driver ook zo goed werkt omdat de kern in het verleden goed opgezet is. Als je kijkt hoeveel moeite ze lijken te hebben met het fixen van bugs, dan heb ik niet het idee dat het huidige driver-team echt goed is in het maken van wijzigingen en dat ze vooral zo min mogelijk eraan proberen te zitten.
Maar ik vermoed dat dit ook komt omdat Nvidia het zichzelf zo moeilijk heeft gemaakt om hardware scheduling uit Maxwell te halen en de winsten in performance en verbruik te incasseren. Daar teren ze nog steeds op, terwijl dit voor DX12 gewoon niet goed werkt. Ze lijken daarnaast nu juist tegen steeds meer problemen aan te lopen, juist omdat ze ook hun raster pipeline niet fundamenteel omgooien. Turing kreeg de FP en INT splitsing die goed werkte. Daarnaast kwam er het "keuzemenu" met RT en Tensor. Het is uiteindelijk voornamelijk pick one. 16x FP + 16x INT, RT of Tensor. In theorie kan een deel van RT parallel gedaan worden, maar RT lijkt de SM cache vrij snel, volledig te bezetten waardoor dit niet zo makkelijk gaat.
Ampere kreeg vervolgens 16x FP + 16x INT or 16x FP erbij. Daar zit al meer problematiek. RT hardware lijkt hier ook al meer data starved te zijn geraakt omdat de rekenkracht wel fors omhoog ging, maar data toegang niet. Ada schaalt vervolgens relatief nog slechter, hoeveel hier waarschijnlijk wat word afgevangen door die enorme L2 cache. Maar zelfs als dit allemaal naar behoren werkt, dan alsnog is occupency gewoon laag voor zoveel shaders als je het afzet tegen AMD. En dan moeten ze ook nog eens een behoorlijke CPU hebben omdat ze meer single threaded beperkt zijn.
Ik blijf het ook opvallend vinden dat zoveel mensen de RTX4070Ti en RTX4090 boven de RTX4070 en RTX4080 lijken te waarderen. Ik denk het tegenovergestelde. RTX4070 is behoorlijk efficient afgezet tegen RTX4070Ti en RTX4080 gebruikt haar hardware tenminste een beetje fatsoenlijk iets dat RTX4090 zelfs met een 7800X3D op 4K niet echt goed doet. Daar halen ze misschien 50% effectieve winst uit de extra shaders. Vraag me trouwens wel af wat er gebeurd met bijvoorbeeld Zen 5. Gaat de RTX4090 dan nog uitlopen?
Dat en natuurlijk documentatie.Overigens is dit iets dat ik erg herken als ontwikkelaar. Het komt erg vaak voor dat iemand met verstand van zaken iets maakt dat aardig goed werkt, maar dat vervolgens lastig is te begrijpen door iemand die gevraagd wordt om de wijziging te maken. De persoon die de wijziging maakt wordt geacht om in relatief weinig tijd die wijziging te maken, omdat de wijziging zelf niet zo groot is, maar om de impact van wijzigingen te begrijpen heb je vaak heel veel kennis nodig van een flink deel van het systeem. Die tijd krijgt men vaak niet en het is de vraag of je die kennis uberhaupt kan opbouwen zonder het systeem zelf gemaakt te hebben, want code lezen is lastig en door dingen zelf te maken leer je juist heel veel.
Dat denk ik eigenlijk niet. Je kan zoveel geld tegen een probleem aangooien als je wil, als je de mensen en organisatiestructuur niet hebt, dan komt het niet. En dat lijk ik een beetje te zien bij Radeon. Op zich was dit Raja Koduri zijn enorme bijdrage. Onder hem is veel gedaan met de software. Te veel misschien want je kreeg uiteindelijk Vega waar waarschijnlijk veel meer in had gezeten als die GPU in haar eigen software ecosysteem had gezeten. RDNA1/2 is daar zoveel beter in, en toen kwam RDNA3.Maar het volgen van Nvidia met zaken als DLSS 1, 2 en 3 kost juist minder dan wanneer je innovatief bent en zelf iets nieuws maakt. In dat geval moet je allerlei alternatieven uitzoeken om te bepalen welke werkt. Bovendien stop je dan energie in dingen die niet werkend te krijgen zijn en dus verspilde moeite blijken te zijn. Door te volgen kan AMD nu profiteren van al dat werk van Nvidia en kan precies zien wat wel werkt. Dus dat bespaart aardig wat ontwikkelwerk, maar het betekent dus wel dat ze continu achterlopen.
Overigens zie je dan alsnog dat AMD moeite heeft om dezelfde kwaliteit te bereiken, wat ook een teken is van onderinvestering.

Maar ik benader het ook van de andere kant. Stel je bent echt een top 1% graphics engineer. Je snapt een graphics pipeline helemaal en kan ook zelf dingen maken. Ga je naar Nvidia of AMD? Ik denk dat er meer naar Nvidia gaan omdat ze daar met meer gelijkgestemden zitten. En dan krijg je dergelijke features misschien wel makkelijker. In ieder geval enabled Nvidia dergelijke zaken. Dat zie die vervolgens op een anti consumenten en monopolistische manier inzetten is een tweede.
Derde is dat ik AMD ook gewoon kansen zie laten liggen of niet goed door zie pakken. Je kan nu wel de upscaling race met Nvidia aangaan, maar je hebt er geen of nauwelijks dedicated hardware voor. Wat ze doen met FSR2 is denk ik echt knap, zeker omdat het op zoveel videokaarten werkt, maar het is geen gelijke strijd met DLSS2. Dan gaan ze nu proberen DLSS3 te matchen en dan denk ik echt waarom? Ja RDNA3 heeft ook matrix units, maar kunnen die dit net zo goed? En als alleen RDNA3 het heeft, wat is het punt dan? Te kleine install base, mede omdat de consoles ook wegvallen, dus gaat nauwelijks gebruikt worden.
Ik zou veel liever zien dat ze bijvoorbeeld doorgaan met hun RT optimalisatie tooling. Zorg ervoor dat een developer nog beter kan zien wanneer die minder rays hoeft te casten en dan haal je daar winst uit. Of ga developers leren hoe ze shaders kunnen compileren op een manier dat RDNA3 haar tweede SIMD32 clusters kunnen aanspreken. Dat komt hopelijk nog, want daarmee maak je het onderscheid wel. Of kijk of je meer kan doen met AMD Chill of andere power management tools. In plaats daarvan hebben ze Overdrive aardig beperkt voor RDNA3.
Ik heb het al eens eerder gezegd, maar ik denk dat hun hardware scheduler dit eigenlijk is. Die matched behoorlijk met hun CPU's en stelt ze in staat hun hele GPU zoveel hogere occupency te geven. Ze maken er alleen geen gebruik van. Kijk alleen al naar de games de afgelopen maanden. Ik had het snel door dat AMD zoveel resistenter was voor de Jedi Surivor puinzooi. Het valt me steeds meer op dat met name op 1440p, AMD soms echt een voordeel pakt etc. Dit zullen ze alleen nooit eens onder de aandacht brengen als voordeel, terwijl dit wel een voordeel is.Als AMD eens een keer een killer feature zouden ontwikkelen zouden ze Nvidia dwingen in de positie van volger. Dan zou het ook beter te pruimen zijn als ze op andere features achterlopen of dat die zelfs ontbreken, want dan hebben ze zelf iets dat de concurrent niet heeft ipv alleen andersom.
In het algemeen denk ik toch al dat RDNA een beduidend betere architectuur voor rasterization is dan Turing/Ampere/Ada. Maar het zijn elke keer de software dingen waar het over gaat. Heel grappig dat dit nauwelijks een punt van discussie was rond Pascal. Toen was rasterization en efficiëntie het enige dat telde. En nu zien we dat rasterization nog steeds koning is met de games van de afgelopen tijd, nota bene waren een aantal daarvan nog UE4. UE5 moet nog komen. En ook daar gaat het om rasterization.
Ik heb mijn twijfels.[...]
De vraag is hoe goed het gaat werken zonder hardware support. Het grote voordeel van de innovatie bij Nvidia is dat wanneer ze zien dat iets beter werkt met een hardware-aanpassing, ze die innovatie gewoon even op de plank kunnen leggen terwijl ze de aanpassing laten doen in het volgende chip-ontwerp.
Bij AMD hebben ze als volger dan de keuze tussen een software-only oplossing die minder goed werkt, of de hardware laten aanpassen, wat meestal betekent dat het niet in de eerstvolgende hardware release zit, maar in de versie erna. Zolang Nvidia deze feature heeft en zij niet, hebben ze qua marketing een probleem. Dus er zit dan flink wat druk op, die je veel minder hebt als je zelf innoveert.
Maar mijn punt is juist dat doen wat Nvidia al gedaan heeft, geen oplossing is. Sommige dingen zoals FSR2 ware nodig, maar ik zie het punt van FSR3 gewoon niet zo. Ik zou liever zien dat ze andere dingen met RDNA3 aanpakken. VR performance, idle power en natuurlijk kijken of ze die andere bak shaders nog iets kunnen laten doen.
AMD heeft een aantal jaar geleden bewust inzet op alleen TSMC N7. Hier hebben ze Zen 2/3, Console APU's, laptop/desktop APU's en GPU geconcentreerd. Op zich is dat veilig omdat je daarmee allocatie kan verplaatsen als een van je producten niet verkoopt, maar nu kregen we de situatie waar de gaming GPU's ondergeschoven lijken te zijn geweest omdat al die andere producten voor gingen. Terwijl in die bezopen crypto markt, zo ongeveer je enige redding de drops van AMD zelf waren.Dit vind ik geen terechte kritiek op AMD, want ze kunnen zich het ook niet veroorloven om massaal capaciteit te reserveren met het risico op grote onverkochte voorraden. Nvidia is zo dominant dat wanneer ze flink wat onverkochte oude kaarten zouden hebben, terwijl AMD met een kaart komt met veel betere prijs/prestatie, Nvidia die oude kaarten gewoon kan blijven verkopen omdat veel mensen liever een veel langzamere kaart van Nvidia hebben voor dezelfde prijs dan een AMD kaart. AMD heeft die luxe niet.
Verder is het inderdaad ergens ook typerend dat N21 nog steeds hier en daar te vinden is, maar GA102 eigenlijk niet meer. Nvidia haar inventariswaarden mogen dan echt enorm zijn toegenomen, high end lijkt het alleen niet te zijn. Ondertussen kreeg AMD haar high end aanbod inventaris blijkbaar maar niet verkocht, terwijl ze al langer met prijzen verlagen bezig waren. Staat wel tegenover dat ik niet zo snel zie hoe Nvidia nog van GA104 af gaat komen. Daar lijkt heel wat meer problematiek te zitten. En nu 16GB modellen lanceren, tja er zijn al heel wat 8GB modellen in omloop die ook niet lijken te verkopen.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Volgens mij is dit hun volgende stap daarin. Project dat modulair is opgezet om nieuwe technieken makkelijk te kunnen testen:DaniëlWW2 schreef op dinsdag 16 mei 2023 @ 14:32:
Ik zou veel liever zien dat ze bijvoorbeeld doorgaan met hun RT optimalisatie tooling. Zorg ervoor dat een developer nog beter kan zien wanneer die minder rays hoeft te casten en dan haal je daar winst uit. Of ga developers leren hoe ze shaders kunnen compileren op een manier dat RDNA3 haar tweede SIMD32 clusters kunnen aanspreken. Dat komt hopelijk nog, want daarmee maak je het onderscheid wel. Of kijk of je meer kan doen met AMD Chill of andere power management tools. In plaats daarvan hebben ze Overdrive aardig beperkt voor RDNA3.
https://github.com/GPUOpen-LibrariesAndSDKs/Capsaicin/
Nu lijkt hardware scheduling me niet per se het makkelijkste om te marketen in vergelijking met dingen als raytracing (realistische lichtinval op screenshots!) en DLSS ('4K' zonder lag!).DaniëlWW2 schreef op dinsdag 16 mei 2023 @ 14:32:
[...]
Ik heb het al eens eerder gezegd, maar ik denk dat hun hardware scheduler dit eigenlijk is. Die matched behoorlijk met hun CPU's en stelt ze in staat hun hele GPU zoveel hogere occupency te geven. Ze maken er alleen geen gebruik van. Kijk alleen al naar de games de afgelopen maanden. Ik had het snel door dat AMD zoveel resistenter was voor de Jedi Surivor puinzooi. Het valt me steeds meer op dat met name op 1440p, AMD soms echt een voordeel pakt etc. Dit zullen ze alleen nooit eens onder de aandacht brengen als voordeel, terwijl dit wel een voordeel is.
En het gaat nog wat meer games vereisen die niet voldoende hebben aan een moderne CPU voor AMD om het echt te marketen - en ik denk dat het driverteam bij Nvidia inmiddels ook wel in de paniekstand geschoten is. Dus wanneer en hoe lang ze het als marketing-puntje zouden kunnen gebruiken is nog maar de vraag.
Als consument maakt het ons natuurlijk in principe niet uit hoe efficient de kaart zijn compute units gebruikt, maar of het de markt iets nieuws brengt en hoe het zich verhoud tegenover de vorige generatie.DaniëlWW2 schreef op dinsdag 16 mei 2023 @ 14:32:
[...]
Ik blijf het ook opvallend vinden dat zoveel mensen de RTX4070Ti en RTX4090 boven de RTX4070 en RTX4080 lijken te waarderen. Ik denk het tegenovergestelde. RTX4070 is behoorlijk efficient afgezet tegen RTX4070Ti en RTX4080 gebruikt haar hardware tenminste een beetje fatsoenlijk iets dat RTX4090 zelfs met een 7800X3D op 4K niet echt goed doet.
De 4090 biedt een prestatieniveau dat niet eerder bestond en hij is ook erg aantrekkelijk vergeleken met de 3090 (Ti), want dat was eigenlijk een hele slechte kaart, die veel meer kostte dan een 3080, maar niet zoveel sneller was. De 4070 Ti zit dan weer dichtbij de 3090 Ti qua prestaties, maar kost veel minder. Bovendien was de 3070 Ti ook een prutkaart, dus dat de 4070 Ti veel duurder is dan die kaart, is voor de meeste mensen niet zo relevant, omdat de 3070 Ti voor hen eigenlijk niet bestaat.
De 4080 zit dan weer in een niemandsland en is niet meer met Ampere te vergelijken omdat hij flink sneller is dan de 3090 Ti. Dus dan vergelijk je het al snel met de 4090, wat niet flatterend is, of met de 3080, waar hij helemaal slecht uitkomt. De 3080 en meer in het algemeen de x080-serie is traditioneel de topkaart voor de gamers die het meest overhebben voor hun hobby (en de matige 3090 heeft die perceptie bij veel mensen binnen die groep niet veranderd). Maar een flink deel van die groep heeft geen 'ongelimiteerd' budget en vindt een prijsstijging van 70% logischerwijs niet leuk. Dus die kaart komt er eigenlijk bij elke vergelijking slecht uit.
Dat vermoed ik dus wel en is ook van de redenen waarom ik de bijna gelijke prijs/prestatieverhouding tussen de 4090 en de 4080 in het nadeel vindt van de 4080, want ik verwacht dat de 4090 beter gaat 'fine winen' (en dan heb je ook nog eens 24 GB).Daar halen ze misschien 50% effectieve winst uit de extra shaders. Vraag me trouwens wel af wat er gebeurd met bijvoorbeeld Zen 5. Gaat de RTX4090 dan nog uitlopen?
Ik zie dat niet zo. Engineers vinden het in principe belangrijk dat ze de mogelijkheid krijgen om uitdagende en mooie dingen te maken. Als AMD de ambitie zou uitspreken en dan ook in de praktijk te brengen om minimaal even innovatief te zijn als Nvidia, dan zie ik echt wel dat ze slimme engineers kunnen aantrekken en vasthouden. Die lopen er sowieso al genoeg rond dat ze niet eenzaam worden.Maar ik benader het ook van de andere kant. Stel je bent echt een top 1% graphics engineer. Je snapt een graphics pipeline helemaal en kan ook zelf dingen maken. Ga je naar Nvidia of AMD? Ik denk dat er meer naar Nvidia gaan omdat ze daar met meer gelijkgestemden zitten.
Het werkt eigenlijk beter dan ik dacht. De UI elementen zijn nog wel een probleem, maar als ze dat fixen zie ik veel mensen het wel gebruiken, zeker bij monitoren met vrij hoge refresh rates die nu lastig te benutten zijn met de nieuwere spellen.Dan gaan ze nu proberen DLSS3 te matchen en dan denk ik echt waarom?
Het gevaar is wel dat AMD dan door veel mensen wordt afgeschreven omdat DLSS 2 al beter werkt dan FSR 2 en als ze dan ook nog eens alleen DLSS 3 bij Nvidia krijgen, wordt het gat wel groot.
Dat is dus alleen zo wanneer het spel CPU-bound is, waarbij dit niet op te lossen is met een bescheiden upgrade, wat traditioneel zelden het geval is. Dus ik moet nog zien of dit in de praktijk ook echt zo blijft.Ik heb het al eens eerder gezegd, maar ik denk dat hun hardware scheduler dit eigenlijk is.
Maar het zou wel een flink voordeel kunnen worden, maar op dit moment zie ik dit nog niet echt terugkomen in de reviews.
Daar ben ik toch niet van overtuigd gezien de die sizes die AMD en Nvidia nodig hebben voor een bepaald prestatieniveau, daarbij ook rekening houdend dat Nvidia meer gespecialiseerde hardware in hun chips stopt en met Ampere een slechtere node had.In het algemeen denk ik toch al dat RDNA een beduidend betere architectuur voor rasterization is dan Turing/Ampere/Ada.
En de chiplets lijken wat dat betreft niet zo lekker te werken.
Hoewel ik er zelf veel interesse in heb, lijkt PCVR toch een behoorlijke niche te zijn. Daar gaan ze de oorlog op korte termijn niet mee winnen. En zowel VR als idle power zijn weer voorbeelden van achterlopen op Nvidia, ipv zelf een voorsprong creëren.Ik zou liever zien dat ze andere dingen met RDNA3 aanpakken. VR performance, idle power en natuurlijk kijken of ze die andere bak shaders nog iets kunnen laten doen.
Het lastige is dat we ook niet weten wat er nu precies in voorraad ligt en nog geproduceerd wordt. Misschien is AMD de N21 blijven produceren en misschien heeft Nvidia nu massa's aan Ada chips liggen.Verder is het inderdaad ergens ook typerend dat N21 nog steeds hier en daar te vinden is, maar GA102 eigenlijk niet meer. Nvidia haar inventariswaarden mogen dan echt enorm zijn toegenomen, high end lijkt het alleen niet te zijn. Ondertussen kreeg AMD haar high end aanbod inventaris blijkbaar maar niet verkocht, terwijl ze al langer met prijzen verlagen bezig waren. Staat wel tegenover dat ik niet zo snel zie hoe Nvidia nog van GA104 af gaat komen. Daar lijkt heel wat meer problematiek te zitten. En nu 16GB modellen lanceren, tja er zijn al heel wat 8GB modellen in omloop die ook niet lijken te verkopen.
Sowieso denk ik dat veel volgers onderschatten hoeveel chips de foundries kunnen uitpoepen in een korte periode en hoeveel chips er dus op voorraad kunnen liggen van relatief nieuw spul.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Radeon heeft een laag marktaandeel in nieuwe discrete GPUs, hoewel mindfactory toch vaak 1/3e AMD 2/3e Nvidia laat zien, qua aantallen. De Steam hardware survey is kennelijk sterk vertekend.Ludewig schreef op zondag 14 mei 2023 @ 18:43:
[...]
Uiteraard, maar de marges voor Nvidia en AMD lijken nu wel erg hoog. Bij Nvidia is dat te begrijpen, zeker omdat ze de dominante positie hebben en weinig echte concurrentie, maar AMD heeft nu toch een vrij laag marktaandeel. Uiteindelijk is het over het algemeen zo dat je wanneer je een relatief slecht product maakt, je de keuze hebt tussen lage marges en weinig marktaandeel.
Ik vind PS5 en Xbox X niet echt laag marktaandeel. AMD RDNA2 wordt zeker weten serieus genomen door ontwikkelaars, in ieder geval voor de consoles.Ludewig schreef op zondag 14 mei 2023 @ 18:43:
Een laag marktaandeel heeft allerlei negatieve consequenties zoals dat ontwikkelaars minder snel geneigd zijn om AMD-features te ondersteunen. Dus dan moet AMD bijvoorbeeld games gaan sponsoren om te zorgen dat FSR erin komt. Voor Nvidia is het juist weer relatief makkelijk om ontwikkelaars over te halen om technieken te gebruiken die alleen op Nvidia kaarten werken en daardoor AMD verder op achterstand zetten.
Bouwers van laptops willen graag lage kosten met designs voor meerdere jaren, minder componenten (APU ipv CPU + GPU). AMD lijkt daarom momenteel in het voordeel te zijn, maar Intel heeft nog steeds verreweg het meeste volume en designs in de laptop space.Ludewig schreef op zondag 14 mei 2023 @ 18:43:
En consumenten zijn ook vaak angstig om iets te kopen dat weinig verkocht wordt, ook omdat ze minder vaak iemand kennen die het ook heeft. En bouwers van laptops en PCs hebben graag een vaste leverancier van componenten, dus als je hen constant een voor consumenten aantrekkelijk product geeft, met voldoende marge voor de bouwer, blijven ze loyaal.
Productiekosten van consumenten CPU's valt wel mee, je hebt het over 100-200 mm2? Intel heeft laten zien agressief te prijzen, en AMD op zich ook. Het geld wordt verdiend door server parken, niet door verkoop aan consumenten.Ludewig schreef op zondag 14 mei 2023 @ 18:43:
Intel loopt nu achter op AMD. Als je van beide een CPU pakt die ongeveer gelijk presteert, dan is de CPU van Intel een stuk duurder om te maken. Toch heeft Intel er niet voor gekozen om de marges hoog te houden, maar om het marktaandeel zoveel mogelijk vast te houden. De hoop is dat ze voordat het geld op is weer een goede CPU maken, waar ze voldoende marge op kunnen maken. Dan kunnen ze weer profiteren van het feit dat ze consumenten en bedrijven als Dell niet zijn kwijtgeraakt.
Consumenten zijn niet trouw aan Nvidia, daarom investeert Nvidia zoveel in marketing en mindshare. Hun DLSS, Ray Tracing en AV1 encoder voor midrange kaarten is beter en daar moeten ze het van hebben. Nvidia verdient haar geld meer met AI en CUDA compute, maar wil wel altijd winnen qua GPUs. Zelfs als een discrete GPU Radeon wint, is de marketing van AMD Radeon gewoon te slecht om daar garen bij te spinnen.Ludewig schreef op zondag 14 mei 2023 @ 18:43:
Maar stel dat AMD straks een supergoede generatie heeft die de vloer aanveegt met Nvidia. Dan zullen ze daar relatief weinig van profiteren omdat het een flinke tijd kost om het marktaandeel te vergroten, dus wanneer ze dan (terecht) vrij hoge marges rekenen, vallen de inkomsten toch tegen, omdat de verkoopaantallen niet zo heel hoog zijn.
Niet dat het AMD uitmaakt, zij concentreren zich naast laptops, op handheld. De Z1 en Z1 extreme zijn indrukwekkend, en belangrijker: cash cows
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Misschien ontbreekt het ze aan ambitie bij consumenten GPUs, maar CPUs doen ze redelijk (memory controller kan beter, AM5 is mooi voor upgraden). Verder richt AMD haar aandacht op meerdere projecten, helaas is GPU er daar maar één van. De ambitie is er vermoedelijk wel, de mankracht echter verspreid.Ludewig schreef op maandag 15 mei 2023 @ 08:31:
@Cid Highwind
Het probleem is dat ik geen bewijs zie dat AMD daadwerkelijk genoeg wil investeren om een beter product te maken dat hogere marges rechtvaardigt. Bij de drivers lopen ze steeds achter bij het stabiliseren en optimaliseren. Bij de features zijn ze grotendeels reactief en kopiëren ze zaken als g-sync en DLSS 2 en 3, ipv zelf met nieuwe features te komen. Ze stoppen ook structureel te weinig moeite in hun encoders, die altijd achterlopen op Nvidia en Intel.
En waar Intel met OneApi innovatief probeert te zijn, maakt AMD simpelweg een CUDA-kloon met ROCm. Dan loop je dus nooit voorop. En dan nog stoppen ze er te weinig moeite in. Zie bijvoorbeeld de reactie van @Sp3ci3s8472 waar hij merkt dat de support voor RDNA3 is gesloopt. Bij RDNA2 was de officiële support ook alleen voor de pro-kaarten en moest je mazzel hebben als het op sommige consumentenkaarten werkt. Dat is totaal anders bij Nvidia waar CUDA overal op werkt en ook gewoon blijft werken.
Een echte ambitie om gelijkwaardig (of beter) te zijn, vereist ook de mate van investering om dat waar te maken. En die ontbreekt nu.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Vind je niet dat de occupancy verbeterd is met Ada Lovelace, als je de RTX 4080 met 76 SM vergelijkt met 96 CU van de RX 7900 XTX, die ongeveer gelijk presteren? Of is het eerder dat de goede occupancy van Radeon slechter geworden is met RDNA3?DaniëlWW2 schreef op dinsdag 16 mei 2023 @ 14:32:
[...]
Oh dat denk ik ook.
Maar ik vermoed dat dit ook komt omdat Nvidia het zichzelf zo moeilijk heeft gemaakt om hardware scheduling uit Maxwell te halen en de winsten in performance en verbruik te incasseren. Daar teren ze nog steeds op, terwijl dit voor DX12 gewoon niet goed werkt. Ze lijken daarnaast nu juist tegen steeds meer problemen aan te lopen, juist omdat ze ook hun raster pipeline niet fundamenteel omgooien. Turing kreeg de FP en INT splitsing die goed werkte. Daarnaast kwam er het "keuzemenu" met RT en Tensor. Het is uiteindelijk voornamelijk pick one. 16x FP + 16x INT, RT of Tensor. In theorie kan een deel van RT parallel gedaan worden, maar RT lijkt de SM cache vrij snel, volledig te bezetten waardoor dit niet zo makkelijk gaat.
Ampere kreeg vervolgens 16x FP + 16x INT or 16x FP erbij. Daar zit al meer problematiek. RT hardware lijkt hier ook al meer data starved te zijn geraakt omdat de rekenkracht wel fors omhoog ging, maar data toegang niet. Ada schaalt vervolgens relatief nog slechter, hoeveel hier waarschijnlijk wat word afgevangen door die enorme L2 cache. Maar zelfs als dit allemaal naar behoren werkt, dan alsnog is occupency gewoon laag voor zoveel shaders als je het afzet tegen AMD. En dan moeten ze ook nog eens een behoorlijke CPU hebben omdat ze meer single threaded beperkt zijn.
Ik blijf het ook opvallend vinden dat zoveel mensen de RTX4070Ti en RTX4090 boven de RTX4070 en RTX4080 lijken te waarderen. Ik denk het tegenovergestelde. RTX4070 is behoorlijk efficient afgezet tegen RTX4070Ti en RTX4080 gebruikt haar hardware tenminste een beetje fatsoenlijk iets dat RTX4090 zelfs met een 7800X3D op 4K niet echt goed doet. Daar halen ze misschien 50% effectieve winst uit de extra shaders. Vraag me trouwens wel af wat er gebeurd met bijvoorbeeld Zen 5. Gaat de RTX4090 dan nog uitlopen?
Eens dat RTX 4080 en 4070 efficient zijn.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
De steam hardware survey kijkt niet naar marktaandeel (Marktaandeel wordt normaal gesproken gemeten in het aantal verkochte units in de meest recent afgesloten reporting periode, gewoonlijk het laatst afgesloten kwartaal ten opzichte van de totale markt in dat kwartaal)Radeon heeft een laag marktaandeel in nieuwe discrete GPUs, hoewel mindfactory toch vaak 1/3e AMD 2/3e Nvidia laat zien, qua aantallen. De Steam hardware survey is kennelijk sterk vertekend.
Terwijl de Steam Survey de installed base (een doorsnede van de in gebruikzijnde hardware bij steam gebruikers) meet, 2 compleet verschillende metrics die niet 1:1 te vergelijken zijn.
Eens, maar het vertekende beeld dat er veel meer discrete Nvidia kaarten zijn, blijft. Het relevantere JPR voor marktaandeel houdt geen rekening met wat webshops verkopen, alleen wat de AIB partners geproduceerd hebben (en ge-shipped, maar niet per se verkocht).Dennism schreef op vrijdag 19 mei 2023 @ 23:10:
[...]
De steam hardware survey kijkt niet naar marktaandeel (Marktaandeel wordt normaal gesproken gemeten in het aantal verkochte units in de meest recent afgesloten reporting periode, gewoonlijk het laatst afgesloten kwartaal ten opzichte van de totale markt in dat kwartaal)
Terwijl de Steam Survey de installed base (een doorsnede van de in gebruikzijnde hardware bij steam gebruikers) meet, 2 compleet verschillende metrics die niet 1:1 te vergelijken zijn.
Mindfactory lijkt wat meer te kijken naar daadwerkelijke (Duitse) verkoop.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Verkocht is natuurlijk verkocht. JPR kijkt inderdaad naar B2B verkopen, maar dat neemt niet weg dat het gewoon verkopen zijn en dus tellen voor marktaandeel. Dat is echter marktaandeel.sunsmountain schreef op vrijdag 19 mei 2023 @ 23:31:
[...]
Eens, maar het vertekende beeld dat er veel meer discrete Nvidia kaarten zijn, blijft. Het relevantere JPR voor marktaandeel houdt geen rekening met wat webshops verkopen, alleen wat de AIB partners geproduceerd hebben (en ge-shipped, maar niet per se verkocht).
Mindfactory lijkt wat meer te kijken naar daadwerkelijke (Duitse) verkoop.
Waar de Steam Survey naar kijkt is wat de installed base is onder Steam gebruikers, het kan best zijn dat AMD in de komende Q1 cijfers straks 1/3de van de markt heeft en Nvidia 2/3de qua markt aandeel (al zou dat denk ik vrij veel zijn, AMD heeft volgens mij in tijden niet meer zo'n share gehad). Terwijl het 10% om 90% is in de Steam Survey (geen idee of dat zo is, maar om even een voorbeeld te noemen) en beide getallen kunnen dan prima kloppen, want ze kijken naar compleet verschillende metrics. Installed base, waar de Steam Survey naar kijkt, levert een dwarsdoorsnede op van de Steam gebruikers die akkoord geven, daar kunnen dus ook cpu's of gpu's tussen zitten van 10+ jaar oud, die je dus in markt aandeel cijfers nooit meer ziet, want daar wordt alleen naar het meest recent afgesloten kwartaal gekeken.
Dit is bijv. Q4 2021, Q3 2022 en Q4 2022. AMD zou dan meer dan 3x zo groot moeten worden in de markt QoQ, ik hoop het voor ze (en voor mezelf) maar ik zie dat niet direct gebeuren.

Ik zou juist niet teveel conclusies trekken op alleen de mind factory cijfers, Duitsland is traditioneel gezien een markt die AMD gemiddeld genomen veel beter gezind is dan de rest van de wereld. Daarnaast betreffen die cijfers slechts 1 winkel, namelijk Mindfactory (ze kijken niet naar de hele Duitse markt, het zijn puur hun eigen verkopen die ze listen). Om globale conclusies te kunnen trekken uit dat soort cijfers, heb je cijfers nodig van meerdere winkels, het liefst verdeeld over meerdere landen, continenten en markten.
Ik vermoed dat wanneer je bijvoorbeeld naar Amazons bestsellers gaat kijken je een totaal ander beeld zal zien dan bij Mindfactory. Helaas geeft Amazon geen totaal cijfers.
[ Voor 11% gewijzigd door Dennism op 19-05-2023 23:55 ]
Als je marge 35%DaniëlWW2 schreef op zaterdag 13 mei 2023 @ 10:32:
[...]
Dat komt vermoed ik omdat AMD het een beetje opgegeven lijkt te hebben. De bereidheid om echt onder de belachelijke prijzen van Nvidia te gaan zitten, lijkt er gewoon niet te zijn omdat de meeste toch Nvidia kopen. En die 20-30% die om wat voor reden dan ook, geen Nvidia koopt, tja die hebben ze toch. En als iemand zijn gaming PC inruilt voor een console, tja die hebben ze ook. Vermoedelijk haalt AMD de overgrote meerderheid van hun omzet in hun Gaming segment uit console APU's en is een klein deel maar videokaarten.
Ergens is deze markt ook geen monopolie of duopoly. Het zijn eigenlijk twee naast elkaar bestaande monopolies waar een paar procent van de markt maar betwist lijkt te zijn tussen AMD en Nvidia. En dat zijn juist de DIY kopers die daadwerkelijk benchmarks kijken, adviezen inwinnen, zich inlezen etc. Die worden nu alleen door beide bedrijven uitgebuit.
1350 - 10%
1215 marge 21,5%
1350 - 20%
1080 marge 8%
Je begrijpt dat marge on evenredig inkakt bij verkoop prijs verlaging.
En je dus voor dezelfde winst on evenredig veel meer units moet verkopen.
Dat kan grote invloed hebben op R&D voor RDNA5 want minder ruimte voor R&D budget. Misschien nog wat teren op andere beter lopende takken.
Dat nV voorloopt in drivers en software is simple reden dat ze decades op GPU gebied overwegend goede jaren hadden. En hun afdeling maximaal elk jaar ingezet zijn en navenant ook mee gegroeid. En op software in de pro markt al heel vroeg zwaar hebben ingezet , met winsten van gpu enthausiasten. En de competitie ging daarin niet in mee. Het is hun legacy dat ze nu in deze positie zitten . En aller duidelijkste bewijs is hoe belangrijk en doorslag gevend is dat andere grote reus iNtel ontiegelijk moeite heeft om op dit vlak even bij te komen. ARC soap. Dat ATI in begin de software side vs Cg en later Cuda te lang heeft laten liggen had al grote impact. Maar de dark ages van de CPU tak onder Global foundry is de Radeon tak gekannibaliseerd. Zelfs op allocatie bij foundries minder typen chips maar ook op software tot aan drivers toe. Het heeft enkele Zen generaties geduurd eer de Radeon driver tak op redelijk op gang komt. Maar die software achterstand vooral in de pro tak is chronisch dat maak je niet even goed dat is lange termijn intensiviteit met kans op niet haalbaar. Intel kampt met zelfde probleem. Die zitten in driver kwaliteit en performance voor de consumenten tak om daar bij te komen.
Daarnaast als je kijkt naar nv x090 g-kaart serie top high-end. Deze monolitische Biiiig chip beleid dient 1 doel en dat is at all cost de kroon te pakken. Executie van die taak houd ook in dat je de risico verlaagd op falen dus daarom big. En dat het ook niet productie efficient is en moet dus hoge pool positie pakken. Het is dus belangrijk dat je dan helemaal voor gaat.
AMD oplossing die hebben zich al een zwaar gebrand aan HBM in consumenten product VEGA en die willen zo een ramp van G-kaart onder kost prijs nooit meer. Dus productie efficiëntie en reduceert BOM kost met normale Vram en dat slim benutten. Door infinity cache. Mooie is. Dat je dan geen geke dingen moet doen om die kroon te pakken nV30 FX 5800. Maar ipv halo product een optie is en is minder dan concurrent het met marge kan verkopen als een sub high-end.
En dan kan je kiezen in EU war en recessie om ipv maximale eruit halen een zuinigere sub high-end voor een navenante prijs met redelijke marge. En marge moeten ze hebben want dat zorgt voor R&D voor de volgende reeks generaties.
Met energie kosten meer gebruik van de Mac mini en Threadripper alleen als moet. En gamen op PS5.
Voor sommige dingen heb ik de power van TR niet nodig dus windows nuc waar je ook enigzins op gamen kan.
Ik kijk uit naar die Stix en strix halo APU hoop dat die ook naar de desktop komen.
AMD keuze past beter bij mij, ik koop geen halo product dus wie aan de kroon zit niet zo belangrijk maar wat er tussen 400 en 700euries beschikbaar is. Alleen met de recesie even geen upgrade.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
https://www.phoronix.com/news/RADV-Gfx-Srates-Optimizations
Minder overhead betekent voor Valve ook betere accutijd.
Sapphire lijkt een uitgekleed model van hun Nitro+ te introduceren in tenminste china. Lagere clocks, vapor chamber is weg.
https://videocardz.com/ne...tro-without-vapor-chamber
RX7600 lijkt een referentiemodel te hebben
https://videocardz.com/ne...ictured-shorter-than-21cm
ASUS en ASrock lijken geen enkele moeite te steken in nieuwe ontwerpen. Tja viel te verwachten, al helemaal van ASUS. Die lanceren ook graag wel nieuwe ontwerpen voor Nvidia, maar niet voor AMD. En als ze wel iets unieks maken, dan moet je ook echt hopen dat ze het niet weer compleet verpesten...
https://videocardz.com/ne...for-radeon-rx-7600-series
En er lekken al benchmark scores. Tja de RX7600 lijkt daar toch zeker 30% sneller te zijn dan de RX6600 en net wat sneller dan een RX6650XT. Gat met de RTX4060Ti is buiten RT eigenlijk ook niet bijzonder. Iets van 20% waarbij de RTX4060Ti wat sneller is dan een RTX3060Ti, maar met hogere resoluties al flink lijkt in te leveren op de RTX3060Ti. Denk zo dat de RX7600 inderdaad direct tegenover de RTX4060 komt te staan. En daarmee is de prijs hopelijk ook meteen lager dan $300.
https://videocardz.com/ne...ark-performance-leaks-out
edit: Op zich lijkt me iets van 35% sneller dan een RX6600 voor iets van $250 me wel redelijk. Het is niet de 50% die ik graag zie, maar de RX6600 begon op $330. Verder maakt AMD nu ook duidelijk dat de RX7700 series gebaseerd zullen zijn op N32. Daarin hadden ze misschien ook geen keuze vanwege VRAM. Ik hoop alleen dat AMD besluit het nu een keer slim te spelen en N32 echt in te zetten.
Het liefst zie ik ze hun eigen puinzooi oplossen door de volle N32 te lanceren als RX7700XT met 16GB aan VRAM voor max $500. Dan de RX7700 waarbij ik eigenlijk ook heel graag 16GB zou zien, maar ik vermoed dat het 12GB gaat worden, voor hopelijk maximaal $400.
Verder vermoed ik dat de RX7600 voorbij de 2600MHz gaat clocken als ik die scores zie. 2800MHz lijkt me eerder realistisch en dat geeft extra hoop voor N32. Want ik blijf erbij dat je met 3000MHz waarschijnlijk rond RX6900XT/RX6950XT niveau gaat zitten. Dan versla je dus de RX4070 en benader je de RTX4070Ti. En beiden zien er ontiegelijk dom uit als AMD meer normale prijzen vraagt voor hun 70 klasse midrange chip.
Het gebrek aan een 80, tja ik denk dat AMD gewoon een "nieuw product" moet aankondigen dat de RX7800XT heet voor $600-$650. N31 based, 84CU, 320 bit bus/20GB, maar een TDP van 220W en 18gpbs chips. Vervolgens zeggen ze tegen de AIB's dat ze gewoon de 9 van de RX7900XT moeten veranderen voor een 8 en doen alsof er niks aan de hand is. Dus gewoon 300W en 20gpbs chips.
[ Voor 34% gewijzigd door DaniëlWW2 op 22-05-2023 00:24 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verder wacht ik het gewoon een paar daagjes af. Dan hebben we de reviews waar we echt wat mee kunnen en de echte prijs.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Als ik nu naar RX6650XT prijzen kijk, tja dan is het denk ik alsnog iets te hoog, maar in ieder geval niet dramatisch veel te hoog. Dit is gewoon een instapmodel die veel games kan spelen. En met de nieuwste games soms ook op hogere resoluties dan 1080p, maar soms zal texture kwaliteit omlaag moeten. Ergens zou ik €250 liever zien, maar dit lijkt tolereerbaar te zijn voor nu. Zeker omdat ik denk dat zodra N23 echt begint te verdwijnen, de RX7600 ook wel in prijs gaat zakken. N33 is immers iets kleiner dan N23.
https://videocardz.com/ne...launch-with-269-e299-msrp
edit: En daar is de traditionele pre launch videocardz leak.
AMD claimt 29% sneller dan de RX6600, waarmee je de RX6650XT zou moeten passeren. Reviews volgen later vandaag, dus 15:00.
https://videocardz.com/ne...-7600-rdna3-graphics-card
[ Voor 17% gewijzigd door DaniëlWW2 op 24-05-2023 10:34 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason
Graphene; a material that can do everything, except leave the lab. - Asianometry
Dat is een andere prijssegment, net onder de RX 6800 gaan. 469 dollar.NitroX infinity schreef op woensdag 24 mei 2023 @ 12:29:
Ding had gewoon en 192bit geheugenbus moeten hebben met 12GiB. Dan was het een uitstekende kaart geweest.
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.