Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Ook hebben die reviewers contacten met winkels die vermoedelijk ook af en toe een handje helpen.
Goede zaak dat de grote kanalen hun verantwoordelijkheid nemen en dit soort zaken aan de kaak stellen.
nVidia interesseert het waarschijnlijk geen reet, want AI. Het interesseert ze alleen zodanig dat ze proberen wraak te nemen op de messengers. Erg triest allemaal.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Het zal het allemaal waarschijnlijk niet significant veranderen maar zorgt er wel voor dat veel meer mensen geinformeerd zijn.
Zeker die relatief nieuwe steeds breder doorgevoerde "Preview" taktiek van nVidia via min of meer gekochte "Reviewers" vind ik echt smerig.
Jay doet zoals gebruikelijk ook zijn plicht:
en nog een reactie van HWU op de GN video.
[ Voor 49% gewijzigd door Help!!!! op 20-05-2025 07:22 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
En ook vreemd dat NVidia qua prijs van de RTX50x0's harder lijkt te concurreren dan AMD, die vrolijk boven hun eigen MSRP verkoopt...Format-C schreef op maandag 19 mei 2025 @ 17:25:
Edit: zws vreemd dat nv zich enerzijds niet druk maakt om gamers, maar anderzijds toch zo manipulatief over reviews doet. En over de inhoud.
Of misschien is dat niet zozeer positief van NVidia, maar zijn zowel NVidia als AMD gewoon smeerlappen geworden. Ik kan niet wachten tot Intel eens goed gaat meeconcurreren.
Heeft geen speciale krachten en is daar erg boos over.
Verder ben ik het helemaal met je eens dat het smeerlapperij is. En dat het beide smeerlappen zijn.
Al moet ik zeggen dat nV wel de kroon spant.
(Hopelijk kakt dat hele ai gebeuren een keer helemaal in. En daarmee de beurswaarde van Nv)
[ Voor 25% gewijzigd door Format-C op 20-05-2025 08:29 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Deze gemist? AMD heeft een MSRP gezet maar verkoopt hun kaarten structureel te duur om die MSRP te halen.Format-C schreef op dinsdag 20 mei 2025 @ 08:26:
nv was een maand of 2 maand eerder met de release van de 5000 serie dan AMD, misschien dat de prijzen voor de 9070' en XT binnen niet al te lange tijd ook wel omlaag gaan.
Heeft geen speciale krachten en is daar erg boos over.
Wat een vreemde uitspraak. Boven MSRP verkopen om MSRP te halen? Daar klopt iets nietbwerg schreef op dinsdag 20 mei 2025 @ 08:39:
Deze gemist? AMD heeft een MSRP gezet maar verkoopt hun kaarten structureel te duur om die MSRP te halen.
Het zijn ook niet AMD en Nvidia die hier concurreren, althans niet als ze niet hun officiële MSRP's aanpassen, zo werkt dat niet. MSRP vanuit hen is een prijs waar zij een winstmarge in hebben gecalculeerd voor de hele keten (AIB, distributeur, retail winkel). Het is niet de prijs waarmee zij de chips aan AIB's verkopen, die ligt lager. Daarvoor moet je kijken naar de prijs die op een BOM bij de AIB staat, of een FOB prijs. Díe prijs is waar AMD (of Nvidia, Intel) winst op maakt en die fluctueert niet op en neer, want dan lopen je partners keihard weg. Althans als je AMD of Intel bent. De meeste AIB's durven dat bij Nvidia niet, te veel volume. Of je moet een EVGA'tje doen.
Zelfs als AMD de MSRP oorspronkelijk hoger had staan, zal hun eigen verkoopprijs (aan AIB's dus) A) niet gewijzigd zijn,
Nee, het zal bij de AIB's liggen. ASUS en Gigabyte doen AMD er sowieso maar naast, en doen dus enkel "OC" en "Elite" onzin, want dan kunnen ze meer vragen en makkelijk meer omzet draaien zonder R&D (hun koelers zijn niks). Dan heb je XFX met hun *DERTIEN* modellen. En Powercolor/Sapphire die wél fatsoenlijke koelers maken, maar ook enkel met elkaar en Nvidia tegenhangers hoeven te concurreren. En die tegenhangers zijn nog steeds stukken duurder. Waarom zouden ze dan niet wat meer marge pakken?
Dat gedoe met "OC" uitvoeringen is ook waar het met Ampère zo lelijk mis liep voor velen. Dacht men slim te zijn en niet voor de "ASUS Blabla OC" te gaan, maar voor de gewone "ASUS Blabla" omdat die €50 goedkoper was, werden die maandenlang niet uitgeleverd en waren ze uiteindelijk nooit meer leverbaar. De OC modellen werden intussen wel geleverd (ook maar mondjesmaat, maar toch). Quatsch natuurlijk, het waren allemaal dezelfde chips en binning is al lang geen dingetje meer. Maar als consument kun je dan niks, want ander productnummer.
Nee, waar AMD de fout maakte is geen MBA (reference) in de markt te zetten - of gewoon eindelijk eens die "OC" onzin aan banden te leggen. Maar dat is momenteel ook riskant, omdat ze de partners ook nodig hebben.
Zelfde als altijd. Heel strikte regels, dreigementen. Inclusief onzin als "MFG 4x" als waarde opnemen tegen over 2x of zelfs 1x en doen alsof het echt is.Snorro schreef op dinsdag 20 mei 2025 @ 12:13:
Kan er bij het posten van links naar YT video's ook een korte samenvatting van de inhoud geplaatst worden? Ik begrijp uit de opvolgende posts dat nvidia weer een nieuwe manier gevonden heeft om nog meer nvidia te zijn, maar ben wel benieuwd hoe en wat precies.
[ Voor 8% gewijzigd door Werelds op 20-05-2025 12:18 ]
Nee, je interpretatie van de zin is gewoon niet als hoe ik hem had bedoeld.Werelds schreef op dinsdag 20 mei 2025 @ 12:16:
[...]
Wat een vreemde uitspraak. Boven MSRP verkopen om MSRP te halen? Daar klopt iets niet
Ik snap dat het zo werkt, maar alle andere partijen in het verkoopkanaal concurreren met elkaar (AIB's onderling, tussenverkopers onderling, webshops onderling) dus tenzij er tekorten zijn kunnen die niet meer dan gewoon hun standaard minimummarge pakken. Zodra één partij zakt moet de rest mee tot er een balans is bereikt, zo werkt de vrije markt. Als de verkoopprijs stabiliseert boven MSRP dan kan het niet anders dan dat AMD hun eigen verkoopprijs gewoon te hoog zet om aan de kant van de consument op de MSRP uit te komen. AMD is de enige in de keten die geen last heeft van concurrentie (binnen de AMD-kaarten, wel van NVidia-producten natuurlijk).Het zijn ook niet AMD en Nvidia die hier concurreren, althans niet als ze niet hun officiële MSRP's aanpassen, zo werkt dat niet. MSRP vanuit hen is een prijs waar zij een winstmarge in hebben gecalculeerd voor de hele keten (AIB, distributeur, retail winkel). Het is niet de prijs waarmee zij de chips aan AIB's verkopen, die ligt lager.
Dat waren de geruchten een tijd geleden ook: de eerste batch verliet AMD met een redelijke prijs, daarna zou AMD er 50-100 euro bovenop gooien. Wat een toeval, dat is precies hoe veel kaarten bij webshops nu boven de MSRP zitten.
[ Voor 62% gewijzigd door bwerg op 20-05-2025 12:29 ]
Heeft geen speciale krachten en is daar erg boos over.
off..... de AMD is populairder en/of in lagere aantallen geproduceert wat de prijs hoog houd.Sissors schreef op dinsdag 20 mei 2025 @ 12:46:
Precies, alle AMD gebaseerde GPUs zitten boven msrp. Op Nvidia gebaseerde GPUs zitten de simpele middelen op of zelfs onder msrp. Ik kan dan niet anders concluderen dan dat er op basis van de prijzen die AMD rekent er gewoon te weinig marge overblijft voor de AIBs. Het is niet dat ze uit goedheid van hun hart wel Nvidia tegen msrp leveren.
Intel is tegen MSRP te krijgen... maar niet in de USA. Waarschijnlijk omdat men de vraag in de USA veel te laag heeft ingeschat en daardoor er tekorten zijn.
Ja, het kan zijn dat AMD te weinig rekent om marge over te houden. Het kan ook zijn dat deze range Nvidia-kaarten niet zo populair is als men had verwacht. Ik zou geen enkele conclusie nu hard durven maken voordat er ook bronnen zijn uit de AIB's dat ze inderdaad te weinig marge maken op de MSRP.
Alle courante modellen van de 90x0-serie zijn bij de meeste webshops gewoon direct leverbaar, dus dat lijkt me sterk. De voorraad ligt er. Zodra de voorraad op begint te lopen gaan verkopers een keer hun verkoopaantallen omhoog willen krijgen.Waah schreef op dinsdag 20 mei 2025 @ 13:01:
[...]
off..... de AMD is populairder en/of in lagere aantallen geproduceert wat de prijs hoog houd.
Heeft geen speciale krachten en is daar erg boos over.
De MSRP is €695, alles zit méér dan €50 er boven behalve één kaart. Sterker nog, meer dan de helft van de kaarten zit €100 of meer er boven.bwerg schreef op dinsdag 20 mei 2025 @ 12:23:
Ik snap dat het zo werkt, maar alle andere partijen in het verkoopkanaal concurreren met elkaar (AIB's onderling, tussenverkopers onderling, webshops onderling) dus tenzij er tekorten zijn kunnen die niet meer dan gewoon hun standaard minimummarge pakken. Zodra één partij zakt moet de rest mee tot er een balans is bereikt, zo werkt de vrije markt. Als de verkoopprijs stabiliseert boven MSRP dan kan het niet anders dan dat AMD hun eigen verkoopprijs gewoon te hoog zet om aan de kant van de consument op de MSRP uit te komen. AMD is de enige in de keten die geen last heeft van concurrentie (binnen de AMD-kaarten, wel van NVidia-producten natuurlijk).
Dat waren de geruchten een tijd geleden ook: de eerste batch verliet AMD met een redelijke prijs, daarna zou AMD er 50-100 euro bovenop gooien. Wat een toeval, dat is precies hoe veel kaarten bij webshops nu boven de MSRP zitten.
De webshops kunnen niet veel met elkaar concurreren, daar zijn hun marges te laag voor. Die moeten inkopen bij een distributeur en doen daar iets van marge bovenop; ik kan je zeggen dat dat voor zaken als Megekko waarschijnlijk zo'n 5% is voor producten als deze. Velen denken dat zij er 20-30% bovenop doen, maar dat kan echt niet wanneer voorraad gezond is (slechte voorraad is ook aan prijzen te zien, die fluctueren dan vaak behoorlijk). Dat soort marges pakken ze op kleinere producten, pre-builts, etc..
Distributeurs zijn de eerste laag waar er van alles mis gaat, want veel regio's hebben met slechts één importeur/distributeur te maken (daarom zijn er een flink aantal winkels in de PW die dezelfde "voorraad" hebben, tegen grofweg dezelfde prijs
Ook voor @Sissors:
Kijk voor de gein eens naar prijs verloop van 9070 (XT) vs 5070 (Ti)? Op het moment dat de voorraad van de laatste eindelijk een beetje stabiel werd, stabiliseerde de prijs. Verkocht niet, AIB's voerden een prijsverlaging door en 9070 volgde. AIB's concurreren ook met zichzelf
Laat ik het anders stellen: Voor een XFX die zonodig 13 varianten wil leveren zal de MSRP vast wel te weinig zijn om zelfs quitte te draaien, maar "te weinig" is vooral minder dan de AIB wil, niet wat kán. Vraag speelt ook een rol. De vraagprijzen van Nvidia kaarten zijn dusdanig hoog dat ze zelfs met de beperkte voorraad nooit 100% uitverkocht zijn geweest. Als niemand ze koopt, moeten ze wel omlaag. Slechts 12 van de 44 5070 Ti modellen is binnen €20 of onder MSRP te krijgen, de rest ligt er net als bij AMD boven; van zo'n 5% tot zo'n 30% erboven. Omdat de vraag naar Nvidia (helaas) nog steeds groot genoeg is zijn ze bereid met minimale marges te werken voor enkele modellen, maar het merendeel ligt er even veel boven als bij AMD.
Bij AMD daarentegen zijn de prijzen van de meeste modellen relatief stabiel (pieken door gebrek aan voorraad komen minder voor, zakkingen zijn doorgaans permanent), een teken dat ze gestaag verkopen en op voorraad zijn. En de goedkoopste heeft altijd rond de €740-750 gezeten, wat betekent dat het goedkoper kán (zoals gezegd, AMD's verkoopprijs ligt onder MSRP; zelfs in het ergste geval zou dat de MSRP zelf zijn - geen enkele AIB gaat er bewust verlies op draaien). En toch zijn de meest gangbare prijzen altijd zo'n €75-100 meer geweest dan dat. Dat ligt niet aan AMD. De AIB's willen simpelweg het lagere volume compenseren met hogere marges. Omdat het kan
Dat, plus laatste Mindfactory cijfers die ik zag had Nvidia iets boven AMD staan. Waarbij dat over de hele linie een prachtig resultaat zou zijn voor AMD, maar mindfactory staat erom bekend vooral veel AMD te verkopen.bwerg schreef op dinsdag 20 mei 2025 @ 13:45:
[...]
Alle courante modellen van de 90x0-serie zijn bij de meeste webshops gewoon direct leverbaar, dus dat lijkt me sterk. De voorraad ligt er. Zodra de voorraad op begint te lopen gaan verkopers een keer hun verkoopaantallen omhoog willen krijgen.
[ Voor 45% gewijzigd door Sissors op 20-05-2025 14:59 ]
Zijn toch allemaal kopiën zo ongeveer? En niet alsof er niet ook hele reeksen voor Nvidia zijn.Werelds schreef op dinsdag 20 mei 2025 @ 14:56:
[...]
Laat ik het anders stellen: Voor een XFX die zonodig 13 varianten wil leveren zal de MSRP vast wel te weinig zijn om zelfs quitte te draaien, maar "te weinig" is vooral minder dan de AIB wil, niet wat kán.
Dat zijn er al 12 meer dan bij AMD. En het is nogal logisch dat merendeel er boven ligt. Immers je hebt niks onder de basis kaarten, en wel luxere varianten.Slechts 12 van de 44 5070 Ti modellen is binnen €20 of onder MSRP te krijgen, de rest ligt er net als bij AMD boven
Wat bedoel je met AMDs verkoopprijs? Wat ze vragen voor de gpu die? Ja die ligt over MSRP, maar de AIBs moeten daar nog heel veel mee doen ook voor er een GPU is die jij in je computer kan steken. En ja, die willen wel wat winst hebben ook.zoals gezegd, AMD's verkoopprijs ligt onder MSRP
Onder de streep geloof ik niet dat de AIBs wel bij AMD grote marges maken, dus niet concurreren met elkaar, en bij Nvidia ze veel lagere marges prima vinden.
Maar goed, zelfs als dat zo is, dan maakt het voor ons als consument weinig uit: Nvidia wordt relatief interessanter. En ik help het je hopen dat vanwege de grote vraag naar AMD kaarten de prijzen niet naar beneden gaan, maar ik ben bang dat dat het niet is.
Geen 13 stuksSissors schreef op dinsdag 20 mei 2025 @ 15:09:
Zijn toch allemaal kopiën zo ongeveer? En niet alsof er niet ook hele reeksen voor Nvidia zijn.
Bij XFX is het vooral dat het om kleurtjes gaat voor slechts 3 verschilende koelers, wat gewoon onnodige productiekosten met zich mee brengt. Bij de rest (ook aan Nvidia's kant) heb je het ook over 2 of 3 koelers, maar dan meestal ook slechts 1 "normale" + 1 "OC" uitvoering per koeler (en de OC uitvoering is gewoon BIOS).
Ware het niet dat een deel daarvan juist "luxere" varianten zijn. Aanhalingstekens omdat "OC" zinloos is. Maar dat verkoopt wel makkelijker. Er zijn een heel stel "OC" varianten die juist het goedkoopst zijnDat zijn er al 12 meer dan bij AMD. En het is nogal logisch dat merendeel er boven ligt. Immers je hebt niks onder de basis kaarten, en wel luxere varianten.
Ja, dat is altijd zo. Maar nogmaals: de MSRP zoals AMD (of Nvidia) die stelt is al bedacht op die productie kosten + marge. De AIB's willen echter meer dan dat hebben. Zoals ik zei, jaren geleden was de FOB voor een 7970 $525 en ging toen omlaag; maar dat betekent ook dat de marge voor AIB's toen aanvankelijk slechts 5% wasWat bedoel je met AMDs verkoopprijs? Wat ze vragen voor de gpu die? Ja die ligt over MSRP, maar de AIBs moeten daar nog heel veel mee doen ook voor er een GPU is die jij in je computer kan steken. En ja, die willen wel wat winst hebben ook.
En ik denk dat je je daar vergist, in de zin dat ze momenteel weldegelijk lagere marges accepteren op enkele Nvidia producten omdat ze daar meer modellen voeren en ze ze niet kwijt komenOnder de streep geloof ik niet dat de AIBs wel bij AMD grote marges maken, dus niet concurreren met elkaar, en bij Nvidia ze veel lagere marges prima vinden.
Een MSRP is een richtprijs, geen verplichting. Nvidia's hogere MSRP's betekent ook dat de fabrikanten daar meer betalen voor de die, anders zouden ze te ver onder Nvidia's eigen FE's kunnen gaan zitten.
Overigens zullen de marges bij beide niet geweldig zijn (is nooit een goudmijn geweest, videokaarten zijn om naam mee te maken, geen grof geld
ligt dit aan AMD of aan de distributeurs?bwerg schreef op dinsdag 20 mei 2025 @ 08:39:
[...]
Deze gemist? AMD heeft een MSRP gezet maar verkoopt hun kaarten structureel te duur om die MSRP te halen.
(Had t artikel wel gezien, maar ik haal dat er zo niet uit. Of ik lees niet goed)
Edit; ik lees dus niet goed. Zie nu t andere artikel waar instaat dat amd te hoge prijzen vraagt.
Mn excuses
Edit2:
Al is dit artikel: review: Wat ging er mis bij de AMD RX 9070 (XT)-release?
Een artikel van net na de release. (Dit artikel staat weer in het artikel van jouw link haha.)
En ik weet niet of dat nu nog steeds zo is (?)
Hoe dan ook zou ik gewoon nog steeds lekker wachten..de prijzen dalen vanzelf. Ook die van amd
[ Voor 36% gewijzigd door Format-C op 20-05-2025 17:48 ]
Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX
Mits genoeg voorraad kan een AIB 7 dagen per week, 24 uur per dag kaarten verkopen tegen een paar luttele minuten waarin Nvidia er een paar aanbied per week/2 weken.....
Ik zat er nooit bovenop of zo maar alle keren dat ik bij de NV shop keek waren de high-end kaarten sowieso uitverkocht. Was met de 4090 en ouder ook al zo
En laten we even heel eerlijk zijn. De FE kaarten laten vaak aardig te wensen over qua koeling/geluid. Het zijn visueel mooie kaarten en zijn, in verhouding met sommige AIB's, lekker compact en dan heb je het wel gehad.meljor schreef op dinsdag 20 mei 2025 @ 20:06:
Ik denk dat de eigen concurrentie van NV tov de AIB's erg meevalt.
Mits genoeg voorraad kan een AIB 7 dagen per week, 24 uur per dag kaarten verkopen tegen een paar luttele minuten waarin Nvidia er een paar aanbied per week/2 weken.....
Ik zat er nooit bovenop of zo maar alle keren dat ik bij de NV shop keek waren de high-end kaarten sowieso uitverkocht. Was met de 4090 en ouder ook al zo
MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y
Ben wel benieuwd hoe dat rijmt met het 'Nvidia verkoopt geen gaming kaart, niemand wil ze hebben' narratief van sommige leakers, of het 'er is geen supply, AMD verkoopt zoveel meer kaarten dan Nvidia'.
First-quarter Gaming revenue was a record $3.8 billion, up 48% from the previous quarter and up 42% from a year ago.
[ Voor 8% gewijzigd door Dennism op 29-05-2025 00:27 ]
Hogere omzet is ook geen teken van hoger volume, vooral niet met de prijzen van Blackwell. Voor elke 3 5090's moesten er 4 4090's verkocht worden (in dit geval doet MSRP er wél toe
Ik zou er pas waarde aan hechten als de trend zich de rest van het jaar door zet.
Dat klopt, maar dat zelfde probleem heeft AMD ook, die $647 miljoen uit hun cijfers is Radeon, Xbox, Playstation en de semicustom handheld SoC's. En Xbox / PS5 / Handhelds is normaliter een groter volume dan Nintendo. Mogelijk dat het nu wat dichter bij elkaar ligt, omdat Nintendo in Q2 met een release komt. Maar dan nog, haal er bij beide een paar honderd miljoen af of die omzet en het wordt alleen maar treuriger voor AMD.Werelds schreef op donderdag 29 mei 2025 @ 10:10:
@Dennism vergeet niet dat Gaming ook GeForce Now, laptop GPU's en SoC's omvat. Nintendo zit daar dit kwartaal al in en in laptops is Nvidia nog steeds onverminderd populair.
Hogere omzet is ook geen teken van hoger volume, vooral niet met de prijzen van Blackwell. Voor elke 3 5090's moesten er 4 4090's verkocht worden (in dit geval doet MSRP er wél toe). En met de 5070 Ti + 5080 is er minder afschrijving op GB203 dan op AD103. Q1 vorig jaar was ook een daling en Q4 zat op hetzelfde punt, dus die YoY/QoQ cijfers laten niet zien dat ze daar tussenin een flinke piek gehad hebben.
Ik zou er pas waarde aan hechten als de trend zich de rest van het jaar door zet.
https://ir.amd.com/news-e...er-2025-financial-results
Verder zijn laptop die's dezelfde die's als DiY, dat gaat dus gewoon op dezelfde hoop qua marktaandeel, een dGPU is immers een dGPU dat wordt niet anders omdat de ene in een laptop zit terwijl de ander los verkocht wordt bij Mindfactory. Juist dat lijken veel van die leakers vaak te vergeten. Ze geven mensen onvolledige info gebaseerd op bijv. de verkopen van 1 Duitse webwinkel en gaan dan globaal conclusies proberen te trekken over de daadwerkelijke dGPU sales.Gaming revenue was $647 million, down 30% year-over-year primarily due to a decrease in semi-custom revenue.
MSRP's zeggen hier juist helemaal niet zoveel, want wij hebben geen idee wat AMD en Nvidia aan hun partners vragen per die in bulkprijzen, als de geruchten kloppen kan dat zelfs nadelig zijn voor AMD, want er zijn nog steeds geruchten dat AMD de 9000 serie dies zo prijst dat men geen MSRP kaarten kan maken en dan nog op die kaarten kan verdienen zolang AMD de rebates niet terugbrengt voor die modellen.
En volume hoeft ook niet hoger te zijn dan voorheen, al hangt dat van AMD af, hoeveel % marktaandeel jouw volume dit kwartaal is, is niet afhankelijk van het vorige kwartaal, maar alleen van het volume van de concurrentie in hetzelfde kwartaal. Stel in Q4 2024 verkoopt Nvidia 75 dGPU's en AMD 25 dGPU's is het marktaandeel voor dat kwartaal 75%-25% in het voordeel van Nvidia, verkopen ze dit kwartaal fictief 150 en 50 dGPU respectievelijk blijft die verhouding hetzelfde, terwijl ze beide in dat geval meer volume hebben. Zouden ze beide minder volume hebben kan dat ook het geval zijn. Maar om '(veel) meer te verkopen als Nvidia' te kunnen claimen, dat is immers hetzelfde als zeggen 'AMD heef een groter marktaandeel dan Nvidia' zoals sommige van die claims, moet AMD in absolute cijfers meer volume hebben dan Nvidia gedurende het kwartaal.
Zelfs al zou je er bij AMD $325 miljoen afhalen voor semi custom (ik vermoed eigenlijk dat Semi custom meer is, want voorheen werd Radeon altijd op zo'n $100-$200 miljoen geschat per kwartaal, een stijging ergens tussen de 200% en 50% aan omzet is dan voor AMD begrippen al enorm) en bij Nvidia $800 miljoen is het nog altijd zit je dan bijna aan 1:10 voor dGPU omzet.
En dan blijf ik het lastig te geloven wanneer zo'n leaker claimt dat AMD meer dGPU's verkoopt dan Nvidia het afgelopen kwartaal op basis van dit soort cijfers.
Dit is nu al het 2de metric dat niet meegaat in de theorie van deze leakers (de eerste was de Steam Survey waar je wel 5000 serie kaarten ziet in de laatste uitgave, maar geen AMD 9000 serie kaarten, wat al niet logisch zou zijn als AMD globaal in totaliteit meer zou verkopen dan Nvidia, en eigenlijk zelfs van een bepaalde Sku, want als je meer verkoopt van een Sku, zou je ook een grotere install base verwachten onder gamers en die Sku en dus die Sku eerder zien in de survey dan een Sku die minder verkoopt). Nu is de Steamsurvey verre van zaligmakend, maar wel een interessant data punt in deze omdat het juist niet kijkt naar wat enkel verkocht wordt (immers kunnen mensen ook Nvidia GPU's opkopen voor AI en die zal je nooit in zo'n survey zien, maar wel in de Jon Peddie cijfers) maar juist kijkt naar wat er bij gamers in het systeem geïnstalleerd is.
Nu is het volgende data punt deze cijfers waar AMD $647 omzet in het gaming segment (en een daling laat zien) en Nvidia, die een record omzet boekt, beter dan hun beste resultaat tijdens Corona / Crypto als ik het goed gelezen heb, wat zeker niet in het voordeel van de 'AMD verkoopt meer chips' of 'Nvidia wil geen gaming kaarten verkopen' theorieën spreekt. Want al zal Nvidia ASP ongetwijfeld hoger zijn, dat gaat geen 1:6 tot 1:10 verhouding verklaren, volume zit immers over het algemeen in de goedkoopste chips, waar het minste verschil zal zitten tussen Nvidia en AMD dies qua prijs richting de AIB's.
Ik blijf dan ook zeer benieuwd naar de nieuwe cijfers van Jon Peddie, maar ik begin langzaamaan steeds minder te geloven in een stunt van AMD en steeds meer in het scenario dat die leakers mensen simpelweg een oor aan het aannaaien zijn. En dan zal AMD vast een paar % terug pakken, immers veel slechter dan waar ze vandaan kwamen kan niet, maar ik zie AMD op basis van de nu bekende metrics eigenlijk niet ineens naar 50%+ marktaandeel gaan, wat wel nodig is om de claims van deze leakers te ondersteunen.
[ Voor 17% gewijzigd door Dennism op 29-05-2025 11:24 ]
Nintendo heeft 150+ miljoen Switches verkocht in 8 jaar; 4,5 jaar na de launch van de PS5 en Series X/S hebben die twee samen zo'n 106 miljoen verkocht. Switch is een bizar verkoopmonster geweest.Dennism schreef op donderdag 29 mei 2025 @ 11:00:
Dat klopt, maar dat zelfde probleem heeft AMD ook, die $647 miljoen uit hun cijfers is Radeon, Xbox, Playstation en de semicustom handheld SoC's. En Xbox / PS5 / Handhelds is normaliter een groter volume dan Nintendo.
Nieuwe SoC voor de Switch 2, twee keer zo groot als z'n voorganger, met Ampere IP ipv Maxwell. Gaan ze veel meer voor vragen en de productie is dit kwartaal minimaal dubbel zo veel als de PS5/XBOX, als het niet meer is, om aan de verwachtte vraag bij launch te kunnen voldoen. De verkopen buiten Q3 altijd heel slecht, ik zou het niet onderschatten.Mogelijk dat het nu wat dichter bij elkaar ligt, omdat Nintendo in Q2 met een release komt. Maar dan nog, haal er bij beide een paar honderd miljoen af of die omzet en het wordt alleen maar treuriger voor AMD.
Ik volg je niet helemaal; mijn punt is dat Nvidia's omzet ook deels uit laptop GPU's komt, waar AMD niet vertegenwoordigd is. Bij AMD valt dat onder Client, want dat zit in de APU's, terwijl dat bij Nvidia onder Gaming valt. Die cijfers kun je dus niet vergelijken.Verder zijn laptop die's dezelfde die's als DiY, dat gaat dus gewoon op dezelfde hoop qua marktaandeel, een dGPU is immers een dGPU dat wordt niet anders omdat de ene in een laptop zit terwijl de ander los verkocht wordt bij Mindfactory.
Zoek maar eens naar een laptop met een RX 7000 GPU, ga je niet vinden in NL of BE - of de rest van Europa. Bestaan nauwelijks.
Kostprijs ligt niet ver onder MSRP; marges op desktop videokaarten zijn doorgaans minder dan 10% (voor het geheel). Laptops is lastiger, want daar is de GPU een nog veel kleiner onderdeel van het geheel.En ook verschillen in kostprijs voor de die's (MSRP's zeggen hier juist helemaal niet zoveel, want wij hebben geen idee wat AMD en Nvidia aan hun partners vragen per die in bulkprijzen, als de geruchten kloppen kan dat zelfs nadelig zijn voor AMD, want er zijn nog steeds geruchten dat AMD de 9000 serie dies zo prijst dat men geen MSRP kaarten kan maken en dan nog op die kaarten kan verdienen zolang AMD de rebates niet terugbrengt voor die modellen).
Alle consoles (incl. Switch 1) lagen in Q1 zo'n 30% lager dan in 2024Maar zelfs al zou je er bij AMD $325 miljoen afhalen voor semi custom (ik vermoed eigenlijk dat Semi custom meer is, want voorheen werd Radeon altijd op zo'n $100-$200 miljoen geschat per kwartaal, een stijging ergens tussen de 200% en 50% aan omzet is dan voor AMD begrippen al enorm) en bij Nvidia $800 miljoen is het nog altijd zit je dan bijna aan 1:10 voor dGPU omzet.
Nogmaals, ik zeg niet dat jij of de leakers gelijk hebben, ik zeg enkel dat we de rest van het jaar moeten zien, omdat dit kwartaal niet representatief is én dat je Gaming tussen de twee niet geheel kunt vergelijken. AMD's iGPU's vallen simpelweg niet onder gaming; zelfs de AI Max en handheld (Steam Deck etc.) chips vallen onder Client. Gaming is enkel desktop GPU's en de consoles, laptop GPU is te verwaarlozen. Zoals gezegd, die zijn gewoon niet te krijgen, is 0,0 interesse in. En er zijn honderden laptops met Nvidia GPU's te krijgen.
Dat klopt volgens mij niet geheel, AMD's standaard cpu's zitten inderdaad in Client, maar voor zover mij bekend vallen zaken als de chip voor de Steamdeck onder Semi custom en niet onder client (immers PS5 / Xbox zijn ook gewoon APU's met een iGPU, voor zover ik het begrijp eigen verkoop > Client segment, ontwikkeld voor / in samenwerking met 3de partij > semi custom en dus gaming segment).Werelds schreef op donderdag 29 mei 2025 @ 12:26:
Nogmaals, ik zeg niet dat jij of de leakers gelijk hebben, ik zeg enkel dat we de rest van het jaar moeten zien, omdat dit kwartaal niet representatief is én dat je Gaming tussen de twee niet geheel kunt vergelijken. AMD's iGPU's vallen simpelweg niet onder gaming; zelfs de AI Max en handheld (Steam Deck etc.) chips vallen onder Client. Gaming is enkel desktop GPU's en de consoles, laptop GPU is te verwaarlozen. Zoals gezegd, die zijn gewoon niet te krijgen, is 0,0 interesse in. En er zijn honderden laptops met Nvidia GPU's te krijgen.
Dit wordt ook zo besproken in Investor briefings:

Verder kijk in niet naar totaal volume voor de Switch / PS5 / Xbox, want dat is niet interessant voor kwartaal cijfers. ik keek naar de cijfers van de afgelopen maanden: https://www.vgchartz.com/...form_totals/Hardware.php/
En dan zie je dat hoewel de Switch het in totaal beter doet, de PS5 / Xbox het gezamelijk momenteel beter doen qua volume. Daarnaast doen ze het relatief gezien per tijds eenheid natuurlijk ook stukken beter dan de switch qua volume (want korter op de markt en relatief gezien in die periode meer verkocht) maar ook dat is voor de huidige cijfers niet heel interessant.
Maar je onderstreept hier al grotendeels mijn punt, een dGPU in een laptop is ook een dGPU (d staat immers niet voor 'Desktop' (wat soms gedacht wordt, maar voor 'discrete'), en dat AMD daar amper vertegenwoordigd is (want je ziet inderdaad amper RX7000 en volgens mij helemaal geen 9000 in laptops) is alleen maar nadelig voor Blackwell v.s. RDNA4 volume (en dus marktaandeel) en juist dat lijken die leakers te vergeten. Laptop is een heel belangrijke driver van marktaandeel in dGPU. En dus zeggen die cijfers (bijv. van die ene Duitse winkel waarmee ze speculeren, of bijvoorbeeld de Amazon 'best sellers') vrij weinig, dat was nu juist een van mijn punten
iGPU's in het client segment zijn niet interessant voor dGPU marktaandeel cijfers, dus daar kijk ik al helemaal niet naar, want is dat simpelweg een ander segment zoals jij ook al aangeeft. Als je dat segment gaat meenemen is Intel de 'koning' qua volume en marktaandeel, en komen zowel Nvidia als AMD niet in de buurt.
Edit: Heb voor dat laaste even Jon Peddie total PC GPU voor Q4 2024 (dus dGPU + iGPU in de notebook en desktop PC markt (dus ik vermoed geen consoles). erbij gepakt.
Zit AMD op 18,xx%, Nvidia op 16,xx% en Intel op 65,xx%
Dan zie je dus dat in Q4 2024 Nvidia (die geen iGPU's heeft in het PC segment), bijna net zoveel dGPU's verkoopt als AMD dGPU's en iGPU's bij elkaar (Dus AMD's client segment ook meegerekend).

Dat is eigenlijk nog erger dan ik gedacht had voor AMD
Daarvoor had je nog het dingetje dat Zen 1/2/3 alleen in het laptop segment en in het embedded segment een iGPU hadden (en embedded niet eens altijd), maar dat is sinds Zen 4 ook niet meer.
Verder ook nog wel wat andere interessante zaken van Jon Peddie.
Desktop v.s. laptop zit tegen 30 / 70 in de gemeten en vergeleken periodes (vandaar dus ook dat laptop, ook voor dGPU's zeer belangrijk is voor de verkopen en het succes van een generatie).

Terwijl PC's met een dGPU de komende jaren ongeveer 15% van de markt gaat zijn:
Overall, GPUs will have a compound annual growth rate of -1% from 2024 to 2028 and reach an installed base of 3,008 million units at the end of the forecast period. Over the next five years, the penetration of discrete GPUs (dGPU) in the PC will be 15%.
[ Voor 27% gewijzigd door Dennism op 29-05-2025 13:32 ]
AMD heeft Intel verslagen omdat ze met iets BETERS kwamen
AMD gaat Nvidia niet verslaan omdat ze simpelweg niks beters hebben
Je kunt gamers belachelijk maken dat ze Nvidia blijven kopen maar mensen kopen geen RTX omdat ze fan zijn van Nvidia. Gamers willen gewoon het beste.
Dat is sindsdien veranderd. Uit de Q4 notes:Dennism schreef op donderdag 29 mei 2025 @ 13:02:
Dat klopt volgens mij niet geheel, AMD's standaard cpu's zitten inderdaad in Client, maar voor zover mij bekend vallen zaken als de chip voor de Steamdeck onder Semi custom en niet onder client (immers PS5 / Xbox zijn ook gewoon APU's met een iGPU, voor zover ik het begrijp eigen verkoop > Client segment, ontwikkeld voor / in samenwerking met 3de partij > semi custom en dus gaming segment).
Dit wordt ook zo besproken in Investor briefings:
[Afbeelding]
• the Client segment, which primarily includes CPUs, APUs, and chipsets for desktop, notebook and handheld personal computers;
• the Gaming segment, which primarily includes discrete GPUs, and semi-custom SoC products and development services
Vgchartz is niet betrouwbaar, geen idee waar ze hun cijfers vandaan halen. Voor Nintendo Q1'25 is het 1,26 miljoen (hier). Voor Sony's PS5 is het 2,8 miljoen (hier). Ja, de PS5 (+ XBOX) doen het beter, maar gezien de leeftijd van de Switch deed dat ding het nog steeds bizar goed.Verder kijk in niet naar totaal volume voor de Switch / PS5 / Xbox, want dat is niet interessant voor kwartaal cijfers. ik keek naar de cijfers van de afgelopen maanden: https://www.vgchartz.com/...form_totals/Hardware.php/
En dan zie je dat hoewel de Switch het in totaal beter doet, de PS5 / Xbox het gezamelijk momenteel beter doen qua volume. Daarnaast doen ze het relatief gezien per tijds eenheid natuurlijk ook stukken beter dan de switch qua volume (want korter op de markt en relatief gezien in die periode meer verkocht) maar ook dat is voor de huidige cijfers niet heel interessant.
En ter vergelijking, 4,5 jaar na release verkocht de Switch nog 16,8 miljoen stuks...en de Lite 7,3. Volume van de "grote" consoles ligt deze generatie een stuk lager dan met de PS4/One. Dus nogmaals, onderschat de impact van de Switch 2 niet
Echter gaan die statements over desktop GPU's. Ze zeggen niet dat Nvidia minder dGPU's verkoopt, ze zeggen dat ze minder desktop GPU's verkopenMaar je onderstreept hier al grotendeels mijn punt, een dGPU in een laptop is ook een dGPU (d staat immers niet voor 'Desktop' (wat soms gedacht wordt, maar voor 'discrete'), en dat AMD daar amper vertegenwoordigd is (want je ziet inderdaad amper RX7000 en volgens mij helemaal geen 9000 in laptops) is alleen maar nadelig voor Blackwell v.s. RDNA4 volume (en dus marktaandeel) en juist dat lijken die leakers te vergeten. Laptop is een heel belangrijke driver van marktaandeel in dGPU. En dus zeggen die cijfers (bijv. van die ene Duitse winkel waarmee ze speculeren, of bijvoorbeeld de Amazon 'best sellers') vrij weinig, dat was nu juist een van mijn punten
Laptop negeren ze inderdaad volledig, maar laptop kun je ook niet echt meetellen in Nvidia's voordeel als het op vertegenwoordiging aan komt. Veel verkochtte laptops met de low-end dGPU's worden niet voor games gebruikt, talloze zakelijke laptops die een dGPU hebben.
RX9000 voor laptops bestaat overigens niet eens, dus die zul je niet zien nee
Eens voor dGPU, ware het niet dat laptops met AMD's hoger segment APU's vaak geen dGPU krijgen omdat de iGPU rap genoeg is. Anderzijds worden Nvidia GPU's maar zelden aan een AMD CPU gekoppeld in laptops (75% van de laptops met Nvidia GPU heeft een Intel CPU)iGPU's in het client segment zijn niet interessant voor dGPU marktaandeel cijfers, dus daar kijk ik al helemaal niet naar, want is dat simpelweg een ander segment zoals jij ook al aangeeft. Als je dat segment gaat meenemen is Intel de 'koning' qua volume en marktaandeel, en komen zowel Nvidia als AMD niet in de buurt.
Die cijfers kun je weinig aan onttrekken. CPU marketshare is ook nodig zowel op desktop als laptop, want Intel heerst nog steeds in laptops. Afgaande op de PW, heeft 75% van de laptops met een Nvidia GPU een Intel CPU. Met andere woorden, Intel's 65% omvat ook een deel van beide andere (desktop Intel CPU + dGPU). AMD's 18 omvat ook een deel van beide andere. AMD+AMD telt dubbel mee. AMD's desktop CPU marketshare zat tegen de 30% aan als ik me niet vergis; dát is waar dingen als Mindfactory niet toereikend zijn, omdat ze pre-builts volledig negeren en de grote fabrikanten daarvan leunen nog steeds heel veel op Intel...en Nvidia.Dan zie je dus dat in Q4 2024 Nvidia (die geen iGPU's heeft in het PC segment), bijna net zoveel dGPU's verkoopt als AMD dGPU's en iGPU's bij elkaar (Dus AMD's client segment ook meegerekend).
Om daar conclusies uit te trekken heb je toch echt een gedetailleerder rapport nodig. CPU marketshare, dGPU split, enzovoort
Nogmaals, wat mij betreft is er meer tijd nodig om te zien of Nvidia geraakt is of niet.
Die conclusie haal ik daar niet uit, immers hebben ze ook 'off the shelf' handheld APU's (https://www.amd.com/en/pr...helds/ryzen-z-series.html), maar dus ook custom SoC's (in de Steamdeck), dat bijt elkaar dus niet in die statement. Steamdeck kan dus prima in gaming zitten, want dat is een Semi Custom ontwikkelde SoC voor / met Valve, ding laat zich bijv. herkennen als "AMD Custom APU 0405" in software. Terwijl de Z1/Z2 chips in Client zitten, want off-the-shelve en voor iedere partij die wil beschikbaar voor hun Handhelds (bijv. Asus en Lenovo geloof ik).Werelds schreef op donderdag 29 mei 2025 @ 15:43:
[...]
Dat is sindsdien veranderd. Uit de Q4 notes:
Ook hier zie ik niet direct waarom die cijfers niet betrouwbaar zouden zijn, immers geeft ZGchartz +- exact dezelfde cijfers weer als jouw links. Die ondersteunen elkaar dus eerder dan dat ze elkaar bijten.
Immers geeft VGchartz voor de PS5
1.035 miljoen PS5 voor Maart
1.006 miljoen voor Feb
865k voor jan
Samen +- 2.8 miljoen
En voor de switch zitten ze ook redelijk in de buurt, al schatten ze die iets hoger in met 1.36 miljoen.
456k in maart
442k in feb
482k in jan
Al weet ik niet of VGChartz die dingen zelf meer, of dat ze gewoon de cijfers van de marktvorsers als Jon Peddie (maar dan de partij gespecialiseerd in consoles) pakken en verwerken, zoals bijvoorbeeld Beyond3D altijd doet met de Jon Peddie cijfers. Exacte data after the fact van de fabrikanten (in een quarterly report) zal natuurlijk altijd wanneer beschikbaar beter zijn dan dat van marktvorsers als Jon Peddie en anderen, want die moeten schatten, maar VGchartz zit hier niet zover van de werkelijkheid af dat ik die data zou afschilderen als 'niet betrouwbaar' op basis van deze cijfers.
En daar ben ik het dus niet mee eens, want:Echter gaan die statements over desktop GPU's. Ze zeggen niet dat Nvidia minder dGPU's verkoopt, ze zeggen dat ze minder desktop GPU's verkopen
Laptop negeren ze inderdaad volledig, maar laptop kun je ook niet echt meetellen in Nvidia's voordeel als het op vertegenwoordiging aan komt. Veel verkochtte laptops met de low-end dGPU's worden niet voor games gebruikt, talloze zakelijke laptops die een dGPU hebben.
RX9000 voor laptops bestaat overigens niet eens, dus die zul je niet zien nee
1. Dat vermelden ze niet (duidelijk) genoeg als ze dat bedoelen. Ze hebben het altijd over market share, sales figures, maar geven nooit de exacte duiding die nodig is om duidelijk aan te geven al ze het enkel over desktop gpu's zouden hebben in retail stores (en zelfs dan kan je niet van die ene Duitse winkel uitgaan, immers weten we ook dat in Duitsland AMD het historisch gezien altijd bovengemiddeld goed doet, terwijl bijv. in de APAC regio normaliter het bovengemiddeld goed zou doen, maar naar die cijfers kijken ze dan weer niet
2. Om duiding te geven over het verleden gebruiken ze bijna altijd Jon Peddie data (of data van sites die Jon Peddie citeren) voor dGPU's. en die data als ze het hebben over markt aandeel behelst altijd discrete GPU, dus laptop en desktop, want die marktvorsers kijken puur naar verscheepte chips in die segmenten. Of een Navi 4x die, of GB20X nu in een laptop of desktop, of DiY videokaart voor de losse verkoop terecht komt maakt voor het globale markt aandeel niet uit, het zijn op binning na immers allemaal dezelfde chips uit dezelfde wafers. Zo kan een GB203 na binning een RTX5080 / RTX 5070 Ti / RTX 5090 Mobile of RTX 5080 Mobile worden afhankelijk van de kwaliteit van de chip.
En dat zal straks hopelijk met AMD niet anders zijn, tenzij ze echt het laptop segment gaan laten voor wat het is (wat natuurlijk zeer onverstandig is). Immers bijvoorbeeld Navi 31 en 33 zie je ook in zowel Desktop als Laptop Sku's. Dat kunnen ze dus met Navi 48 en 44 ook gewoon doen als het goed is, tenzij ze niet willen (of niet kunnen omdat ze geen deals kunnen krijgen, maar dat zou wel heel slecht zijn).
Bijvoorbeeld onderstaande halen ze vaak uit de kast om te duiden hoe slecht AMD het voor RDNA 4 deed:

Deze slide zegt immers wel wat over enkel AIB kaarten, maar niet enkel over retail verkopen bijvoorbeeld. Je hebt immers ook AIB leveranciers voor de grote OEM's die vrijwel niemand bij naam kent (en rebadged worden alsof het Dell / HP kaarten zouden zijn). En ook boutique shops gebruiken AIB kaarten in hun prebuilds.
Maar dan een paar maanden later duiden ze weer met globaal markt aandeel hetgeen ik eerder linkte:

Zonder dat ze dan de benodigde nuances maken.
Ik zou daarnaast ook niet stellen dat laptop niet belangrijk is om te duiden 'wie een generatie wint', laptop gaming komt steeds meer op (al hou ik er niet van) en wordt dus steeds belangrijker, maar simpelweg algemeen marktaandeel (dus ook laptop) zal andere partijen in de markt stimuleren om meer / minder moeite te steken in het implementeren van de features van AMD en Nvidia. Het is dus eerder zorg voor AMD om zich veel te gaan profileren juist in laptop, dan in desktop. Immers die laptop markt zal meer en meer belangrijk worden. iGPU's zal daar aan de onderkant wel iets wegsnoepen, maar 5 jaar geleden riep de halve wereld dat we 'binnenkort' geen dGPU's meer nodig zouden hebben in laptops voor gaming, maar dat komt nog steeds niet echt van de grond. Immers die paar CPU's die een performance GPU hebben, zijn weer zo duur dat in bepaalde gevallen het goedkoper is om een midrange cpu te nemen met een dGPU in je laptop, waardoor het vaak nog steeds geen alternatief is voor de schoolgaande tiener die een school / gaming laptop wil.
Daar ben ik het zeker mee eens (al weet ik gezien Nvidia's cijfers in Datacenter niet of het voor Nvidia heel relevant is als AMD een paar % afsnoept in marker shareNogmaals, wat mij betreft is er meer tijd nodig om te zien of Nvidia geraakt is of niet.
[ Voor 12% gewijzigd door Dennism op 29-05-2025 17:24 ]
En dat eerste heeft lang geduurd. Ze hebben wel vaker iets beters gehad maar men bleef intel kopen, ook nu nog.emeralda schreef op donderdag 29 mei 2025 @ 13:45:
Mijn 2 centen:
AMD heeft Intel verslagen omdat ze met iets BETERS kwamen
AMD gaat Nvidia niet verslaan omdat ze simpelweg niks beters hebben
Je kunt gamers belachelijk maken dat ze Nvidia blijven kopen maar mensen kopen geen RTX omdat ze fan zijn van Nvidia. Gamers willen gewoon het beste.
Hetzelfde geldt voor gpu's, zelfs ten tijde van Nvidia's mindere kaarten (GeForce FX, Gtx 480 etc.) bleef men Nvidia kopen.
Ik heb nu zelf weer Nvidia omdat het de enige high-end optie is. Hiervoor heel lang AMD omdat de prijs performance voor mij beter was.
Het is wel jammer dat AMD het zelf vaak verpest door te hoge prijzen als ze eens wat goeds hebben.
Zo is de 9070xt een prima kaart maar de prijs net ff te hoog. En ook de 9800x3d cpu is een top product maar bijzonder duur voor een 8 core.
Kan zijn dat de SoC voor de deck onder gaming valt, maar dat is dan ook de enige.Dennism schreef op donderdag 29 mei 2025 @ 16:41:
Die conclusie haal ik daar niet uit, immers hebben ze ook 'off the shelf' handheld APU's (https://www.amd.com/en/pr...helds/ryzen-z-series.html), maar dus ook custom SoC's (in de Steamdeck), dat bijt elkaar dus niet in die statement. Steamdeck kan dus prima in gaming zitten, want dat is een Semi Custom ontwikkelde SoC voor / met Valve, ding laat zich bijv. herkennen als "AMD Custom APU 0405" in software. Terwijl de Z1/Z2 chips in Client zitten, want off-the-shelve en voor iedere partij die wil beschikbaar voor hun Handhelds (bijv. Asus en Lenovo geloof ik).
Hah, ik keek naar https://www.vgchartz.com/...xbox-series-xs-vs-switch/ - deze tabel klopt niet met hun eigen cijfers.Ook hier zie ik niet direct waarom die cijfers niet betrouwbaar zouden zijn, immers geeft ZGchartz +- exact dezelfde cijfers weer als jouw links. Die ondersteunen elkaar dus eerder dan dat ze elkaar bijten.
Dat is dan ook wat ik zeg. Ze kijken altijd naar dingen als die Duitse winkel, en die vermelden enkel desktop. OEM, notebook, mobiel wordt allemaal genegeerd.1. Dat vermelden ze niet (duidelijk) genoeg als ze dat bedoelen. Ze hebben het altijd over market share, sales figures, maar geven nooit de exacte duiding die nodig is om duidelijk aan te geven al ze het enkel over desktop gpu's zouden hebben in retail stores (en zelfs dan kan je niet van die ene Duitse winkel uitgaan, immers weten we ook dat in Duitsland AMD het historisch gezien altijd bovengemiddeld goed doet, terwijl bijv. in de APAC regio normaliter het bovengemiddeld goed zou doen, maar naar die cijfers kijken ze dan weer niet
Zoals gezegd, Jon Peddie's publieke data is niet toereikend. GPU marketshare is dGPU + iGPU, waar een hoop overlap in zit. Ze rekenen niet met de "krachtigste" GPU in een systeem, maar met beide als ze beide aanwezig zijn. AIB data is ook gevaarlijk, want dat omhelst niet alleen OEM's zoals jij zegt, maar ook bijvoorbeeld de professionele kaarten.2. Jon Peddie dingen
Ik weet niet of de betaalde rapporten gedetailleerder zijn, maar desktop GPU's zijn een heel ander verhaal dan laptops.
Eens, maar ik denk dat AMD juist wel vol op hun APU's in moet zetten. De 395 is een monster van een chip. Wordt vooralsnog enkel in heel dure systemen gebruikt, maar het pakket is vrij klein (gezien hetgeen er in zit) en kan zich qua GPU performance met een 4070 (mobiel) meten. 16 cores is overkill, dus hang eens een enkele CCD aan die 40 CU's? Ze hebben daar nu echt een USP.Ik zou daarnaast ook niet stellen dat laptop niet belangrijk is om te duiden 'wie een generatie wint', laptop gaming komt steeds meer op (al hou ik er niet van) en wordt dus steeds belangrijker, maar simpelweg algemeen marktaandeel (dus ook laptop) zal andere partijen in de markt stimuleren om meer / minder moeite te steken in het implementeren van de features van AMD en Nvidia. Het is dus eerder zorg voor AMD om zich veel te gaan profileren juist in laptop, dan in desktop. Immers die laptop markt zal meer en meer belangrijk worden. iGPU's zal daar aan de onderkant wel iets wegsnoepen, maar 5 jaar geleden riep de halve wereld dat we 'binnenkort' geen dGPU's meer nodig zouden hebben in laptops voor gaming, maar dat komt nog steeds niet echt van de grond. Immers die paar CPU's die een performance GPU hebben, zijn weer zo duur dat in bepaalde gevallen het goedkoper is om een midrange cpu te nemen met een dGPU in je laptop, waardoor het vaak nog steeds geen alternatief is voor de schoolgaande tiener die een school / gaming laptop wil.
Leakers zijn altijd clickbait. En het zal Nvidia zeker worst wezen of AMD iets weg snoept; al komt AMD tot 50% marketshare (dus niet verkopen van die DuitsersDaar ben ik het zeker mee eens (al weet ik gezien Nvidia's cijfers in Datacenter niet of het voor Nvidia heel relevant is als AMD een paar % afsnoept in marker share). Het gaat mij vooral om uitspraken van de leakers die gewoon pertinent onwaar lijken ze zijn naarmate er meer en meer data beschikbaar komt (of op hun best misleidend zijn voor de consument, als ze inderdaad alleen Desktop GPU's verkocht bij bepaalde winkels willen bedoelen, maar dat niet duidelijk defineren, mogelijk omdat dan hun 'views fabriek' omtrent de AMD / Nvidia 'strijd' niet meer relevant / interessant is).
Die kaarten zitten daar uiteraard inderdaad in, dat is immers een deel van de AIB en de OEM kaarten, maar die business is vrij klein (zelfs kleiner dan AMD's gaming segment), ook weer een punt waar ik de berichtgeving van de leakers vaak vrij matig vind, zie je claims als 'Nvidia wil geen 5090's verkopen omdat ze die ook als RTX xxxx kunnen verkopen voor 10k', en die kaarten verkopen ze inderdaad voor dat soort bedragen 'list price' (waar zakelijk vaak nog een aanzienlijke korting vanaf gaat als je goed shopt bij de accountmanager bij je Workstation OEM waar jij je workstations koopt). Zonder dat ze bekijken dat dit marktsegment zo klein is dat het niet heel waarschijnlijk is dat Nvidia die's te kort komt om dat segment te vullen.Werelds schreef op zaterdag 31 mei 2025 @ 17:03:
Zoals gezegd, Jon Peddie's publieke data is niet toereikend. GPU marketshare is dGPU + iGPU, waar een hoop overlap in zit. Ze rekenen niet met de "krachtigste" GPU in een systeem, maar met beide als ze beide aanwezig zijn. AIB data is ook gevaarlijk, want dat omhelst niet alleen OEM's zoals jij zegt, maar ook bijvoorbeeld de professionele kaarten.
Die rapporten zijn zeker gedetailleerder (althans degenen die ik gezien heb), maar die mag je, zelfs als je ze afneemt, vermoed ik natuurlijk niet zomaar publiceren. Immers zou dat het hele business model van Jon Peddie onderuit halen (het verkopen van marktdata aan journalisten en marktpartijen). Waardoor je vaak in dit soort artikels van de hardware sites de 'snippets' te zien krijgt qua grafieken die Jon Peddie laat publiceren. En die kunnen ze, als ze de rapporten kopen, dan inkleden met hun eigen journalistieke interpretatie van die rapporten.Ik weet niet of de betaalde rapporten gedetailleerder zijn, maar desktop GPU's zijn een heel ander verhaal dan laptops.
Ik denk eigenlijk dat je beide moet doen, ik geloof er in ieder geval niet direct in dat die 2de 8 core CCD die Halo Sku's zo duur maakt. Immers zijn die chiplets vrij 'goedkoop' relatief gezien. Voor zover ik hier zo snel kan zien: https://x.com/Kurnalsalts/status/1891873628737896680Eens, maar ik denk dat AMD juist wel vol op hun APU's in moet zetten. De 395 is een monster van een chip. Wordt vooralsnog enkel in heel dure systemen gebruikt, maar het pakket is vrij klein (gezien hetgeen er in zit) en kan zich qua GPU performance met een 4070 (mobiel) meten. 16 cores is overkill, dus hang eens een enkele CCD aan die 40 CU's? Ze hebben daar nu echt een USP.
Is het 307mm2 voor de GPU+I/O op TSMC 4nm, want deze I/O die maken ze niet op een goedkoper proces wat ze normaal wel doen. Pp desktop / Server en de 'Fire Range' laptop Sku's (X3D voor sommige modellen) gebruiken ze immers nog altijd 6nm I/O dies om de kosten te drukken. Hier gebruiken ze hetzelfde proces als dat ze voor de desktop GPU's en Zen 5 desktop en server chiplets gebruiken gebruiken.
En dan is 307mm2 best groot, immers die mobile 4070 waar ze mee concurreren is 'maar' 188mm2 op een inmiddels (iets) goedkoper TSMC 5nm proces.
Daardoor heb ik mijn twijfels dat dit heel veel goedkoper zal worden als je kiest voor deze SoC tile met een enkele CCD, het lijkt immers de no-cutdown SoC tile te zijn die deze cpu grotendeels zo duur maakt.
Daarnaast kan je die dingen niet koppelen aan Intel CPU's, en loop je dus by default een groot deel van de markt mis waar je simpelweg niet aan deelneemt.
Je zou dus verwachten dat door op beide te focussen, deze high end cpu's bedienen een bepaalde maakt, maar ze bedienen niet het instap segment met performance GPU's, daar zul je dus iets nodig hebben als mobile 9060's / 9070's zodat je ook de markt van laptops zonder AMD cpu kan beleveren. Immers globaal gezien heeft AMD in laptop ook 'maar' een share van 22.5% (nog altijd geweldig voor AMD), maar door dus geen dGPU te hebben momenteel voor laptop kan je dus het deel van Intels 77.5% dat wel een dGPU krijgt niet bedienen. Terwijl het heel makkelijk moet zijn voor AMD om zo'n model in de markt te zetten, ze kunnen immers gewoon doen wat ze eerder ook deden en wat Nvidia ook doet, hun dGPU dies ook aanbieden voor laptop, dat zou slechts een kwestie van binning moeten zijn.
[ Voor 11% gewijzigd door Dennism op 31-05-2025 22:20 ]
Oh nee, ik doelde er niet op dat het ding dan veel goedkoper te produceren zou zijn. CCD is minuscuul. Het gaat om het marktsegment, dat zou dan goedkoper worden. Omdat de 395 nu 16C/32T is, wordt die heel prijzig in de markt gezet.Dennism schreef op zaterdag 31 mei 2025 @ 22:10:
Ik denk eigenlijk dat je beide moet doen, ik geloof er in ieder geval niet direct in dat die 2de 8 core CCD die Halo Sku's zo duur maakt. Immers zijn die chiplets vrij 'goedkoop' relatief gezien. Voor zover ik hier zo snel kan zien: https://x.com/Kurnalsalts/status/1891873628737896680
Soort van. Het is een ander ding dan desktop; CCD's zijn zuiniger en hangen anders aan elkaar (zullen we waarschijnlijk in Zen 6 zien). GPU gedeelte is ook nog niet RDNA4. En ja, groot in verhouding; maar die 307mm is ook meer I/O dan enkel GPU. 256-bit bus MC voor het geheel, 32 MB IC (zij noemen het MALL) waar de CPU read access toe heeft (NPU etc. hangen er ook aan, maar toegang is uitgeschakeld zodat ze GPU performance niet in de weg zitten!), dus ook weer zuinigerIs het 307mm2 voor de GPU+I/O op TSMC 4nm, want deze I/O die maken ze niet op een goedkoper proces wat ze normaal wel doen. Pp desktop / Server en de 'Fire Range' laptop Sku's (X3D voor sommige modellen) gebruiken ze immers nog altijd 6nm I/O dies om de kosten te drukken. Hier gebruiken ze hetzelfde proces als dat ze voor de desktop GPU's en Zen 5 desktop en server chiplets gebruiken gebruiken.
En dan is 307mm2 best groot, immers die mobile 4070 waar ze mee concurreren is 'maar' 188mm2 op een inmiddels (iets) goedkoper TSMC 5nm proces.
Package is blijkbaar ook goedkoper, gebruikt een TSMC substraat met lagen dat goedkoper zou zijn.
Juist mijn punt. Deze dingen zijn rap genoeg om op beide vlakken te kunnen concurreren. De 395 concurreert op 80W met 4070 @ 75W systemen. Bizar.Daarnaast kan je die dingen niet koppelen aan Intel CPU's, en loop je dus by default een groot deel van de markt mis waar je simpelweg niet aan deelneemt.
Je onderschat hier toch echt het OEM verhaal, waarbij die mensen zich niet verdiepen in de materie.emeralda schreef op donderdag 29 mei 2025 @ 13:45:
Mijn 2 centen:
AMD heeft Intel verslagen omdat ze met iets BETERS kwamen
AMD gaat Nvidia niet verslaan omdat ze simpelweg niks beters hebben
Je kunt gamers belachelijk maken dat ze Nvidia blijven kopen maar mensen kopen geen RTX omdat ze fan zijn van Nvidia. Gamers willen gewoon het beste.
Daarnaast, een gamer wil het beste in zijn budget. Er zijn geen slechte producten, wel slechte prijzen.
Juist het (enorme) gat tussen de 5070 en 5070ti is interessant omdat de 9070 toch echt wel een beter product is dan de 5070. De insteek dat de AMD kaarten qua prijs laag zouden zitten gaf hoop dat daar ruimte was. Zeker toen de 5070ti knalduur bleef.
Dat de 9070xt nowhere near msrp bleef en de 5070ti gestaag daalde verandert de situatie, maar de 9070 blijft ook voor die 50euro hogere straatprijs een betere kaart dan de 5070.
Het wordt voor AMD veel lastiger tegen de 5070ti omdat die sneller is dan de 9070xt en nauwelijks duurder.
Ik ben het wel met je eens dat Nvidia een betwr product maakt qua goede features.
Plat gezegd is het probleem voor AMD op dit moment niet de pure snelheid, op dat punt is het al jaren best wel close. Het loopt echter uit elkaar bij upscaling, frame generatie en RT, waar Nvidia nog fors voorop loopt. Je ziet dat AMD op het eerste punt een enorme sprong heeft gemaakt , maar zoals het nu heeft bij een gelijke prijsbracket Nvidia een voordeel, tenzij echt de plank misslaan (de 5070).
En zelfs als Nvidia de plank misslaat dan nog verkopen ze er aanzienlijk meer van dan de (betere) alternatieven van AMD. Zo zal de 5070 ongetwijfeld aanzienlijk populairder en betere verkocht worden dan de 9070(xt). Idem met de 5060/5060ti.roffeltjes schreef op maandag 2 juni 2025 @ 07:58:
Plat gezegd is het probleem voor AMD op dit moment niet de pure snelheid, op dat punt is het al jaren best wel close. Het loopt echter uit elkaar bij upscaling, frame generatie en RT, waar Nvidia nog fors voorop loopt. Je ziet dat AMD op het eerste punt een enorme sprong heeft gemaakt , maar zoals het nu heeft bij een gelijke prijsbracket Nvidia een voordeel, tenzij echt de plank misslaan (de 5070).
De steam hardware survey laat al jaren hetzelfde beeld zien. Het is bijna allemaal Nvidia waarbij de 60-kaarten het populairst zijn.
AMD heeft echt te laat flinke stappen gezet met hun FSR en RT performance. Nvidia kon hier jaren lang zijn gang gaan en pas sinds deze generatie is FSR4 van een kwaliteit die zich kan meten met DLSS en komen ook de RT in de buurt. De enige manier voor AMD om noemenswaardig marktaandeel te pakken is gewoon een kaart uit te brengen die op elk gebied stukken sneller is dan Nvidia en ook nog eens stukken goedkoper.
Praktisch dezelfde performance als Nvidia maar €50 goedkoper werkt gewoon niet. Dat hebben de afgelopen jaren duidelijk laten zien. Willen ze marktaandeel afpakken dan zal het AMD geld kosten omdat ze gewoon flink onder de prijs moeten gaan. Ga een 9070XT op de markt zetten voor €399 en kijk eens hoe dat gaat verlopen....
MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y
AMD RT heeft ook de gelegenheid gehad om wat in te lopen. Nvidia is deze generatie niks vooruit gegaan is RT prestaties. Een heel klein stapje die net zo groot is als de vooruitgang in Raster.MazeWing schreef op maandag 2 juni 2025 @ 08:59:
[...]
En zelfs als Nvidia de plank misslaat dan nog verkopen ze er aanzienlijk meer van dan de (betere) alternatieven van AMD. Zo zal de 5070 ongetwijfeld aanzienlijk populairder en betere verkocht worden dan de 9070(xt). Idem met de 5060/5060ti.
De steam hardware survey laat al jaren hetzelfde beeld zien. Het is bijna allemaal Nvidia waarbij de 60-kaarten het populairst zijn.
AMD heeft echt te laat flinke stappen gezet met hun FSR en RT performance. Nvidia kon hier jaren lang zijn gang gaan en pas sinds deze generatie is FSR4 van een kwaliteit die zich kan meten met DLSS en komen ook de RT in de buurt. De enige manier voor AMD om noemenswaardig marktaandeel te pakken is gewoon een kaart uit te brengen die op elk gebied stukken sneller is dan Nvidia en ook nog eens stukken goedkoper.
Praktisch dezelfde performance als Nvidia maar €50 goedkoper werkt gewoon niet. Dat hebben de afgelopen jaren duidelijk laten zien. Willen ze marktaandeel afpakken dan zal het AMD geld kosten omdat ze gewoon flink onder de prijs moeten gaan. Ga een 9070XT op de markt zetten voor €399 en kijk eens hoe dat gaat verlopen....
Waar je grote stappen mee maakt in RT is upscaling en framegen (voor wie het niet erg vind om te gebruiken). Daarmee slaat AMD wederom de plank mis omdat er maar weinig games fsr4 ondersteunen.
Verder begreep ik de AMD prijsaanpassing in het begin al niet. Hadden ze dan verwacht dat Nvidia NOG duurder zou zijn? Of NOG kleinere stapjes had gemaakt in performance? De Rtx 20 naar 30 en 30 naar 40 waren veel grotere stappen namelijk.
Ben echt wel Amd fan geweest heel lang maar ze maken steeds vreemde keuzes. Gamers zijn voor Nvidia duidelijk minder belangrijk, dan moet je gelijk langszij of er voorbij en profiteren van die ruimte.
[ Voor 12% gewijzigd door meljor op 02-06-2025 11:58 ]
Probleem is dat vanuit de fabrikant gezien de 9070xt misschien iets goedkoper per frame is als een 5070ti: vergelijkbare die size, wat goedkoper geheugen, iets mindere prestaties.MazeWing schreef op maandag 2 juni 2025 @ 08:59:
[...]
Praktisch dezelfde performance als Nvidia maar €50 goedkoper werkt gewoon niet. Dat hebben de afgelopen jaren duidelijk laten zien. Willen ze marktaandeel afpakken dan zal het AMD geld kosten omdat ze gewoon flink onder de prijs moeten gaan. Ga een 9070XT op de markt zetten voor €399 en kijk eens hoe dat gaat verlopen....
Maar een 9070 zal gewoon echt duurder zijn in productie als een 5070. Dus er zijn grenzen hoe scherp AMD kan gaan met de prijzen. €399 gaat ze iig niet lukken. Wat scherper zou wel erg leuk zijn, tegelijk gezien ze MSRP nog niet halen, zou ik niet teveel verwachten.
Hoe bedoel je, deze generatie? Van Turing naar Ampère zat er een kleine verbetering in, daarna niks. Men valt het nu pas op omdat er deze generatie geen nieuwe node tussen zit, waardoor er geen kloksnelheidsverschil is dat het gebrek aan vooruitgang verbloemt.meljor schreef op maandag 2 juni 2025 @ 11:39:
Nvidia is deze generatie niks vooruit gegaan is RT prestaties.
Zolang je niet tegen een harde CPU bottleneck aan loopt, liggen Ampère, Ada en Blackwell binnen enkele procenten van waar ze zouden moeten zitten op basis van aantal RT cores * kloksnelheid (genormaliseerd dus). Turing ligt er doorgaans zo'n 10 procentpunten onder (of beter gezegd, AAB liggen 10% hoger dan ze op papier zouden zitten vs Turing). Is ook logisch, aangezien die 3 ook zo'n beetje identiek aan elkaar zijn qua architectuur.
Dan is het nog erger dan ik dacht Ook erg dat AMD dan niet compleet bijgetrokken is inmiddels.Werelds schreef op maandag 2 juni 2025 @ 15:05:
[...]
Hoe bedoel je, deze generatie? Van Turing naar Ampère zat er een kleine verbetering in, daarna niks. Men valt het nu pas op omdat er deze generatie geen nieuwe node tussen zit, waardoor er geen kloksnelheidsverschil is dat het gebrek aan vooruitgang verbloemt.
Zolang je niet tegen een harde CPU bottleneck aan loopt, liggen Ampère, Ada en Blackwell binnen enkele procenten van waar ze zouden moeten zitten op basis van aantal RT cores * kloksnelheid (genormaliseerd dus). Turing ligt er doorgaans zo'n 10 procentpunten onder (of beter gezegd, AAB liggen 10% hoger dan ze op papier zouden zitten vs Turing). Is ook logisch, aangezien die 3 ook zo'n beetje identiek aan elkaar zijn qua architectuur.
Letterlijk dit. Elke generatie roepen sommigen dat Nvidia nauwelijks verbeteringen maakt, maar als structureel lopen ze al 15 jaar verder weg van AMD. Of deze claims kloppen van geen kant, of AMD bakt er ook niks vanmeljor schreef op maandag 2 juni 2025 @ 15:22:
[...]
Dan is het nog erger dan ik dacht Ook erg dat AMD dan niet compleet bijgetrokken is inmiddels.
Nvidia focust op triangle intersection en gaat voor brute force qua implementatie; meer RT units er tegenaan (van 68 naar 170 nu) klatsen en klaar. Hun claims van verbeteringen in de units (een Blackwell RT core zou 8x een Turing RT core zijn
AMD is juist voor box intersection gegaan en is niet veel breder gegaan (80, 96, 128). Hun performance per unit is wel verbeterd.
Zeker na dit filmpje gekeken te hebben.emeralda schreef op maandag 2 juni 2025 @ 21:38:
Ik gun AMD van harte hun "Zen" moment tegen Nvidia.
Ryzen 9 7950x3d / Asus Strixx x670E-E / Noctua NH-DH15 / 64GB Corsair Dominator 6000 / Crucial M500 – Samsung 990pro / MSI RTX 4070TI Super Gaming X Slim / Corsair RM1000x / Alles in een Fractal Define 7 Black gepropt
Bedoel je daarmee aan de top?meljor schreef op maandag 2 juni 2025 @ 15:22:
[...]
Dan is het nog erger dan ik dacht Ook erg dat AMD dan niet compleet bijgetrokken is inmiddels.
Met de 9070XT hebben ze toch een mooi product neergezet dat zich goed kan meten aan Nvidia's 5070Ti? Het midden segment waar AMD besloten heeft zich op te richten.
Zowel qua raster, RT als met features / parity is het wat mij betreft allemaal ingelopen en een kwestie van stuiver wisselen geworden. MFG x4 vind ik persoonlijk van betwistbare nut: 60fps voelt nog steeds als 60fps op 240Hz en alleen OLED kan het qua pixelreactietijd (lees: bewegingsscherpte) op zo'n hoge verversingssnelheid bijbenen.
Er is ook een vlak waar AMD het al lange tijd beter doet dan Nvidia en dat is het rustverbruik van de GPU. Tenminste als je onder de grens blijft waarbij het geheugen permanent actief blijft.
Met RDNA4 lijkt dat in ieder geval nu ook voor de multimonitor situatie opgelost te zijn.
Ik mat letterlijk maar 8W! met de 9070XT in een 3440x1440@100Hz + 2560x1440@100Hz setup.
Ik vermoed dat als AMD besloten had met RDNA4 net zo'n monster chip te maken zoals in de RTX4090 of RTX5090 zit, het ook in de top flink had kunnen concurreren.
Maar ik snap de keuze ook wel om het niet te doen. Het is tenslotte héél duur om te maken en gezien het kleine marktsegment brengt het ook een enorm risico met zich mee om op z'n minst break-even te halen.
Wat AMD betreft is het eerder een kwestie van willen dan kunnen lijkt mij.
De 5060Ti staat er voor het eerst in.
AMD nog steeds afwezig, net als de 5090 (en de 5060, maar die is vermoedelijk te kort in de verkoop om voor te komen).
[ Voor 32% gewijzigd door Dennism op 03-06-2025 12:46 ]
Waar komt onderstaand verschil dan vandaan? In raster zijn een 3090Ti & 4070Ti Super ongeveer gelijk.Werelds schreef op maandag 2 juni 2025 @ 15:05:
[...]
Hoe bedoel je, deze generatie? Van Turing naar Ampère zat er een kleine verbetering in, daarna niks. Men valt het nu pas op omdat er deze generatie geen nieuwe node tussen zit, waardoor er geen kloksnelheidsverschil is dat het gebrek aan vooruitgang verbloemt.
Zolang je niet tegen een harde CPU bottleneck aan loopt, liggen Ampère, Ada en Blackwell binnen enkele procenten van waar ze zouden moeten zitten op basis van aantal RT cores * kloksnelheid (genormaliseerd dus). Turing ligt er doorgaans zo'n 10 procentpunten onder (of beter gezegd, AAB liggen 10% hoger dan ze op papier zouden zitten vs Turing). Is ook logisch, aangezien die 3 ook zo'n beetje identiek aan elkaar zijn qua architectuur.
/f/image/gzQJX72sNAucjOruykIhls9u.png?f=fotoalbum_large)
Framegen vermoed ik (standaard aan in AW2). Kijk maar naar recentere tests van PCGH of andere media zoals TPU. Dingen presteren zo'n beetje gelijk. Wat in het nadeel van Ada werkt, 4070 Ti Super zou 10% sneller moeten zijn qua RT.napata schreef op dinsdag 3 juni 2025 @ 13:20:
[...]
Waar komt onderstaand verschil dan vandaan? In raster zijn een 3090Ti & 4070Ti Super ongeveer gelijk.
[Afbeelding]
Welke review/test komen die resultaten vandaan?
[ Voor 5% gewijzigd door Werelds op 03-06-2025 14:30 ]
Er staat "quality upscaling" wellicht een betere dlss versie voor de nieuwere kaart? Bij Tpu zijn ze idd gelijkwaardig, zowel met RT als PT.Werelds schreef op dinsdag 3 juni 2025 @ 14:29:
[...]
Framegen vermoed ik (standaard aan in AW2). Kijk maar naar recentere tests van PCGH of andere media zoals TPU. Dingen presteren zo'n beetje gelijk. Wat in het nadeel van Ada werkt, 4070 Ti Super zou 10% sneller moeten zijn qua RT.
Welke review/test komen die resultaten vandaan?
Ik bedoel het feit dat Nvidia qua architectuur geen/weinig vooruitgang heeft geboekt qua RT en Amd er dan toch nog circa 10% onder zit.CMT schreef op dinsdag 3 juni 2025 @ 00:28:
[...]
Bedoel je daarmee aan de top?
Met de 9070XT hebben ze toch een mooi product neergezet dat zich goed kan meten aan Nvidia's 5070Ti? Het midden segment waar AMD besloten heeft zich op te richten.
Zowel qua raster, RT als met features / parity is het wat mij betreft allemaal ingelopen en een kwestie van stuiver wisselen geworden. MFG x4 vind ik persoonlijk van betwistbare nut: 60fps voelt nog steeds als 60fps op 240Hz en alleen OLED kan het qua pixelreactietijd (lees: bewegingsscherpte) op zo'n hoge verversingssnelheid bijbenen.
Er is ook een vlak waar AMD het al lange tijd beter doet dan Nvidia en dat is het rustverbruik van de GPU. Tenminste als je onder de grens blijft waarbij het geheugen permanent actief blijft.
Met RDNA4 lijkt dat in ieder geval nu ook voor de multimonitor situatie opgelost te zijn.
Ik mat letterlijk maar 8W! met de 9070XT in een 3440x1440@100Hz + 2560x1440@100Hz setup.
Ik vermoed dat als AMD besloten had met RDNA4 net zo'n monster chip te maken zoals in de RTX4090 of RTX5090 zit, het ook in de top flink had kunnen concurreren.
Maar ik snap de keuze ook wel om het niet te doen. Het is tenslotte héél duur om te maken en gezien het kleine marktsegment brengt het ook een enorm risico met zich mee om op z'n minst break-even te halen.
Wat AMD betreft is het eerder een kwestie van willen dan kunnen lijkt mij.
En fsr4 is een prima stap, het maakt het bruikbaar net als dat dlss nu echt wel goed wordt. Helaas zijn er weer veel te weinig titels waarin je fsr4 daadwerkelijk kunt gebruiken....
Framegen ben ik ook geen liefhebber van maar wellicht helpt het sommigen om het speelbaarder te maken. De mogelijkheid is mooi.
Ik draai het liefst gewoon native en gelukkig gaat dat in racing sims altijd wel prima. RT voegt daarin ook erg weinig toe en sloopt wel je fps.
Ben puur overgestapt naar een 4090 omdat die toch nog aardig sneller is dan m'n 7900xtx was (5090 gaat me net iets te ver). De xtx is echter ook nog een meer dan prima kaart en de AMD drivers bevielen ook altijd prima (en zeer uitgebreid, geen afterburner nodig voor een ondervolt etc.)
Ik had gewoon graag gezien dat ze op alle fronten eens wat tegengas gaven, ze hebben er al flink wat tijd voor gehad.
Hadden ze high-end rdna4 gehad dan was ik waarschijnlijk ook gewoon bij AMD gebleven.
Ah zo. Ja, dat is inderdaad jammer. Toch ben ik wel positief gestemd over AMD, maar dan kijk ik vooral naar de stappen die ze hebben gezet per generatie.
Wat Nvidia tot nu toe gedaan heeft is ook makkelijker dan de weg die AMD heeft gekozen.
Brute force + kleine verbeteringen versus optimalisatie/herontwerp.
Maar inderdaad ik had ook liever gezien dat AMD volop in de aanval zou gaan en eens een product neerzet dat gewoon overduidelijk beter is.
Dan wordt het waarschijnlijk ook een stuk makkelijk om de ontwikkelaars mee te krijgen voor optimalisatie & dingen zoals FSR4. Soms zitten er uitschieters bij in benchmarks waarbij ik mij afvraag hoeveel winst er is blijven liggen in andere games. Aan andere kant is het ook merkwaardig dat via optiscaler dan opeens wel FSR4 of DSSL* aan games toegevoegd kan worden. Waarom kan dat niet via officiële weg gedaan worden?
Ik zit overigens in hetzelfde schuitje, mijn voorkeur gaat sterk naar AMD uit vanwege de goede Freesync/VRR werking, betere software/UI en hoge kwaliteit van de PCB/board.
Maar vanwege gebrek aan een highend model + geen geduld meer voor het wachten op betere RT, toch maar voor een RTX5090 gegaan.
Ergens vraag ik me af of ze dat wel kunnen met de huidige architectuur / chip designs zonder te moeten subsidiëren, ik zat net ff een 9060 XT 16G review te kijken en t.o.v. de 5060 Ti, halen ze, raytracing uitgesloten, in die review quasi gelijke prestaties als de 5060 Ti 16G , maar wel tegen een 10% grotere die size, veel hogere density (waardoor je eigenlijk een betere perf / mm2 zou verwachten) en een flink hoger verbruik. Terwijl de 5060 Ti een hoger TBP heeft. Nu wil dat uiteraard niet alles zeggen maar het viel me wel weer op dat AMD minder uit het chip oppervlak, density en powerbudget lijkt te halen dan Nvidia. Kijk je immers naar het door AMD en Nvidia gespecificeerde powerbudget zou de AMD kaart minder moeten verbruiken dan de Nvidia kaart op volle belasting, in plaats van meer.CMT schreef op woensdag 4 juni 2025 @ 13:27:
@meljor
Maar inderdaad ik had ook liever gezien dat AMD volop in de aanval zou gaan en eens een product neerzet dat gewoon overduidelijk beter is.
Raytracing was dan weer veel meer mixed bag, sommige games deed AMD het ok, andere games is het nog altijd relatief gezien zeer slecht.
Hetzelfde zie je ook bij de 9070XT, kijk ik even naar de TPU data is de volle Navi 48 is dan wel +-5% kleiner dan GB203, maar de RX9070XT is ook bijna 20% trager dan de 5080 die de volle GB203 gebruikt. En ook daar zie je de RX 9070XT meer verbruiken dan de 5080, laat staan de 5070 Ti, met een cut down GB203 waarmee eigenlijk op performance geconcurreerd wordt.
Gddr7 is ook weer iets zuiniger toch? En het komt de prestaties ten goede.Dennism schreef op woensdag 4 juni 2025 @ 15:54:
[...]
Ergens vraag ik me af of ze dat wel kunnen met de huidige architectuur / chip designs zonder te moeten subsidiëren, ik zat net ff een 9060 XT 16G review te kijken en t.o.v. de 5060 Ti, halen ze, raytracing uitgesloten, in die review quasi gelijke prestaties als de 5060 Ti 16G , maar wel tegen een 10% grotere die size, veel hogere density (waardoor je eigenlijk een betere perf / mm2 zou verwachten) en een flink hoger verbruik. Terwijl de 5060 Ti een hoger TBP heeft. Nu wil dat uiteraard niet alles zeggen maar het viel me wel weer op dat AMD minder uit het chip oppervlak, density en powerbudget lijkt te halen dan Nvidia. Kijk je immers naar het door AMD en Nvidia gespecificeerde powerbudget zou de AMD kaart minder moeten verbruiken dan de Nvidia kaart op volle belasting, in plaats van meer.
Raytracing was dan weer veel meer mixed bag, sommige games deed AMD het ok, andere games is het nog altijd relatief gezien zeer slecht.
Hetzelfde zie je ook bij de 9070XT, kijk ik even naar de TPU data is de volle Navi 48 is dan wel +-5% kleiner dan GB203, maar de RX9070XT is ook bijna 20% trager dan de 5080 die de volle GB203 gebruikt. En ook daar zie je de RX 9070XT meer verbruiken dan de 5080, laat staan de 5070 Ti, met een cut down GB203 waarmee eigenlijk op performance geconcurreerd wordt.
Of dat bij deze snelheidsverschillen ook zo is, weet ik niet. Volgens mij gelijkgestelde kloksnelheden in ieder geval wel.meljor schreef op woensdag 4 juni 2025 @ 19:33:
[...]
Gddr7 is ook weer iets zuiniger toch? En het komt de prestaties ten goede.
Maar dat zou hier niet uit mogen maken, immers specificeren zowel AMD als Nvidia TBP's (dus het verbruik van de gehele kaart), en dat is dus inclusief geheugen. Enige verschillen in efficiëntie / verbruik van het geheugen zitten daar dus al in verwerkt.
GDDR7 maakt ook weldegelijk iets uit! Ik kan er een lang verhaal van maken (GDDR7 is best interessant
Qua RT performance wisselt het eigenlijk bijna nergens meer in de zin dat ze in de meeste gevallen even veel terug vallen als Nvidia (TPU's percentage verlies is prettig!). Het probleem is dat een aantal van die games beter draait op Nvidia, RT of niet. Cyberpunk is één van de weinige gevallen waar AMD's terugval nog steeds iets groter is...maar dat heeft met CP te maken. En dan heb je de "PT" benchmarks van TPU; dat is triangle intersections en dus 100% een Nvidia dingetje.
En als we dan toch naar performance kijken; als je theoretische FP32 performance vergelijkt, presteert AMD exact hetzelfde als Nvidia, wat in het verleden wel eens anders was - m.a.w. er komt nu per TFLOP pakweg dezelfde raster rendering performance uit. Qua RT zitten ze er op papier boven in de zin dat ze ~10% meer "RT ops/sec" zouden moeten hebben als de RA en RT cores dezelfde functionaliteit hadden.
Verbruik van AMD's kaarten is eigenlijk best indrukwekkend. Bijna 25% hogere dichtheid, respectievelijk 35% en 18% meer transistors dan de dichtsbijzijnde concurrent en in het geval van Navi 44, bijna exact hetzelfde verbruik in totaal onder volle belasting (met RT dus). 48 komt er iets minder gunstig vanaf, maar ook daar is zeker een kwart van het verschil in verbruik al te danken aan het geheugen. Voeg daar de extra transistors aan toe en het is behoorlijk netjes. Kleinere die betekent niet per se lager verbruik; kloksnelheid, spanning en aantal transistors spelen ook allemaal mee. En AMD's kloksnelheid ligt hoger, RDNA4 draait gemiddeld op ~3150 MHz (beide chips). Vergeet overigens ook niet dat Nvidia's verbruik wisselt; een 5080 trekt onder een RT workload meteen 40W meer, 5070 Ti 20W, 5060 Ti 15W. Bij AMD is dat verschil er niet of nauwelijks. Daar is misschien zelfs nog iets te winnen voor AMD qua verbruik, aggressiever schakelen op de RA's.
Als ik er voor de gein 8,5 miljard transistors vanaf trek, kom ik uit op chips van ~142mm² en ~300mm² met bijna exact even veel transistors als Nvidia, maar dan flink kleiner. Navi 44 komt er dan ook nog veel beter uit
Hier. Excuses, die link had ik in m'n eerste post er al aan toe moeten voegen. Het is zonder framegen. Zo'n kromme vergelijking ga je normaal niet vinden bij PCGH zonder dat het staat aangegeven.Werelds schreef op dinsdag 3 juni 2025 @ 14:29:
[...]
Framegen vermoed ik (standaard aan in AW2). Kijk maar naar recentere tests van PCGH of andere media zoals TPU. Dingen presteren zo'n beetje gelijk. Wat in het nadeel van Ada werkt, 4070 Ti Super zou 10% sneller moeten zijn qua RT.
Welke review/test komen die resultaten vandaan?
3% sneller in raster, 18% in RT en 31% in PT. Hangt wel sterk af van resolutie. Op 4K met DLSS Q is de 4070Ti Super zelfs 43% sneller. Voor beiden is het wel onspeelbaar maar dat maakt voor dit argument weinig uit. Ik zie gelijkaardige % bij PT in andere games. Die gebruiken natuurlijk allemaal SER wat waarschijnlijk gedeeltelijk verantwoordelijk is voor de vooruitgang maar dat is ook deels hardware. In pure RT benchmarks zie je ook redelijke verschillen. Niet heel relevant voor games maar wel voor het argument dat ze er niet op vooruitgaan. Als ik zo eens kijk dan moet ik toch stellen dat je het niet bij het rechte eind hebt.
Dit geldt zowel voor AMD als Nvidia en hangt tevens af van game tot game alsook resolutie. Als je een kaart hebt die bij elke game tegen de power limiet aanzit dan ga je natuurlijk overal hetzelfde stroomverbruik zien. Dat lijkt me ook logisch. Bij Ampere ga je ook overal hetzelfde verbruik zien want daar zat je ook gewoon in elke game tegen de power limiet. Je wint er zo wel efficientie mee. Ik herinner me iemand die zei dat hij met een 400W of 450W bios nog vaak tegen die limiet aanzat op een 3080 zonder overclock. Bij ADA en Lovelace is dit heel anders want daar zit je bij de meeste games niet tegen de power limiet dus ga je wel verschillen gewaarworden. Ik denk dat ik m'n 4090 nooit tegen een power limiet heb zien lopen in een echte game. Bij m'n 5070Ti zie ik dat wel maar ook niet dikwijls en meestal maar kortstondig.Vergeet overigens ook niet dat Nvidia's verbruik wisselt; een 5080 trekt onder een RT workload meteen 40W meer, 5070 Ti 20W, 5060 Ti 15W. Bij AMD is dat verschil er niet of nauwelijks.
Mijn ervaring is dat RT bij Nvidia niet zoveel uitmaakt qua stroomverbruik maar ik heb nog nooit gemiddelden gelogd. Ik heb gevallen gehad waar het merkbaar meer is, hetzelfde is en merkbaar minder is (Nee, geen CPU bottleneck). Dat zal afhankelijk zijn van waar het intern op bottleneckt.
Ik gok dat je cijfers van TPUs recente reviews komen maar je moet eens kritisch kijken naar de opzet van TPU. Ik weet zeker dat als je naar de opzet kijkt je terecht gaat fronsen. Vreemd genoeg is hun opzet beter in eerdere reviews. Het is nog steeds slecht want ze gebruiken maar 1 game maar het is in ieder geval appelen met appelen vergelijken. Je ziet dan een stijging van 7W voor de 5080 bij RT in Cyberpunk.
Waarom voegen ze later 2 games toe met aanzienlijk minder stroomverbruik bij het stuk niet-RT zodat die het gemiddelde naar beneden halen maar niet aan het RT-stuk? Dat is een raadsel. Vandaar dat ik ook geen al te grote fan ben van TPU behalve voor snelle vergelijkingen. De moraal is om altijd goed naar een testopzet te kijken.
[ Voor 4% gewijzigd door napata op 05-06-2025 14:44 ]
AMD's marktaandeel in de AIB markt is inmiddels onder de 10% gedoken, vooralsnog pakt AMD niets terug. Het is ook best een flinke daling: van 15% in Q4 naar afgerond 8% in Q1.Dennism schreef op donderdag 29 mei 2025 @ 11:00:
[...]
Ik blijf dan ook zeer benieuwd naar de nieuwe cijfers van Jon Peddie, maar ik begin langzaamaan steeds minder te geloven in een stunt van AMD en steeds meer in het scenario dat die leakers mensen simpelweg een oor aan het aannaaien zijn. En dan zal AMD vast een paar % terug pakken, immers veel slechter dan waar ze vandaan kwamen kan niet, maar ik zie AMD op basis van de nu bekende metrics eigenlijk niet ineens naar 50%+ marktaandeel gaan, wat wel nodig is om de claims van deze leakers te ondersteunen.

In de totale GPU markt liggen de verhoudingen anders.Looking at the AIB market share, NVIDIA's share rose by 8.5% in Q1 2025, a massive uptick for the company, whose previous market share dropped to 84%. AMD's market share declined by 7.3% to just 8% while Intel's market share decreased by -1.2% to 0% in Q1 2025.
[ Voor 3% gewijzigd door XWB op 06-06-2025 11:40 ]
Nog slechter dus dan verwacht, en met het 'ja maar AMD's kaarten waren enkel de laatste maand te koop', kom je vermoedelijk ook niet weg, want Jon Peddie kijkt veel eerder in het kanaal, en we weten allemaal dat die kaarten al veel langer bij de retailers lagen, ruim voor de start verkoop begin maart. Dat zou wel deels de uptick in Q4 2024 kunnen verklaren in het AIB segment, toen zullen de AIB immers hun inventory (deels) opgebouwd hebben, daar we weten dat retailers tijdens CES al pallets vol RX 9000 kaarten hadden, een boel RX 9000 stock zal dus waarschijnlijk al in Q4 geleverd zijn. Terwijl juist bij Nvidia het omgekeerde aan de hand leek en dat productie pas vrij laat op gang gekomen is. Wat dan weer Nvidia's sterke Q1 kan verklaren qua marktaandeel onder enkel de AIB kaarten.XWB schreef op vrijdag 6 juni 2025 @ 11:38:
[...]
AMD's marktaandeel in de AIB markt is inmiddels onder de 10% gedoken, vooralsnog pakt AMD niets terug. Het is ook best een flinke daling: van 15% in Q4 naar afgerond 8% in Q1.
[Afbeelding]
[...]
In de totale GPU markt liggen de verhoudingen anders.
Overall trouwens ook een flinke sprong van Nvidia.

[ Voor 5% gewijzigd door Dennism op 06-06-2025 12:26 ]
Meer transistoren voor extra functies (die actief gebruikt worden) is idd nadelig voor het stroomverbruik. Maar transistoren voor de primaire functie is positief normaal voor het stroomverbruik. Een 5070Ti die je op 5070 snelheid laat draaien, zal minder stroom verbruiken. Een cache hit is een stuk zuiniger dan memory access.Werelds schreef op donderdag 5 juni 2025 @ 11:21:
AMD gebruikt inderdaad meer ruimte en transistors dan Nvidia, is al heel lang zo. Dat is uiteraard ook nadelig voor hun stroomverbruik.
Als AMD echt een niet verwaarloosbaar gedeelte van hun power en area budget gebruiken voor iets wat Nvidia in de drivers doet, dan zouden ze moeten overwegen dat ook in hun drivers te doen.
Wat betreft verbruik is het ook een kwestie van een keuze voor een bepaalde TDP.Dennism schreef op woensdag 4 juni 2025 @ 15:54:
[...]
Ergens vraag ik me af of ze dat wel kunnen met de huidige architectuur / chip designs zonder te moeten subsidiëren, ik zat net ff een 9060 XT 16G review te kijken en t.o.v. de 5060 Ti, halen ze, raytracing uitgesloten, in die review quasi gelijke prestaties als de 5060 Ti 16G , maar wel tegen een 10% grotere die size, veel hogere density (waardoor je eigenlijk een betere perf / mm2 zou verwachten) en een flink hoger verbruik. Terwijl de 5060 Ti een hoger TBP heeft. Nu wil dat uiteraard niet alles zeggen maar het viel me wel weer op dat AMD minder uit het chip oppervlak, density en powerbudget lijkt te halen dan Nvidia. Kijk je immers naar het door AMD en Nvidia gespecificeerde powerbudget zou de AMD kaart minder moeten verbruiken dan de Nvidia kaart op volle belasting, in plaats van meer.
Raytracing was dan weer veel meer mixed bag, sommige games deed AMD het ok, andere games is het nog altijd relatief gezien zeer slecht.
Hetzelfde zie je ook bij de 9070XT, kijk ik even naar de TPU data is de volle Navi 48 is dan wel +-5% kleiner dan GB203, maar de RX9070XT is ook bijna 20% trager dan de 5080 die de volle GB203 gebruikt. En ook daar zie je de RX 9070XT meer verbruiken dan de 5080, laat staan de 5070 Ti, met een cut down GB203 waarmee eigenlijk op performance geconcurreerd wordt.
De 9060XT en 9070XT zijn GPU's die heel hard lopen te boosten met ingame clocks van 3.0-3.2GHz.
Een begrensde 9070XT @230W TBP behoud nog ca. 94% van de prestaties. De laatste paar honderd MHz aan clock kost gewoon ontzettend veel extra vermogen (330W TBP).
Maar ja ze willen overduidelijk niet van de tegenpartij verliezen

Daarnaast heeft Nvidia ook een streepje voor met de efficiëntie van GDDR7, het is misschien niet veel Watt in absolute termen, maar elk beetje helpt. Zeker bij lichte kaarten is het procentueel toch wel significant.
Ook niet onbelangrijk is dat de CPU overhead met een Nvidia kaart groter is en een deel van het verbruik dus naar de CPU verplaatst wordt. @Werelds gaf dat eerder al indirect aan.
RDNA4 is veel efficiënter dan doet vermoeden uit de reviews. Vandaar dat ik benieuwd ben wat een monster chip (>700mm2) gedaan zou hebben dat op een klok van pakweg 2.5-2.7GHz loopt.
Ik heb uit nieuwsgierigheid gekeken naar de shader/FPS om zodoende een grove inschatting van de architectuur schaling te krijgen. Uiteraard is de klok ook van invloed, maar aan de andere kant gaat het ook om het eindresultaat dat bereikt wordt.
Je ziet in ieder geval bij Nvidia kaarten dat de factor verhoudingsgewijs meer oploopt. En van de 5080 naar 5090 in feite explodeert (idem van 4080 naar 4090).
Als bij AMD dat een stuk beter gaat, dan kan het best zijn dat per mm2 chip er uiteindelijk net zoveel uit gehaald kan worden of zelfs meer.
Edit:
Vergeten erbij te zetten, maar staar je niet blind op de TBP en wat er in de reviews gemeten wordt.
Elke kaart heeft een firmware/software begrenzing om zich 'nauwkeurig' aan de TDP te houden, maar de shunt metingen om dat vermogen te bepalen is verre van accuraat en kent bij Nvidia kaarten in de regel een grotere spreiding vanwege de meetmethode. In de praktijk betekent dit dat er een behoorlijk verschil kan zijn, maar dat is dan eerder een gevolg en niet zozeer dat daarvoor bewust gekozen wordt.
Idem voor 2 kaarten van hetzelfde type & merk. Beiden kunnen via GPU-Z en/of HWinfo hetzelfde verbruik aangeven, waarbij de ene kaart het een stuk beter doet qua prestaties en klok. Het kan best zijn dat het werkelijke verbruik ook gewoon verschilt. En dat verschil kan met zeg maar 30-40W bij 400W TBP best behoorlijk zijn. Zoiets ziet men niet totdat er aan de 12V DC zijde van de PC voeding gemeten wordt.
[ Voor 13% gewijzigd door CMT op 06-06-2025 14:48 ]
Ha. Excuses, ik kijk nooit naar PT en heb ook 0,0 interesse in AW in z'n algemeen, dus ik heb me nooit verdiept in die resultaten.napata schreef op donderdag 5 juni 2025 @ 14:36:
[...]
Hier. Excuses, die link had ik in m'n eerste post er al aan toe moeten voegen. Het is zonder framegen. Zo'n kromme vergelijking ga je normaal niet vinden bij PCGH zonder dat het staat aangegeven.
3% sneller in raster, 18% in RT en 31% in PT. Hangt wel sterk af van resolutie. Op 4K met DLSS Q is de 4070Ti Super zelfs 43% sneller. Voor beiden is het wel onspeelbaar maar dat maakt voor dit argument weinig uit. Ik zie gelijkaardige % bij PT in andere games. Die gebruiken natuurlijk allemaal SER wat waarschijnlijk gedeeltelijk verantwoordelijk is voor de vooruitgang maar dat is ook deels hardware. In pure RT benchmarks zie je ook redelijke verschillen. Niet heel relevant voor games maar wel voor het argument dat ze er niet op vooruitgaan. Als ik zo eens kijk dan moet ik toch stellen dat je het niet bij het rechte eind hebt.
AW is eindelijk een voorbeeld waar SER impact heeft (zou eens tijd worden), maar de 4070 Ti Super is dan niet eens het beste voorbeeld. De 4070 en 4080 zitten beide ruim 35-40% boven waar ze zouden moeten zitten; de 4090 wint juist zo goed als niets. En ik zie ook meteen waarom. Het is evenredig met de verhouding tussen L2$ en aantal SM's. De 4070 Ti Super en 4090 komen L2$ tekort. Ook eindelijk een geval waar de L2$ nuttig blijkt.
Overigens niet echt een hardware wijziging, in de zin dat er iets heel erg nieuws is is. SER is een opt-in shader (vereist dus software implementatie) die een hit flag op true/false zet. En op basis daarvan herordent de scheduler de threads binnen een SM. Dat herordenen (sorteren) deed de scheduler al (is een kerntaak van die dingen
Neemt ook niet weg dat Nvidia's claims omtrent RT core performance nog steeds bullshit zijn. Een Ampère RT core zou 2x ray/tri doen ten opzichte van Turing; Ada zou daar wéér 2x op doen (en Blackwell nóg eens 2x). Maar in de praktijk zie je dat niet. SER _zou_ dat misschien wel kunnen laten zien, maar met het gigantische kloksnelheidsverschil is dat lastig te zien en de kloksnelheid doet er waarschijnlijk meer toe. Je zou al een clock-for-clock test moeten doen; GPU's met vergelijkbare aantallen SM's (en L2$ verhouding op Ada/Blackwell!), allemaal op 1500 MHz laten draaien ofzo en dan kijken wat er uit komt.
Game en resolutie doen er uiteraard toe, maar je ziet bij Nvidia weldegelijk vrij consistent dat RT 1080p en 1440p meer verbruikt. Is ook niet vreemd, omdat ze op die resoluties de bredere GPU's niet bezig kunnen houden met raster workloads, met RT wel omdat we daar een harde bottleneck hebben. Op 2160p is het wisselend, daar loop je met veel GPU's inderdaad altijd tegen de limiet aan. Bij AMD is dat een stuk minder, omdat die hun WGP's over het algemeen meer aan het werk hebben.Dit geldt zowel voor AMD als Nvidia en hangt tevens af van game tot game alsook resolutie.
Overigens niet op TPU gebaseerd. Hun nieuwste methode ben ik ook geen fan van.
Een 5070 Ti draait al licht trager dan een 5070 en draait maar net even efficiëntSissors schreef op vrijdag 6 juni 2025 @ 12:46:
Meer transistoren voor extra functies (die actief gebruikt worden) is idd nadelig voor het stroomverbruik. Maar transistoren voor de primaire functie is positief normaal voor het stroomverbruik. Een 5070Ti die je op 5070 snelheid laat draaien, zal minder stroom verbruiken. Een cache hit is een stuk zuiniger dan memory access.
IC hits zullen inderdaad wat besparen, maar dat zal in verhouding niet veel zijn. De belangrijkste reden voor IC is juist performance. Memory access is traag, IC is minder traag.
Oneens. Nvidia's CPU overhead brengt al wat problemen met zich mee waardoor hun GPU's niet lekker schalen qua grootte. En juist voor RT willen we minder afhankelijk van de CPU worden dan nu het geval is. Alle scheduling en dergelijke in de driver doen maakt het geheel ook foutgevoelig en vereist een gigantisch software team. Je hardware scheduler kun je met je GPU mee schalen, een driver is afhankelijk van de onderliggende CPU. Er zijn wel meer dingen die één van beide ooit in een driver deed, wat toch echt beter in hardware kon.Als AMD echt een niet verwaarloosbaar gedeelte van hun power en area budget gebruiken voor iets wat Nvidia in de drivers doet, dan zouden ze moeten overwegen dat ook in hun drivers te doen.
Hmm ik vind het erg lastig om iets uit deze percentages te halen.XWB schreef op vrijdag 6 juni 2025 @ 11:38:
[...]
AMD's marktaandeel in de AIB markt is inmiddels onder de 10% gedoken, vooralsnog pakt AMD niets terug. Het is ook best een flinke daling: van 15% in Q4 naar afgerond 8% in Q1.
[Afbeelding]
[...]
In de totale GPU markt liggen de verhoudingen anders.
Hoe relevant is dit voor de dGPU verkoop aan consumenten en dan met name aan gamers?
Het zou mij niet verbazen als het leeuwendeel van de omzetgroei bij AIB's te danken is aan bijv. de 5090.
Met bedragen van €2500-4000/ stuk gaat het hard met de omzet.
Weet iemand of gpu's in laptops ook onder de AIB noemer vallen?
Dit is unit share, geen omzet share, van iedere 100 door AIB's geshipte insteekkaarten met een dGPU in Q1 zijn er dus gemiddeld 92 units van Nvidia, 8 van AMD en 0 van Intel. Een enkele 5090 of RX 9070XT zou dus net zo veel gewicht in deze schaal leggen als een enkele 5060 (als er al 5060's door Nvidia shipped zijn in Q1, ik vermoed van wel, maar het zou natuurlijk kunnen van niet, omdat het een midden Q2 product is voor de retail) of B580CMT schreef op vrijdag 6 juni 2025 @ 14:37:
[...]
Hmm ik vind het erg lastig om iets uit deze percentages te halen.
Hoe relevant is dit voor de dGPU verkoop aan consumenten en dan met name aan gamers?
Het zou mij niet verbazen als het leeuwendeel van de omzetgroei bij AIB's te danken is aan bijv. de 5090.
Met bedragen van €2500-4000/ stuk gaat het hard met de omzet.
Weet iemand of gpu's in laptops ook onder de AIB noemer vallen?
Normaliter vallen valt laptop niet onder AIB unitshare, maar voor zover ik weet wel de insteekkaarten in bijv. HP / Dell en Boutique prebuilds.
quote van tom's hardware over dit rapport:
Tom heeft ook nog wat meer duiding: https://www.tomshardware....s-nvidia-extends-its-leadThe industry shipped 9.2 million standalone graphics processing units for desktop PCs during the first quarter, up 8.5% compared to the prior quarter and by 5.3% on an annual basis. In terms of market share dynamics, Nvidia was the only major vendor to expand its position, gaining 8.5%. AMD’s share declined by 7.3%, while Intel's share saw a smaller contraction of 1.2%.
AMD's GPU shipments totaled approximately 740,000 to 750,000 units, the company's worst results in three years. To make matters worse, for the first time in decades (if not ever), the quarterly sales of AMD GPUs declined despite the launch of new halo products.
Nvidia sold around 8.46 million standalone graphics processors for desktops, the company's best result in three years, especially keeping in mind that the company sold quite expensive products ($379 - $1999) during the first quarter and these products happen to be some of the best graphics cards around.
Waar het dus op lijkt is, zoals ik hier ook al aangaf: Dennism in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"
Dat AMD dus de RX 9070 modellen (grotendeels) in Q4 geleverd heeft, vandaar die piek in Q4 van 12 naar 15% AIB share wat op zich logisch is, want alles leek te wijzen op dee CES introductie met daarna direct verkrijgbaarheid, de kaarten lagen immers al bij diverse retailers in redelijk volume, tot AMD de introductie vermoedelijk uitstelde.
Maar dit lijkt er dus ook op te wijzen dat AMD daar in Q1 niet op heeft doorgepakt en dus niet de productie verder opgehoogd heeft zoals gebruikelijk om na een introductie het volume verder te verhogen en de verkrijgbaarheid te verbeteren na de launch, maar juist veel minder heeft geleverd in Q1 dan in het kwartaal ervoor in units.
Tis jammer dat we dit artikel niet gratis kunnen lezen..... Ben heel benieuwd wat hier instaat met welke duiding: https://www.jonpeddie.com/techwatch/game-over/
[ Voor 56% gewijzigd door Dennism op 06-06-2025 16:21 ]
Ah zo, ja dat maakt een stuk meer duidelijk. Bedankt.
Ik zou het merkwaardig hebben gevonden als AMD marktaandeel heeft weten te veroveren met de huidige prijsstelling. Dat is imho veel te hoog om twijfelaars over de streep te trekken.
Nu lijkt het mij wel zo dat de cijfers enigszins verbloemt worden, doordat er geen onderscheid gemaakt wordt tussen de consumenten en zakelijke markt (pro kaarten) en het feit dat de consumenten 5090's vanwege de 32GB ook erg in trek is puur voor video / AI toepassingen.
Het zal mij benieuwen of de FTC ingrijpt wanneer het het verschil nog schrijnender wordt.
Hopelijk wordt UDNA het Zen moment voor de GPU divisie van AMD.
[ Voor 9% gewijzigd door Dennism op 06-06-2025 18:07 ]
Van Chinese yuan naar euro is dat omgerekend minimaal €8.84/chip.
Dat is toch best pittig. Dan snap ik wel waarom AIB's een pakket afnemen van Nvidia.
https://videocardz.com/ne...x-5090-48gb-mods-incoming

Dat valt mij juist heel erg mee, dan zit je op 36, 54 resp. 72 euro voor 12, 18 of 24GB GDDR7 i.p.v. 8, 12 en 16 nu. Waarbij je nog rekening moet hadden dat met de volumes welke AIBs kunnen inkomen de stukprijs naar beneden gaat en de 2GB modules welke ze vervangen ook niet gratis zijn waardoor de meerprijs nog een stuk lager ligt.CMT schreef op maandag 9 juni 2025 @ 17:46:
Leuk voor een inkijkje in hoe duur de Samsung 3GB GDDR7 chips nu zijn met verkoop via een 3e partij.
Van Chinese yuan naar euro is dat omgerekend minimaal €8.84/chip.
Dat is toch best pittig. Dan snap ik wel waarom AIB's een pakket afnemen van Nvidia.
Valt mij ook erg mee. 5080 met 24gb zouden als warme broodjes gaan. Ook nog voor iets hogere prijzen.!mark schreef op maandag 9 juni 2025 @ 18:24:
[...]
Dat valt mij juist heel erg mee, dan zit je op 36, 54 resp. 72 euro voor 12, 18 of 24GB GDDR7 i.p.v. 8, 12 en 16 nu. Waarbij je nog rekening moet hadden dat met de volumes welke AIBs kunnen inkomen de stukprijs naar beneden gaat en de 2GB modules welke ze vervangen ook niet gratis zijn waardoor de meerprijs nog een stuk lager ligt.
Igor: NVIDIA removes China from its sales forecasts – When export controls become a business risk
“Our forecasts no longer include China in the future.” This dry statement by Jensen Huang to Reuters may sound sober, but it is a strategic tremor. Just a few years ago, China was a goldmine for NVIDIA. Now it is becoming an unpredictable risk.
The reason? The increasingly strict US export controls, which are now banning even trimmed AI chips such as the H20 from the Chinese market. What used to mean predictability is now a geopolitical roulette.
The consequence: NVIDIA is not cutting China because it wants to, but because it has to. A sales region the size of a continent is simply being “booked out”
___
Ze zullen de chips vast wel kwijt kunnen in het westen. Maar zoniet, mag een mens dan hopen: Lagere prijzen, betere leverbaarheid gamingchips.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Via een "backdoor" komen er vast nog genoeg in China terecht. Handel is handel.Help!!!! schreef op zaterdag 14 juni 2025 @ 10:17:
'Glimmers of hope':
Igor: NVIDIA removes China from its sales forecasts – When export controls become a business risk
“Our forecasts no longer include China in the future.” This dry statement by Jensen Huang to Reuters may sound sober, but it is a strategic tremor. Just a few years ago, China was a goldmine for NVIDIA. Now it is becoming an unpredictable risk.
The reason? The increasingly strict US export controls, which are now banning even trimmed AI chips such as the H20 from the Chinese market. What used to mean predictability is now a geopolitical roulette.
The consequence: NVIDIA is not cutting China because it wants to, but because it has to. A sales region the size of a continent is simply being “booked out”
___
Ze zullen de chips vast wel kwijt kunnen in het westen. Maar zoniet, mag een mens dan hopen: Lagere prijzen, betere leverbaarheid gamingchips.
We blijven hopen ^^. Het is toch een behoorlijk stuk van de taart / chip allocatie als China niet meer als afzetmarkt beschouwt wordt. Maar of hiermee de gamers ook weer uit het verdomhoekje komen?
Zodra gaming weer de hoogste marge is die ze ook daadwerkelijk kunnen verkopen, uiteraard. Maar ik zie dat niet snel gebeuren. Dan moet er wel heel van handel wegvallen. Er was immers ook sprake van dat Nvidia (en volgens mij de anderen ook) Chinese business al tijden naar voren aan het halen zijn om maar zoveel mogelijk te kunnen leveren tot men vanuit de US echt aangeeft van 'nu stoppen we met de export naar China van AI server chips', waardoor de 'backlog' voor Non-China ook flink opgelopen zou zijn met extreem lange leadtimes. Voor de eerste tijd zullen ze dus waarschijnlijk makkelijk die backlog kunnen gaan vullen, zou het inderdaad zo zijn dat er een volledige 'China stop' komt.CMT schreef op zondag 15 juni 2025 @ 22:07:
@Help!!!!
We blijven hopen ^^. Het is toch een behoorlijk stuk van de taart / chip allocatie als China niet meer als afzetmarkt beschouwt wordt. Maar of hiermee de gamers ook weer uit het verdomhoekje komen?
Vooralsnog lijkt het er immers op dat het enkel een 'dingetje' is voor de SEC / aandeelhouders, omzet voor China wordt niet meer meegenomen in de forward looking statements, zodat Nvidia niet nat kan gaan zou die omzet ineens voor 100% wegvallen, terwijl ze aandeelhouders er wel lekker mee hebben gemaakt.
En het zou me verder ook weinig verbazen als zoals @meljor al aangeeft een deel van die chips wel via 'alternative routes' China zullen bereiken, en dat ineens in China de vraag zal stijgen naar andere kaarten die niet onder het huidige verbod vallen. Dat zal nog wel even een 'kat en muis' spelletje blijven vermoed ik tussen Nvida en de US regering waarbij Nvidia met nieuwe cut down Sku's komt en de regering die dan weer verbied met nieuwe regels.
Niet dat dit Nvidia's bottomline niet zal raken, maar met hoeveel, zeker op korte termijn gaat wel de vraag zijn.
CUDA on RISC-V: NVIDIA’s silent stab in the back against the x86/ARM cartel
Anyone who thought that NVIDIA would continue to cuddle up in its wedding bed with ARM while secretly displacing AMD GPUs must have missed the clattering in the RISC-V workshop.
Because what has been quietly announced here is nothing less than a seismic tremor in the foundations of the AI infrastructure: CUDA is now running on RISC-V processors.
This is not just a technical curiosity, but a strategic broadside against the architecture duopolists x86 and ARM. And exactly where it hurts the most, in the heart of the AI power centers: data centers, edge computing and AI accelerator solutions.
etc...
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Dit is een introductie, op de 15de komt de hele video.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Hoop wel dat ie in het 'eindproduct', met namen en rugnummers van eventuele US partijen die de initiele verkopen doen en dat het niet grotendeels gaat over de handel en wandel in China / Azie, want zodra die kaarten daar zijn c.q. niet met in eigendom zijn van een Amerikaanse entiteit is er een grote kans dat de tussenhandel gewoon binnen de wetten daar valt. En dan kan ook Nvidia er weinig meer aan doen, al zullen die sowieso niet meer willen doen dan het minimale, kijk bijv. ook naar AMD's datacenter cijfers van vorige week die flink geraakt worden door het China verhaal, dat zal bij Nvidia niet anders zijn vermoed ik.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Steve is bezig om te diversificeren en meer de kant van investigative journalism en consumer advocacy op te gaan. Zie ook zijn relatief nieuwe kanaal: GNCA - GamersNexus Consumer Advocacy
Het zal vast allemaal nog niet perfect zijn en af en toe draaft hij nogal door maar ik vind het een goede ontwikkeling.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Bijzonder dat Tweakers hier nog niets over heeft gepubliceerd. Misschien zijn ze bang voor de gevolgen? Looking at Nvidia. 👀
Maar de essentie lijkt te zijn dat die GPU's gewoon naar China worden verscheept vanuit TSMC om geassembleerd te worden en dan "van de vrachtwagen vallen". Nvidia zal er echt wel van weten, maar lijkt de andere kant op te kijken. Daarnaast lijken videokaarten op meerdere plekken buiten China opgekocht te worden en alsnog China gesmokkeld te worden.
Ondertussen is de video ook offline gehaald vanwege een vage copyright strike van Bloomberg. Dat wordt de volgende video.
https://www.youtube.com/p...ahdEqjmbr2ki2vkhRNZ3N17Y7
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik vermoed eerder omdat het lang niet zo interessant lijkt dan men deed / doet vermoeden. Als het er nu over ging dat bijv. H200 massaal gesmokkeld zou worden naar China vanuit de US, door US bedrijven, was dat natuurlijk heel erg interessant geweest.Yonix schreef op zaterdag 23 augustus 2025 @ 12:36:
[...]
Bijzonder dat Tweakers hier nog niets over heeft gepubliceerd. Misschien zijn ze bang voor de gevolgen? Looking at Nvidia. 👀
Maar als het inderdaad is zoals o.a. op reddit wordt aangegeven, maar ook wat @DaniëlWW2 lijkt aan te geven dat het voornamelijk een langdradig verhaal is geworden dat gaat over bedrijvigheid aangaande gaming / prosumer kaarten in China / Azië waar deze handel mogelijk niet eens verboden is het eigenlijk niet eens zo heel erg nieuwswaardig en dus ook niet heel erg bijzonder dat dit niet direct globaal wordt opgepakt in de media.
En daarom kon ik de video dus niet vinden gister....
Normaliter ergens eind 2026 / begin 2027.MetalSonic schreef op maandag 25 augustus 2025 @ 08:48:
Wanneer verwachten jullie de 6080? Volgend jaar al?
De omzet uit gaming is weer gestegen, dat lijkt me voor de doelgroep in dit topic wel relevant:
De omzet van Nvidia die komt uit videokaarten voor consumenten, vooral voor gaming, groeide met 49 procent ten opzichte van dezelfde periode vorig jaar. De omzet uit videokaarten voor datacenters groeide in diezelfde periode met 56 procent.
De omzet uit videokaarten voor gaming groeide zo sterk vanwege de release van de RTX5000-serie aan videokaarten, zoals de RTX5060 in mei. Vorig jaar was er geen nieuwe serie aan videokaarten op de markt. De vraag naar videokaarten voor datacenters groeide sterk door de AI-trend van afgelopen jaren.
NVIDIA Discrete GPU Market Share Dominance Expands to 94%, Notes Report
obv:
Q2’25 PC graphics add-in board shipments increased 27.0% from last quarter
[ Voor 13% gewijzigd door Help!!!! op 03-09-2025 12:43 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...
Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?
Doet mij denken aan de Nvidia strategie in het begin versus 3dfx.XWB schreef op woensdag 3 september 2025 @ 20:46:
En een Nederlandstalig artikeltje:
nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...
Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?
- Nvidia had de focus op de OEM's gezet. Zorg dat de leken in hun Dell, HP,... PC's een Nvidia grafische kaart hebben. Zo kregen ze stabiele continue omzet en winst ongeacht wat de gamers, reviewers,... ervan vinden en wie de performancekroon heeft. Zie ook de mensen die default Intel kiezen of Intel voorgeschoteld krijgen.
- 3dfx had een AIB (bedrijf die losse chips koopt en grafische kaarten ervan maakt) opgekocht en wou de marges van de AIB's voor zichzelf houden. Een groot deel van hun distributienetwerk buitengooien.
Als ik naar afdankertjes bij klanten kijk, dat zijn veel Quadro's met 4 mini-DisplayPort uitgangen om meerdere schermen aan te sturen en/of video decoding.
Het is een vertekend beeld als deze kaarten in zakelijke computers meetellen.

Voor ons begint een budget grafische kaart met minstens 1x 8-pin PCIe connector en rond 150W TDP? Beetje mid-end grafische kaart stookt toch rond 300W, heeft 3 fans, is 3-slot dik en langer dan een liniaal (30cm).
Dominant zijn in de highend helpt ook altijd. 5070ti is lichtelijk beter (ook duurder), 5080 kent geen concurrentie en 5090 zit compleet op een eigen eiland.....XWB schreef op woensdag 3 september 2025 @ 20:46:
En een Nederlandstalig artikeltje:
nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...
Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?
AMD had net even wat scherper moeten prijzen nog nu ze een redelijke kans hadden in het midden segment. In plaats daarvan bieden ze wederom een fractie mindere kaarten voor een fractie lagere prijs. Not good enough.
Algemeen op het internet is het toch voor een link gedeelte "pro AMD", als je ook kijkt naar Youtube influencers, maar ook een Tweakers was veel enthousiaster over de AMD kaarten als de Nvidia. En toch doet Nvidia het gewoon veel beter. Misschien gedeeltelijk omdat er heel hard geklaagd wordt op de prijs van Nvidia, maar niet op de performance (ook al is het natuurlijk gelinkt aan elkaar). Onder de streep is AMD ook de underdog, maar ze blijven voor de "€50 minder voor zelfde performance" strategie gaan. En eerlijk is eerlijk, vraag is als ze €150 goedkoper gaan of Nvidia dan niet ook gewoon de prijs meeverlaagt. Al zou ik ook denken dat die liever een ~80% marktaandeel hebben: Meer dan zat zonder dat concurrentiewaakhonden het wel erg twijfelachtig gaan vinden.
Zijn al generaties lang "de beste" dus dat werkt wel door. Verder zijn er veel mensen die alleen maar een "GeForce" kopen want dat is goedSissors schreef op woensdag 3 september 2025 @ 23:20:
Ik blijf me afvragen hoeveel dat hoge segment uitmaakt. En ja ik weet dat mensen zeggen dat als je daar de kroon hebt, mensen ook mindere kaarten van je gaan kopen, maar is dat echt zo'n groot effect?
Algemeen op het internet is het toch voor een link gedeelte "pro AMD", als je ook kijkt naar Youtube influencers, maar ook een Tweakers was veel enthousiaster over de AMD kaarten als de AMD. En toch doet Nvidia het gewoon veel beter. Misschien gedeeltelijk omdat er heel hard geklaagd wordt op de prijs van Nvidia, maar niet op de performance (ook al is het natuurlijk gelinkt aan elkaar). Onder de streep is AMD ook de underdog, maar ze blijven voor de "€50 minder voor zelfde performance" strategie gaan. En eerlijk is eerlijk, vraag is als ze €150 goedkoper gaan of Nvidia dan niet ook gewoon de prijs meeverlaagt. Al zou ik ook denken dat die liever een ~80% marktaandeel hebben: Meer dan zat zonder dat concurrentiewaakhonden het wel erg twijfelachtig gaan vinden.
Net als de "pentium" nog steeds sterk is qua bekendheid. Velen kopen zelfs nu nog liever een Intel dan een Amd want Amd was altijd zo "slecht".
Zulke dingen hebben dus sowieso tijd nodig maar je moet ergens beginnen met een extreem goede indruk, en daar slaagt Amd steeds niet in door domweg teveel achter Nvidia aan te hobbelen.
Persoonlijk kijk ik vooral naar functies, bang for buck en de fuckups in het verleden.
Zo hoef ik voorlopig geen Intel na 13th/14th gen gepruts.
Geen Asrock borden voorlopig na am4 vrm's en am5 dode cpu's.
En Nvidia wil ook graag op mijn lijstje vanwege gesmolten connectors, black screens en de driver problemen van afgelopen maanden.
Had Amd high end gehad dan had ik gewoon weer Amd gekocht deze gen. Is mij altijd prima bevallen qua cpu's en gpu's (tot nu toe).
[ Voor 13% gewijzigd door meljor op 04-09-2025 12:55 ]
Hoger segment geeft bragging rights en dat zien toch best veel mensen. Heel veel reviews nemen vaak de uiterste producten mee in de test. Daarom zie je heel vaak de 5090 en ook de 9800X3D en bijna iedereen kent ze wel. Nvidia is voor de minder bekende dus de snelste.Sissors schreef op woensdag 3 september 2025 @ 23:20:
Ik blijf me afvragen hoeveel dat hoge segment uitmaakt. En ja ik weet dat mensen zeggen dat als je daar de kroon hebt, mensen ook mindere kaarten van je gaan kopen, maar is dat echt zo'n groot effect?
Algemeen op het internet is het toch voor een link gedeelte "pro AMD", als je ook kijkt naar Youtube influencers, maar ook een Tweakers was veel enthousiaster over de AMD kaarten als de AMD. En toch doet Nvidia het gewoon veel beter. Misschien gedeeltelijk omdat er heel hard geklaagd wordt op de prijs van Nvidia, maar niet op de performance (ook al is het natuurlijk gelinkt aan elkaar). Onder de streep is AMD ook de underdog, maar ze blijven voor de "€50 minder voor zelfde performance" strategie gaan. En eerlijk is eerlijk, vraag is als ze €150 goedkoper gaan of Nvidia dan niet ook gewoon de prijs meeverlaagt. Al zou ik ook denken dat die liever een ~80% marktaandeel hebben: Meer dan zat zonder dat concurrentiewaakhonden het wel erg twijfelachtig gaan vinden.
Maar in de praktijk is het volgens mij eerder een combinatie van factoren:
(let op dit is puur mijn mening, niet een feitenlijst)
Stabiliteit en vertrouwen
Bij Nvidia weet je dat je elke generatie een complete line-up hebt van high tot low end. Bij AMD is het elke generatie weer afwachten of ze überhaupt wel een high end zullen uitbrengen.
First to market
Nvidia legt al generaties lang de lat en AMD wacht constant met releasen om te kunnen antwoorden op Nvidia. Namen en prijzen worden soms kort voor lancering aangepast. Kortom, ze vertrouwen zelf niet in hun eigen producten en willen koste wat kost Nvidia kunnen counteren.
Naam en naamgeving
Geforce + hoger nummer = superduidelijk. Je weet gelijk over welke generatie het gaat en het tweede deel laat duidelijk zien in welke stack je koopt. AMD maakt hier geregeld een zooi van door weer de gehele naamgeving op de schop te gooien. Soms nog erger, spelen met het tweede deel van de cijfers om sneller te lijken (RX 7000)
Architectuur
Velen lopen geregeld te klagen dat Nvidia weinig verandert, maar de praktijk laat zien dat Nvidia het nooit echt laat afweten en altijd meedoet in rauwe prestaties. AMD doet haar best om elke generatie weer het wiel opnieuw uit te vinden en alles om te gooien. Deze is om nog een reden belangrijk.....
....Drivers prestaties
Bij Nvidia zitten de prestaties bij release vaak al dicht tegen het plafond en AMD groeit vaak meer. AMD heeft waarschijnlijk veel meer gedoe om haar drivers op orde te krijgen vanwege de constante wijzigingen in architectuur. Sommige noemen het fine-wine, ik noem het too little too late
Tools en features
Dit is meer van de laatste 10 jaar, maar Nvidia loopt tegenwoordig gewoon constant weg bij AMD als het gaat om features. Nvidia dicteert letterlijk wat AMD gaat doen en tegen de tijd dat ze bij zijn brengt Nvidia de volgende feature set uit die AMD hoofdpijn geeft.
Als AMD echt stappen wil maken op de PC markt dan zullen ze fors moeten investeren. Ik denk echter dat de PC markt meer een extraatje is geworden om wat meer inkomsten te genereren vanuit de R&D bij console chips. Ze produceren momenteel gewoon te weinig Radeon chips om marktaandeel af te pakken en alles wat ze op de markt brengen gaat met een bak slechte marketing.
Misschien wel dezelfde performance in games, maar er zijn ook mensen die iets anders met hun PC doen waar Nvidia kaarten beter in zijn.Sissors schreef op woensdag 3 september 2025 @ 23:20:
Ik blijf me afvragen hoeveel dat hoge segment uitmaakt. En ja ik weet dat mensen zeggen dat als je daar de kroon hebt, mensen ook mindere kaarten van je gaan kopen, maar is dat echt zo'n groot effect?
Algemeen op het internet is het toch voor een link gedeelte "pro AMD", als je ook kijkt naar Youtube influencers, maar ook een Tweakers was veel enthousiaster over de AMD kaarten als de Nvidia. En toch doet Nvidia het gewoon veel beter. Misschien gedeeltelijk omdat er heel hard geklaagd wordt op de prijs van Nvidia, maar niet op de performance (ook al is het natuurlijk gelinkt aan elkaar). Onder de streep is AMD ook de underdog, maar ze blijven voor de "€50 minder voor zelfde performance" strategie gaan. En eerlijk is eerlijk, vraag is als ze €150 goedkoper gaan of Nvidia dan niet ook gewoon de prijs meeverlaagt. Al zou ik ook denken dat die liever een ~80% marktaandeel hebben: Meer dan zat zonder dat concurrentiewaakhonden het wel erg twijfelachtig gaan vinden.
Bovendien maken veel mid- en highend AMD kaarten nog gebruik van GDDR6 geheugen, daar waar NVidia al overgestapt is op GDDR7 geheugen wat een 2x zo hoge data transfer kan halen. Voor sommige toepassingen is dat een voordeel.
Only two things are infinite, the universe and human stupidity, and I'm not sure about the former
De top 10 bij Newegg laat toch vooral AMD zien voor de DIY markt: https://www.newegg.com/d/...o-Graphics-Device/c/ID-38XWB schreef op woensdag 3 september 2025 @ 20:46:
En een Nederlandstalig artikeltje:
nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...
Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?
Dit is een van de redenen. De bestellingen van Dell, HP, etc. zorgen voor een constante stroom units.rapture schreef op woensdag 3 september 2025 @ 22:00:
[...]
Doet mij denken aan de Nvidia strategie in het begin versus 3dfx.
- Nvidia had de focus op de OEM's gezet. Zorg dat de leken in hun Dell, HP,... PC's een Nvidia grafische kaart hebben.
Er is nog een reden waarom de AMD kaarten niet in de cijfers van Jon Peddie opduiken, en dat is als ze gratis verkocht worden aan AIB partners. Jon Peddie kijkt alleen naar de omzet, deelt dit door de gemiddelde stuksprijs (groothandel kostprijs, niet de verkoopprijs) en berekent zo de aantallen. Als er flinke kortingen worden gegeven, betekent dat bij Jon Peddie minder aantallen.
Laat AMD nou net op Radeon nog wat korting verplichtingen hebben overgehouden aan de RX7000 series. Belofte maakt schuld.
Steam hardware survey is helaas ook vertekend door de wereldwijde internet cafe's: elke Steam gebruiker die in en uitlogt op zo'n PC vaak met een Nvidia kaart, geeft Nvidia door. Ik heb ook deze maand een Steam survey gekregen: 2,5 jaar nadat ik m'n PC gebouwd had (met AMD CPU + GPU). Er zijn waarschijnlijk meer PC gamers zonder eigen game PC, dan met.
Gerucht: volgens AMD's eigen interne getallen (leaks) is de "gaming market share" van 15% RDNA3 naar 22% RDNA4 gegaan.
YouTube: RX 9070 GRE 16GB Specs Leak, AMD FSR 4 on RDNA 3, Nvidia RTX 5080 & ...
Maar zelfs al zou het 6% zijn: het zal niet naar 0% gaan, en het zal waarschijnlijk geen invloed op de consumenten prijzen hebben. In het kort:
- De investeringskosten voor AMD zijn te laag om niet met Radeon door te gaan. Dit komt omdat ze al moeten investeren in AI en consoles. Radeon gaat dus niet wegvallen.
- Een hoger volume Radeon kaarten gaat er niet voor zorgen dat prijzen omlaag gaan voor DIY consumenten. Dat hebben we in de afgelopen 10 jaar ook niet gezien. Zelfs toen het 60%-40% was, bleven de bruto marges van Nvidia dik 50%.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
NVIDIA's $5B Intel Investment Reveals x86-GPU NVLink Project
NVIDIA Buys $5B Worth of Intel, RTX iGPUs Coming to x86
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Vinden we het wel een fijn idee als hun grootste concurrenten zowel GPU als CPU's maken?Help!!!! schreef op donderdag 18 september 2025 @ 20:16:
Interessante ontwikkelingen. Ben er nog niet uit of ik deze financial entanglement nu zo'n fijn idee vind.
NVIDIA's $5B Intel Investment Reveals x86-GPU NVLink Project
NVIDIA Buys $5B Worth of Intel, RTX iGPUs Coming to x86
Ik snap de zorgen, maar gelijktijding is deze stap wel vanuit Nvidia's perspectief compleet begrijpelijk. Ze proberen al wat jaren in cpu voet aan de grond te krijgen om niet afhankelijk te zijn van AMD/Intel. Ik mag alleen maar hopen dat we straks niet een situatie gaan krijgen waarin de keuze voor Nvidia verplicht Intel te nemen en hetzelfde bij AMD. De crux voor Nvidia zit in de datacenter in deze keuze. Als AMD het ooit gaat proberen om Nvidia te excluden door hun GPU aan de CPU divisie te koppelen in één pakket, dan zou Nvidia letterlijk buitenspel gezet worden. Mocht Intel echt wegvallen, dan zou dit letterlijk de deur opengooien voor AMD en dat moeten we ook niet willen.
IGOR via Chinatimes: TSMC plant angeblich Preisaufschlag von 50 % bei 2‑nm‑Chips, Konsumenten droht nächster Preisschock bei CPUs und GPUs
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Die reviews gaan er altijd vanuit dat mensen iedere generatie een nieuwe GPU kopen.XWB schreef op woensdag 3 september 2025 @ 20:46:
En een Nederlandstalig artikeltje:
nieuws: Nvidia bereikt recordmarktaandeel van 94 procent in levering losse vi...
Kennelijk is de RTX 5000 serie toch erg in trek, ondanks dat reviews matig enthusiast waren. Willen mensen werkelijk alleen nog maar Nvidia?
Ik ben van een 3060 naar een 5080 gegaan dus ik was wel enthousiast.
Dat denk ik niet zo zeer, de meeste reviewers weten best dat mensen vaak pas na een jaar of 5 upgraden gemiddeld gezien, en benoemen dat ook vrij vaak.emeralda schreef op dinsdag 30 september 2025 @ 11:50:
[...]
Die reviews gaan er altijd vanuit dat mensen iedere generatie een nieuwe GPU kopen.
Ik ben van een 3060 naar een 5080 gegaan dus ik was wel enthousiast.
Wat je echter natuurlijk wel ziet is dat in een review de directe voorganger wel over het algemeen 'de benchmark' is om mee te vergelijken, met daarnaast de directe concurrentie (als deze er is). Wat ook logisch is, immers daarmee laat je zien wat de gen on gen verbetering is, en wat de concurrentie ertegen overzet.
Ik zou van een 3060 naar een 5080 persoonlijk ook wel enthousiast worden, maar dat zal je denk ik altijd wel hebben als je van een €300 budget GPU naar een €1059+ GPU gaat en dan de performance upgrade ziet, zeker als je ook een scherm hebt dat eer doet aan de nieuwe GPU. Echter dat laat zich natuurlijk in een review ook lastiger vergelijken, je stapt immers met die 5080 een compleet ander segment in.
Van een 3060 naar een 5060 was je mogelijk een stuk minder enthousiast geweest, omdat je dan gemiddeld genomen 'maar' 44% omhoog gaat in performance (over 2 generaties, wat vrij matig is), je ineens met een 8GB kaart zit, wat er voor zorgt dat in bepaalde titels de 3060 sneller kan / een betere spelervaring geeft dan de 5060 en er ook geen echte prijsdaling te zien is in dat segment, dat zou compenseren voor de matige performance uplift over 2 generaties.
[ Voor 16% gewijzigd door Dennism op 30-09-2025 12:11 ]
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.