Acties:
  • +1 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 12:54

XanderDrake

Build the future!

Nvidia bekritiseert Amerikaanse plannen voor uitbreiding chipexportbeperkingen

Hebben jullie de geruchten over de export limieten al gelezen? Drastisch en vrij extreem: bijna alle landen kunnen, zonder complexe licenties, slechts 50k GPUs per land importeren vanuit bedrijven van de VS. Gezien we ongeveer 80 miljoen verkochte GPUs tellen per jaar is die 50k echt een schijntje. NL is een van de weinige landen die eraan ontsnappen. Woon je in Zwitserland, Portugal of Polen? Jammer maar helaas.

Zal dit ook voor Gaming GPUs gelden? De RTX 3090 en 4090 waren al onderhevig aan expert restricties...

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XanderDrake schreef op zondag 12 januari 2025 @ 08:21:
Nvidia bekritiseert Amerikaanse plannen voor uitbreiding chipexportbeperkingen

Hebben jullie de geruchten over de export limieten al gelezen? Drastisch en vrij extreem: bijna alle landen kunnen, zonder complexe licenties, slechts 50k GPUs per land importeren vanuit bedrijven van de VS. Gezien we ongeveer 80 miljoen verkochte GPUs tellen per jaar is die 50k echt een schijntje. NL is een van de weinige landen die eraan ontsnappen. Woon je in Zwitserland, Portugal of Polen? Jammer maar helaas.

Zal dit ook voor Gaming GPUs gelden? De RTX 3090 en 4090 waren al onderhevig aan expert restricties...
Je mag de limiet overschrijden met een vergunning. Verder zal Nederland uitgesloten zijn vanwege onze relaties met de VS en ASML. Maar dit is een klassiek geval van militair-industrieel complex waarop ik afgestudeerd ben. Vergeet al die verhalen over geheime samenwerking in de achterkamertjes om zoveel mogelijk geld vanuit de staat naar private industrie weg te sluizen. Om het even heel bot te stellen, veel daarvan is communistische propaganda. Zoals zo vaak daarmee, is het ook intens hypocriet. En wie gelooft tegenwoordig nog iets dat (indirect) vanuit het Kremlin komt? :z

Het militair-industrieel complex is echt een haat-haat-haat liefdesverhouding. Het militaire aspect wil gewoon het beste spul dat ze kunnen krijgen en wil niet dat het gedeeld word. Hun belang is overduidelijk. Als ze niet het beste hebben, dan vallen er (veel) doden aan hun kant. Ze zijn hierdoor in de regel erg gemotiveerd. De politiek wil dat het zo goedkoop mogelijk is en wil altijd (veel) zeggenschap over hun investering voor nationale veiligheidsredenen. Zo kunnen ze technologie bijvoorbeeld geheim houden of ook inzetten als diplomatiek instrument. En bedrijven hebben hier altijd zwaar geen zin in en willen met investeringen die ze vanuit staten krijgen, gewoon aan iedereen verkopen voor maximale winst. Dat botst, eigenlijk altijd.

Want maak je geen illusies. Die techbedrijven worden vrijwel allemaal mede gefinancierd en zeker gefaciliteerd vanuit de Amerikaanse overheid. Wie denk je dat veel van die datacenters en supercomputers over de afgelopen decennia gefinancierd heeft, waarmee ze hun producten verder konden ontwikkelen en commercialiseren? Of de dominantie van CUDA die verkregen is via universiteiten. Of het hele internet? Er zit ongelofelijk veel geld vanuit onder andere het Pentagon in, die vaak het fundamentele onderzoek en de eerste ontwikkelingen hebben gefinancierd en later meer hebben afgenomen. Zo gaat heel veel fundamentele technologische ontwikkeling al ruim een eeuw. Heel veel komt uit militaire onderzoeksbudgetten. En nu AI hardware tot strategisch belang is gemaakt, gaat de Amerikaanse overheid zichzelf beschermen. Omdat wij in Nederland over het algemeen een erg goede relatie met de VS hebben en omdat wij zo'n belangrijk stukje van het wereldwijde AI ecosysteem leveren, zijn wij uitgesloten van restricties en kunnen ze ons ook niks maken zonder zelf enorme schade op te lopen. Als je dat niet hebt, dan moet je onderhandelen. En ergens zou ik ook niet verbaast zijn als dit Biden is die even een trap na geeft aan die techbedrijven die de laatste weken wel heel makkelijk van de Democraten naar Republikeinen overliepen. :z

En een Intel, AMD of zeker Nvidia zal woedend zijn. Want die denken dat is wat wij ontwikkeld hebben. Klopt ook voor een groot deel, maar niet helemaal. Want ze zijn ook gefaciliteerd. Natuurlijk met infrastructuur zoals wegen en al helemaal elektriciteit, maar ook regulering. En bedrijven zoals Amazon, Google en Meta helemaal met de zeer beperkte regulering waarmee ze hun quasi monopolies hebben kunnen opbouwen. Dan hebben we nog de grootste van allemaal, de "primus inter pares (eerste onder de gelijke), Microsoft. Tja, die hebben een geheel aparte Azure cloud infrastructuur voor alleen de Amerikaanse overheid met allemaal aanpassingen. Hoe bedoel je voorgetrokken? Want Microsoft zal niet snel worden aangepakt voor de quasi monopolie die het is, in de VS. Die hebben zichzelf zo diep ingegraven dat ze bijna onaantastbaar zijn. Daarom doet de EU het en dat kan ook nog een fors conflict worden met de VS. ;)


Maar ik denk dat dit ook zal gelden voor zeker de RTX5090. Dat is, vermoed ik zo, eigenlijk niet echt meer een gaming GPU. Je kan ermee gamen, hoe goed gaan we nog zien. Maar ik vermoed dat de winst vooral in niet gaming gerelateerde applicaties gaat zitten, net zoals met de RTX4090 vs. RTX4080 het geval was. En dan is die GPU al snel een doel voor importvervanging en gaat die ook onder beperkingen vallen. Zou niet verbaast zijn als de hele achterliggende GB202 GPU niet eens naar China geëxporteerd mag worden om daar te assembleren tot videokaart.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

Vraagje mensen:

Gebruiken de mensen met een 4080/4090 hier de 566.45 hotfix driver? Of de reguliere 566.36?

[ Voor 33% gewijzigd door Format-C op 15-01-2025 17:27 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • +1 Henk 'm!

  • JWFpeters
  • Registratie: Mei 2020
  • Laatst online: 19-06 15:35
Gebruik de driver van november nog. Die van december fuckte mijn games nogal. Hotfix niet geprobeerd. Wacht wel op een nieuwe.

Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 20-06 08:44
Werelds schreef op dinsdag 7 januari 2025 @ 15:30:
Ik ga kapot van het lachen met deze aankondiging :')

De DLSS 4 presentatie is hilarisch slecht, hun demo video is ofwel fake, ofwel AI gaat nu wel heel fout. Allerlei "details" verschijnen ineens met meer "AI", of zijn gewoon anders, zoals het zoutvaatje dat van zout naar peper gaat. De tafel heeft ineens een hoop meer krassen. Tegelijkertijd zijn alle ronde vormen ineens weer lekker hoekig (beker deksel rechts) en er is colour banding (mosterd fles). En 27 FPS zonder dit alles? Een 4090 doet toch echt meer dan dat.

Helaas zullen velen er wel weer mee weg lopen en kwijlen over de niet-gerenderde pixels en frames.
Dat is overduidelijk path tracing. Zonder upscaling en framegen haalt pathtraced Cyberpunk, op 4k met een 4090, ongeveer 20fps. Zie https://www.tomshardware....tracing-fully-unnecessary

De reden waarom je met DLSS3.5 plots meer details ziet van de tafel (en minder met DLSS2), en wat andere verschillen, is de pathtracing denoiser. Specifiek DLSS3.5 introduceerde ray reconstruction. En in cherrypicked scenes behoud RR veel meer details dan de standaard denoisers van Cyberpunk 2077. Maar soms is een zachtere look mooier. En rayreconstruction heeft zo nu en dan wat vreemde resultaten in Cyberpunk (minder in AW2). Dus als je gaat zoeken....

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14

RTX 5090 25% duurder, 27% meer fps bij 4k, 32GB ipv 24GB, 30% meer stroomverbruik, dan een RTX 4090.

Dat voorspelt niet veel goeds voor de RTX 5080, 5070 Ti en 5070:

Afbeeldingslocatie: https://tweakers.net/i/V6UJgofpzqcim-q2vwoI0gkYIWs=/fit-in/4000x4000/filters:no_upscale():strip_exif()/f/image/FpN4ua0p8CJi5OmV3J7vqTyl.png?f=user_large

mogelijk zelfs een achteruitgang op de RTX 5070...

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
sunsmountain schreef op donderdag 23 januari 2025 @ 18:23:
[YouTube: Nvidia GeForce RTX 5090 Review, 1440p & 4K Gaming Benchmarks]
RTX 5090 25% duurder, 27% meer fps bij 4k, 32GB ipv 24GB, 30% meer stroomverbruik, dan een RTX 4090.

Dat voorspelt niet veel goeds voor de RTX 5080, 5070 Ti en 5070:

[Afbeelding]

mogelijk zelfs een achteruitgang op de RTX 5070...
12gb = stilstand = achteruitgang.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 20-06 20:44
sunsmountain schreef op donderdag 23 januari 2025 @ 18:23:
[YouTube: Nvidia GeForce RTX 5090 Review, 1440p & 4K Gaming Benchmarks]
RTX 5090 25% duurder, 27% meer fps bij 4k, 32GB ipv 24GB, 30% meer stroomverbruik, dan een RTX 4090.

Dat voorspelt niet veel goeds voor de RTX 5080, 5070 Ti en 5070:

[Afbeelding]

mogelijk zelfs een achteruitgang op de RTX 5070...
Dat geloof ik niet met meer geheugenbandbreedte zal er vast een positief verschil zijn maar de stap wordt klein..... Verbaasd me wel dat ze er zoveel extra hardware in proppen bij de 5090 e dat het zo matig schaalt. Moet toch een duidelijke reden te vinden zijn dat ze het niet volledig kunnen benutten?

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

meljor schreef op donderdag 23 januari 2025 @ 18:31:
[...]


Dat geloof ik niet met meer geheugenbandbreedte zal er vast een positief verschil zijn maar de stap wordt klein..... Verbaasd me wel dat ze er zoveel extra hardware in proppen bij de 5090 e dat het zo matig schaalt. Moet toch een duidelijke reden te vinden zijn dat ze het niet volledig kunnen benutten?
Gaat vermoedelijk mis op dezelfde punten als de RTX4090.
-Ze krijgen niet genoeg werk naar de GPU omdat de drivers die op de CPU draaien, niet snel genoeg de shader programma's kunnen uitpakken en compileren in voor de GPU afwerkbare draw calls.
-Ze hebben niet genoeg geheugenbrandbreedte om de ALU's consistent aan het werk te houden.

Nota bene blijken ze wel aardig wat aangepast te hebben met Blackwell, misschien wel meer dan met Ampere naar Ada. Nvidia is eindelijk weer afgestapt van hun FP + INT pipelines die ze met Turing hadden geïntroduceerd en met Ampere iets hadden verfijnd door naast de INT pipeline, nog een aparte set FP ALU's te introduceren. Nu zijn ze weer terug bij native SIMD32 voor zowel FP als INT. Kan goed zo zijn dat ze nu per SIMD32 echt 32x FP en 32x INT ALU's hebben waar AMD die functies combineert in een ALU. Of ze hebben beide gefuseerd zoals met Maxwell en Pascal al was. Ongetwijfeld een stuk beter in INT dan destijds, maar toch.

Afbeeldingslocatie: https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-founders-edition/images/arch5.jpg

Natuurlijk hebben ze de Tensor cores weer verbeterd in dat ze nu FP4 ondersteunen. Dus weer de helft minder precies en tweemaal zo snel.
Afbeeldingslocatie: https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-founders-edition/images/arch8.jpg

RT verbeteringen voor enorm complexe geometrie. Ze lijken zo op het eerste gezicht eindelijk eens wat meer te doen met BvH waar ze zwak waren, zeker vergeleken met Intel. Maar het lijkt erop dat ze dit vooral willen inzetten voor meer precisie en niet zozeer meer performance. Wat ze lijken te willen doen is een BvH structuur rond een stuk geometrie opzetten en dan clusteren om de diepte van de BvH structuur en de hoeveelheid ray intersections te beperken.
Afbeeldingslocatie: https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-founders-edition/images/arch10.jpg
Afbeeldingslocatie: https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-founders-edition/images/arch11.jpg

Maar de grote winst lijken ze te willen halen uit AI, schokkend I know. :P
Eerst dat ze de capaciteit hebben om AI en shader workloads te scheiden en een SM geheel op shaders te zetten en een ander op AI. Zo willen ze DLSS4 multi frame generation bijvoorbeeld doen. Dat doen ze met de AMP (AI Management Processor)
Afbeeldingslocatie: https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-founders-edition/images/arch9.jpg

Maar de grootste is dat ze een recente DX12 extensie voor Neural Rendering. willen gebruiken. De eerste manier is bepaalde shaders draaien op de Tensor cores. De tweede en denk ik interessantere is dat ze voor shader execution reordering. Wat ze denk ik willen bereiken is meer workload organisatie en scheduling, naar dedicated hardware op de GPU verplaatsen. Dit omdat hun drivers + CPU het gewoon niet trekken zonder dit extra. Daar kan nog wat uit gaan komen met driver optimalisaties.
Afbeeldingslocatie: https://www.techpowerup.com/review/nvidia-geforce-rtx-5090-founders-edition/images/arch7.jpg

Probleem is verder dat deze DX12 extensie pas een paar weken geleden is aangekondigd. Dus dat zie je over een paar jaar terug in de meeste games. En potentieel over een aantal maanden in Cyberpunk. :z
https://devblogs.microsof...ctor-support-coming-soon/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
meljor schreef op donderdag 23 januari 2025 @ 18:31:
[...]


Dat geloof ik niet met meer geheugenbandbreedte zal er vast een positief verschil zijn maar de stap wordt klein..... Verbaasd me wel dat ze er zoveel extra hardware in proppen bij de 5090 e dat het zo matig schaalt. Moet toch een duidelijke reden te vinden zijn dat ze het niet volledig kunnen benutten?
Geheugenbandbreedte doet niet zoveel als dat niet de bottleneck is, die voorlopig nog bij de shaders/ray tracing ligt. Bij sommige spellen in 4k zul je een klein voordeel hebben met inladen van textures met GDDR7, maar in de meeste gevallen niet. Bovendien is het verschil niet zo groot, je hebt het over ~+25%:

Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/Ey8kdwN7dpBpLM8LUMs5wC.jpg

De shaders (SMs) zelf zijn qua architectuur niet uitgebreid voor gaming. De shaders kunnen nu flexibel FP32 of INT32 operaties uitvoeren, maar de totale hoeveelheid van die operaties per shader is niet toegenomen. Dus het niet zo raar dat je dan ook geen verbeterde schaling ziet.

Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/2TeVgAAMkQJgyDtw4EQLiC.jpg

Sommige setup operaties binnen de ray tracing zijn verbeterd, maar de snelheidswinst daarvan is nog niet zo groot, rond de 40-50% verbetering vergeleken met de gemiddelde 30% verbetering (zonder ray tracing).

Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/4aEErv9kyvNTp6sWhXkb3D.jpg

De extra FP4 functionaliteit is voor AI modellen. DLSS4 upscaling / Framegen is software. Dit zijn geen verbeteringen in de hardware, en zouden net zo goed op oudere generaties uitgebracht kunnen worden wat betreft games (Nvidia zei eerst dat ze DLSS4 niet gingen ondersteunen op RTX30xx RTX40xxt, later van wel).

Drivers kunnen nog wel het een en ander verbeteren, maar verwacht geen wonderen. De meeste prestaties van de RTX5090 had je 2 jaar geleden al met de RTX 4090 kunnen kopen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Oh wat voorspelbaar. Start Steam op en update voor Cyberpunk.
Ja hoor, wat kleine aanpassingen, wat bugs opgelost en natuurlijk DLSS4. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 20-06 12:47

SG

SG surft naar info hardewaren

XWB schreef op maandag 30 december 2024 @ 10:15:
[...]


Helaas komt er geen RDNA5 meer, AMD's volgende architectuur wordt UDNA en dat wordt een hybride tussen gaming en AI accelerator. Het lijkt er op dat gaming geen deticated focus meer krijgt.
Dat was met cgn vega in die tijd had AMD gemeenschappelijke architectuur. Dat maakt dat deel van chip real-estate niet gebruikt kan worden voor gamen. Wat dgpu slechtere game performance geeft. Nvidia beleid maar ook de softwarestack heeft zwaar ingezet op AI en RT in hardware dus flinke chip real-estate daarvoor ge-alloceerd. Maar ook software stack en dus de pro hardware features een taak gegeven in gaming software stack. En alle game gpu geschikt voor pro taken.
AMD ziet nu dat hier voor was spiltsen van pro en gaming een goede beleid. Maar nu met zware nadruk op AI en RT game technieken moeten ze hun game architectuur weer ook pro geschikt maken.
In bulldozer piledriver tijd perk is unified architectuur productie efficient vooral als wafer allocatie budget dn R&D budget tegen valt. Gezien cpu tak radeon tak leeg zoog.
Nu lopen ze kwa software stack zo achter. Wat ook werkt als eco systeem en dus waar nu veel bedrijven in gevangen zitten. Van logistiek automotive AI data center. Is allemaal gelinkt in nv eco systeem.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • k995
  • Registratie: November 2002
  • Laatst online: 11-04 20:45
DLSS 4 is al te gebruiken:

YouTube: 14 Games That Benefit From The New DLSS 4 Files - RTX4080 Super Wide

https://www.polygon.com/n...pdate-patch-dlss-4-nvidia

Ahead of the release of Nvidia’s new line of GeForce RTX 50 series GPUs on Jan. 30, folks playing Cyberpunk 2077 on soon-to-be-outdated PCs are now able to mess around with a few new DLSS 4 (or “deep learning super sampling”) features. These include an enhanced single-frame generation model that both increases performance and lowers VRAM usage, as well as a new Transformer model for improved stability, lighting, and detail in motion


Ziet er fantastisch uit en ene leuke upgrade vor alle oudere kaarten.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19

Sp3ci3s8472

@ 12 graden...

Ik heb de analyse van DLSS 4 framegen bekeken van Hardware Unboxed en frame pacing is nog steeds een drama zie x3 en met name x4 modus op timestamp:
YouTube: Is DLSS 4 Multi Frame Generation Worth It?

Los daarvan het transformers model wat Nvidia nu aanbieden is wel een mooie vooruitgang.

Acties:
  • +2 Henk 'm!

  • AltTabKeys
  • Registratie: December 2015
  • Laatst online: 06-06 16:38

AltTabKeys

press Ctrl + Z please

Hebben jullie het nieuws al gelezen dat NVidia’s Marktwaarde (aandelen) met 18% is gezakt?

What a terrible day to have eyes!


Acties:
  • 0 Henk 'm!

  • Kjeld02
  • Registratie: December 2022
  • Laatst online: 19-06 09:07
AltTabKeys schreef op maandag 27 januari 2025 @ 23:14:
Hebben jullie het nieuws al gelezen dat NVidia’s Marktwaarde (aandelen) met 18% is gezakt?
Komt dit niet door de release van deepseek r1

Acties:
  • 0 Henk 'm!

  • AltTabKeys
  • Registratie: December 2015
  • Laatst online: 06-06 16:38

AltTabKeys

press Ctrl + Z please

Kjeld02 schreef op maandag 27 januari 2025 @ 23:18:
[...]


Komt dit niet door de release van deepseek r1
Bijna.

Er is nog geen daadwerkelijke release, enkel een claim.

Maar door die claim wel een verlies van 18%

What a terrible day to have eyes!


Acties:
  • +1 Henk 'm!

  • synx6
  • Registratie: Juli 2010
  • Nu online
AltTabKeys schreef op maandag 27 januari 2025 @ 23:14:
Hebben jullie het nieuws al gelezen dat NVidia’s Marktwaarde (aandelen) met 18% is gezakt?
Ik zou nog even wachten me het kopen van dure vidkaartjes. Kans is groot dat chip prijzen fors gaan dalen. Geen glazenbol hoor!

Acties:
  • 0 Henk 'm!

  • nel!s
  • Registratie: April 2017
  • Laatst online: 13:34
Hoe zien jullie de ontwikkeling van Deepseek en de impact op de vraag naar nvdia hardware? Ik zie net een X draad van iemand die een lokale 650b versie van Deepseek draait met AMD chips en een gigantische lading RAM, voor $6k:
https://x.com/carrigmat/status/1884244369907278106

Helemaal geen nvdia voor nodig..?

Acties:
  • 0 Henk 'm!

  • Inflatable
  • Registratie: Oktober 2002
  • Laatst online: 03:05
Voor de geintereseerden, hier een interessant interview met Jensen Huang over o.a. de visie van Nvidia..

YouTube: NVIDIA CEO Jensen Huang's Vision for Your Future

Acties:
  • +1 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
nel!s schreef op woensdag 29 januari 2025 @ 11:40:
Hoe zien jullie de ontwikkeling van Deepseek en de impact op de vraag naar nvdia hardware? Ik zie net een X draad van iemand die een lokale 650b versie van Deepseek draait met AMD chips en een gigantische lading RAM, voor $6k:
https://x.com/carrigmat/status/1884244369907278106

Helemaal geen nvdia voor nodig..?
De grote kosten zitten niet in het draaien van AI modellen, maar het trainen van AI modellen. Nu is het draaien ervan ook niet gratis hoor, maar dat is niet het grootste gedeelte van de processing power nu. Als je meer getrainde modellen hebt en het meer incrementele verbeteringen worden zou dat kunnen veranderen.

En uiteraard kan AMD hardware ook AI draaien en trainen, maar de software schijnt gewoon beter te zijn voor Nvidia, meer beschikbaar doordat ze dat enorm hebben gepusht.

Edit: Zie dat ze het daar zelfs op de CPU draaien, wat kan, en gezien hoe enorm veel geheugen je nodig hebt de enige optie is, maar heel efficient zal het niet zijn.

[ Voor 8% gewijzigd door Sissors op 29-01-2025 13:47 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nou, de RTX5080 lijkt 10 a 15% sneller te zijn dan de RTX4080.
Dat moet wel een van de meest dramatische generatiesprongen van een Nvidia xx80 zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

DaniëlWW2 schreef op woensdag 29 januari 2025 @ 15:30:
Nou, de RTX5080 lijkt 10 a 15% sneller te zijn dan de RTX4080.
Dat moet wel een van de meest dramatische generatiesprongen van een Nvidia xx80 zijn.
Op zn best idd.

Ik zie ook vaak maar single digit verbeteringen. Procentje of 5. Dit is echt serieus underwhelming.

De performance per euro winst tov de vorige generatie is echt 0.0.

[ Voor 8% gewijzigd door Format-C op 29-01-2025 15:59 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Dus nu de grote vraag of AMD wel een fatsoenlijke sprong weet te maken, en dan potentieel ineens heel interessant worden, of dat het net zo'n teleurstelling wordt.

Acties:
  • +1 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

Sissors schreef op woensdag 29 januari 2025 @ 15:53:
Dus nu de grote vraag of AMD wel een fatsoenlijke sprong weet te maken, en dan potentieel ineens heel interessant worden, of dat het net zo'n teleurstelling wordt.
Ik ga er vanuit dat die zeker interessant wordt! Vooral in RT zal die een stuk dichterbij nv komen. Ik denk dat AMD wel blij verrast is met de slechte perf van de 5080. De 7900XTX is soms gewoon sneller dan de 5080, vooral in 1440p.

(Uitgaande van de hardware Unboxed review)

Edit: de 4090 is helemaal echt nog steeds een klap sneller!


Edit: 1000 euro voor een 4080 super is een betere deal dan wat een 5080 nu levert, en kost

De 5000 serie is écht te duur imho. En geen upgrade vanaf de 4000 serie.

[ Voor 27% gewijzigd door Format-C op 29-01-2025 16:14 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Format-C schreef op woensdag 29 januari 2025 @ 15:56:
[...]


Ik ga er vanuit dat die zeker interessant wordt! Vooral in RT zal die een stuk dichterbij nv komen. Ik denk dat AMD wel blij verrast is met de slechte perf van de 5080. De 7900XTX is soms gewoon sneller dan de 5080, vooral in 1440p.

(Uitgaande van de hardware Unboxed review)

Edit: de 4090 is helemaal echt nog steeds een klap sneller!


Edit: 1000 euro voor een 4080 super is een betere deal dan wat een 5080 nu levert, en kost

De 5000 serie is écht te duur imho. En geen upgrade vanaf de 4000 serie.
Tja, ik zou inmiddels echt niet verbaast meer zijn als de RX9070XT sneller gaat zijn in raster dan de RTX5070Ti. En qua RT is het afwachten, maar AMD lijkt met wat te komen. Daarnaast lijkt FSR4 op het eerste gezicht ook gewoon goed te zijn.

Dus wat gaat ze dan nog realistisch tegenhouden om bijvoorbeeld $700 te vragen? En wat krijg je dan? 15% sneller dan een RX7900XT met minder VRAM en een stuk betere RT die veel dichterbij een RTX5070Ti zit? Ik zou er ook niet bepaald enthusiast van worden. Het zou eerder deze generatie bekronen als nog miserabeler dan de laatste twee...

De prestatiesprong van AMD komt er gewoon niet, dat was ruim een jaar geleden al uitgelekt dat er geen high end is. Dat Nvidia nu echt niks levert is gewoon treurig. Leuk dat ze hun SM weer eens hebben aangepast en wat andere dingen in Blackwell doen alsmede duurder GDDR7. Het presteert voor geen meter. Ik roep al sinds Turing in dit topic dat Nvidia een probleem heeft met hun architecturen verder op te schalen. Ze lopen tegen te veel bottlenecks aan naarmate ze de SM count verhogen. En nu zien we dat het gewoon op is met zelfs die forse verbetering in geheugenbrandbreedte. Dit gaat gewoon mis bij het schedulen van workloads. Ze krijgen die SM's gewoon niet aan het werk. Maar hierdoor kan AMD heel goed, alsnog veel te veel vragen voor hun "midrange". En daar schieten wij als consumenten dus echt geen snars mee op. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • redzebrax
  • Registratie: Februari 2017
  • Laatst online: 19-06 00:45
@sissors, met de bedoeling niet te ver off topic te willen gaan, met de nieuwe COT (chain-of-thought) models gaat ook een groot deel naar processing power en kost, zelfs 200 dollar per maand voor chatgpt lijkt niet voldoende te zijn om de kosten te dekken, deepseek zou hierin 45 x efficiënter en goedkoper zijn, bv door beter geheugen gebruik, meerdere tokens voorspellen, etc.
Hier kan je een interview met de auteur van het artikel van vorige week vrijdag vinden dat blijkbaar de trigger was tot massale verkoop bij Nvidia (Nvidia gaat moeilijk zijn zo grote winstmarges op hardware kunnen behouden) https://open.spotify.com/...7WdLE?si=1f57c0b07c464798

edit: aanpassing factor en link naar het oorspronkelijke artikel.
https://youtubetranscript...5_the_short_case_for_nvda

[ Voor 9% gewijzigd door redzebrax op 29-01-2025 18:16 ]


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 20-06 11:26
DaniëlWW2 schreef op woensdag 29 januari 2025 @ 16:58:
[...]

Tja, ik zou inmiddels echt niet verbaast meer zijn als de RX9070XT sneller gaat zijn in raster dan de RTX5070Ti. En qua RT is het afwachten, maar AMD lijkt met wat te komen. Daarnaast lijkt FSR4 op het eerste gezicht ook gewoon goed te zijn.
Ik ben verbaasd dat jij dit elke generatie durft te blijven hopen. Op basis van de vorige 3 tot 7 generaties zou ik juist verwachten dat je onderhand wel verbaasd zou moeten zijn :P
De prestatiesprong van AMD komt er gewoon niet, dat was ruim een jaar geleden al uitgelekt dat er geen high end is. Dat Nvidia nu echt niks levert is gewoon treurig. Leuk dat ze hun SM weer eens hebben aangepast en wat andere dingen in Blackwell doen alsmede duurder GDDR7. Het presteert voor geen meter. Ik roep al sinds Turing in dit topic dat Nvidia een probleem heeft met hun architecturen verder op te schalen. Ze lopen tegen te veel bottlenecks aan naarmate ze de SM count verhogen. En nu zien we dat het gewoon op is met zelfs die forse verbetering in geheugenbrandbreedte. Dit gaat gewoon mis bij het schedulen van workloads. Ze krijgen die SM's gewoon niet aan het werk. Maar hierdoor kan AMD heel goed, alsnog veel te veel vragen voor hun "midrange". En daar schieten wij als consumenten dus echt geen snars mee op. :/
Probleem zit hem toch echt in de gebruikte node. Je kunt niet grote stappen maken als je blijft plakken op dezelfde node. Dat zal bij AMD waarschijnlijk hetzelfde probleem geven.

Op tech Nvidia heeft net zoveel problemen de werking van hun chips als dat AMD het elke paar jaar nodig acht om de hele architectuur in de prullenbak te moeten gooien om competetief te worden. AMD is alles behalve superieur als ze keer op keer weer besluiten om het wiel weer uit te gaan vinden. Als ze echt zo goed ontwerp hebben of zoveel beter zijn in executie, dan hadden ze Nvidia al lang verslagen. Ze volgen momenteel letterlijk de Nvidia oplossingen, alleen dan een jaar of 4 later in release en marginaal goedkoper. Enige waar ik ze credits voor geef is de lagere overhead op de CPU, maar laat dat nou resoluties hoger dan full-hd nou geen tot vrijwel niks uitmaken.

Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 10-06 01:19

Sp3ci3s8472

@ 12 graden...

Het enige dat ik van de RTX 5080 kan zeggen is dus iets beter in RT en op rasterisation net zo snel als een RX 7900 XTX. Ik had serieus meer verwacht... Ik heb tot nu toe alleen de review van Gamers Nexus gezien, maar gezien de reactie van @Format-C hoef ik ook niet meer te verwachten bij andere reviews :+ .

Om niet te veel offtopic te gaan Ollama draait echt meer dan prima op RDNA3 hardware en ook met stable diffusion is het snel.

Acties:
  • +2 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
@DaniëlWW2 (even een tag omdat je normaal gesproken wel geïnteresseerd bent in de whitepaper).

De Blackwell whitepaper is ook gereleased:

https://images.nvidia.com...well-gpu-architecture.pdf

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
However, the unified cores can only operate as either FP32 or INT32 cores in any given clock cycle.
En zoals verwacht zijn ze nog steeds of/of. Vandaar de 0,0 vooruitgang ten opzichte van AD103. Maakt niet uit of je in een SM 2 clock cycles nodig hebt om de helft van de units aan verschillende ops te zetten, of 2 clock cycles om ze allemaal aan verschillende ops te zetten. 2 cycles zijn 2 cycles ;)

Acties:
  • +1 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 20-06 12:06

pino85

Im just a Bird in the Sky

Vind de 5000 serie tot nu toe niet bijzonder , zelfs tegenvallend, maar dat ze geen concurrentie op het high end vlak hebben zal ook niet mee helpen om tot nog betere producten te komen(helaas).
Nu amd zich daar niet meer op richt hoop ik dat in de toekomst Intel dat kan/wil gaan doen.

Ja ze hebben een trukendoos alla multiple frame gen.. maar ben daar zelf geen voorstander van, vind dat zelfs best wat nadelen hebben.
Mijn gevoel(zal feitelijk niet zo zijn) zegt zijn ze zo lui geworden door gebrek aan concurrentie dat ze hier mee moeten pronken ipv gewoon pure frames?
Nogmaals gevoelsmatig, het zal in bepaalde gevallen een goede techniek zijn.

[ Voor 9% gewijzigd door pino85 op 29-01-2025 22:35 ]

Liefhebber van Tweakers


Acties:
  • +1 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Ik denk dat dingen als framegen de toekomst zijn, hoe dat ook precies komt. Maar kijk hoeveel energie een RTX5090 nodig heeft voor zijn raster performance, dan gebruikt hij niet zijn volledige energiebudget als de niet-raster zaken niet gebruikt worden, maar alsnog verbruikt hij heel veel stroom voor beperkte verbeteringen.

We lijken gewoon tegen de limieten van lompe rekenkracht te zijn aangelopen. En natuurlijk, als we wel een nieuwe node krijgen dan zal er vast weer meer vooruitgang zijn. En knappe koppen zullen vast ook nog weleens architectuur verbeteringen doorvoeren. Maar niet dat je 4x de raster performance gaat krijgen. Dus wil je dan een 240Hz+ scherm aansturen, dan heb je weinig andere opties dan iets als framegen. (Voor een 144Hz scherm lijkt er nul voordeel te zitten voor multiple framegen tov 2x).

En dan de klachten dat luie devs er onnodig gaan vertrouwen ipv optimalisaties? Tja, dat is zo, kan ik niks anders van maken. Tegelijk als morgen blijkt dat AMDs 9070XT wel 4x de rasterperformance heeft van Nvidia, dan zetten overmorgen de game bedrijven ook devs die aan optimalisaties werken aan andere taken, en vertellen de consument dat ze maar mooi zo'n kaart moeten kopen.

Acties:
  • +7 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
Sissors schreef op woensdag 29 januari 2025 @ 23:01:
Ik denk dat dingen als framegen de toekomst zijn, hoe dat ook precies komt. Maar kijk hoeveel energie een RTX5090 nodig heeft voor zijn raster performance, dan gebruikt hij niet zijn volledige energiebudget als de niet-raster zaken niet gebruikt worden, maar alsnog verbruikt hij heel veel stroom voor beperkte verbeteringen.
Als dat ding daadwerkelijk volledig in gebruik kon zijn (wat technisch onmogelijk is omdat een SM nooit en te nimmer volledig bezet kan zijn) zou hij makkelijk 800, 900 trekken.
We lijken gewoon tegen de limieten van lompe rekenkracht te zijn aangelopen. En natuurlijk, als we wel een nieuwe node krijgen dan zal er vast weer meer vooruitgang zijn.
Enige wat er uit een nieuwe node kan komen is een hogere kloksnelheid. En ook daar krijg je verminderd rendement.
En knappe koppen zullen vast ook nog weleens architectuur verbeteringen doorvoeren.
Bij Nvidia lijkt dat niet te gaan gebeuren, gezien er exact 0,0 winst is geboekt sinds Turing en het hen simpelweg niet boeit, zij willen tensor cores verkopen. 5080 vs 4080S vs 3090 Ti: zet de performance af tegen theoretische rekenkracht en je zult zien dat die 3 exact presteren zoals ze op papier zouden moeten doen. Of bijvoorbeeld een 4060 Ti tegenover 2080 Ti. Ik kies die matchups omdat ze vergelijkbare configuraties hebben. Sterker nog, het laat zien hoe zinloos de "wijzigingen" in Ampère/Ada/Blackwell zijn. Een 4060 Ti propt meer ALU's in minder SM's en het verbetert niets ten opzichte van de 2080 Ti.

Ik zeg dit al jaren, maar nu is het eindelijk duidelijk voor iedereen omdat er geen kloksnelheid winst geboekt is.

Hetzelfde geldt overigens voor RT, daar is ook 0,0 vooruitgang geboekt, wat Nvidia iedereen ook wil doen geloven. Sterker nog, daar is nú al verminderd rendement te zien. 5090 vs 3090 Ti mag dan wel 120% sneller zijn, maar er zijn ook dubbel zo veel RT cores op 40% hogere kloksnelheid. Vergelijk je met vergelijkbare aantal RT cores, dan is er 0,0 winst te zien zodra je normaliseert voor kloksnelheid. Van Turing naar Ampère zijn die dingen daadwerkelijk beter geworden, daarna niet meer.
Maar niet dat je 4x de raster performance gaat krijgen. Dus wil je dan een 240Hz+ scherm aansturen, dan heb je weinig andere opties dan iets als framegen. (Voor een 144Hz scherm lijkt er nul voordeel te zitten voor multiple framegen tov 2x).
Ware het niet dat framegen het voordeel van zulke hoge framerates en refresh rates deels tegen werkt. Je krijgt meer input lag en gare artifacts die, in tegenstelling tot tearing, weinig verhuld worden door de hoge refresh.




Ook dit zeg ik al jaren, maar er is een grote verschuiving nodig in graphics. Software, hardware of beide. Eerste lijkt onwaarschijnlijk voor "traditionele" raster graphics omdat je simpelweg niet veel anders kunt met unified architecturen. Ironisch genoeg zouden fixed pipelines in hardware en meer rechtstreekse calls een hoop meer mogelijk maken. Je kunt dan meer schalen in de hardware units waar het nodig is, in plaats van de jack-of-all-trades-master-of-none units die we nu hebben. Maar dan worden de GPU's ook weer stukken groter en zijn nieuwe algoritmes en technieken lastiger.

Voor RT zijn er nog meer problemen. Ten eerste zijn er simpelweg de prijzen, waardoor RT hardware nog steeds niet echt betaalbaar is voor het gros van de PC gamers. Als je zoiets als Steam's survey als bron gebruikt, heeft amper een derde van de gebruikers hardware die ietwat capabel is (een 2060 of 3050 schaar ik niet onder capabel). Dat betekent meteen dat games die RT hardware vereisen (zoals Indiana Jones of blijkbaar de volgende Doom?) op de PC niet geweldig verkopen (Indiana Jones niet in elk geval). En dat betekent dat de transitie naar RT-first/-only langer op zich laat wachten.

Daarna is er de hardware, die simpelweg niet geëvolueerd is. Als je Nvidia gelooft kunnen de Blackwell RT cores 8 keer zo veel intersections/clock doen als die in Ampère...enkel in theorie, anders zou het niet lineair schalen zoals het nu wel doet. De RT hardware waar we nu mee zitten is gewoon dezelfde als 6 jaar geleden in Turing. Er is nu concurrency tussen RT en FP32, maar de RT cores zelf zijn niet echt capabeler geworden. Ze zijn ook gebonden aan shaders, waardoor je de RT performance niet los kunt schalen. Daarnaast mist er gewoon heel veel in hardware dat nu in software gedaan moet worden, voor veel latency zorg vanwege branching en/of druk op het geheugen zet.

Imagination Tech (die knakkers van PowerVR) waren de rest al ver voor, en hoewel ze ook vooral een grote bek hebben en zelf geen desktop GPU's durven te produceren, schetsen hun whitepapers wel een goed beeld van wat er mist. Deze en deze. IT is een vreemd bedrijf en ik begrijp niet hoe ze überhaupt nog bestaan, want hun producten worden maar mondjesmaat afgenomen tegenwoordig. Maar er is wel een reden dat Apple ze gebruikte t/m de A10. En TBR komt bijvoorbeeld ook uit hun koker. Wat RT betreft hadden zij in 2015 al een chip die behoorlijk capabel was voor wat het was...vergelijkbaar met een 2060 qua rays/intersections.


Edit: ik ben behoorlijk uitgepoept op GPU's als dat nog niet duidelijk was. De prijzen zijn te absurd voor woorden en de technologie staat al jaren stil. AMD probeert nog van alles, maar een doorbraak laat nog steeds op zich wachten. Nvidia doet geen reet en Intel is pas net bezig.

Acties:
  • +3 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Werelds schreef op donderdag 30 januari 2025 @ 14:38:
[...]

Als dat ding daadwerkelijk volledig in gebruik kon zijn (wat technisch onmogelijk is omdat een SM nooit en te nimmer volledig bezet kan zijn) zou hij makkelijk 800, 900 trekken.
Dat kan niet omdat hij dan tegen zijn TDP limieten aanloopt. En ja ook omdat er weleens hardware sowieso staat te idlen, maar het punt is dat als je puur rastarization werk doet, hij niet op de 600W komt, maar alsnog heel erg hoog komt. Tenzij er een enorme fundamentele doorbraak komt, gaan we simpelweg geen enorme performance stappen zien in rasterization, dus moet je op een andere manier hogere framerates halen.
[...]

Enige wat er uit een nieuwe node kan komen is een hogere kloksnelheid. En ook daar krijg je verminderd rendement.
Kloksnelheden gaan in de praktijk niet zoveel omhoog meer. Wat je meer krijgt is meer transistoren per oppervlakte, nog iets goedkopere transistoren (al valt dat tegenwoordig ook tegen), en wat zuinigere transistoren. Dus je kan meer hardware hebben draaien, wat efficienter is. Immers als je een RTX4080 op TDP limiet van een RTX4070 laat werken, heb je betere performance.
[...]

Bij Nvidia lijkt dat niet te gaan gebeuren
Het is te makkelijk om gewoon naar Nvidia als de grote boeman te wijzen. Bij AMD gebeurd het ook niet. Of nou ja, iets meer misschien, maar dat is gewoon omdat ze een achterstand hebben tov Nvidia om in te lopen. Maar je stelt dat Nvidia al 6-7 jaar stil staat. Zover wil ik niet gaan, maar inderdaad, de vooruitgang is beperkt. En toch weet AMD niet met drie vingers in de neus Nvidia te verslaan. Waarom niet? Omdat we simpelweg tegen limieten aanlopen.

Stellen dat AMD van alles doet en Nvidia geen drol lijkt me meer persoonlijke voorkeur te zijn dan de werkelijkheid. Nvidia doet een hoop (granted ik vermoed deze generatie dat ze meer van hun personeel op AI workloads verbeteren hebben gezet), en je ziet juist dat AMD daar vaak achteraan loopt.
[...]

Ware het niet dat framegen het voordeel van zulke hoge framerates en refresh rates deels tegen werkt. Je krijgt meer input lag en gare artifacts die, in tegenstelling tot tearing, weinig verhuld worden door de hoge refresh.
Die input lag lijkt niet tot nauwelijks een issue te zijn in de reviews die ik heb gezien. Ja natuurlijk veel hoger dan wanneer je native op 300Hz draait, maar als je op 300Hz met 4x framegen draait, is je input lag niet veel hoger dan wanneer je native iets boven de 75Hz had gedraaid.

Maar verder ja, framegen heeft zijn issues. Ik verwacht bij hogere refresh dat artifacts ook wel minder worden, want de delta tussen frames wordt lager. Maar alsnog van wat ik heb gezien heeft het zeker issues (tegelijk zijn mensen weer lyrisch over lossless scaling framegen).
Maar:
Ook dit zeg ik al jaren, maar er is een grote verschuiving nodig in graphics.
En dit is dus exact wat Nvidia doet. En mijn punt is niet dat framegen de perfecte oplossing is. Maar wel dat als je straks een 240Hz 4k scherm wil aansturen bijvoorbeeld met toekomstige games die nog mooier moeten zijn, je dat niet gaat lukken met raster performance. Dus Nvidia doet aan nieuwe upscaling om die hogere resolutie aan te kunnen sturen. En framegen om die hogere framerates te kunnen leveren. Of uiteindelijk hun methode het antwoord op alles gaat zijn? Hun upscaling lijkt het iig goed te doen, maar dat moet gaan blijken. Maar ze zijn iig wel bezig met een verschuiving.

[ Voor 8% gewijzigd door Sissors op 30-01-2025 17:14 ]


Acties:
  • +4 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 09-06 13:17

Format-C

Tracing Rays

Leuke video die laat zien hoe nVidia de boel loopt te "bedonderen" met de RTX5000 serie:


YouTube: Why Does the RTX 5080 Suck?

Afbeeldingslocatie: https://tweakers.net/i/JFcDhnrGNvDDenpqBUm_Ha3IJB0=/800x/filters:strip_icc():strip_exif()/f/image/sEdAKE277cseHpuLlGvtaroM.jpg?f=fotoalbum_large

Het is voor het eerst in de historie dat de xx80 kaart trager is dan de snelste kaart van de vorige generatie.


Dankzij gamers is nVidia waar ze nu zijn... En als dank daarvoor krijgen gamers een trap in hun reet en worden ze uitgeknepen.

(Ik ga over 2 jaar wss (weer) naar AMD. Wel beetje klaar met nV. En dan maar niet "de snelste kaart")

[ Voor 14% gewijzigd door Format-C op 30-01-2025 18:37 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • +1 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 20-06 08:44
De nieuwste NvApp heeft driver level framegen, zoals AMD al een tijdje heeft. Ik had dat niet gezien in de aankondigingen.

Acties:
  • 0 Henk 'm!

  • lapino
  • Registratie: Juni 2002
  • Nu online
Heb zonet manueel de laatste drivers geïnstalleerd (de nvidia app dacht dat de oude versie nog steeds de nieuwste is) maar ik zie toch nergens in de settings om DLSS versie te keizen, er staat overal 'unsupported'. Zijn de nieuwe versies dan nog niet actief of zo?

edit: blijkbaar moet je de gameslist even refreshen
edit2: Indiana Jones blijft onspeelbaar met DLSS hier, zeer zware framedrops framegen=prima, dlss=drops

[ Voor 23% gewijzigd door lapino op 30-01-2025 20:09 ]


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
Sissors schreef op donderdag 30 januari 2025 @ 17:11:
[...]

Dat kan niet omdat hij dan tegen zijn TDP limieten aanloopt. En ja ook omdat er weleens hardware sowieso staat te idlen, maar het punt is dat als je puur rastarization werk doet, hij niet op de 600W komt, maar alsnog heel erg hoog komt. Tenzij er een enorme fundamentele doorbraak komt, gaan we simpelweg geen enorme performance stappen zien in rasterization, dus moet je op een andere manier hogere framerates halen.
Maar dat is mijn punt juist. Door de manier waarop Nvidia's architectuur werkt, ligt elke SM per cycle makkelijk 50% stil met graphics werk. TDP limieten zijn software limieten, niet hardware (koeler even negerend :p). En van de 170 SM's (of 128 bij AD102) ligt een deel ook stil met raster werk. Met graphics (ongeacht of dat raster or RT is) krijg je hun GPU's bij lange na niet volledig aan het werk; daarvoor moet je naar specifieke compute loads gaan. Vandaar ook dat de datacenter chip TDP's zo veel hoger liggen.
Kloksnelheden gaan in de praktijk niet zoveel omhoog meer. Wat je meer krijgt is meer transistoren per oppervlakte, nog iets goedkopere transistoren (al valt dat tegenwoordig ook tegen), en wat zuinigere transistoren. Dus je kan meer hardware hebben draaien, wat efficienter is. Immers als je een RTX4080 op TDP limiet van een RTX4070 laat werken, heb je betere performance.
Meer transistors helpt niet meer, omdat de architecturen niet meer schalen. Je kunt wel meer hardware toevoegen, maar het zal geen zoden aan de dijk zetten. RT even negerend zou Nvidia ruim over de 200 SM's kwijt kunnen in de ruimte van GB202. Dat zou echter niet of nauwelijks helpen, want ze zouden ze niet aan het werk kunnen zetten.

Het enige wat nieuwe nodes nog steeds zouden moeten kunnen doen, is GPU's goedkoper maken. Je kunt immers een bepaalde configuratie in een veel kleinere chip kwijt. Die vlieger gaat niet meer op vanwege 2 redenen: de procedé's zijn veel duurder geworden én ze hebben ontdekt dat ze meer kunnen vragen. Dat heeft de markt kapot gemaakt.
Het is te makkelijk om gewoon naar Nvidia als de grote boeman te wijzen. Bij AMD gebeurd het ook niet. Of nou ja, iets meer misschien, maar dat is gewoon omdat ze een achterstand hebben tov Nvidia om in te lopen.
Achterstand is relatief; hun RT performance laat te wensen over, maar qua raster doen ze het goed. Mijn punt is ook niet dat AMD meer succesvol zou innoveren, maar meer dat ze tenminste iets proberen. Doet Nvidia helemaal niet.
Maar je stelt dat Nvidia al 6-7 jaar stil staat. Zover wil ik niet gaan, maar inderdaad, de vooruitgang is beperkt. En toch weet AMD niet met drie vingers in de neus Nvidia te verslaan. Waarom niet? Omdat we simpelweg tegen limieten aanlopen.
Dat is precies wat ik zeg. De limiet zit echter niet in de transistors, maar in de architecturen en software stacks. Rasterisation kan niet sneller omdat er nu veel magie in de compilers en drivers zit, die proberen de workloads zo veel mogelijk te splitten en zo efficiënt mogelijk op de GPU te laten draaien. Het probleem is echter precies dat: het is magie en gokwerk.
Stellen dat AMD van alles doet en Nvidia geen drol lijkt me meer persoonlijke voorkeur te zijn dan de werkelijkheid. Nvidia doet een hoop (granted ik vermoed deze generatie dat ze meer van hun personeel op AI workloads verbeteren hebben gezet), en je ziet juist dat AMD daar vaak achteraan loopt.
Nee, dat is geen persoonlijke voorkeur. Nvidia's architectuur is simpelweg niet veranderd sinds Turing en hun GPU's zijn enkel sneller omdat ze hogere kloksnelheden halen en telkens groter worden. Ik kan het je op een rijtje zetten voor de SM's, TC en RT even negerend:

- Turing: geheel andere SM structuur en nieuwe units. Per partitie: L0$I (voorheen per SM), aparte INT32 en FP32 blokken, 2 TC, half zo veel LD/ST en slechts één dispatch. Per SM: half zo veel TMU, L1$ is nu gedeeld door de hele SM en te partitioneren voor verschillende usecases.
- Ampere: slechts 1 TC per SM, de INT32 ALU's zijn nu mixed (FP32/INT32) en L1$ is nu 128 KB in plaats van 96.
- Ada: ???
- Blackwell: Alle ALU's zijn nu mixed, in een enkel blok

Voor TC en RT:
- Ampere: BVH -> triangle interpolatie in RT core; word in games niet gebruikt, is voor motion blur. TC is de Volta variant, die zonder sparsity hetzelfde presteert als de 2 in Turing. Functioneel niet anders, behalve de sparsity ondersteuning.
- Ada: RT krijgt Opacity Micromap Engine + Displaced Micro-Mesh Engine. 0,0 impact, performance per RT core per clock is identiek aan Ampere in de praktijk. Want beide zijn opt-in features. TC niets veranderd, enkel sneller.
- Blackwell: DMME is vervangen door cluster intersection + compression (mega-geometry...lees: Nanite) en Linear Swept Spheres (minuscule geometry, zoals haar). Wederom 0,0 impact, perf/RTC/clock is identiek. Ook weer opt-in. In tegenstelling tot DMME zal Epic hier waarschijnlijk wél iets uit kunnen halen, dus ik verwacht hier nog wel íets van winst. TC ondersteunen FP4.

Dat is letterlijk alles. Het feit dat de ALU's mixed zijn heeft 0,0 impact gehad op performance, vanwege Nvidia's scheduling. Omdat ze nog steeds slechts enkel FP32 óf INT32 konden dispatchen, had je in graphics workloads het probleem dat het mixed blok maar hoogstzelden aan FP32 gezet kon worden, want graphics workloads zijn veel mixed - Ampère/Ada werken in de praktijk hetzelfde als Turing: 16xFP32 en 16xINT32. De verandering in Blackwell doet dan ook niets voor performance, het maakt het vooral eenvoudiger voor de schedulers/dispatchers, die nu slechts naar 1 blok ALU's hoeven te kijken. Qua cycles komt het op hetzelfde neer.

En ze claimen voor elke generatie RT core "2x ray intersections", wat de RT cores in Blackwell zogenaamd 8 keer zo snel zou maken als die in Turing. Leuk en aardig, maar in de praktijk halen ze dat dus niet, want in de praktijk is daar niets van te zien in games omdat ze elders bottlenecks hebben. Bij Nvidia zit dat in scheduling en data latency, de L2$ zit nog steeds te ver weg, ook al is die groter. Wat ook de enige verandering op macro niveau is, buiten de SM's dus.

Ik kan iets soortgelijks voor RDNA doen, maar RDNA is jonger dan Nvidia's architectuur, dus de tijdspanne is korter en AMD heeft meer "quick wins" gehad van 1 -> 2. En zoiets als hun scheduling hebben zij wél aangepakt, in tegenstelling tot de groenen. Daarnaast is AMD al langer bezig met fysieke wijzigingen (chiplets). Punt is vooral dat AMD meer heeft geprobeerd en een plan lijkt te hebben. Chiplets zijn nodig om de fysieke beperkingen van de halfgeleider industrie te omzeilen en hun IC is behoorlijk effectief, want hun latencies liggen grotendeels lager dan die van Nvidia. Hoewel ik denk dat ze er nog niet klaar voor zijn, zit AMD wel in de beste positie om daadwerkelijk apart te schalen voor raster en RT. De communicatie en data access hebben ze op orde tussen de chiplets. Is Nvidia daar ook mee bezig? Vast wel, maar ze zijn er duidelijk nog niet ver genoeg mee om iets de wereld in te slingeren. En verder proberen ze niet eens iets.
Die input lag lijkt niet tot nauwelijks een issue te zijn in de reviews die ik heb gezien. Ja natuurlijk veel hoger dan wanneer je native op 300Hz draait, maar als je op 300Hz met 4x framegen draait, is je input lag niet veel hoger dan wanneer je native iets boven de 75Hz had gedraaid.

Maar verder ja, framegen heeft zijn issues. Ik verwacht bij hogere refresh dat artifacts ook wel minder worden, want de delta tussen frames wordt lager. Maar alsnog van wat ik heb gezien heeft het zeker issues (tegelijk zijn mensen weer lyrisch over lossless scaling framegen).
Reviews zullen mij worst wezen, ik heb het zelf geprobeerd :p

De input lag is weldegelijk voelbaar (voor mij althans), zelfs boven de 60 FPS. Pas toen ik rond de 100 (base) kwam was het onmerkbaar. Bij zulke framerates zijn "goedkopere" alternatieven mogelijk: vooral ook FSR FG, wat volgens daadwerkelijke metingen minder impact op de input lag heeft dan Nvidia's aanpak.
En dit is dus exact wat Nvidia doet. En mijn punt is niet dat framegen de perfecte oplossing is. Maar wel dat als je straks een 240Hz 4k scherm wil aansturen bijvoorbeeld met toekomstige games die nog mooier moeten zijn, je dat niet gaat lukken met raster performance. Dus Nvidia doet aan nieuwe upscaling om die hogere resolutie aan te kunnen sturen. En framegen om die hogere framerates te kunnen leveren. Of uiteindelijk hun methode het antwoord op alles gaat zijn? Hun upscaling lijkt het iig goed te doen, maar dat moet gaan blijken. Maar ze zijn iig wel bezig met een verschuiving.
Nee, dat doet Nvidia niet. DLSS en FG zijn geen verschuivingen in graphics. Het graphics gedeelte is al klaar tegen de tijd dat die dingen hun werk doen. Het zijn verschuivingen in pixels, in display output. Het zijn pleisters op de wonde van het niet sneller kunnen renderen. Het zijn ook niet hun "uitvindingen", zij hebben slechts een commerciëel pad in games voor die dingen gevonden; ML/DL gebruiken voor upscaling/interpolatie is al jaren geleden bedacht en bewezen door anderen.

Ik heb helemaal niets tegen op DLSS/FSR en FG. Sterker nog, het zijn geweldige toevoegingen die, mits juist toegepast, een hoop dingen toegankelijker maken. Upscaling voor de tragere en/of oudere GPU's; dankzij FSR zijn er nog talloze Pascal gebruikers die nieuwere games nog enigszins kunnen spelen, omdat ze de nieuwere GPU's simpelweg niet kunnen betalen. FG voor de extreem hoge framerates, vooral voor fast-paced games - maar dan is wel een hoge base framerate nodig. Maar als lapmiddel voor het niet sneller kunnen renderen? Nee.

Nee, waar ik het over heb zijn radicaal andere architecturen. Een die dichter aan sluit op wat hoogstwaarschijnlijk de laatste verschuiving in raster render techniek is, weg van unified shaders voor een groot deel. Ik betwijfel of iemand nog iets beters dan de huidige deferred aanpak bedenkt, dus dan moet het in hardware komen. Of een architectuur die raster en RT los koppelt, waardoor beide onafhankelijk geschaald kunnen worden en RT eindelijk naar de massa's kan komen, want voor raster zijn de huidige generaties al niet aan te sturen en dan kan er aan de software kant tenminste eindelijk naar RT verschoven worden. Een RT core heeft geen 16 FP32 ALU's nodig, laat staan de tensor core. Als er iemand daar op af stevent, is het AMD wel, met hun chiplets en data pipelines. Of voor mijn part zelfs een "RPU". Losse AIC's die naast bestaande GPU's werken. Dát is hoe graphics vooruit kunnen. Zolang de grote 3 op de huidige unified architecturen blijven hangen, gebeurt dat niet en blijft het bij meer pixels gokken zoals nu het geval is.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Tja, in dit hele architectuur debat kan ik het ook wel samenvatten als:
AMD heeft meer (noemenswaardige) architectuur aanpassingen voor gaming gedaan tussen Vega en RDNA1 dan Nvidia sinds Turing. :z

AMD heeft voor RDNA1 eigenlijk alleen hun geweldige ALU ontwerp van Vega meegenomen en de rest is vrijwel allemaal nieuw ontworpen. Ook in bepaalde aspecten veel meer richting een CPU. Ook geen toeval aangezien blijkbaar een flink deel van het originele Zen 1 ontwikkelteam, daarna op RDNA is gezet. En tussen RDNA1 en RDNA2 zat ook heel wat innovatie in rasterisation, naast de RT hardware. RDNA3 was een verfijning van RDNA3 in zowel rasterisation als RT die niet helemaal goed uitgepakt is. Het is beter dan RDNA2, maar niet zoveel zoals AMD gehoopt en verwacht lijkt te hebben. Ik vermoed eigenlijk dat hierom mede RDNA tot haar einde komt met RDNA4 en daarna UDNA komt.

Want ook AMD lijkt wel een beetje tegen de limieten van moderne graphics aan te lopen. Maar AMD lijkt tegen een ander probleem aan te lopen, namelijk het uitsplitsen van rasterisation en RT. Nvidia heeft al zeer lang architecturen die bestaan uit kleine onafhankelijke bouwblokken die ze opstapelen. Het grote voordeel dat Nvidia altijd had, was dat ze deze blokken erg flexibel kunnen inzetten in GPU configuraties. Daarnaast konden ze relatief gemakkelijk die tensor en RT cores toevoegen en een begin maken met de introductie van RT. Je zal hierdoor ook Nvidia nooit de high end zien overslaan omdat de kosten/baten niet hoog genoeg zijn voor een beperkt aantal chips. Dat voordeel heeft ATi/AMD nooit echt gehad met hun veel grotere en meer rigide blokken. Maar dat kan ze op termijn wel in staat stellen om juist de RT af te splitsen van de rasterisation. Voor AMD zou het in theorie een stuk makkelijker moeten zijn om een flinke RT core te ontwerpen die een shader engine van 16 CU's/1024 ALU's bediend die elk een flink stuk meer per clock doen dan een vergelijkbaar aantal Cuda Cores. Of ze dat doen, tja geen idee.

Nu gaat dat opschalen met kleine bouwblokken alleen kapot voor Nvidia met deze generatie. Ze krijgen die steeds groter chips gewoon niet aan het werk. En omdat Nvidia veel meer naar GPGPU is gegaan toen AMD juist naar dedicated gaming ging, zit Nvidia ook met enorme chips die heel veel kunnen, maar niet voor gamers. Ze bedenken dan software features om toch iets met deze hardware te doen. Daar moet alleen wel kritisch naar gekeken worden, want die zijn niet allemaal even goed. Een RTX5090 heeft ook weinig meer met gaming te maken. Ja, je kan ermee gamen, maar de chip is zo groot en duur geworden met zaken die niet gebruikt worden voor gaming, dat de prijs/kwaliteit vs. de RTX5080, gewoon weg is. Dat was nog meer zo met de RTX4090, maar de RTX5090 "profiteert" ervan dat de RTX5080 zo slecht presteert tegenover de RTX4080. Beide zijn gewoon slecht, maar op hun eigen manieren.


Laatste is dat ik wel een lans wil breken voor Intel.
Intel heeft zeker met Alchemist echt een dramatisch presterende GPU architectuur ontwikkeld als het om rasterisation gaat. Maar hun RT implementatie is echt goed. Het interessante is ook dat Alchemist eigenlijk een soort van halve Turing was met wat meer hiërarchische ideeën qua organisatie ziet die je meer bij CPU's en RDNA ziet. Heel globaal en kort door de bocht, Alchemist heeft ook die kleine bouwblokken aanpak van Nvidia, maar ze zijn de helft qua formaat. En het werkte voor geen meter. Intel kreeg ze zo overduidelijk niet aan het werk. Met Battlemage is Intel nog meer richting Turing gedaan met SIMD32 ondersteuning, zoals Nvidia al zo lang doet en AMD ook ging doen met RDNA1. En dat lijkt aardig geholpen te hebben. Maar nog steeds krijgt Intel bij lange na niet uit hun hardware, van wat er in theorie inzit. Ga je toch denken dat het een geval van Wikipedia: Amdahl's law is. Precies wat AMD probeert te voorkomen.

Maar de RT, tja Intel heeft daar echt goed over nagedacht. Het is echt jammer dat Intel de rasterisation gewoon niet goed krijgt en nu in zulk zwaar weer zit, dat er waarschijnlijk niet veel geld voor Arc meer gaat zijn. Want Intel heeft een dedicated RT unit voor elke render slice. En daar zit serieuze hardware in. In het bijzonder qua BvH creatie heeft Intel echt heel wat capaciteit om rasterised geometrie in kaart te brengen voordat ze RT intersections gaan berekenen.

Afbeeldingslocatie: https://www.geeks3d.com/public/jegx/2024q4/intel-battlemage-bmg-g21-gpu-render-slice-diagram.jpg

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
DaniëlWW2 schreef op vrijdag 31 januari 2025 @ 14:07:
RDNA3 was een verfijning van RDNA3 in zowel rasterisation als RT die niet helemaal goed uitgepakt is.
RDNA 3's doel is/was het uitvogelen van chiplets. Daar ging het bij die architectuur om. Vooral een fysiek dingetje. Er zitten wel dingen in de microarchitectuur, maar het gaat vooral om de chiplets.
Maar AMD lijkt tegen een ander probleem aan te lopen, namelijk het uitsplitsen van rasterisation en RT. Nvidia heeft al zeer lang architecturen die bestaan uit kleine onafhankelijke bouwblokken die ze opstapelen. Het grote voordeel dat Nvidia altijd had, was dat ze deze blokken erg flexibel kunnen inzetten in GPU configuraties.
Hmm nee, AMD en Nvidia kunnen op ongeveer dezelfde manier stapelen; ze hebben allebei vrij grote blokken om te stapelen. Het probleem is voor beide juist dat RT aan hun SM/WGP/CU's gekoppeld zijn. Raster en RT zijn juist níet gesplitst. Meer RT nodig? Dan ook meer raster, want de RT units hangen vast aan de FP32 ALU's (zowel triangle als box hits gaan bij beide naar de ALU's). Bij Nvidia moeten ze voor een RT core ook meteen 4 SM partities en dus 128 ALU's in totaal toevoegen. Bij AMD (RDNA3) zit een RA in een CU en hangt dus aan 64 ALU's in totaal; met 2 RA's per WGP is dat dus ook telkens 128 ALU's meer nodig.

Of 128 per RT core / 64 per RA nodig is, is twijfelachtig. Nvidia zou van Turing t/m Blackwell van 1 triangle intersection naar 2, 4 en nu 8 zijn gegaan; dat betekent dat ze nu 16 FP32 ALU's per hit hebben (box weten we officiëel niet, maar lijkt 1 te zijn). AMD's RA's doen 4 box, 1 ray (dat is voor RDNA 2, kan me niet herinneren of dat anders was in RDNA 3). Dat is ook waar het grote verschil in aanpak tussen de twee zit: AMD heeft op boxes ingezet, Nvidia op triangles. En uiteraard doet AMD de traversals op de SIMD's, dat zit bij Nvidia in de RT core. Intel doet 12 box intersections en 1 triangle. Wel meer RTU's dan AMD's RDNA2, A770 heeft er al 128.

AMD's aanpak doet pijn met path tracing omdat je dan veel door de BVH moet en je vooral op triangles test. Als RDNA4 RA's heeft die minstens 4 triangles/clock doen heeft dat al een flinke impact op hun RT performance. En hun scheduling kan dat makkelijk hebben. Dat is waarom Nvidia's 8x niet echt uit Ada komt; ze kunnen wel rap genoeg testen, maar dat doorzetten moet dan door hun schijt scheduling in een SM heen, waardoor ze meerdere cycles nodig hebben om de hit te verwerken.

Zoals ik al zei, beide hebben een radicaal andere architectuur nodig waar RT en raster niet aan elkaar hangen. Maar dat maakt de chips fors groter.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op vrijdag 31 januari 2025 @ 15:24:
[...]

RDNA 3's doel is/was het uitvogelen van chiplets. Daar ging het bij die architectuur om. Vooral een fysiek dingetje. Er zitten wel dingen in de microarchitectuur, maar het gaat vooral om de chiplets.
Daar ben ik het niet helemaal mee eens. De nadruk lag op chiplets, maar ze hebben aardig wat gedaan met de architectuur. Dual issue, matrix calculations, verbeteringen in RT, lagere latencies met de caches en dan waren de rekenblokken ook nog eens een stuk kleiner dan RDNA2. Dat zag je met Navi 23 vs. N33. Daarnaast blijft RDNA3 apart in wat er mis is gegaan. We weten dat ze best over de 3GHz kunnen lopen in compute workloads en dat gewoon niet halen in shader workloads.
Hmm nee, AMD en Nvidia kunnen op ongeveer dezelfde manier stapelen; ze hebben allebei vrij grote blokken om te stapelen. Het probleem is voor beide juist dat RT aan hun SM/WGP/CU's gekoppeld zijn. Raster en RT zijn juist níet gesplitst. Meer RT nodig? Dan ook meer raster, want de RT units hangen vast aan de FP32 ALU's (zowel triangle als box hits gaan bij beide naar de ALU's). Bij Nvidia moeten ze voor een RT core ook meteen 4 SM partities en dus 128 ALU's in totaal toevoegen. Bij AMD (RDNA3) zit een RA in een CU en hangt dus aan 64 ALU's in totaal; met 2 RA's per WGP is dat dus ook telkens 128 ALU's meer nodig.

Of 128 per RT core / 64 per RA nodig is, is twijfelachtig. Nvidia zou van Turing t/m Blackwell van 1 triangle intersection naar 2, 4 en nu 8 zijn gegaan; dat betekent dat ze nu 16 FP32 ALU's per hit hebben (box weten we officiëel niet, maar lijkt 1 te zijn). AMD's RA's doen 4 box, 1 ray (dat is voor RDNA 2, kan me niet herinneren of dat anders was in RDNA 3). Dat is ook waar het grote verschil in aanpak tussen de twee zit: AMD heeft op boxes ingezet, Nvidia op triangles. En uiteraard doet AMD de traversals op de SIMD's, dat zit bij Nvidia in de RT core. Intel doet 12 box intersections en 1 triangle. Wel meer RTU's dan AMD's RDNA2, A770 heeft er al 128.

AMD's aanpak doet pijn met path tracing omdat je dan veel door de BVH moet en je vooral op triangles test. Als RDNA4 RA's heeft die minstens 4 triangles/clock doen heeft dat al een flinke impact op hun RT performance. En hun scheduling kan dat makkelijk hebben. Dat is waarom Nvidia's 8x niet echt uit Ada komt; ze kunnen wel rap genoeg testen, maar dat doorzetten moet dan door hun schijt scheduling in een SM heen, waardoor ze meerdere cycles nodig hebben om de hit te verwerken.

Zoals ik al zei, beide hebben een radicaal andere architectuur nodig waar RT en raster niet aan elkaar hangen. Maar dat maakt de chips fors groter.
Ook hier ben ik het niet helemaal mee eens.
AMD heeft fundamenteel maar twee bouwblokken, Shader Engines met 1024 en 1280 ALU's. Ze kunnen hier niet van afwijken omdat er rondom een (dual)CU, zoveel extra ondersteunende zaken zijn geconcentreerd in een Shader Engine. Die Shader Engine is ook afgestemd op 8 of 10 dual CU's. Inmiddels lijkt 10 dual CU's eigenlijk ook al uitgefaseerd te zijn en zien we eigenlijk alleen nog 8 CU's. Navi 48 is 64 CU's, dus 4 Shader Engines/64CU/4096ALU. Daar is alweer 4096 ALU's. Net zoals Fury en Vega. Hetzelfde gebeurd steeds met andere getallen. Hoe vaak zijn bijvoorbeeld 2048, 2304, 2560 en 3840 ALU's voorbij gekomen? :P

Bij Nvidia gebeuren veel meer dingen binnen een SM van 128 ALU's. Je hebt TPC en GPC, maar daar hangen niet zoveel dingen aan. Je ziet ook GPC met 8 SM's (1024), 12 SM's (1536) en nu met Blackwell ook 16 SM's (2048). Daarnaast heb je altijd cut down modellen waar Nvidia relatief vrij lijkt te zijn hoeveel TPC's, dus per 2 SM's ze uitschakelen. Nvidia gaat hier soms ook ver in. Er zijn bijvoorbeeld blijkbaar AD102 chips die uitgeschakeld zijn tot het punt dat het een RTX4070Ti Super is. Dat is zowat de halve GPU uitgeschakeld. :P

Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/ezyDTyTvT3WzGzV9FqNLnB-970-80.jpg.webp
https://www.tomshardware....ie-under-the-giant-cooler

Ook dat kan AMD veel minder. Daar schakelen ze eerder een hele Shader Engine uit dan in alle Shader Engines meer CU's uitschakelen. En je ziet ook niet vaak een Radeon GPU die echt flink cut down is. 10 a 15% lijkt het meestal wel te zijn. Nvidia gaat meestal verder dan dat.


Mijn punt met dit alles is dat ik mij afvraag of AMD hun RT niet uit de (dual)CU kan halen en implementeren op Shader Engine niveau? Ze lijken toch vast te zitten aan die 1024 ALU's. Hang dan een flinke RT unit aan de Shader Engine naast de L1 cache etc. Geef die dedicated BvH en ray traversal hardware, eigen caches en laat die ook data uit de Shader Engine L1 cache kunnen halen.

Afbeeldingslocatie: https://www.techspot.com/articles-info/2151/images/2020-12-03-image.png

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Nvidia hanteert ondanks de inkoop een vast percentage aan relatieve bruto marge. Bij stijgende prijzen is dat ongebruikelijk in een markt, bizar zelfs.

Normaal gesproken, als er concurrentie is, en de inkoopprijzen omhoog gaan, dan gaan de verkoopprijzen met een vergelijkbare (absolute) hoeveelheid omhoog. Soms iets meer afhankelijk van de vraag, maar niet een vermenigvuldiging.

Dus stel een product heeft inkoop 500 euro, verkoop 1000 euro (50% bruto marge), en de inkoop gaat omhoog ->
Normale markt: inkoop 1000 euro, verkoop 1500 / 1600 euro. (33% bruto marge)
Nvidia: inkoop 1000 euro, verkoop 2000 euro. (50% bruto marge)

Helaas heeft Nvidia het voordeel gehad van eerst crypto (etherium) en nu AI, èn de kennis dat high end gamers niet prijsbewust zijn. Dankzij de duopolie en het gebrek aan concurrentie op de high end door zowel AMD als Intel, kunnen ze dit doen. En moeten ze dit doen, voor de aandeelhouders (niet de gamers).

De vraag is of ze dit bij volgende generaties kunnen volhouden. Ik hoop van niet.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • redzebrax
  • Registratie: Februari 2017
  • Laatst online: 19-06 00:45
De consumer producten laten juist hun brutomarge dalen. Uit het vorig artikel dat ik hier gelinkt had, "Compare that to Nvidia's overall gross margin in recent quarters of ~75%, which is dragged down by the lower-margin and more commoditized consumer 3D graphics category." zonder die consumer producten zaten ze tegen de 90%. Het lijkt me niet dat ze er voorlopig veel moeite in gaan steken om echt grote stappen te zetten of de markt te overspoelen met hun nieuwe consumer kaarten (en dit waarschijnlijk ook omwille van geen/ nauwelijks/concurrentie in het hoogste segment), voorlopig is het , hoe meer ze ervan verkopen , hoe lager hun bruto marge wordt.

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
sunsmountain schreef op vrijdag 31 januari 2025 @ 18:49:
Nvidia hanteert ondanks de inkoop een vast percentage aan relatieve bruto marge. Bij stijgende prijzen is dat ongebruikelijk in een markt, bizar zelfs.

Normaal gesproken, als er concurrentie is, en de inkoopprijzen omhoog gaan, dan gaan de verkoopprijzen met een vergelijkbare (absolute) hoeveelheid omhoog. Soms iets meer afhankelijk van de vraag, maar niet een vermenigvuldiging.

Dus stel een product heeft inkoop 500 euro, verkoop 1000 euro (50% bruto marge), en de inkoop gaat omhoog ->
Normale markt: inkoop 1000 euro, verkoop 1500 / 1600 euro. (33% bruto marge)
Nvidia: inkoop 1000 euro, verkoop 2000 euro. (50% bruto marge)

Helaas heeft Nvidia het voordeel gehad van eerst crypto (etherium) en nu AI, èn de kennis dat high end gamers niet prijsbewust zijn. Dankzij de duopolie en het gebrek aan concurrentie op de high end door zowel AMD als Intel, kunnen ze dit doen. En moeten ze dit doen, voor de aandeelhouders (niet de gamers).

De vraag is of ze dit bij volgende generaties kunnen volhouden. Ik hoop van niet.
Volgens mij is constante absolute marge niet de standaard. Een winkel zal altijd een veel hogere absolute marge op dure producten dan goedkope producten hanteren. En ik weet dat mijn werkgever ook gewoon doelen heeft op marges die relatief zijn, en niet absoluut.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
sunsmountain schreef op vrijdag 31 januari 2025 @ 18:49:
Nvidia hanteert ondanks de inkoop een vast percentage aan relatieve bruto marge. Bij stijgende prijzen is dat ongebruikelijk in een markt, bizar zelfs.
Heb je hier ook een bron voor, want dit is hoogst ongebruikelijk en ook de kwartaal cijfers ondersteunen een vaste gross margin niet direct.

Normaliter in deze business heb je een product mix waarbij de laagst gepositioneerde producten normaliter de laagste marges terwijl de server / datacenter producten de hogere marges hebben en dan des te meer server / data center product je verkoopt, des te hoger je marge is.

Acties:
  • 0 Henk 'm!

  • redzebrax
  • Registratie: Februari 2017
  • Laatst online: 19-06 00:45
Algemeen is dat misschien zo, ik denk echter dat Nvidia op een andere manier redeneert, het is geen winkel. Markt vergroten in consumerproducten is blijkbaar geen prioriteit op dit moment voor hun, gewoon omdat ze algemeen een productietekort hebben op 5nm processen en veel hogere marges hebben op hun andere markten. Er is momenteel ook geen concurrentie in dit hoogste segment van kaarten, dus ze kunnen nu met zowat alles wegkomen nu, in principe zouden ze zelfs het dubbele kunnen vragen voor hun 5090 met deze artificiële tekorten, toch gaat dit nauwelijks invloed hebben op omzet en marge omdat die aantallen zo beperkt zijn.

[ Voor 84% gewijzigd door redzebrax op 31-01-2025 20:45 ]


Acties:
  • +2 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Dennism schreef op vrijdag 31 januari 2025 @ 19:38:
[...]


Heb je hier ook een bron voor, want dit is hoogst ongebruikelijk en ook de kwartaal cijfers ondersteunen een vaste gross margin niet direct.

Normaliter in deze business heb je een product mix waarbij de laagst gepositioneerde producten normaliter de laagste marges terwijl de server / datacenter producten de hogere marges hebben en dan des te meer server / data center product je verkoopt, des te hoger je marge is.
https://www.macrotrends.n.../NVDA/nvidia/gross-margin

Afbeeldingslocatie: https://tweakers.net/i/YrD3nhnkPsKayOKruAn11v112P4=/800x/filters:strip_exif()/f/image/QaFmso3NewTLowSmAvQPNZRv.png?f=fotoalbum_large

ziet er voor mij uit als een redelijk vlakke lijn, in ieder geval tussen 2012 en 2023, bij benadering. De bruto marge lijkt zelfs te stijgen, nogmaals ongebruikelijk met stijgende verkoopprijzen.

Voor de inkoop kosten, hebben we een indicatie voor wafer prijzen van TSMC, voor 28nm was dat $5.000 (in 2014), voor 3nm $18.000 (in 2024).
https://www.tomshardware....er-3x-in-10-years-analyst

Op 28nm had je bijvoorbeeld de GTX 780 voor $649 en de GeForce GTX TITAN voor $999. (561 mm2)
De waferkosten zijn vergelijkbaar geweest tot en met Samsung 8nm (in 2020), AdoredTV schatte deze zelfs op ~$3.000 maar ik vind $6.000 wat realistischer, gebruikt voor RTX3000. De RTX 3080 was $699 en de RTX 3090 $999. (628.4 mm2).

Afbeeldingslocatie: https://www.techpowerup.com/img/vpvipIw6XMi0lHdD.jpg

Daarna zien we de slechte RTX 4000 en RTX5000 prijzen op 4N in 2022 en nu 2025. Met de RTX 4090 op $1599 (608.5 mm2) en de RTX 5090 nu zelfs $1999 (750 mm2).

Voor de 80 kaarten is er niet veel verschil:
GTX 980 398 mm2 $549
RTX 3070 392.5 mm2 $499
RTX 4080 Super 378.6 mm2 $999
RTX 5080 378 mm2 $999

Nvidia verdubbelt "gewoon" omdat de waferkosten ook zijn verdubbeld (van ~$9.000 naar ~$18.000).

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
sunsmountain schreef op vrijdag 31 januari 2025 @ 23:21:

ziet er voor mij uit als een redelijk vlakke lijn, in ieder geval tussen 2012 en 2023, bij benadering. De bruto marge lijkt zelfs te stijgen, nogmaals ongebruikelijk met stijgende verkoopprijzen.
Maar dat was nu juist mijn punt ;) Nvidia's marges stijgen al jaren, en de laatste jaren juist extra hard omdat sinds 2023 Datacenter hardware verkoop is geëxplodeerd.. Dat gebeurt niet als je een vaste 50% bruto marge hanteert.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Dennism schreef op vrijdag 31 januari 2025 @ 23:25:
[...]


Maar dat was nu juist mijn punt ;) Nvidia's marges stijgen al jaren, en de laatste jaren juist extra hard omdat sinds 2023 Datacenter hardware verkoop is geëxplodeerd.. Dat gebeurt niet als je een vaste 50% bruto marge hanteert.
Dan hebben we over andere dingen: ik heb het over de desktop videokaarten. We zien inderdaad dat datacenter sinds 2023 is geëxplodeerd, maar de RTX 4000 series was van daarvoor, en volgde hetzelfde patroon qua prijzen: bruto marge bovenop de wafer prijzen. Deze is wel ietsje gedaald, maar zou op basis van de verkoopprijzen van de RTX 4000 veel meer gedaald moeten zijn, als er concurrentie zou zijn geweest. Maar die was/is er niet.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
sunsmountain schreef op vrijdag 31 januari 2025 @ 23:34:
[...]


Dan hebben we over andere dingen: ik heb het over de desktop videokaarten. We zien inderdaad dat datacenter sinds 2023 is geëxplodeerd, maar de RTX 4000 series was van daarvoor, en volgde hetzelfde patroon qua prijzen: bruto marge bovenop de wafer prijzen. Deze is wel ietsje gedaald, maar zou op basis van de verkoopprijzen van de RTX 4000 veel meer gedaald moeten zijn, als er concurrentie zou zijn geweest. Maar die was/is er niet.
Dat is ook niet echt logisch, immers bijvoorbeeld een AD102 die in de RTX A6000 van +- €9000 tot in de 4070 TI Super van €900 ofzo? te vinden is gaat echt niet in ieder van deze configuraties eenzelfde marge binnen brengen.

Immers geen enkele AIB gaat hetzelfde betalen voor een cutdown AD102 voor in de 4070 Ti Super dan dat ze betaalden voor een AD102 voor een RTX 4090. Net als dat Nvidia veel meer marge pakt op een RTX A6000 dan op een RTX 4090 FE terwijl ze beide een AD102 die uit eenzelfde wafer gebruiken.

Wat veel logischer is, Nvidia pakt minder marge op de AD102 cut in de 4070 Ti Super, meer marge op de AD102 in de RTX 4090 en veel meer marge op de AD102 in de RTX A6000. Doe dat over alle dies (inclusief de datacenter chips) en gemiddeld kwam daar langere tijd een marge uit over alle verkopen van tussen de 50% en 60% ieder kwartaal voor +- de laatste 12-13 jaar, nu echter met de Datacenter explosie zit die hele mix op bijna 75%.

Maar dat betekent niet dat iedere cut van een die exact 50% marge heeft, een AD102 in een RTX A6000 gaat misschien wel 25x (of nog veel meer) over de kop, maar er worden er maar weinig van verkocht (immers maar +-4xx miljoen omzet voor dat segment per kwartaal, terwijl gaming op 3+ miljard zit. Terwijl misschien een populaire 4060 die maar 30%-40% marge hebben per verkochte die aan een AIB, maar er wel een heel groot volume is.

[ Voor 28% gewijzigd door Dennism op 31-01-2025 23:45 ]


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 15-03 04:14
Dennism schreef op vrijdag 31 januari 2025 @ 23:37:
[...]


Dat is ook niet echt logisch, immers bijvoorbeeld een AD102 die in de RTX A6000 van +- €9000 tot in de 4070 TI Super van €900 ofzo? te vinden is gaat echt niet in ieder van deze configuraties eenzelfde marge binnen brengen.

Immers geen enkele AIB gaat hetzelfde betalen voor een cutdown AD102 voor in de 4070 Ti Super dan dat ze betaalden voor een AD102 voor een RTX 4090. Net als dat Nvidia veel meer marge pakt op een RTX A6000 dan op een RTX 4090 FE terwijl ze beide een AD102 die uit eenzelfde wafer gebruiken.

Wat veel logischer is, Nvidia pakt minder marge op de AD102 cut in de 4070 Ti Super, meer marge op de AD102 in de RTX 4090 en veel meer marge op de AD102 in de RTX A6000. Doe dat over alle dies (inclusief de datacenter chips) en gemiddeld kwam daar langere tijd een marge uit over alle verkopen van tussen de 50% en 60% ieder kwartaal voor +- de laatste 12-13 jaar, nu echter met de Datacenter explosie zit die hele mix op bijna 75%.

Maar dat betekent niet dat iedere cut van een die exact 50% marge heeft, een AD102 in een RTX A6000 gaat misschien wel 25x (of nog veel meer) over de kop, maar er worden er maar weinig van verkocht (immers maar +-4xx miljoen omzet voor dat segment per kwartaal, terwijl gaming op 3+ miljard zit. Terwijl misschien een populaire 4060 die maar 30%-40% marge hebben per verkochte die aan een AIB, maar er wel een heel groot volume is.
Er zijn uiteraard verschillen in bruto marge per product. Maar dan nog kun je spreken van een gemiddelde marge per generatie. Dit percentage (50-60%) lijkt constant, waarmee we voor een deel een verklaring kunnen vinden voor de gemiddelde prijsverhoging van de RTX 4000 en 5000 kaarten ten opzichte van eerdere generaties.

En zoals gezegd, als je inkoopkosten verdubbelen, moet je dan ook de verkoopprijs verdubbelen? Nee meestal doe je dat niet, tenzij je een monopolie-achtige positie hebt. Zoals Nvidia op dit moment.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 13:20

MazeWing

The plot thickens...

sunsmountain schreef op vrijdag 31 januari 2025 @ 18:49:
Helaas heeft Nvidia het voordeel gehad van eerst crypto (etherium) en nu AI, èn de kennis dat high end gamers niet prijsbewust zijn. Dankzij de duopolie en het gebrek aan concurrentie op de high end door zowel AMD als Intel, kunnen ze dit doen. En moeten ze dit doen, voor de aandeelhouders (niet de gamers).
Feitelijk is het dus allemaal de schuld van crypto want die hebben de ogen van nvidia geopend!

MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | XBX | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z6II | iPhone 16 Pro Max | Tesla Model Y


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Een ander argument voor enige prijsstijging, maar laat nvidia het niet horen, is dat hun DLSS features een supercomputer nodig hebben om getraind te worden. Dat zijn kosten die ze vroeger niet hadden.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Dennism schreef op vrijdag 31 januari 2025 @ 23:25:
[...]


Maar dat was nu juist mijn punt ;) Nvidia's marges stijgen al jaren, en de laatste jaren juist extra hard omdat sinds 2023 Datacenter hardware verkoop is geëxplodeerd.. Dat gebeurt niet als je een vaste 50% bruto marge hanteert.
En al helemaal als er een vaste marge van eg $100 per GPU-die werd gehanteerd, dan zou dus de relatieve marge naarbeneden moeten gaan des te hoger verkoopprijzen worden, en dat is gewoon absoluut niet terug te zien, ook niet in de oude data.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
DaniëlWW2 schreef op vrijdag 31 januari 2025 @ 16:34:

Ook hier ben ik het niet helemaal mee eens.
AMD heeft fundamenteel maar twee bouwblokken, Shader Engines met 1024 en 1280 ALU's. Ze kunnen hier niet van afwijken omdat er rondom een (dual)CU, zoveel extra ondersteunende zaken zijn geconcentreerd in een Shader Engine. Die Shader Engine is ook afgestemd op 8 of 10 dual CU's. Inmiddels lijkt 10 dual CU's eigenlijk ook al uitgefaseerd te zijn en zien we eigenlijk alleen nog 8 CU's. Navi 48 is 64 CU's, dus 4 Shader Engines/64CU/4096ALU. Daar is alweer 4096 ALU's. Net zoals Fury en Vega. Hetzelfde gebeurd steeds met andere getallen. Hoe vaak zijn bijvoorbeeld 2048, 2304, 2560 en 3840 ALU's voorbij gekomen? :P

Bij Nvidia gebeuren veel meer dingen binnen een SM van 128 ALU's. Je hebt TPC en GPC, maar daar hangen niet zoveel dingen aan. Je ziet ook GPC met 8 SM's (1024), 12 SM's (1536) en nu met Blackwell ook 16 SM's (2048). Daarnaast heb je altijd cut down modellen waar Nvidia relatief vrij lijkt te zijn hoeveel TPC's, dus per 2 SM's ze uitschakelen. Nvidia gaat hier soms ook ver in. Er zijn bijvoorbeeld blijkbaar AD102 chips die uitgeschakeld zijn tot het punt dat het een RTX4070Ti Super is. Dat is zowat de halve GPU uitgeschakeld. :P
Bij AMD is de verdeling in SE's vooral vanwege hun fijnere cache structuur. De SE is een logische verdeling om de L1$ en RB dichtbij de WGP's te houden. Bij Nvidia zijn de GPC en TPC pure logische verdelingen, die hebben geen fysieke impact. Bij AMD is minder logisch om een aantal WGP's uit te schakelen, omdat je dan met een overkill aan L1$ voor dat blok zit; bij Nvidia boeit dat niet want de L1$ zit ín een SM, terwijl de L2$ altijd relatief ver weg zit en centraal zit, zoals AMD's IC. Als je bij Nvidia naar de fysieke kant kijkt, zul je zien dat het aantal uitgeschakelde SM's niet helemaal arbitrair is, er wordt ook een evenredig deel van de L2$ uitgeschakeld en dat zullen de SRAM blokken het dichtst bij die SM's zijn ;)
Mijn punt met dit alles is dat ik mij afvraag of AMD hun RT niet uit de (dual)CU kan halen en implementeren op Shader Engine niveau? Ze lijken toch vast te zitten aan die 1024 ALU's. Hang dan een flinke RT unit aan de Shader Engine naast de L1 cache etc. Geef die dedicated BvH en ray traversal hardware, eigen caches en laat die ook data uit de Shader Engine L1 cache kunnen halen.
Maar dat is juist mijn punt. Zelfs door RT omhoog te trekken naar SE niveau, zit dat nog steeds aan shaders gekoppeld. Dat is bij beide zo. Om even bij Nvidia te blijven (want dat is het topic waar we in zitten), daar wil je eigenlijk de SM's weer verkleinen en RT er volledig uit trekken. Stop vervolgens 60-80 van die FP+INT+TC SM's in de GPU en klaar, dat is genoeg voor raster (nog steeds een tensor overkill voor graphics). En kom dan met een nieuwe "RM" (Ray Multiprocessor) met een RT core, 32-64 FP32 ALU's en schaal dát apart op. De RM's zullen stukken kleiner dan de SM's zijn, dus daar passen er meer van in dezelfde ruimte.

Het probleem is data rondpompen. Met Nvidia's structuur gaat dat allemaal veel te traag zijn. Zit allemaal veel te ver weg.

Punt is dat RT aan dezelfde ALU's koppelen als voor raster werk altijd te inefficiënt blijft. Je hebt veel te veel FP32 ALU's voor het werk dat gedaan moet worden en verspilt dus een hoop (zowel ruimte als energie budget).

[ Voor 3% gewijzigd door Werelds op 02-02-2025 15:32 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Werelds schreef op zondag 2 februari 2025 @ 15:32:
[...]

Bij AMD is de verdeling in SE's vooral vanwege hun fijnere cache structuur. De SE is een logische verdeling om de L1$ en RB dichtbij de WGP's te houden. Bij Nvidia zijn de GPC en TPC pure logische verdelingen, die hebben geen fysieke impact. Bij AMD is minder logisch om een aantal WGP's uit te schakelen, omdat je dan met een overkill aan L1$ voor dat blok zit; bij Nvidia boeit dat niet want de L1$ zit ín een SM, terwijl de L2$ altijd relatief ver weg zit en centraal zit, zoals AMD's IC. Als je bij Nvidia naar de fysieke kant kijkt, zul je zien dat het aantal uitgeschakelde SM's niet helemaal arbitrair is, er wordt ook een evenredig deel van de L2$ uitgeschakeld en dat zullen de SRAM blokken het dichtst bij die SM's zijn ;)


[...]

Maar dat is juist mijn punt. Zelfs door RT omhoog te trekken naar SE niveau, zit dat nog steeds aan shaders gekoppeld. Dat is bij beide zo. Om even bij Nvidia te blijven (want dat is het topic waar we in zitten), daar wil je eigenlijk de SM's weer verkleinen en RT er volledig uit trekken. Stop vervolgens 60-80 van die FP+INT+TC SM's in de GPU en klaar, dat is genoeg voor raster (nog steeds een tensor overkill voor graphics). En kom dan met een nieuwe "RM" (Ray Multiprocessor) met een RT core, 32-64 FP32 ALU's en schaal dát apart op. De RM's zullen stukken kleiner dan de SM's zijn, dus daar passen er meer van in dezelfde ruimte.

Het probleem is data rondpompen. Met Nvidia's structuur gaat dat allemaal veel te traag zijn. Zit allemaal veel te ver weg.

Punt is dat RT aan dezelfde ALU's koppelen als voor raster werk altijd te inefficiënt blijft. Je hebt veel te veel FP32 ALU's voor het werk dat gedaan moet worden en verspilt dus een hoop (zowel ruimte als energie budget).
offtopic:
We zijn volgens mij langs elkaar aan het praten. :P
Wat ik mij afvraag is of AMD niet als eerste stap, de hele RT uit hun CU's kan halen en een aparte RT unit kan introduceren op SE niveau? Binnen die RT unit dan dedicated BvH en ray intersection hardware, eigen caches etc. Eigenlijk wat Intel al gedaan heeft met Alchemist. Het idee is dat de SE level L1 cache kan dienen als eerste databron voor de RT unit. De CU's verliezen vervolgens hun RT functie en gaan weer dedicated floats en integers berekenen.

Bijkomend is het idee dat de hoeveelheid data die wordt rondgestuurd, ook beperkt wordt. En als er toch meer opslag nodig is, dan gaat een RT unit naar L2 of L3 cache die centraal zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
DaniëlWW2 schreef op maandag 3 februari 2025 @ 11:36:
offtopic:
We zijn volgens mij langs elkaar aan het praten. :P
Wat ik mij afvraag is of AMD niet als eerste stap, de hele RT uit hun CU's kan halen en een aparte RT unit kan introduceren op SE niveau? Binnen die RT unit dan dedicated BvH en ray intersection hardware, eigen caches etc. Eigenlijk wat Intel al gedaan heeft met Alchemist. Het idee is dat de SE level L1 cache kan dienen als eerste databron voor de RT unit. De CU's verliezen vervolgens hun RT functie en gaan weer dedicated floats en integers berekenen.

Bijkomend is het idee dat de hoeveelheid data die wordt rondgestuurd, ook beperkt wordt. En als er toch meer opslag nodig is, dan gaat een RT unit naar L2 of L3 cache die centraal zijn.
Echt off-topic is het niet tbh, veel van dit geldt ook voor Nvidia :)

Maar nee, de RA uit de WGP halen zou betekenen dat elke RT unit ook bizar veel sneller zou moeten worden. Met een RA die nu 4 box of 1 ray intersection per cycle kan doen zou je, met 8 WGP's (16 CU's) per SE, op dat niveau een unit moeten krijgen die per cycle 64 box/16 ray per cycle kan doen om een gelijke verhouding als nu te houden. AMD moet meer rays per cycle kunnen gaan doen om gelijkwaardig met Nvidia te presteren, dus laten we dat voor de gein ook naar 64 trekken. Bizar complexe unit en 8 keer zo rap als wat Nvidia nu heeft. En dat moet je dan van data kunnen voorzien, alsmede data naar de WGP's pompen.

Nee, de hardware moet meer op de pipeline gaan lijken. Met RT heb je eigenlijk 2 scheduling stappen in de pipeline: voor RT en voor shading. Tussen die twee scheduling stappen zit het "RT" gedeelte (BVH traversal + intersects); het resultaat daarvan gaat naar de shading stap. Echter ga je vanaf die stap nu eventueel ook weer terug naar RT scheduling, om meer rays te doen. In tegenstelling tot rasterisation is RT recursief. En dat doet best pijn, want dat bezet clusters voor een relatief lange tijd.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

NVIDIA's 32-Bit PhysX Waves Goodbye with GeForce RTX 50 Series Ending 32-Bit CUDA Software Support

.....

Here is a comprehensive list of games that use 32-bit PhysX, which will be runnin slower if the latest GeForce RTX 50 series is used, nicely compiled by a Resetera forum user:
Monster Madness: Battle for Suburbia, Tom Clancy's Ghost Recon Advanced Warfighter 2, Crazy Machines 2, Unreal Tournament 3, Warmonger: Operation Downtown Destruction, Hot Dance Party, QQ Dance, Hot Dance Party II, Sacred 2: Fallen Angel, Cryostasis: Sleep of Reason, Mirror's Edge, Armageddon Riders, Darkest of Days, Batman: Arkham Asylum, Sacred 2: Ice & Blood, Shattered Horizon, Star Trek DAC, Metro 2033, Dark Void, Blur, Mafia II, Hydrophobia: Prophecy, Jianxia 3, Alice: Madness Returns, MStar, Batman: Arkham City, 7554, Depth Hunter, Deep Black, Gas Guzzlers: Combat Carnage, The Secret World, Continent of the Ninth (C9), Borderlands 2, Passion Leads Army, QQ Dance 2, Star Trek, Mars: War Logs, Metro: Last Light, Rise of the Triad, The Bureau: XCOM Declassified, Batman: Arkham Origins, and Assassin's Creed IV: Black Flag.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

TSMC Reserves 70% of 2025 CoWoS-L Capacity for NVIDIA

Rumors previously suggested that NVIDIA might scale back its CoWoS orders from TSMC. However, according to a report from Economic Daily News, orders for TSMC's advanced packaging have instead seen a surge. NVIDIA's Blackwell architecture GPUs are in strong demand, leading the company to secure over 70% of TSMC's CoWoS-L advanced packaging capacity for 2025. Shipment volumes are projected to rise by more than 20% each quarter, with total annual shipments expected to surpass 2 million units.

According to reports, TSMC advanced packaging revenue accounted for roughly 8% in 2024 and is projected to exceed 10% in 2025.

Economic Daily News also reports that TSMC intends to expand its CoWoS manufacturing footprint by adding eight facilities in the near future.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Oke, wat is er aan de hand met de RTX50 series zeg?
Zo ongeveer alles van problemen met PCIe verbindingen, drivers, black screens, missende ROPs, gebrekkige prestatieverbeteringen tot natuurlijk die stomme connector zijn nu wel langsgekomen. En dat zijn de technische problemen, niet de verkrijgbaarheid of de prijzen.

Dit moet de slechte Nvidia launch zijn die ik zelf bewust heb meegemaakt. En ik ga terug tot Fermi...
Maar ik vraag me vooral af, waarom? Blackwell is niet bepaald een grote iteratie over Ada, en toch gaat het ene na het andere mis. Hoe krijgt nota bene Nvidia die het meestal aardig conservatief en met kleine iteraties hun generaties ontwikkelen en lanceren, dat voor elkaar? :S

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Rivanov
  • Registratie: Maart 2005
  • Laatst online: 13:46
En ondanks alle negativiteit rondom de RTX50 series, loopt mijn 5090FE als een zonnetje zonder enig issue.
Dus het kan wel hoor. ;)

Twitch || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^^
Je bent de gedropte 32bit Physx support nog vergeten.... 8)

Ze hebben overigens wel veel effort gestopt in het FE (pcb) ontwerp. Vaag dan weer dat ze die 'loadbalancing' dan weer overgeslagen hebben.

[ Voor 53% gewijzigd door Help!!!! op 25-02-2025 10:13 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 12:54

XanderDrake

Build the future!

DaniëlWW2 schreef op dinsdag 25 februari 2025 @ 08:23:
Oke, wat is er aan de hand met de RTX50 series zeg?
Zo ongeveer alles van problemen met PCIe verbindingen, drivers, black screens, missende ROPs, gebrekkige prestatieverbeteringen tot natuurlijk die stomme connector zijn nu wel langsgekomen. En dat zijn de technische problemen, niet de verkrijgbaarheid of de prijzen.

Dit moet de slechte Nvidia launch zijn die ik zelf bewust heb meegemaakt. En ik ga terug tot Fermi...
Maar ik vraag me vooral af, waarom? Blackwell is niet bepaald een grote iteratie over Ada, en toch gaat het ene na het andere mis. Hoe krijgt nota bene Nvidia die het meestal aardig conservatief en met kleine iteraties hun generaties ontwikkelen en lanceren, dat voor elkaar? :S
Heb jij een effectieve manier om geruchten en klachten te kwantificeren en te normaliseren mbt hype en clickbait? Ik denk dat recall en sales figures de enige solide datasets zijn als het aankomt op hoe goed een bepaalde generatie van GPUs het doet.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 03:37

CMT

Tot nu toe hier ook geen problemen (zit wel op PCIE Gen3 vanwege de testpc), toch is dit allemaal wel schandalig te noemen en werpt bij mij de vraag op wanneer genoeg nou echt genoeg is om te voorkomen dat mensen desondanks alles Nvidia blijft overwegen/kopen. En voor prijzen die aan waanzin grenzen.
Een 5070Ti (upper)midrange kaart voor €1400 8)7 . Dat ding is hooguit €700 waard voor een goede prijs/kwaliteit verhouding.

De stilgezwegen Physx 32-bit drop is voor mij de kers op de taart en een doorn in het oog omdat ik graag ook oudere games speel (waaronder Metro). Als de 4090 nog beschikbaar was, had ik 100% de 5090 links laten liggen. Wat een bizar slechte generatie is dit toch en het verbaast mij dat er nog geen grote backlash is ontstaan.

@XanderDrake
Ik denk alleen dat een dosis gezond verstand & ervaring daartegen helpt.
Een effectieve manier is om ervaringen te delen en sensatienieuws op websites zoals videocardz/wccftech met de nodige zout te nemen. Ik kom regelmatig toch wel dingen tegen die uit een context gehaald zijn.

Aan een database met RMA & sales aantallen heb je an sich ook niet zoveel. Misschien wel voor een % van problemen met de connector, maar niet om te bepalen hoeveel problemen een GPU generatie heeft.
We zitten hier quasi in een monopoly en voor een deel zal verslaving ook een factor zijn waardoor men toch blijft kopen. Verergert doordat voorraden van een voorgaande generatie al praktisch weg zijn voordat een nieuwe generatie gelanceerd is.

Acties:
  • 0 Henk 'm!

  • Lekiame
  • Registratie: April 2008
  • Laatst online: 20-06 23:50
DaniëlWW2 schreef op dinsdag 25 februari 2025 @ 08:23:
Oke, wat is er aan de hand met de RTX50 series zeg?
Zo ongeveer alles van problemen met PCIe verbindingen, drivers, black screens, missende ROPs, gebrekkige prestatieverbeteringen tot natuurlijk die stomme connector zijn nu wel langsgekomen. En dat zijn de technische problemen, niet de verkrijgbaarheid of de prijzen.

Dit moet de slechte Nvidia launch zijn die ik zelf bewust heb meegemaakt. En ik ga terug tot Fermi...
Maar ik vraag me vooral af, waarom? Blackwell is niet bepaald een grote iteratie over Ada, en toch gaat het ene na het andere mis. Hoe krijgt nota bene Nvidia die het meestal aardig conservatief en met kleine iteraties hun generaties ontwikkelen en lanceren, dat voor elkaar? :S
Hier ook geen enkele issue (rtx 5080 aorus master, x670e aorus master, 9800X3D).
Draai verder ook gewoon op PCI-e 5.0 Gen5.

Acties:
  • 0 Henk 'm!

  • Rivanov
  • Registratie: Maart 2005
  • Laatst online: 13:46
CMT schreef op dinsdag 25 februari 2025 @ 11:06:
Tot nu toe hier ook geen problemen (zit wel op PCIE Gen3 vanwege de testpc), toch is dit allemaal wel schandalig te noemen en werpt bij mij de vraag op wanneer genoeg nou echt genoeg is om te voorkomen dat mensen desondanks alles Nvidia blijft overwegen/kopen. En voor prijzen die aan waanzin grenzen.
Een 5070Ti (upper)midrange kaart voor €1400 8)7 . Dat ding is hooguit €700 waard voor een goede prijs/kwaliteit verhouding.

De stilgezwegen Physx 32-bit drop is voor mij de kers op de taart en een doorn in het oog omdat ik graag ook oudere games speel (waaronder Metro). Als de 4090 nog beschikbaar was, had ik 100% de 5090 links laten liggen. Wat een bizar slechte generatie is dit toch en het verbaast mij dat er nog geen grote backlash is ontstaan.

@XanderDrake
Ik denk alleen dat een dosis gezond verstand & ervaring daartegen helpt.
Een effectieve manier is om ervaringen te delen en sensatienieuws op websites zoals videocardz/wccftech met de nodige zout te nemen. Ik kom regelmatig toch wel dingen tegen die uit een context gehaald zijn.

Aan een database met RMA & sales aantallen heb je an sich ook niet zoveel. Misschien wel voor een % van problemen met de connector, maar niet om te bepalen hoeveel problemen een GPU generatie heeft.
We zitten hier quasi in een monopoly en voor een deel zal verslaving ook een factor zijn waardoor men toch blijft kopen. Verergert doordat voorraden van een voorgaande generatie al praktisch weg zijn voordat een nieuwe generatie gelanceerd is.
Gewoon een tweede (oudere) RTX kaart naast je 50 series kaart prikken voor de 32-bit PhysX games. :+

Twitch || Simrig: TREQ One / Simucube 2 Pro - BavarianSimTec Alpha / VRS DFP pedals / 3 x 32” LG UltraGear 1440p 165Hz || Ryzen 7 9800x3D / RTX 5090FE / 64GB DDR5 6000Mhz CL30 / 34” MSI 341CQP QD-OLED


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XanderDrake schreef op dinsdag 25 februari 2025 @ 10:20:
[...]

Heb jij een effectieve manier om geruchten en klachten te kwantificeren en te normaliseren mbt hype en clickbait? Ik denk dat recall en sales figures de enige solide datasets zijn als het aankomt op hoe goed een bepaalde generatie van GPUs het doet.
Dat is het punt niet.
Het punt is dat Nvidia een reputatie heeft opgebouwd dat ze systematisch, elke twee jaar, een nieuwe generatie lanceren die meestal niet zoveel innovatie heeft. Deze werkt na wat kleine probleempjes, in de regel gewoon. Soms gaat het minder goed zoals met de RTX20 series, maar dat was ook een aardig veranderde architectuur ten opzichte van Pascal.

Maar nu heb je een Blackwell die echt niet zoveel verschilt van Ada Lovelace. En het ene na het andere technische probleem duikt op. En het zijn meerdere software en hardwareproblemen naast elkaar. Ik vraag me dan af, hoe is dat gebeurd? Want dit is zeker voor Nvidia hun standaarden, een dramatisch slechte introductie van een nieuwe generatie. Het gaat me niet om een waardeoordeel, maar om de vraag hoe.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
Help!!!! schreef op dinsdag 25 februari 2025 @ 10:12:
^^
Je bent de gedropte 32bit Physx support nog vergeten.... 8)

Ze hebben overigens wel veel effort gestopt in het FE (pcb) ontwerp. Vaag dan weer dat ze die 'loadbalancing' dan weer overgeslagen hebben.
Ik kan eigenlijk niet zeggen dat dit imho echt een issue is, ja, er is war reuring over omdat een paar oudere games nu wat mindere performance hebben.

Maar is het echt redelijk om dat (volledig) bij Nvidia neer te leggen, ooit moet je gewoon van dat soort zaken afscheid willen kunnen nemen zodat je die resources (mogelijk ook in silicon bij volgende generaties) ergens anders aan kan besteden, anders worden GPU's straks net x86 en de drivers net Windows (ook soms tot het problematische toe backwards compatible, al begint MS daar nu ook stappen te zetten).

Waarom houden we daar bijvoorbeeld gamedev's niet verantwoordelijke voor, want dan krijg je wel het argument, ja ze kunnen hun software toch niet eeuwig supporten dat kost geld!!! Wat natuurlijk klopt, maar waarom verwachten diezelfde mensen dan wel dat Nvidia een inmiddels achterhaalde en bijna niet meer gebruikte 32 bits Cuda implementatie wel blijft supporten tot in den treue.

Waarbij ik het ook vreemd vind dat men nu roept dat dit 'zomaar' gebeurt zonder aankondiging. Als bijv. hier kijk zie ik het al terug komen in documentatie uit december 2022.
Note

32-bit compilation native and cross-compilation is removed from CUDA 12.0 and later Toolkit. Use the CUDA Toolkit from earlier releases for 32-bit compilation. CUDA Driver will continue to support running existing 32-bit applications on existing GPUs except Hopper. Hopper does not support 32-bit applications. Ada will be the last architecture with driver support for 32-bit applications.
https://docs.nvidia.com/c...rosoft-windows/index.html

Terwijl de release van Oktober 2022 er nog niets over aangeeft: https://docs.nvidia.com/c...rosoft-windows/index.html
1.2. x86 32-bit Support
Native development using the CUDA Toolkit on x86_32 is unsupported. Deployment and execution of CUDA applications on x86_32 is still supported, but is limited to use with GeForce GPUs. To create 32-bit CUDA applications, use the cross-development capabilities of the CUDA Toolkit on x86_64.
Dat zou dus een vooraankondiging van meer dan 2 jaar betekenen...... Blijkbaar wordt daar dan zo weinig naar gegekeken dat niemand voor wie 32bit CUDA support belangrijk is dat is opgevallen?

[ Voor 36% gewijzigd door Dennism op 25-02-2025 13:31 ]


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 03:37

CMT

Rivanov schreef op dinsdag 25 februari 2025 @ 11:56:
[...]

Gewoon een tweede (oudere) RTX kaart naast je 50 series kaart prikken voor de 32-bit PhysX games. :+
Het is een flinke zucht. Dit is precies de reden waarom ik zo'n gruwelijke hekel aan propiertary onzin heb.
Dennism schreef op dinsdag 25 februari 2025 @ 13:16:
[...]


Ik kan eigenlijk niet zeggen dat dit imho echt een issue is, ja, er is war reuring over omdat een paar oudere games nu wat mindere performance hebben.

Maar is het echt redelijk om dat (volledig) bij Nvidia neer te leggen, ooit moet je gewoon van dat soort zaken afscheid willen kunnen nemen zodat je die resources (mogelijk ook in silicon bij volgende generaties) ergens anders aan kan besteden, anders worden GPU's straks net x86 en de drivers net Windows (ook soms tot het problematische toe backwards compatible, al begint MS daar nu ook stappen te zetten).
De prestatie dips gaan richting 30 of zelfs 15 FPS: https://www.pcguide.com/n...-32-bit-physx-benchmarks/. En zo oud is Borderlands 2 nou ook weer niet.

Wat mij betreft draagt Nvidia hier de verantwoordelijkheid om het te blijven ondersteunen, aangezien het een propiertary technologie / feature betreft. Temeer omdat het erop lijkt dat het slechts een om driver kwestie gaat?

Als consument voel mij redelijk bedonderd na het uitgeven van €2369 omdat er geen aankondiging was dat de ondersteuning is komen te vervallen. Gezien de impact dat het heeft, had Nvidia dit imho in een officieel persbericht moeten benoemen. Gaan ze natuurlijk niet doen als het de verkoop kan hinderen :z
Je kan i.i.g. niet verwachten dat men voor een koopoverweging, white papers/documenten gaat doorspitten om te achterhalen wat Nvidia van plan.
Help!!!! schreef op dinsdag 25 februari 2025 @ 10:12:
Ze hebben overigens wel veel effort gestopt in het FE (pcb) ontwerp. Vaag dan weer dat ze die 'loadbalancing' dan weer overgeslagen hebben.
De meest aannemelijke reden die ik mij kan bedenken is plaatsgebrek op de PCB, door de (doorgeslagen) miniaturisatie. Het neem relatief veel plek in om aparte condensators en spoelen voor de input filtering op de PCB te plaatsen. Door koperbanen samen te voegen wordt het ook makkelijker om een PCB te ontwerpen / te routen.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
CMT schreef op dinsdag 25 februari 2025 @ 14:41:


De prestatie dips gaan richting 30 of zelfs 15 FPS: https://www.pcguide.com/n...-32-bit-physx-benchmarks/. En zo oud is Borderlands 2 nou ook weer niet.

Wat mij betreft draagt Nvidia hier de verantwoordelijkheid om het te blijven ondersteunen, aangezien het een propiertary technologie / feature betreft. Temeer omdat het erop lijkt dat het slechts een om driver kwestie gaat?

Als consument voel mij redelijk bedonderd na het uitgeven van €2369 omdat er geen aankondiging was dat de ondersteuning is komen te vervallen. Gezien de impact dat het heeft, had Nvidia dit imho in een officieel persbericht moeten benoemen. Gaan ze natuurlijk niet doen als het de verkoop kan hinderen :z
Je kan i.i.g. niet verwachten dat men voor een koopoverweging, white papers/documenten gaat doorspitten om te achterhalen wat Nvidia van plan.
Misschien hebben we een ander beeld van oud, maar een non-live service game, waar dus niet constant aan gesleuteld wordt na release uit 2012 vind ik toch vrij oud te noemen in gaming termen. Het is geen WoW dat aan de ene kant ook 'oud' is, maar aan de andere kant bijvoorbeeld vandaag nog weer een nieuwe major patch ontvangt.

Ik zou het verder ook geen driver issue willen noemen, bij de 12.0 release is de support voor 32bit Cuda volledig te komen vervallen kijkende naar het ontwikkelen / compileren van 32 bit Cuda applicaties. Daar bij is, zoals ik al link, destijds al aangegeven dat Ada (Zowel client als datacenter) de laatste generatie is die nog driver support krijgt voor oudere binaries. Dat is de laatste stap van het volledig uitfaseren van de support, niet het begin zoals mensen lijken te denken. Hoe Nvidia dat moet communiceren kan je over discussiëren, maar de manier waarop ze dat gedaan is hebben is in de IT een vrij gebruikelijke / logische manier, namelijk richting de developers die de taal gebruiken en dus de applicaties bouwen en implementeren die deze code gebruiken.

Je kan vermoed ik best tegen een consument zeggen, 'Hey tot en met ADA is er geen 32 bits Cuda driver support meer', maar die zal ook de schouders dan ophalen tot ie een 10+ jaar oude game uit het vet haalt op zijn nieuwe Blackwell kaart die toevallig zo'n verouderde 32 bits Cuda implementatie bevat, wat je hier dus eigenlijk ziet gebeuren nu. Al durf ik ook niet te zeggen of het destijds of meer recent ook niet in andere berichtgeving ook genoemd is, ik heb daar verder niet naar gezocht omdat ik het binnen de minuut al gevonden had in deze documentatie.

Ik zou het anders vinden wanneer Nvidia volledig Cuda/Physics uit zou faseren en zeggen 'zoek het maar uit' we stoppen ermee, maar dat doen ze niet. De techniek is nog altijd supported, echter vervalt de support op oudere versie's (net als dat bijv. op enig moment MS de stekker heeft getrokken uit 32bit Windows voor de massa, en misschien nu zelfs volledig?). Voor zover ik hier kan beoordelen zouden de developers van de betreffende gamers hier in de basis 'gewoon' de Physics versie moeten kunnen updaten naar een courante versie. Waarom ze dat niet doen lijkt me logisch, het levert immers niets op, en het zal mogelijk veel werk kosten voor 0 gain.

Ik zou trouwens niet verwachten dat zoiets de verkoop zal hinderen, het zou mij echt verbazen als er een significant aantal consumenten is die nu wel een 5000 serie kaart gekocht heeft, maar geen 500 serie kaart gekocht zou hebben hadden ze bij aankoop geweten dat 32 bits Cuda applicaties niet meer supported zouden zijn.

[ Voor 9% gewijzigd door Dennism op 25-02-2025 15:18 ]


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Dennism schreef op dinsdag 25 februari 2025 @ 13:16:
[...]


Ik kan eigenlijk niet zeggen dat dit imho echt een issue is, ja, er is war reuring over omdat een paar oudere games nu wat mindere performance hebben.

Maar is het echt redelijk om dat (volledig) bij Nvidia neer te leggen, ooit moet je gewoon van dat soort zaken afscheid willen kunnen nemen zodat je die resources (mogelijk ook in silicon bij volgende generaties) ergens anders aan kan besteden, anders worden GPU's straks net x86 en de drivers net Windows (ook soms tot het problematische toe backwards compatible, al begint MS daar nu ook stappen te zetten).

Waarom houden we daar bijvoorbeeld gamedev's niet verantwoordelijke voor, want dan krijg je wel het argument, ja ze kunnen hun software toch niet eeuwig supporten dat kost geld!!! Wat natuurlijk klopt, maar waarom verwachten diezelfde mensen dan wel dat Nvidia een inmiddels achterhaalde en bijna niet meer gebruikte 32 bits Cuda implementatie wel blijft supporten tot in den treue.

Waarbij ik het ook vreemd vind dat men nu roept dat dit 'zomaar' gebeurt zonder aankondiging. Als bijv. hier kijk zie ik het al terug komen in documentatie uit december 2022.


[...]


https://docs.nvidia.com/c...rosoft-windows/index.html

Terwijl de release van Oktober 2022 er nog niets over aangeeft: https://docs.nvidia.com/c...rosoft-windows/index.html


[...]


Dat zou dus een vooraankondiging van meer dan 2 jaar betekenen...... Blijkbaar wordt daar dan zo weinig naar gegekeken dat niemand voor wie 32bit CUDA support belangrijk is dat is opgevallen?
Die games zijn zo oud nog niet en de bijbehorende prestatieafname is veel te fors om het zo tussen neus en lippen door even af te schaffen. Het zou me niet verbazen als het nota bene nVidia zelf is geweest die destijds het gebruik van physx gepushed heeft bij de betreffende games.

Het is imo een stuk logischer dat backwards compatibility langdurig in hardware bewaakt wordt dan dat software bedrijven die misschien niet eens meer bestaan steeds al hun uitgebrachte software steeds moeten gaan fixen en testen.


Bij mijn weten is het verder nog niet duidelijk of dit uberhaupt een hardware ding is. En al is dat wel zo dan zou ik wel willen weten wat hoeveel de gamer hier nu echt mee opschiet.

Aankondigen in cuda installation guides die gamers vrijwel nooit lezen is toch echt heel wat anders dan dit gewoon bij launch netjes melden in de presskit.

Dus nee, die verantwoordelijkheid ligt wat mij betreft allereerst bij nvidia.

Er is in de eerste plaats een nadeel en het voordeel, als het er al is, is vooralsnog erg onduidelijk wat de gamer er aan heeft.

[ Voor 5% gewijzigd door Help!!!! op 25-02-2025 19:56 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
Help!!!! schreef op dinsdag 25 februari 2025 @ 15:22:
[...]

Die games zijn zo oud nog niet en de bijbehorende prestatieafname is veel te fors om het zo tussen neus en lippen door even af te schaffen. Het zou me niet verbazen als het nVidia zelf is geweest die destijds het gebruik van physx gepushed heeft bij de betreffende games.
Dat geloof ik direct, maar dat betekent natuurlijk niet dat wanneer Physx doorontwikkeld wordt iedere versie maar tot in den treure supported moet blijven. Zoals ik al aangaf, hadden ze volledig met Physix gestopt had ik daar anders in gestaan.
Het is imo een stuk logischer dat backwards compatibility langdurig in hardware bewaakt wordt dan dat software bedrijven die misschien niet eens meer bestaan steeds al hun uitgebrachte software steeds moeten gaan fixen en testen.
Eens, maar dat is dan ook iets dat ze ook gedaan hebben (en mogelijk nog steeds doen, het is immers niet duidelijk of Blackwell / Hopper in hardware ook geen support meer hebben, of dat dit slechts een voorbereiding is die mogelijk in de toekomst veranderingen in hardware mogelijk maken, maar voor nu in ieder geval slechts in de software support zitten (hou er echter ook rekening mee dat legacy software intact houden potentieel ook extreem duur kan zijn). Maar vergis je ook niet dat als ik de documentatie mag geloven Cuda geen (publieke) 32 bits only versies gekend heeft, vanaf 1.0 is het 32+64bits, de laatste versie van Cuda die 32bit instructies had (versie 2.1) in 2009 is uitgekomen en de eerste volledig 64 bits versie (3.0) in 2010, we zijn dus al 15 jaar verder, iets dat best lang during is. Genoeg zaken in de IT die veel sneller uitgefaseerd worden.
Bij mijn weten is het verder nog niet duidelijk of dit uberhaupt een hardware ding is. En al is dat wel zo dan zou ik wel willen weten wat hoeveel de gamer hier nu echt mee opschiet.
Klopt, voor nu is enkel een hypothese die her en der geuit is.
Aankondigen in cuda installation guides die gamers vrijwel nooit lezen is toch echt heel wat anders dan dit gewoon bij launch netjes melden in de presskit.
Zoals ik al aangaf kan je daar over discussiëren. Maar ik vind de communicatie niet onlogisch zoals deze nu gedaan is, immers dit is primair iets voor de developers, zodat deze actie kunnen ondernemen zodat hun klanten straks niet met legacy applicaties zitten die niet meer werken. Deze wijze van communiceren is in de IT heel gebruikelijk.

En zoals ik ook al aangaf, omdat ik dit binnen de minuut kon vinden, heb ik ook niet gezocht of er verder destijds of meer recent meer ruchtbaarheid aan gegeven is vanuit ofwel Nvidia ofwel de developers die Cuda gebruiken in hun applicaties. Want ik kan me echt niet voorstellen dat niemand die dit destijds gelezen heeft hier niet heeft kunnen overzien wat dit zou betekenen voor o.a. Physx in oude implementaties.

Gamers zal dat inderdaad logischerwijs niet opvallen, die zijn helemaal niet bezig met dit soort zaken. Maar zoals ik ook al aangaf, ik vermoed niet dat een significant deel van de gamers die nu wel een 5000 serie GPU hebben gekocht of er een willen kopen, daar vanaf nu vanaf zien, of de 5000 serie niet zouden hebben overwogen wanneer in januari in de press release gestaan had dat 32bit Cuda niet meer supported zou zijn, of wanneer een HWU / GN dat destijds gemeld zouden hebben. En dan zullen er vast een paar gamers de uitzondering zijn die de regel bevestigen en die 5000 serie kaart niet kopen. Maar ik geloof niet in de theorie dat Nvidia dit bewust niet zou communiceren omdat dit 5000 serie verkopen zou kosten, ik vermoed eerder dat dit zowel door Nvidia als ook de game dev's simpelweg niet als 'big deal' gezien wordt, omdat deze code als het goed al dik 10+ jaar niet meer wordt toegepast.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
Wat nou hardware support? Dit heeft 0,0, nada, niks, niente en noppes met hardware te maken. GPU PhysX is compute. Het is puur een stukje driver dat ze er uit willen slopen. Niets meer. De hardware is het probleem niet.

Microsoft update DX9 nog steeds, 23 jaar na dato. Dat werkt ook gewoon met alle moderne hardware, dat zit ook nog allemaal in de driver - zowel 32-bit als de halfbakken 64-bit ondersteuning. Hetzelfde geldt voor oude OpenGL versies, of bijvoorbeeld Havok / Bullet versies. Het OS is eerder een probleem. Ik kan ook HL1 nog steeds gewoon starten.

En ja, het is onbehoorlijk van Nvidia. Zij hebben PhysX zo hard gepusht, vaak met negatieve gevolgen voor performance en/of compatibiliteit. Zorg dan ook maar dat je het op z'n minst werkend houdt voor diegenen die er waarde aan hechten. Mag ik iedereen er even aan herinneren dat Witcher 3 dit jaar ook 10 jaar oud wordt? Nog geen half jaar na BL uit gekomen, had hier dus ook door geraakt kunnen worden. Enige reden dat dat niet zo is, is omdat het zo'n verkoopmonster is geweest en ze het veel geüpdated hebben; ik zou er niet raar van op kijken als vanilla W3 van toen ook 32-bits gebruikte.

En is het lastig voor Nvidia om een oplossing te voorzien? Welnee joh, want ze hoeven verdorie maar een vervangende DLL te maken met een compatibility layer. Je kunt PhysX in veel gevallen al updaten door er gewoon een nieuwe DLL in te gooien. En vang het anders maar in de driver op, die zit toch al bomvol lelijke hacks. Maar dat kunnen ze niet verkopen, dus dat doen ze niet.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
Werelds schreef op dinsdag 25 februari 2025 @ 17:03:
Wat nou hardware support? Dit heeft 0,0, nada, niks, niente en noppes met hardware te maken. GPU PhysX is compute. Het is puur een stukje driver dat ze er uit willen slopen. Niets meer. De hardware is het probleem niet.
De hypothese is dat Nvidia mogelijk, met de nadruk op mogelijk, silicon area kan winnen in de compute cores (en dus anders kan inzetten) door 32 bit support te saneren in de toekomst (net zoals bijvoorbeeld Intel / AMD dat zouden kunnen door x86 te ontdoen van allerlei legacy 16/32bit zaken die nu nog altijd in ieder x86 design zitten (iets waar bijv. x86S destijds voor genoemd werd).
Mag ik iedereen er even aan herinneren dat Witcher 3 dit jaar ook 10 jaar oud wordt? Nog geen half jaar na BL uit gekomen, had hier dus ook door geraakt kunnen worden. Enige reden dat dat niet zo is, is omdat het zo'n verkoopmonster is geweest en ze het veel geüpdated hebben; ik zou er niet raar van op kijken als vanilla W3 van toen ook 32-bits gebruikte.
Dat klopt natuurlijk niet, BL2 is van september 2012 (voor zover ik kan zien was 64bit Physx toen net iets meer dan een jaar 'uit', dus dat BL released is met 2.x is niet heel vreemd (maar wel jammer dat ze het nooit hebben geupdate). Als dat inderdaad slechts het vervangen van een DLL is, zou daar trouwens zeker eerder de dev op aanspreken, immers Nvidia zal niet zomaar bijv. de Steam sources van een dev mogen patchen, maar een dev had dat toch zo moeten kunnen doen dan toen dit 2 jaar geleden duidelijk werd voor ze. Ik zat bijv. net even op Steam te kijken, en klaarblijkelijk heeft Borderlands 2 best wat patches / DLC gehad waarbij ze dit hadden kunnen meenemen ( https://steamdb.info/app/49520/patchnotes/ ).


Al zou Nvidia dan mogelijk ook zo'n drop in kunnen maken als ze voor DLSS hebben tegenwoordig. Maar dan moet dat natuurlijk inderdaad wel de (universele) oplossing zijn. Die moeite hadden ze dan inderdaad wel even mogen nemen.

Witcher 3 is van mei 2015, toen was Physx 3.0 al 4 jaar uit, en dus acht ik het eerder voor de hand liggend dat deze vanaf release met een versie is gekomen die 64bit Cuda support heeft.

[ Voor 53% gewijzigd door Dennism op 25-02-2025 17:47 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
Dennism schreef op dinsdag 25 februari 2025 @ 17:22:
De hypothese is dat Nvidia mogelijk, met de nadruk op mogelijk, silicon area kan winnen in de compute cores (en dus anders kan inzetten) door 32 bit support te saneren in de toekomst (net zoals bijvoorbeeld Intel / AMD dat zouden kunnen door x86 te ontdoen van allerlei legacy 16/32bit zaken die nu nog altijd in ieder x86 design zitten (iets waar bijv. x86S destijds voor genoemd werd).
FP32 gaat nergens heen hoor :p
Dat klopt natuurlijk niet, BL2 is van september 2012 (voor zover ik kan zien was 64bit Physx toen net iets meer dan een jaar 'uit', dus dat BL released is met 2.x is niet heel vreemd (maar wel jammer dat ze het nooit hebben geupdate). Als dat inderdaad slechts het vervangen van een DLL is, zou daar trouwens zeker eerder de dev op aanspreken, immers Nvidia zal niet zomaar bijv. de Steam sources van een dev mogen patchen, maar een dev had dat toch zo moeten kunnen doen dan toen dit 2 jaar geleden duidelijk werd voor ze. Al zou Nvidia dan mogelijk ook zo'n drop in kunnen maken als ze voor DLSS hebben tegenwoordig. Maar dan moet dat natuurlijk inderdaad wel de (universele) oplossing zijn. Die moeite hadden ze dan inderdaad wel even mogen nemen.
BL The pre-sequel is van oktober 2014 ;)
Witcher 3 is van mei 2015, toen was Physx 3.0 al 4 jaar uit, en dus acht ik het eerder voor de hand liggend dat deze vanaf release met een versie is gekomen die 64bit Cuda support heeft.
Bestond wel, maar was geen simpele switch. Zijn maar heel weinig games die dat deden. Zal morgen kijken of ik het in de docs en patch notes kan vinden.

Overigens is 3.0 nutteloos; dat is 2.8.4 in feite. Pas vanaf 3.1….4 geloof ik veranderde er weer iets.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
Uiteraard niet, maar dat zou ik ook niet direct verwachten, net als dat je ook FP16, FP8 en FP4 hebt. Maar er zitten in een GPU dus geen andere zaken die door zo'n wijziging gesaneerd kunnen worden, zoals bij een CPU wel het geval is (daar haalden ze immers die vergelijking vandaan).
BL The pre-sequel is van oktober 2014 ;)
Ok, maar die game staat niet op de lijst van affected games ;)
Borderlands 2 wel.
Overigens is 3.0 nutteloos; dat is 2.8.4 in feite. Pas vanaf 3.1….4 geloof ik veranderde er weer iets.
Ah ok, dat zou kunnen, ik begreep uit wat andere comments bij de diverse berichtgevingen over dit topic dat vanaf minimaal SDK 3.0 het mogelijk was om Physx te builden op basis van 64bit Cuda instructies. Dus dat zou dan betekenen dat wanneer developers dat gedaan zouden hebben dat dit eigenlijk vanaf mei 2011 geen issue meer had hoeven te zijn.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 18-06 09:27
Dennism schreef op dinsdag 25 februari 2025 @ 19:24:
[...]


Uiteraard niet, maar dat zou ik ook niet direct verwachten, net als dat je ook FP16, FP8 en FP4 hebt. Maar er zitten in een GPU dus geen andere zaken die door zo'n wijziging gesaneerd kunnen worden, zoals bij een CPU wel het geval is (daar haalden ze immers die vergelijking vandaan).
Precies. Dat heb ik onlangs nog aangehaald, huidige GPU's zijn vrij algemene rekenmachines, terwijl fixed pipelines ons nu juist weer vooruit zouden kunnen helpen. Maar met de huidige stand van zaken maakt dit ook geen reet uit voor de addressering, het enige dat daadwerkelijk beïnvloed zou kunnen worden.
Dennism schreef op dinsdag 25 februari 2025 @ 19:24:
Ok, maar die game staat niet op de lijst van affected games ;)
Borderlands 2 wel.
Jawel hoor: https://www.resetera.com/...-borderlands-etc.1111698/

Geen van die lijsten zal compleet zijn.
Ah ok, dat zou kunnen, ik begreep uit wat andere comments bij de diverse berichtgevingen over dit topic dat vanaf minimaal SDK 3.0 het mogelijk was om Physx te builden op basis van 64bit Cuda instructies. Dus dat zou dan betekenen dat wanneer developers dat gedaan zouden hebben dat dit eigenlijk vanaf mei 2011 geen issue meer had hoeven te zijn.
Zo simpel is het helaas dus niet. Het is niet enkel een compiler flag, want de geheugen adressering verandert. Ik heb 3.0 ook even opgezocht, maar daar zat ik fout, 3.0 was de rewrite waarbij ze eindelijk Ageia's code aan pakten (2.8.4 was de versie waarbij ze eindelijk eens SSE gebruikten :')). Functioneel niet anders dan 2.8.4, maar wel een andere API op sommige vlakken en dus geen drop-in replacement. Belangrijker was echter het gebrek aan platform ondersteuning: enkel Win, PS3 en 360 (en op die laatste 2 zaten enkele nare bugs). Android, iOS, Linux, macOS zaten allemaal niet in 3.0. Vandaar dat veel games niet geüpdated werden naar 3.0. Vergeet niet dat de GPU kant van PhysX maar vrij minimaal is; het merendeel van PhysX heeft altijd op de CPU gelopen, vooral ook de belangrijkste dingen zoals rigid bodies en dergelijke. Van 2.8.x naar 3.0 migreren was dus een hoop werk voor 0,0 winst en als je game dan ook nog eens op Linux, Mac of mobiel beschikbaar was, was 3.0 überhaupt geen optie. PhysX is in de eerste instantie een daadwerkelijke physics engine voor gameplay, pas daarna komen de fancy dingen als cloth, fluids etc.

Daarom blijf ik er bij dat Nvidia hier de fout in gaat. Het maakt geen donder uit dat ontwikkelaars er van op de hoogte waren, het was toentertijd een zinloze wijziging, hartstikke logisch dat niemand dat deed. Als consument kunnen wij nu een hypermoderne 5090 kopen en gewoon alle D3D en OGL games van vroeger spelen; althans, in de zin dat de API calls gewoon werken. Dat sommige games tweaks vereisen voor resoluties en dergelijke die toen niet bestonden is een ander verhaal. Waarom werkt dat wel? Omdat MS dat onderhoudt. Dat is wat WoW64 doet. En dat is wat Nvidia zou moeten doen, want nogmaals, zij zijn degenen die in veel gevallen gepusht hebben voor de GPU PhysX effecten in het verleden. En soms zijn die hilarisch slecht (duizenden particles van betonnen pilaren zonder schade aan de pilaren :')), maar volumetric fog is in veel van die gevallen geheel afwezig zonder PhysX dus dan maakt het wel iets uit. Als je als Nvidia dan toch zo stoer wil doen en een "betere" ervaring dan AMD wil bieden, onderhoudt dat dan ook.

[ Voor 10% gewijzigd door Werelds op 26-02-2025 11:43 ]


Acties:
  • +1 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
De RTX 5070 is slecht ontvangen bij reviewers:

review: Nvidia GeForce RTX 5070 - Deze kaart was in 2023 leuk geweest

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Tricolores
  • Registratie: Februari 2017
  • Laatst online: 20-06 10:42
Tsjah, niets van verbetering tegenover eerdere generatie / refresh, niet goedkoper en slechts 12GB geheugen waardoor het twijfelachtig is of deze futureproof kan genoemd worden.

In dit segment zou niemand dat mogen kopen, maar de realiteit zal weer anders zijn. Dus gaat Nvidia verder op zijn elan.

Ryzen 7 9800X3D - Gigabyte X870E AORUS ELITE WIFI7 - G.Skill Flare X5 F5-6000 (32GB) - Sapphire Nitro+ RX9070XT


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 20-06 20:44
Top kaart! Echt waanzinnig! Hopelijk verkopen ze hem niet voor te weinig! :)

Acties:
  • 0 Henk 'm!

  • stylezzz
  • Registratie: April 2000
  • Laatst online: 13:28
En zo ook de 5070 Ti en de 5080 hiervoor.... in werkelijkheid zien we morgenmiddag weer de stock als sneeuw voor de zon verdwijnen.

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Nu online
Hahaha :D

Vanaf morgen te koop ("verkrijgbaar") voor het 5070ti MSRP: de 5060 12GB en net zo snel als een 4090 !

[ Voor 100% gewijzigd door HugoBoss1985 op 04-03-2025 15:53 ]


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 20-06 20:44
stylezzz schreef op dinsdag 4 maart 2025 @ 15:46:
[...]


En zo ook de 5070 Ti en de 5080 hiervoor.... in werkelijkheid zien we morgenmiddag weer de stock als sneeuw voor de zon verdwijnen.
Wacht de langere termijn maar af. De 4080 verkocht al erg slecht (vandaar lagere prijs voor de 4080 super). In het begin gaat het altijd snel en bovendien zijn er gewoon weinig beschikbaar.

Dus ze lijken populair te zijn maar dat valt straks enorm tegen. Tegen deze prijzen zullen de verkopen over een heel jaar gewoon slecht zijn. Of het ze nog iets boeit is een 2e.....

Acties:
  • 0 Henk 'm!

  • Ambition88
  • Registratie: Oktober 2014
  • Laatst online: 10:06
Deze generatie is 1 joke. Je had 2 jaar terug beter een 4090 kunnen kopen i.p.v. nu een 5080 zelfde geldt voor de 5070Ti tegenover de 4080 om over de 5070 maar te zwijgen.

Ze hebben nog net niet de exact zelfde kaarten verkocht met een andere naam op de verpakking. Treurige tijden als gamer.

Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Ik vraag me af of ze met drivers nog iets kunnen verbeteren. En ik verwacht geen gigantische verschillen, maar bij de Tweakers review verslaat de RTX4070S de RTX5070 met regelmaat.

Ze hebben geluk dat het spel wat gebruikt wordt voor de power per fps grafiek, de RTX5070 het relatief goed doet. Maar algemeen 2% betere prestaties voor 16% hoger verbruik is wel echt slecht.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 20-06 20:44
Sissors schreef op dinsdag 4 maart 2025 @ 16:40:
Ik vraag me af of ze met drivers nog iets kunnen verbeteren. En ik verwacht geen gigantische verschillen, maar bij de Tweakers review verslaat de RTX4070S de RTX5070 met regelmaat.

Ze hebben geluk dat het spel wat gebruikt wordt voor de power per fps grafiek, de RTX5070 het relatief goed doet. Maar algemeen 2% betere prestaties voor 16% hoger verbruik is wel echt slecht.
Behalve de geheugen bandbreedte zijn de specs en kloksnelheid gewoon slecht. Maar de uplift van de 5080 was nog slechter en nog eens 200 dollar duurder. Maar je verwacht gewoon beter.

Het is te hopen dat de 5060 wat redelijk is zodat 2060/3060 gebruikers een upgradepath hebben in die prijsklasse. De 4060 was ook al niks.

En qua prijzen: er is waarschijnlijk steeds minder wafer allocatie voor game gpu's. Dus als er minder kaarten verkocht worden in totaal dan is het misschien ook meer logisch dat AIB's en webshops veel grotere marges willen.

Als je er op rekend dat je bijvoorbeeld 100 kaarten verkoopt bij launch en je vervolgens maar 10 krijgt (of kan maken als AIB) dan heeft zoiets natuurlijk mega gevolgen.

Volgens mij heeft ook AMD relatief weinig wafers kunnen bemachtigen dus ben benieuwd hoelang die voorraad duurt.

[ Voor 42% gewijzigd door meljor op 04-03-2025 16:54 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Nu online
meljor schreef op dinsdag 4 maart 2025 @ 16:45:
[...]

Volgens mij heeft ook AMD relatief weinig wafers kunnen bemachtigen dus ben benieuwd hoelang die voorraad duurt.
Ik verwacht niet dat AMD weinig wafers heeft, ze zijn immers een van, zo niet de grootste, afnemer(s) van TSMC op de 4/5nm klasse nodes. Als AMD's supply ook relatief karig gaat zijn (op mogelijk een redelijke launch day voorraad na), vermoed ik eerder dat het een keuze van AMD is (omdat hun andere 4nm producten meer opleveren, denk aan (Ry)Zen 7000/9000, maar dus ook Epyc. Alleen Epyc dense zit op TSMC 3nm. En volgens mij zitten AMD's AI producten ook op de 4/5nm klasse nodes.

Al met al is die node gewoon heel erg druk bezet, en zal je dus vermoed ik al snel zien dat de meeste allocatie gaat naar de producten met de hoogste marges tot de vraag naar die producten volledig beantwoord is, waarna de producten met minder marge de 'restjes' mogen hebben, of wanneer de bottleneck ergens anders zit, bijvoorbeeld bij advanced packaging en het dus weinig zin heeft om meer wafers te alloceren aan hoge marge die's omdat er te weinig advanced packaging capaciteit is voor die producten.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 20-06 20:44
Dennism schreef op dinsdag 4 maart 2025 @ 18:12:
[...]


Ik verwacht niet dat AMD weinig wafers heeft, ze zijn immers een van, zo niet de grootste, afnemer(s) van TSMC op de 4/5nm klasse nodes. Als AMD's supply ook relatief karig gaat zijn (op mogelijk een redelijke launch day voorraad na), vermoed ik eerder dat het een keuze van AMD is (omdat hun andere 4nm producten meer opleveren, denk aan (Ry)Zen 7000/9000, maar dus ook Epyc. Alleen Epyc dense zit op TSMC 3nm. En volgens mij zitten AMD's AI producten ook op de 4/5nm klasse nodes.

Al met al is die node gewoon heel erg druk bezet, en zal je dus vermoed ik al snel zien dat de meeste allocatie gaat naar de producten met de hoogste marges tot de vraag naar die producten volledig beantwoord is, waarna de producten met minder marge de 'restjes' mogen hebben, of wanneer de bottleneck ergens anders zit, bijvoorbeeld bij advanced packaging en het dus weinig zin heeft om meer wafers te alloceren aan hoge marge die's omdat er te weinig advanced packaging capaciteit is voor die producten.
Dat bedoelde ik dus. Dat is voor de AIB's dan toch ook zuur? Die zijn ook afhankelijk van een flinke hoeveelheid kaarten die ze zonder AMD/Nvidia chips gewoon niet kunnen maken.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Cloggs
  • Registratie: April 2004
  • Laatst online: 18-06 07:16
Die hele zaak vertrouw ik voor geen meter. Vage locatie en de reviews op google zijn overduidelijk fake.

Acties:
  • 0 Henk 'm!

  • freaky35
  • Registratie: September 2012
  • Laatst online: 12:47

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 20-06 20:44
https://www.igorslab.de/e...-up-on-platinum-design/4/

Dit is toch bizar? Er loopt blijkbaar mega veel stroom terug via het moederbord ipv de massa draden van de gpu voeding, dat is toch gewoon erg zorgelijk?

[ Voor 32% gewijzigd door meljor op 07-03-2025 09:16 ]


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 20-06 20:44
Van dezelfde bron. Toch vreemd dat een NL webshop dit weet en de rest van de wereld niet?
Niet dat het me zou verbazen als er een recall zou zijn maar ik geloof deze bron niet.

Ze hebben 5 op voorraad maar die moeten allemaal terug, terwijl andere (veel grotere) sites gewoon wel verkopen

Acties:
  • 0 Henk 'm!

  • Cloggs
  • Registratie: April 2004
  • Laatst online: 18-06 07:16
meljor schreef op vrijdag 7 maart 2025 @ 09:19:
[...]


Van dezelfde bron. Toch vreemd dat een NL webshop dit weet en de rest van de wereld niet?
Niet dat het me zou verbazen als er een recall zou zijn maar ik geloof deze bron niet.

Ze hebben 5 op voorraad maar die moeten allemaal terug, terwijl andere (veel grotere) sites gewoon wel verkopen
Het is overduidelijk een scammer of op z'n minst zwaar verdacht. Ik zou er niets kopen.

Op hetzelfde adres zitten twee andere shops met gedeeltelijk dezelfde naam maar totaal andere producten. Veel van de reviews zijn overduidelijk nep en als er een legitieme review bij staat dan is die negatief.

[ Voor 21% gewijzigd door Cloggs op 07-03-2025 10:26 ]


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
meljor schreef op vrijdag 7 maart 2025 @ 09:14:
https://www.igorslab.de/e...-up-on-platinum-design/4/

Dit is toch bizar? Er loopt blijkbaar mega veel stroom terug via het moederbord ipv de massa draden van de gpu voeding, dat is toch gewoon erg zorgelijk?
Er is een laag ohmig pad van GPU naar voeding via het moederbord voor de aarde. Dat hint er iig op dat dat pad ook behoorlijk wat stroom aan kan (want laag ohmig). Ideaal is het niet, heb ik weleens heel lang geleden ook wat over geschreven ergens hier. En ik zou het zeker beter vinden als ze netjes de return current via de voedingspinnen laten lopen. Maar blijkbaar doet geen fabrikant dat. Echt zorgelijk is het niet denk ik, het is dus ook niks nieuws. Maar echt netjes is het ook niet.

Acties:
  • +1 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 20-06 20:44
Sissors schreef op vrijdag 7 maart 2025 @ 10:13:
[...]

Er is een laag ohmig pad van GPU naar voeding via het moederbord voor de aarde. Dat hint er iig op dat dat pad ook behoorlijk wat stroom aan kan (want laag ohmig). Ideaal is het niet, heb ik weleens heel lang geleden ook wat over geschreven ergens hier. En ik zou het zeker beter vinden als ze netjes de return current via de voedingspinnen laten lopen. Maar blijkbaar doet geen fabrikant dat. Echt zorgelijk is het niet denk ik, het is dus ook niks nieuws. Maar echt netjes is het ook niet.
Vind het allesbehalve netjes eigenlijk. Dat pad is er idd en vast voor een reden maar niet om de stroom van de grootste gebruiker door retour te laten lopen lijkt me?

Er zijn genoeg ground pinnen aanwezig op de gpu stekker, die horen dan ook hun werk te kunnen doen. Ik vind het gewoon onwenselijk, zeer slordig en vooral makkelijk te voorkomen...

Net als dat de load balancing op de gpu pinnen vrij makkelijk te implementeren is. Dat ze het niet doen is bizar na alle smeltende connectoren. Lijkt VW wel, daar leren ze ook nooit van hun ontwerp fouten...

[ Voor 9% gewijzigd door meljor op 07-03-2025 10:46 ]


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 20-06 20:44
Cloggs schreef op vrijdag 7 maart 2025 @ 10:11:
[...]

Het is overduidelijk een scammer of op z'n minst zwaar verdacht. Ik zou er niets kopen.

Op hetzelfde adres zitten twee andere shops met gedeeltelijk dezelfde naam maar totaal andere producten. Veel van de reviews zijn overduidelijk nep en als er een legitieme review bij staat dan is die negatief.
Het gekke is dat ze al sinds 2022 actief zijn.

Acties:
  • +1 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
meljor schreef op vrijdag 7 maart 2025 @ 10:43:
[...]


Vind het allesbehalve netjes eigenlijk. Dat pad is er idd en vast voor een reden maar niet om de stroom van de grootste gebruiker door retour te laten lopen lijkt me?

Er zijn genoeg ground pinnen aanwezig op de gpu stekker, die horen dan ook hun werk te kunnen doen. Ik vind het gewoon onwenselijk, zeer slordig en vooral makkelijk te voorkomen...

Net als dat de load balancing op de gpu pinnen vrij makkelijk te implementeren is. Dat ze het niet doen is bizar na alle smeltende connectoren. Lijkt VW wel, daar leren ze ook nooit van hun ontwerp fouten...
Dat het niet netjes is schreef ik ook ;) . Maar ik weet niet hoe makkelijk het te voorkomen is. Nu gebruiken ze denk ik één groot ground plane. Ground splits toevoegen is denk ik niet zo triviaal. Dat is juist het makkelijke aan één groot ground plane, een gemeenschappelijke referentie voor je hele ontwerp.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 20-06 20:44
Sissors schreef op vrijdag 7 maart 2025 @ 10:51:
[...]

Dat het niet netjes is schreef ik ook ;) . Maar ik weet niet hoe makkelijk het te voorkomen is. Nu gebruiken ze denk ik één groot ground plane. Ground splits toevoegen is denk ik niet zo triviaal. Dat is juist het makkelijke aan één groot ground plane, een gemeenschappelijke referentie voor je hele ontwerp.
Mijn simpele brein zegt 3 dingen:

Zorgen dat voor de grote stromen de "loop" niet toegankelijk is naar die groundplane

Of zorgen dat de weerstand van de stekker lager is

Of met een gelijkrichter zorgen dat de retourstromen maar 1 kant op kunnen

Kan toch niet zo heel moeilijk zijn voor de techies.

Nu heb je een connectie die niet gebruikt wordt zoals bedoeld, die draden zitten er niet voor niets.

Maar goed, ben benieuwd of er reactie op komt uit de industrie. Misschien zit het allemaal heel anders..
Pagina: 1 ... 134 135 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.