Acties:
  • +1 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Nu online

rapture

Zelfs daar netwerken?

Gisterenavond een RX 6800 XT geïnstalleerd en het is blijkbaar goed gekozen. Het is aged like fine wine zodat er geen verrassingen, kinderziektes,... meer zijn. Deze generatie en de AI hype sla ik over.

AI hype is in verkoopcijfers, omzet, aandelenkoersen,... iets dat voorbij gaat waaien. Het is geen panacea, oplossing voor alle problemen,...

Nu lijkt het op een gold rush en er wordt gespeculeerd op de bedrijven die de picks and shovels aan de goudzoekers verkopen. Iedereen wilt nu AI-hardware kopen om het uit te proberen zoals iedereen wou tijdens de dotcom bubble servers van Sun Microsystems, switches en routers van Cisco,... kopen.

Binnen enkele jaren zullen er heel veel mislukte AI-projecten zijn. Net zoals niet elke website, YouTube-kanaal, Instagram account, TikTok account,... dat creëert wordt, wordt een groot succes. Dan is er teveel hardware tov de partijen die hun software op de hardware willen draaien.

Bij RDNA 4 of 5 zie ik wel wat de situatie wordt. Er is een limiet op de verkleining van de SRAM (cachegeheugen).

Afbeeldingslocatie: https://semiwiki.com/forum/index.php?attachments/sram-density-tsmc-n3b-n3e-png.986/

Tegen dat MCD op 4nm (verbeterd 5nm voor goedkope chips) gebakken wordt. De cache en geheugencontroller afsplitsen is future proofing.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op vrijdag 9 juni 2023 @ 00:37:
[...]


Is AMD niet juist Mi300 aan het rampen voor de algemene release in Q3?
Misschien dat daar ook nog wel wat inzit qua inventaris.
Mi300 zou een deel kunnen verklaren. Immers is AMD bezig om El Capitan op te leveren voor het einde van het jaar. Verder heeft AMD nu volgens mij elke generatie van hun datacenter software laten zien dat bepaalde klanten wat gelijker zijn dan anderen en hun chips eerder krijgen. Maar zelfs voor deze supercomputer, bijna tweemaal zo krachtig als Frontier, gaat het denk ik om maar een paar honderd miljoen. Het verklaard de oplopende voorraden niet. :)

@rapture Ik weet niet of deze AI hype wel zo overdreven is. Tenminste die hele grote spelers die de datacenter GPU's kopen, die hebben meerjarenplannen en gaan die hardware wel gebruiken voor hun levensduur. Verder speelt ook dat juist de open source AI projecten de laatste tijd, meer vorderingen lijken te boeken dan de closed source initiatieven van die grote spelers. En juist die open source initiatieven zijn meer afhankelijk van een "gaming" GPU. Die zullen RTX4090s kopen.

Maar er bestaat nog een heel andere markt, gamers. Gamers die niks konden kopen met Ampere/RDNA2, ook geconfronteerd waren met de zwakke Turing generatie met hier en daar een redelijk goede RDNA1 GPU (alleen N10). Het potentieel voor gewoon goede producten in het €200-€500 bereik is er denk ik echt wel. Maar er is gewoon bijna niks. Dat heeft denk ik ook niks met de producten te maken, maar met de prijsstelling. Ik denk dat AD103, AD104 en als die ooit nog komt, N32 er gewoon perfect voor kunnen zijn. Maar de prijzen zijn te belachelijk voor veel mensen.

Op Nvidia hoop ik niet meer met de AI boom, maar AMD heeft die chips gewoon veel minder. Daar moeten ze nu gewoon echt eens wakker worden en zien wat voor een enorme kans ze gegeven zijn door Nvidia om marktaandeel te veroveren. Ze hebben nota bene juist nu hun MCM GPU's om kosten te besparen. Verder zit N33 op de oude 7nm klasse die inmiddels allang niet meer cutting egde is, dus goedkoper. En N23 kan goed tussen N33 en N32 gepositioneerd worden als goede mainstream optie. :F

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
sunsmountain schreef op vrijdag 9 juni 2023 @ 01:45:
[YouTube: Zen 5 Benchmarks LEAK & RX 7800XT N32 Performance, Release Date & Price]

Navi32 zou volgens RGT lanceren Q3/Q4, voor een RTX 4070 prijs en iets (5%) betere performance, bij ~275W. Kennelijk vindt AMD een dergelijke prijs prima vanwege de 16GB.

Geen refreshes van RX 7000 of RTX 4000, skip generaties dus.
Wat ben ik blij een 6950XT gekocht te hebben.
Ik zou toch zeggen dat dat niet kan kloppen. Als in, ja 16GB geheugen is beter dan 12GB natuurlijk, maar als AMD denkt hetzelfde te kunnen vragen voor 5% betere performance en 40% meer energieverbruik, dan moet iemand ze met een stok op hun hoofd slaan.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@rapture

Ik zie niet gebeuren dat AI een hype is die weer overwaait. Het biedt nu al grote voordelen, terwijl we nog nauwelijks gebruiksvriendelijkere interfaces, platformintegraties en creatieve toepassingen hebben. Die gaan echt wel komen.

Bij vrijwel elke technologie die groot is geworden zie je dat het tijd kost voordat de technologie echt brede toepassing vindt. Zo ging het ook bij computers, ethernet, internet, smartphones, etc.

De kosten van het trainen en gebruik van AI zal vermoedelijk ook sterk omlaag gaan door geoptimaliseerde hardware. En tot nu toe maken de modellen erg grote sprongen in kwaliteit. Bovendien zijn er nog niet veel modellen die echt specifiek getrained zijn voor bepaalde toepassingen. Dus erg goede kans dat de modellen over een paar jaar veel krachtiger zijn dan die van nu en daarmee nog veel meer toepassingen gaan krijgen.

Wat je nu wel ziet is dat de grote partijen (Google, Meta, Amazon, Tesla) naast het massaal inkopen van Nvidia-kaarten ook hard bezig zijn met het ontwikkelen van hun eigen chips. Dat wijst op consensus van de grote partijen dat de technologie van Nvidia niet de toekomst is, maar een tijdelijk opstapje.

Maar ook als Nvidia straks een meer niche leverancier wordt met 'maar' 10-30% marktaandeel, dan nog gaan ze er veel aan verdienen.

Ik denk dat we nu door de goldrush heen moeten waar bedrijven extreem grote aankopen doen, maar ik zie niet snel gebeuren dat er straks teveel hardware is. Ik zie eerder een sterk afnemende vraag bij Google, Meta, Amazon, Tesla zodra ze zelf chips hebben die passen bij hun specifieke wensen, maar dan houden ze vermoedelijk hun Nvidia-systemen, die meer flexibel zijn, voor R&D toepassingen. En dan komen er nog steeds nieuwe partijen die pas later gaan beginnen met AI R&D en toepassingen, vaak op kleinere schaal, waarvoor Nvidia dan nog steeds een goede keuze is.

Ik denk trouwens dat je ook niet moet onderschatten hoe groot de bereidheid is van investeerders om risicovolle investeringen te blijven doen, zeker gezien de massale hoeveelheden geld die centrale banken in de economie hebben gepompt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 09:48
Ik begrijp zijn opmerking wel omdat AI niet voor alles de juiste oplossing zal zijn dus ik denk ook wel dat vele toepassingen niet zo goed als gewenst zullen zijn en er vele projecten stranden.

Maar geen idee hoeveel hardware er dan vrijkomt en voor welke prijs.

Na de mining zou de markt ook overstromen, nou, dat viel best ff tegen en het heeft prijzen dan ook weinig beïnvloed. Nog steeds is de 2e hands markt veel te duur en veel te dicht bij de nieuwprijzen.

Zag van de week nog een jaar oude rx6600 ventus op mp voor 225 terwijl hij nieuw voor 199 te bestellen is..... En zo zijn er veel meer voorbeelden.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@meljor

Maar het is altijd zo dat er bij de introductie van nieuwe technologie ook partijen zijn die falen. Sinclair is dood, Commodore is dood. Motorola is gemarginaliseerd bij de telefoons ook al maakten ze de eerste mobieltjes. Nokia is gestopt met telefoons. Etc.

Als er daarnaast ook grote successen zijn en een groeiende markt dan is er geen sprake van dat er een overschot ontstaat aan hardware. Dan is het eerder zo dat de hardware die tweedehands de markt op komt de groei in vraag wat dempt.

Wat natuurlijk wel kan gebeuren is dat de beleggers veel te optimistisch blijken over de mate waarin er winst gemaakt kan worden met deze technologie en ze massaal besluiten om de investeringen in te perken, zoals gebeurde tijdens de dotcom-crisis. Dan kan het wel gebeuren dat de vraag instort en bedrijven failliet gaan die verlies maken en op leningen draaien. Al komt de AI-boom nu vooral van grote bedrijven die heus niet zomaar gaan instorten als de ROI op AI tegenvalt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +7 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik was de laatste dagen eens wat aan het denken over de GPU markt. En hoe meer ik erover nadenk, hoe meer ik tot de conclusie kom dat ik werkelijk geen flauw benul heb wat ze bij AMD breed aan het doen zijn, niet alleen de RTG...

Ik zie gewoon een bijna unieke kans voor AMD om daadwerkelijk marktaandeel te winnen en jaren van geld uitgeven aan R&D om te zetten in een inhaalslag ten opzichte van Nvidia, door simpelweg N22-gebaseerde GPU's te verkopen (dus RX6700XT/RX6750XT) voor ongeveer $250/€280. Het is een GPU op de oudere 7nm node die ze ook gebruiken voor N22 en N33. VRAM is op het moment ook erg goedkoop en ik kan me voorstellen dat de AIB's dol zijn op deze lage volumes. Want de AIB's zijn de partijen met flink wat lagere marges (waarom EVGA bijvoorbeeld de markt heeft verlaten) en hebben minimale volume nodig om hun bedrijf draaiende te houden. Vooral degenen die hun eigen faciliteiten draaiende moeten houden.

Nvidia kan het ook niks schelen. Die verhullen niet eens meer dat ze proberen om gamers veel meer te laten betalen voor hun nieuwe videokaart.
I shared with you how the 4070 tie is doing relative to prior Gens. And, in fact, the early results from lower down Ada are also very -- are very strong. I mean, we're -- I'm really pleased with the Ada ramp.

Okay. Well, it's a good question. I -- the -- first of all, when we look at -- when I look at mix up or upsell, remember, even in the days of, I'll call it, product shortages throughout the pandemic and work from home and crypto as you mentioned, we didn't really change our GPU pricing. I mean, the way I measured upsell was from my core price now what it ultimately got inflated to in the end market.

And what we've seen today for Ada in this class 699 and up is a $300 to $400 upgrade in mix in the high end. So gamers who are buying our high-end of our Ada are buying from a much lower class of product, which is super exciting for us. Ampere, it wasn't -- it was -- I'll speculate, it was in the $200 to $300 upgrade range. And Turing was probably a bit below that, so we've seen an increasing mix of upgrades over time.

Vivek Arya:
So just to get it right. So what you're saying is that people who upgraded to Ampere on an average bought a card that was $200 more expensive. And now those who are upgrading to Ada are buying something that is $300 or $400 more expensive?

Jeff Fisher:
Right. Relative to what they had.

NVIDIA SVP, Jeff Fisher (Bank of America Global Technology Conference)
Nota bene claimt Nvidia dat 18% maar iets snellers dan een RTX3060 heeft en dus een upgrade nodig heeft. En ze zijn er trots op dat veel meer gamers nu $700+ betalen voor een videokaart.
Afbeeldingslocatie: https://cdn.wccftech.com/wp-content/uploads/2023/06/NVIDIA-GeForce-RTX-40-Gamers-GPUs-_2.png
https://wccftech.com/nvid...jority-still-without-rtx/

Een RX6700XT/RX6750XT zijn zeker iets van 25-35% sneller dan een RTX3060 12GB. En zo ongeveer alles eronder kijk je al snel naar 50% of meer sneller. Los daarvan speelt VRAM capaciteit wat een probleem is geworden.

Verder hebben we allang gezien dat in de hogere segmenten, mensen toch eerder Nvidia kopen. De reden lijkt me ook overduidelijk, RT. Ada is er gewoon beter in en alleen met de high end modellen kan je het goed gebruiken. Als je dan toch zoveel meer betaald voor je videokaart, tja dan moet het wel een Ada zijn met betere RT. En dat is ook logisch. Maar in de lagere segmenten is RT nog steeds vrij zinloos en meer een een non argument. Veel mensen die in dit segment willen upgraden, hebben waarschijnlijk niet eens RT hardware op hun videokaart of het is zo slecht dat het onbruikbaar is. Ze verliezen dus niks met een RX6700XT. Dan kan je nog over DLSS beginnen, maar een 30% snellere videokaart is altijd beter dan DLSS,


Dit is een zeldzame kans voor AMD om meer te zijn dan een tweede leverancier van chips. Ze kunnen nu proberen een ecosysteemleverancier te zijn en in een tijd van nood, de AIB's die door Nvidia in de steek worden gelaten, uit de problemen halen. Daarmee kunnen ze ook beginnen met het opbouwen van een meer fundamentele aanwezigheid in de bredere PC markt en zichzelf onmisbaar maken.

Het zou hen ook ten goede komen omdat AMD ook moeite heeft om voorraden te verkopen. Ik heb deze cijfers uit hun kwartaalcijfers gehaald.
Q4 2021: $1,955
Q1 2022: $2,431
Q2 2022: $2,648
Q3 2022: $3,369
Q4 2022: $3,771
Q1 2023: $4,235
Wat dit zijn is onduidelijk, maar als ik kijk naar hoeveel omzet ze hebben verloren in bepaalde segmenten, vermoed ik dat het een mix is van Ryzen CPU's, APU's, chipset chips en RDNA GPU's. Als je er nu in slaagt om meer GPU's te verkopen, zelfs tegen sterk verlaagde marges, kun je misschien ook iemand verleiden om een van die afgeprijsde Ryzen CPU's te kopen, te combineren met het vrij goedkope RAM op dit moment, een B550 moederbord en die op het moment ook erg goedkope SSD's.

Zo kun je de bal aan het rollen brengen om je eigen voorraden op te ruimen en een bredere marktaanwezigheid te bereiken. Iets wat AMD hard nodig heeft in de GPU markt. Het werkte nota bene ook voor Ryzen. Het hele punt van Ryzen 1000/2000 was dat hun totale platformkosten goedkoper waren en dat ze iets boden aan gamers dat Intel niet bood. Toen waren het goedkope 6c CPUs met SMT, nu kan het VRAM zijn of überhaupt fatsoenlijke midrange videokaarten. Iets waar mensen al jaren op zitten te wachten.

Desnoods verkopen ze N22 chips voor hun kostprijs aan AIB's als ze daarmee ook Ryzen CPU's en moederbord chipsets verkopen. Al gaan ze bovenop N22 videokaarten voor flink wat minder in de winkels krijgen, ook nog eens flinke bundelkortingen opzetten waar je bijvoorbeeld als je een Zen 3 Ryzen CPU + RX6700XT koopt, je €50 extra korting krijgt. Of geef maanden GamePass weg of een bundel met veel meer games waar je bijvoorbeeld mag kiezen welke je wil. Maar zorg dat de boel weer gaat lopen en richt je op de mensen die systemen van voor de corona pandemie hebben en niet konden upgraden.

Dat marktaandeel hebben ze verder ook niet alleen voor gaming, maar ook voor optimalisaties van professionele toepassingen die vaak nog erg op Nvidia gericht zijn. Dat verandert niet als je de kleine tweede speler blijft. Verder mag Intel ARC op het moment dan niet bepaald geweldig zijn, dit is wel iets waar ze mee bezig lijken te zijn. Dit is extra relevant omdat Nvidia ook de professionele markt in de steek laat met hun slechte producten en vaak gebrekkige VRAM capaciteiten. Als je zoiets krachtigs als een RTX4090 nodig hebt, is dat prima, maar niet iedereen heeft dat nodig of kan het zich veroorloven.

Vanuit het oogpunt van gamers zou een RX6700XT van $250 je 12 GB VRAM geven en een behoorlijke prestatieverhoging voor veel mensen met GPU's zoals RTX2060 of GTX1060. Hetzelfde geldt voor mensen met een GTX1660 serie, Polaris etc. Maar vooral de RTX2060 met zijn 6GB VRAM moet op dit moment verschrikkelijk zijn als je een nieuwere game wilt spelen. RX6700XT geeft je 50% betere prestaties en je loopt niet tegen de volgende VRAM bottleneck aan zoals met een 8GB RTX3060Ti.


Maar natuurlijk zitten ze bij AMD maar toe te kijken hoe hun verscheepte GPU's tot bijna niets zijn gedaald. Op deze manier vraag ik me echt af of het huidige management van de Radeon groep, nog wel in de dGPU markt wil zitten? Waarom doen ze al die moeite en investeren ze zoveel geld om zaken als FSR2, FSR3 of zelfs hele nieuwe RDNA generaties hardware te ontwikkelen, als ze niet bereid zijn om hun producten aan een groter deel van de markt te verkopen? Ze volgen nu lijdzaam wat Nvidia doet en gaan er zo dadelijk zelf aan ten onder. Want Nvdia verscheept nog steeds een paar miljoen videokaarten en verleid gamers om er veel meer voor te betalen. AMD verscheept nu al maanden nauwelijks nog wat...

Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/YBg9idSBLqvbN49xV59HFn.png

Heb je ook nog die DerBauer rondleiding onlangs bij Powercolor. Daar liet hij een hele stapel met zakken vol GPU's zien. Dat waren RX6700XT. Die moeten dus of in de voorraad van AMD zitten, of nog gemaakt worden. Maar wie koopt ze of neemt de chips af om er videokaarten van te maken? Duidelijk bijna niemand als je kijkt naar de AIB verschepingscijfers. In plaats daarvan lanceerde AMD de N33 in de vorm van de RX7600. Het resultaat daarvan is dat ze nu met zichzelf en hun oudere RX6600-serie concurreren. En de RX7600 ziet er slecht uit als je hem vergelijkt met een goedkopere RX6650XT of de iets duurdere RX6700XT. Wat is het punt hiervan? Het is dezelfde node als 7nm, het verschil is wel of geen EUV in een paar lagen metaal toepassen. Maak dan gewoon N22 en verscheep iets.

Nvidia heeft de mainstream gaming markt zowat verlaten, dat is overduidelijk. Grijp die dan voor jezelf om je installatiebasis te vergroten, de voordelen in optimalisaties te pakken, R&D kosten te kunnen spreiden over meerdere chips en juist het gegeven dat je CPU + GPU's maakt en verkoopt, uit te buiten nu het ook zo slecht met de client CPU markt gaat. Want als AMD het niet doet, dan doet Intel het dadelijk over een paar jaar wel, als ze ARC op orde krijgen. :F


edit: Dacht ik kijk eens snel in de pricewatch.
En ja hoor, opeens zijn heel wat RTX3060 en RTX3060Ti modellen, een paar dagen na de release van de RTX4060Ti, een stuk in prijs gedaald. Echt AMD, waar zijn jullie toch mee bezig. }:|

edit 2: Oh ja, Nvidia had ook die verschrikkelijke RTX3060 8GB. Maar alsnog lijken er 12GB modellen van ruim €350 naar net iets meer dan €300 te zijn gegaan. En daarmee is de RX7600 meteen DOA. Die is iets van 11% sneller op 1080p en 1440p, maar op 4K is het nog maar 6%.

De RTX3060 heeft alleen wel 12GB VRAM over een 192 bit bus en DLSS2 wat beter werkt op met name upscaling naar 1080p en ook op 1440p. Dus gefeliciteerd AMD, jullie hebben jezelf uitgespeeld. Want het resultaat van jullie nieuw mainstream videokaart is dat jullie nu jezelf beconcurreren met de RX6600XT/RX6650XT/RX7600/RX6700, terwijl Nvidia nu met de RTX3060 12GB het betere product lijkt te hebben. :F

Het is gewoon realiteit dat FSR2 minder goed is als DLSS2 op lagere resoluties waar dit soort videokaarten beter passen. Dus dat moet je neutraliseren in lagere segmenten waar rasterisation prestaties zwaarder tellen. Dat doe je door 30% sneller te zijn voor een vergelijkbaar bedrag. Dan heb je namelijk "DLSS99", ook wel bekend als native resolution. Dan is DLSS een non argument geworden. En de 30% snellere videokaart hier is de RX6700XT.

Afbeeldingslocatie: https://tweakers.net/i/YlV66R19izQH3pko0xAuPjaH57o=/800x/filters:strip_icc():strip_exif()/f/image/DO9Hc7Ec8z2PuCs0RJaseCpR.jpg?f=fotoalbum_large
Afbeeldingslocatie: https://tweakers.net/i/tH9pPvqsVfUAnYzvi55WD0Yg6FM=/800x/filters:strip_icc():strip_exif()/f/image/07Pz9zqtCU59RIRku8EDFGwb.jpg?f=fotoalbum_large
Afbeeldingslocatie: https://tweakers.net/i/XgOxq58fyiD8QD3jwpggQo-RgSg=/800x/filters:strip_icc():strip_exif()/f/image/dTuY8lnEm57VUZ7CjztjGYL4.jpg?f=fotoalbum_large

[ Voor 20% gewijzigd door DaniëlWW2 op 15-06-2023 22:03 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • TRDT
  • Registratie: Januari 2018
  • Laatst online: 12-10 21:49
DaniëlWW2 schreef op zaterdag 10 juni 2023 @ 20:02:
Ik was de laatste dagen eens wat aan het denken over de GPU markt. En hoe meer ik erover nadenk, hoe meer ik tot de conclusie kom dat ik werkelijk geen flauw benul heb wat ze bij AMD breed aan het doen zijn, niet alleen de RTG...

Ik zie gewoon een bijna unieke kans voor AMD om daadwerkelijk marktaandeel te winnen en jaren van geld uitgeven aan R&D om te zetten in een inhaalslag ten opzichte van Nvidia, door simpelweg N22-gebaseerde GPU's te verkopen (dus RX6700XT/RX6750XT) voor ongeveer $250/€280. Het is een GPU op de oudere 7nm node die ze ook gebruiken voor N22 en N33. VRAM is op het moment ook erg goedkoop en ik kan me voorstellen dat de AIB's dol zijn op deze lage volumes. Want de AIB's zijn de partijen met flink wat lagere marges (waarom EVGA bijvoorbeeld de markt heeft verlaten) en hebben minimale volume nodig om hun bedrijf draaiende te houden. Vooral degenen die hun eigen faciliteiten draaiende moeten houden.

Nvidia kan het ook niks schelen. Die verhullen niet eens meer dat ze proberen om gamers veel meer te laten betalen voor hun nieuwe videokaart.

[...]


Nota bene claimt Nvidia dat 18% maar iets snellers dan een RTX3060 heeft en dus een upgrade nodig heeft. En ze zijn er trots op dat veel meer gamers nu $700+ betalen voor een videokaart.
[Afbeelding]
https://wccftech.com/nvid...jority-still-without-rtx/

Een RX6700XT/RX6750XT zijn zeker iets van 25-35% sneller dan een RTX3060 12GB. En zo ongeveer alles eronder kijk je al snel naar 50% of meer sneller. Los daarvan speelt VRAM capaciteit wat een probleem is geworden.

Verder hebben we allang gezien dat in de hogere segmenten, mensen toch eerder Nvidia kopen. De reden lijkt me ook overduidelijk, RT. Ada is er gewoon beter in en alleen met de high end modellen kan je het goed gebruiken. Als je dan toch zoveel meer betaald voor je videokaart, tja dan moet het wel een Ada zijn met betere RT. En dat is ook logisch. Maar in de lagere segmenten is RT nog steeds vrij zinloos en meer een een non argument. Veel mensen die in dit segment willen upgraden, hebben waarschijnlijk niet eens RT hardware op hun videokaart of het is zo slecht dat het onbruikbaar is. Ze verliezen dus niks met een RX6700XT. Dan kan je nog over DLSS beginnen, maar een 30% snellere videokaart is altijd beter dan DLSS,


Dit is een zeldzame kans voor AMD om meer te zijn dan een tweede leverancier van chips. Ze kunnen nu proberen een ecosysteemleverancier te zijn en in een tijd van nood, de AIB's die door Nvidia in de steek worden gelaten, uit de problemen halen. Daarmee kunnen ze ook beginnen met het opbouwen van een meer fundamentele aanwezigheid in de bredere PC markt en zichzelf onmisbaar maken.

Het zou hen ook ten goede komen omdat AMD ook moeite heeft om voorraden te verkopen. Ik heb deze cijfers uit hun kwartaalcijfers gehaald.
Q4 2021: $1,955
Q1 2022: $2,431
Q2 2022: $2,648
Q3 2022: $3,369
Q4 2022: $3,771
Q1 2023: $4,235
Wat dit zijn is onduidelijk, maar als ik kijk naar hoeveel omzet ze hebben verloren in bepaalde segmenten, vermoed ik dat het een mix is van Ryzen CPU's, APU's, chipset chips en RDNA GPU's. Als je er nu in slaagt om meer GPU's te verkopen, zelfs tegen sterk verlaagde marges, kun je misschien ook iemand verleiden om een van die afgeprijsde Ryzen CPU's te kopen, te combineren met het vrij goedkope RAM op dit moment, een B550 moederbord en die op het moment ook erg goedkope SSD's.

Zo kun je de bal aan het rollen brengen om je eigen voorraden op te ruimen en een bredere marktaanwezigheid te bereiken. Iets wat AMD hard nodig heeft in de GPU markt. Het werkte nota bene ook voor Ryzen. Het hele punt van Ryzen 1000/2000 was dat hun totale platformkosten goedkoper waren en dat ze iets boden aan gamers dat Intel niet bood. Toen waren het goedkope 6c CPUs met SMT, nu kan het VRAM zijn of überhaupt fatsoenlijke midrange videokaarten. Iets waar mensen al jaren op zitten te wachten.

Desnoods verkopen ze N22 chips voor hun kostprijs aan AIB's als ze daarmee ook Ryzen CPU's en moederbord chipsets verkopen. Al gaan ze bovenop N22 videokaarten voor flink wat minder in de winkels krijgen, ook nog eens flinke bundelkortingen opzetten waar je bijvoorbeeld als je een Zen 3 Ryzen CPU + RX6700XT koopt, je €50 extra korting krijgt. Of geef maanden GamePass weg of een bundel met veel meer games waar je bijvoorbeeld mag kiezen welke je wil. Maar zorg dat de boel weer gaat lopen en richt je op de mensen die systemen van voor de corona pandemie hebben en niet konden upgraden.

Dat marktaandeel hebben ze verder ook niet alleen voor gaming, maar ook voor optimalisaties van professionele toepassingen die vaak nog erg op Nvidia gericht zijn. Dat verandert niet als je de kleine tweede speler blijft. Verder mag Intel ARC op het moment dan niet bepaald geweldig zijn, dit is wel iets waar ze mee bezig lijken te zijn. Dit is extra relevant omdat Nvidia ook de professionele markt in de steek laat met hun slechte producten en vaak gebrekkige VRAM capaciteiten. Als je zoiets krachtigs als een RTX4090 nodig hebt, is dat prima, maar niet iedereen heeft dat nodig of kan het zich veroorloven.

Vanuit het oogpunt van gamers zou een RX6700XT van $250 je 12 GB VRAM geven en een behoorlijke prestatieverhoging voor veel mensen met GPU's zoals RTX2060 of GTX1060. Hetzelfde geldt voor mensen met een GTX1660 serie, Polaris etc. Maar vooral de RTX2060 met zijn 6GB VRAM moet op dit moment verschrikkelijk zijn als je een nieuwere game wilt spelen. RX6700XT geeft je 50% betere prestaties en je loopt niet tegen de volgende VRAM bottleneck aan zoals met een 8GB RTX3060Ti.


Maar natuurlijk zitten ze bij AMD maar toe te kijken hoe hun verscheepte GPU's tot bijna niets zijn gedaald. Op deze manier vraag ik me echt af of het huidige management van de Radeon groep, nog wel in de dGPU markt wil zitten? Waarom doen ze al die moeite en investeren ze zoveel geld om zaken als FSR2, FSR3 of zelfs hele nieuwe RDNA generaties hardware te ontwikkelen, als ze niet bereid zijn om hun producten aan een groter deel van de markt te verkopen? Ze volgen nu lijdzaam wat Nvidia doet en gaan er zo dadelijk zelf aan ten onder. Want Nvdia verscheept nog steeds een paar miljoen videokaarten en verleid gamers om er veel meer voor te betalen. AMD verscheept nu al maanden nauwelijks nog wat...

[Afbeelding]

Heb je ook nog die DerBauer rondleiding onlangs bij Powercolor. Daar liet hij een hele stapel met zakken vol GPU's zien. Dat waren RX6700XT. Die moeten dus of in de voorraad van AMD zitten, of nog gemaakt worden. Maar wie koopt ze of neemt de chips af om er videokaarten van te maken? Duidelijk bijna niemand als je kijkt naar de AIB verschepingscijfers. In plaats daarvan lanceerde AMD de N33 in de vorm van de RX7600. Het resultaat daarvan is dat ze nu met zichzelf en hun oudere RX6600-serie concurreren. En de RX7600 ziet er slecht uit als je hem vergelijkt met een goedkopere RX6650XT of de iets duurdere RX6700XT. Wat is het punt hiervan? Het is dezelfde node als 7nm, het verschil is wel of geen EUV in een paar lagen metaal toepassen. Maak dan gewoon N22 en verscheep iets.

Nvidia heeft de mainstream gaming markt zowat verlaten, dat is overduidelijk. Grijp die dan voor jezelf om je installatiebasis te vergroten, de voordelen in optimalisaties te pakken, R&D kosten te kunnen spreiden over meerdere chips en juist het gegeven dat je CPU + GPU's maakt en verkoopt, uit te buiten nu het ook zo slecht met de client CPU markt gaat. Want als AMD het niet doet, dan doet Intel het dadelijk over een paar jaar wel, als ze ARC op orde krijgen. :F


edit: Dacht ik kijk eens snel in de pricewatch.
En ja hoor, opeens zijn heel wat RTX3060 en RTX3060Ti modellen, een paar dagen na de release van de RTX4060Ti, een stuk in prijs gedaald. Echt AMD, waar zijn jullie toch mee bezig. }:|
Er worden wel degelijk nog (in redelijke hoeveelheden lijkt het). De grootste Europese distributeur van ASUS heeft nog enkele duizenden RX6600/6650XT/6700XT/6750XT kaarten liggen. ASUS heeft van de RX6600 en RX6650XT onlangs zelf nog een V2 versie uitgebracht (wat de verschillen zijn, geen idee).

Als AMD in één klap de prijzen fors verlaagd van alle kaarten, levert dat problemen op in het distributiekanaal. Er zullen immers al kaarten verkocht zijn aan AIB's (voor de oude, hoge prijzen), distributeurs/retailers, die nog niet bij de eindgebruiker zijn. Als de verkoopprijzen vervolgens verlaagd worden, moeten de kaarten die al in omloop, maar nog niet bij de consument, zijn met fors verlies worden verkocht. Daarom is een geleidelijke prijsdaling logischer.

Verder volledig eens met je verhaal. Al kost de ASUS RX 6750 XT Dual na cashback en coupon in Duitsland nog maar €345 (helaas niet voor Nederland).

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

TRDT schreef op zaterdag 10 juni 2023 @ 21:54:
[...]


Er worden wel degelijk nog (in redelijke hoeveelheden lijkt het). De grootste Europese distributeur van ASUS heeft nog enkele duizenden RX6600/6650XT/6700XT/6750XT kaarten liggen. ASUS heeft van de RX6600 en RX6650XT onlangs zelf nog een V2 versie uitgebracht (wat de verschillen zijn, geen idee).

Als AMD in één klap de prijzen fors verlaagd van alle kaarten, levert dat problemen op in het distributiekanaal. Er zullen immers al kaarten verkocht zijn aan AIB's (voor de oude, hoge prijzen), distributeurs/retailers, die nog niet bij de eindgebruiker zijn. Als de verkoopprijzen vervolgens verlaagd worden, moeten de kaarten die al in omloop, maar nog niet bij de consument, zijn met fors verlies worden verkocht. Daarom is een geleidelijke prijsdaling logischer.

Verder volledig eens met je verhaal. Al kost de ASUS RX 6750 XT Dual na cashback en coupon in Duitsland nog maar €345 (helaas niet voor Nederland).
We zien die scherpe, plotselinge prijsdalingen nu alleen al een jaar gebeuren. De tussenhandelaren zullen dus vergoeding vanuit AMD of Nvidia krijgen voor hun bestaande inventaris. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • TRDT
  • Registratie: Januari 2018
  • Laatst online: 12-10 21:49
DaniëlWW2 schreef op zaterdag 10 juni 2023 @ 21:57:
[...]


We zien die scherpe, plotselinge prijsdalingen nu alleen al een jaar gebeuren. De tussenhandelaren zullen dus vergoeding vanuit AMD of Nvidia krijgen voor hun bestaande inventaris. :)
Ik vind het nog relatief geleidelijk gaan eerlijk gezegd (soms niet, dat is zeker waar). Of zo'n vergoeding nodig is hangt natuurlijk ook af van de gemiddelde doorlooptijd van de voorraad.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sapphire komt met een nieuwe RX6750XT. Dual bios, twee 8 pin, de ventilatoren in sockets en heatsink lijkt ook niet klein. Dus het lijkt eerder gericht op de vervanging van de Nitro+ dan de Pulse.

Verder hoop ik gewoon echt dat N22 nog twee jaar beschikbaar blijft, als de prijzen nu echt eens verder verlaagd worden. Want met hoe miserabel deze hele generatie tot dusver is, is dit zowat de beste nog ietwat betaalbare videokaart die niet half kreupel je systeem in gaat door een gebrek aan VRAM. }:| :')
Afbeeldingslocatie: https://cdn.videocardz.com/1/2023/06/SAPPHIRE-Radeon-RX-6750-XT-12GB-2.jpg
Afbeeldingslocatie: https://cdn.videocardz.com/1/2023/06/SAPPHIRE-RX6750XT-1-e1686565186183.jpg
https://videocardz.com/ne...graphics-card-with-3-fans

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

N32 bestaat. :D
Afbeeldingslocatie: https://tweakers.net/i/LQnvMumK7-6R_Qp3NFSznzsd2SI=/656x/filters:strip_icc():strip_exif()/i/2005829764.jpeg?f=imagenormal
nieuws: Beelden van AMD's Navi 32-gpu voor mogelijk RX 7800 duiken op in vide...

Maar precies zoals verwacht circa 200mm2, 4 MCD's dus 64MB L3 cache en een 256 bit bus.
Nu AMD, kunnen jullie de chip nu eindelijk uitbrengen? :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Die komt een maand voordat N4x uitkomt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 03:58
En voor een prijs < €400..

Wel echt een geval weer van 'too little too late'.
Het zal mij ook benieuwen wat nu echt de prestaties gaan zijn, want een 7900XTX begrenst op het vermogensbudget van een RX6900XT, presteert globaal maar 25% beter. De RX7900XT is globaal maar 20% sneller.

Ik vermoed dat de 'RX7800' net zo'n geval gaat worden als de RX7600. Marginaal beter dan een RX6800XT met iets minder verbruik. Hopelijk geven ze het min. 16GB ram, want anders is het ook ten doodde opgeschreven.
Met Diablo 4 wordt de 16GB bijna volledig benut op 3440x1440, max settings.

Wat heb ik toch een geluk gehad de laatste 6 jaar door gouden beslissingen te maken wat GPU keuze betreft.
Eerst een 1080Ti aangeschaft vlak voor de GPU crypto ellende en daarna met veel hulp via dit forum een RX6900XT weten te bemachtigen (voor toen een 'goede' prijs).

Acties:
  • 0 Henk 'm!

  • dragonlords1
  • Registratie: Augustus 2007
  • Laatst online: 10-10 23:22
CMT schreef op dinsdag 13 juni 2023 @ 17:58:
En voor een prijs < €400..

Wel echt een geval weer van 'too little too late'.
Het zal mij ook benieuwen wat nu echt de prestaties gaan zijn, want een 7900XTX begrenst op het vermogensbudget van een RX6900XT, presteert globaal maar 25% beter. De RX7900XT is globaal maar 20% sneller.
Dat mag ook wel zeker als ze 20% meer compute units in de 79000XTX proppen en deze dan ook nog eens hoger klokken.
Ik vermoed dat de 'RX7800' net zo'n geval gaat worden als de RX7600. Marginaal beter dan een RX6800XT met iets minder verbruik. Hopelijk geven ze het min. 16GB ram, want anders is het ook ten doodde opgeschreven.
Met Diablo 4 wordt de 16GB bijna volledig benut op 3440x1440, max settings.
Ik verwacht ook niet dat de prestaties echt beter zullen zijn. Dat is bij de 7600, 7900 XT en 7900 XTX ook niet het geval als je vergelijkt met kaarten met dezelfde hoeveelheid compute unit of de CU terug rekent. Het verbruik kan wel beter zijn.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

CMT schreef op dinsdag 13 juni 2023 @ 17:58:
En voor een prijs < €400..

Wel echt een geval weer van 'too little too late'.
Het zal mij ook benieuwen wat nu echt de prestaties gaan zijn, want een 7900XTX begrenst op het vermogensbudget van een RX6900XT, presteert globaal maar 25% beter. De RX7900XT is globaal maar 20% sneller.

Ik vermoed dat de 'RX7800' net zo'n geval gaat worden als de RX7600. Marginaal beter dan een RX6800XT met iets minder verbruik. Hopelijk geven ze het min. 16GB ram, want anders is het ook ten doodde opgeschreven.
Met Diablo 4 wordt de 16GB bijna volledig benut op 3440x1440, max settings.
Ik weet niet of ik het te laat zou noemen. Laat zeker, maar ik weet niet of het te laat is.
N32 komt tegenover AD104 te staan en ik denk dat weinig mensen (buiten Jensen Huang) de RTX4070 of RTX4070Ti nu zullen beschrijven als succesvolle producten die met veel enthousiasme zijn ontvangen en goed verkopen. :z

Uiteindelijk denk ik dat N32 met 60CU @2800MHz+/16GB @20Gbps, best de RX6900XT behoorlijk kan benaderen of matchen. De vraag is prijs en naamgeving. Ik vermoed dat ze 30% voor dezelfde tier gaan doen. Dan kan je best wel eens RX7700XTX en RX7700XT gaan krijgen. XTX is dan 60CU/16GB en XT is vermoed ik, helaas 48CU/12GB. Ik zou 16GB zo graag hopen omdat dit het product zoveel beter zou maken, maar ik reken er niet op.


Maar ik wil hier eigenlijk gewoon 50% perf voor hetzelfde geld zien zoals de RX7900XTX wel levert. Dat is dus RX6700XT + 50% = RX7700XT 16GB, bijna RX6900XT prestatieniveau en qua prijs kan je dan tot $480 gaan. Maar $450 zou denk ik redelijk zijn, omgerekend ongeveer €500. Cut down als RX7700. Ideaal gezien ook met 16GB (maar ik vermoed 192 bit/12GB) en presterende tussen de RX6800 en RX6800XT. Want dan benader je tenminste 50% sneller dan de RX6700. Prijs, tja ongeveer $370/€415 is verdedigbaar. Uiteindelijk zet ik deze prijzen ook een beetje af tegen de RX5700 series waar dit geaccepteerd werd. Niet ideaal, maar het kan zoveel slechter.

N31 moet denk ik, eigenlijk gedeeltelijk opnieuw gelanceerd worden. De RX7900XT moet eigenlijk gewoon "uitgewist" worden en vervangen zoals Nvidia de RTX2070 liet verdwijnen voor de RTX2060S die min of meer hetzelfde presteerde. Gewoon de RX7900XT configuratie pakken, clock speeds paar procent verlagen en tegen de AIB's zeggen dat ze alleen de 9 hoeven te vervangen voor een 8 op de doos, videokaart en stickers en verder niks qua clock speeds aanpassen. Daar is dan je RX7800XT, nu niemand al te hard roepen wat AMD heeft gedaan en de bijbehorende prijsverlaging (max €700, liefst minder) incasseren. :P

Er is ook een 70CU/16GB N31 variant in de professionele markt. Daar kan je de RX7800 van maken die je als 30% sneller dan de RX6800, dus RX6950XT niveau positioneert. Vervolgens de RX6700XT/RX6750XT rond de €300 blijven verkopen want 12GB VRAM en de RX7600 naar de €200 zodra N23 redelijk uitverkocht is. Nu vooral doen alsof de RX7600 niet bestaat en niet leveren in al te grote hoeveelheden aan de markt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@DaniëlWW2

Eigenlijk verwacht ik niet zoveel van wat jij graag wilt zien. Ik denk dat dit voor de meeste mensen een generatie wordt om te skippen en dat we eind 2024 misschien weer wat leuks gaan zien.

Ik voorzie voor deze generatie zeer langzame prijsdalingen die hoogstens pas eind 2024 een beetje worden wat je zou willen zien.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
CMT schreef op dinsdag 13 juni 2023 @ 17:58:
En voor een prijs < €400..

Wel echt een geval weer van 'too little too late'.
Het zal mij ook benieuwen wat nu echt de prestaties gaan zijn, want een 7900XTX begrenst op het vermogensbudget van een RX6900XT, presteert globaal maar 25% beter. De RX7900XT is globaal maar 20% sneller.

Ik vermoed dat de 'RX7800' net zo'n geval gaat worden als de RX7600. Marginaal beter dan een RX6800XT met iets minder verbruik. Hopelijk geven ze het min. 16GB ram, want anders is het ook ten doodde opgeschreven.
Met Diablo 4 wordt de 16GB bijna volledig benut op 3440x1440, max settings.

Wat heb ik toch een geluk gehad de laatste 6 jaar door gouden beslissingen te maken wat GPU keuze betreft.
Eerst een 1080Ti aangeschaft vlak voor de GPU crypto ellende en daarna met veel hulp via dit forum een RX6900XT weten te bemachtigen (voor toen een 'goede' prijs).
€400 is helaas wishful thinking, of zijn er betrouwbare prijs geruchten? (bestaat dat ueberhaupt)

Nog geen spijt van €649 voor RX6950XT, maar zou dat bij €399 voor 7800XT wel hebben... ook al moest ik upgraden.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 03:58
DaniëlWW2 schreef op dinsdag 13 juni 2023 @ 20:54:
[...]


Ik weet niet of ik het te laat zou noemen. Laat zeker, maar ik weet niet of het te laat is.
N32 komt tegenover AD104 te staan en ik denk dat weinig mensen (buiten Jensen Huang) de RTX4070 of RTX4070Ti nu zullen beschrijven als succesvolle producten die met veel enthousiasme zijn ontvangen en goed verkopen. :z

Uiteindelijk denk ik dat N32 met 60CU @2800MHz+/16GB @20Gbps, best de RX6900XT behoorlijk kan benaderen of matchen. De vraag is prijs en naamgeving. Ik vermoed dat ze 30% voor dezelfde tier gaan doen. Dan kan je best wel eens RX7700XTX en RX7700XT gaan krijgen. XTX is dan 60CU/16GB en XT is vermoed ik, helaas 48CU/12GB. Ik zou 16GB zo graag hopen omdat dit het product zoveel beter zou maken, maar ik reken er niet op.
Nou ja, te laat voor mij persoonlijk in ieder geval. Het is inmiddels 2.5 jaar geleden dat de RX6900XT / RX6800XT (ik weet even niet meer of de RX6800 ook tegelijkertijd beschikbaar kwam) zijn gelanceerd.
Ik had gehoopt dat een midrange binnen een half jaar na de launch van de topmodellen, wel op de markt verschenen zou zijn.
De zomer is meestal geen goed moment voor de winkeliers omdat velen geld gereserveerd hebben voor de vakantie en evt. andere dingen zoals verbouwing/onderhoud aan het huis.
Voor mij is de reden dat ik reeds een jaartje bezig ben om een leuk ITX powerhouse systeem voor mijn zus bij elkaar te sprokkelen, 'aasend' op goede aanbiedingen. Zodoende eerst de kast aangeschaft, daarna de PSU en SSD's, DDR5 werkgeheugen, en onlangs een 7800X3D met moederbord.

Aangezien de performance/watt en performance/euro zo teleurstellend was en niet duidelijk was of er een 7800 serie überhaupt zou komen, heb ik gelijk de slag geslagen toen de reference RX6950XT in de aanbieding kwam voor €790 - €650 omstreeks maart/mei.
Daarvan weet ik dat het een zeer goede kaart is qua bouwkwaliteit en prestaties (en zeer zuinig af te stellen m.b.t. Morepowertools), los van de QC problemen.
Over de recente vram problemen nog niet gesproken, 16GB is gewoon minimum geworden voor de komende jaren op 3440x1440.

Zowel Nvidia als AMD verkondigen dat de verkoop van de topmodellen een succes is, maar ik geloof er echt geen zak van..de kwartaalcijfers die je eerder gepost had laten een heel ander deprimerend beeld zien en doet denken aan een flinke recessie van de economie.
Maar ik wil hier eigenlijk gewoon 50% perf voor hetzelfde geld zien zoals de RX7900XTX wel levert. Dat is dus RX6700XT + 50% = RX7700XT 16GB, bijna RX6900XT prestatieniveau en qua prijs kan je dan tot $480 gaan. Maar $450 zou denk ik redelijk zijn, omgerekend ongeveer €500. Cut down als RX7700. Ideaal gezien ook met 16GB (maar ik vermoed 192 bit/12GB) en presterende tussen de RX6800 en RX6800XT. Want dan benader je tenminste 50% sneller dan de RX6700. Prijs, tja ongeveer $370/€415 is verdedigbaar. Uiteindelijk zet ik deze prijzen ook een beetje af tegen de RX5700 series waar dit geaccepteerd werd. Niet ideaal, maar het kan zoveel slechter.

N31 moet denk ik, eigenlijk gedeeltelijk opnieuw gelanceerd worden. De RX7900XT moet eigenlijk gewoon "uitgewist" worden en vervangen zoals Nvidia de RTX2070 liet verdwijnen voor de RTX2060S die min of meer hetzelfde presteerde. Gewoon de RX7900XT configuratie pakken, clock speeds paar procent verlagen en tegen de AIB's zeggen dat ze alleen de 9 hoeven te vervangen voor een 8 op de doos, videokaart en stickers en verder niks qua clock speeds aanpassen. Daar is dan je RX7800XT, nu niemand al te hard roepen wat AMD heeft gedaan en de bijbehorende prijsverlaging (max €700, liefst minder) incasseren. :P

Er is ook een 70CU/16GB N31 variant in de professionele markt. Daar kan je de RX7800 van maken die je als 30% sneller dan de RX6800, dus RX6950XT niveau positioneert. Vervolgens de RX6700XT/RX6750XT rond de €300 blijven verkopen want 12GB VRAM en de RX7600 naar de €200 zodra N23 redelijk uitverkocht is. Nu vooral doen alsof de RX7600 niet bestaat en niet leveren in al te grote hoeveelheden aan de markt.
Ik zou dat ook heel graag willen zien, maar verwacht het niet (al helemaal niet wanneer genormaliseerd wordt op performance/watt).
Maar de 7900XTX deed globaal gezien in de praktijk ook niet meer dan +45% t.o.v. een RX6900XT? Met uitschieters naar 70 % in games waar het wel goed werkte.
Neem je de RX6950XT als referentie, dan blijft daar <40% van over op 4k. Op 1440p is de winst een stuk minder (deels door een cpu bottleneck vermoed ik). Alleen met zeer veel vermogen is de +50% haalbaar (7900XTX nitro)

Igor, iemand die normaal gesproken niet van speculatie houdt, heeft tegen zijn aard in een 'sim' gedaan van wat de RX7800XT ongeveer moet gaan doen:
https://www.igorslab.de/e...view-as-radeon-pro-w7800/
Dat zou iets beter zijn dan mijn eigen verwachting en mocht het werkelijk zo uitpakken, dan kan de 7800XT best een succes worden. Mits de prijs rond €500 of lager blijft.
De W7800 is best een mooie blowerkaart trouwens :).


sunsmountain schreef op donderdag 15 juni 2023 @ 18:00:
[...]

€400 is helaas wishful thinking, of zijn er betrouwbare prijs geruchten? (bestaat dat ueberhaupt)

Nog geen spijt van €649 voor RX6950XT, maar zou dat bij €399 voor 7800XT wel hebben... ook al moest ik upgraden.
De <€400 is uiteraard een wensgedachte :'( . Ik weet ook wel dat het niet realistisch is gezien de tendens van de GPU marktprijzen.
Als ik dan reacties van mensen zie die €1100 voor een RX7900XTX of RTX4080 een goede prijs of zelfs koopje vinden, dan vraag ik mij echt af of ze niet door hebben dat ze geconditioneerd zijn met jarenlang te hoge prijzen/marges.

Ik heb trouwens ook gelijk de slag geslagen toen de reference RX6950XT in de aanbieding kwam, eerst voor €790 en uiteindelijk na een retour en afwachten voor €650. Dat was dan ook met de Last of Us 1 game.
Ongeacht voor welke prijs de 7800XT verschijnt vind ik het geen miskoop, want toen was nog helemaal niet duidelijk of er ooit een 7800 series zou verschijnen.
Maar mocht blijken dat de 7800XT op hetzelfde niveau presteert met 70W minder vermogen en hopelijk een stuk minder coilwhine, dan overweeg ik het echt om deze nog aan te schaffen (dat zou toch een hoop warmte en geluid besparen in een ITX build).

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

CMT schreef op donderdag 15 juni 2023 @ 22:04:
[...]


Nou ja, te laat voor mij persoonlijk in ieder geval. Het is inmiddels 2.5 jaar geleden dat de RX6900XT / RX6800XT (ik weet even niet meer of de RX6800 ook tegelijkertijd beschikbaar kwam) zijn gelanceerd.
Ik had gehoopt dat een midrange binnen een half jaar na de launch van de topmodellen, wel op de markt verschenen zou zijn.
De zomer is meestal geen goed moment voor de winkeliers omdat velen geld gereserveerd hebben voor de vakantie en evt. andere dingen zoals verbouwing/onderhoud aan het huis.
Voor mij is de reden dat ik reeds een jaartje bezig ben om een leuk ITX powerhouse systeem voor mijn zus bij elkaar te sprokkelen, 'aasend' op goede aanbiedingen. Zodoende eerst de kast aangeschaft, daarna de PSU en SSD's, DDR5 werkgeheugen, en onlangs een 7800X3D met moederbord.

Aangezien de performance/watt en performance/euro zo teleurstellend was en niet duidelijk was of er een 7800 serie überhaupt zou komen, heb ik gelijk de slag geslagen toen de reference RX6950XT in de aanbieding kwam voor €790 - €650 omstreeks maart/mei.
Daarvan weet ik dat het een zeer goede kaart is qua bouwkwaliteit en prestaties (en zeer zuinig af te stellen m.b.t. Morepowertools), los van de QC problemen.
Over de recente vram problemen nog niet gesproken, 16GB is gewoon minimum geworden voor de komende jaren op 3440x1440.

Zowel Nvidia als AMD verkondigen dat de verkoop van de topmodellen een succes is, maar ik geloof er echt geen zak van..de kwartaalcijfers die je eerder gepost had laten een heel ander deprimerend beeld zien en doet denken aan een flinke recessie van de economie.
Ik geloof er zeker bij AMD niks van dat de verkoop van RDNA3 zo goed gaat. ;)
Bij Nvidia wil ik best wel geloven dat ze aardig wat Ada verschepen. Maar niet aan gamers. Nee, zeker AD102 en in mindere mate AD103 en AD104 gaan naar professionele klanten. De grote hyperscalers kopen waarschijnlijk nu allemaal partijen A100 of H100. Maar de open source AI ontwikkeling, tja die werken waarschijnlijk eerder met AD102. Zelfs als je verder nauwelijks gebruik maakt van Nvidia haar CUDA ecosysteem, is de hardware nog steeds een stuk beter dan die van RDNA3.

AMD kan nu wel pretenderen dat ze een goed alternatief hiervoor bieden, maar dat doen ze niet. MI300 is een monster, maar beter toepasbaar in andere velden van AI dan neural networks. Denk aan weer en klimaatsimulaties, chemie, biologisch onderzoek voor bijvoorbeeld medicijnontwikkeling of geavanceerde materieelontwikkeling. Verder is er waarschijnlijk ook de eis dat je erg goede programmeurs nodig hebt omdat je meer zelf zal moeten maken. En die heeft niet iedereen.

En dat is uiteindelijk mijn punt ook. AMD heeft N31 in de markt gezet als een ietwat goedkoper alternatief voor Nvidia, maar het kan Nvidia alsmede veel gamers waarschijnlijk niet veel schelen. Het kan veel mensen die wel een AMD videokaart willen kopen, voor deze prijzen ook weinig interesseren. En het resultaat is dat AMD nauwelijks nog chips lijkt te kunnen verkopen. Wat verkoopt zijn de afgeprijsde producten. Daarnaast lijken er ook aardig wat XSX en PS5 APU's te worden verkocht, maar ik kan me niet voorstellen dat ze hier echt geweldige marges op hebben.

N33 is ergens gewoon bizar. Het is een iets snellere N23 die je naast N23 probeert te verkopen. Verkoop dan eerst alle N22 chips. En als ze niet verkopen, dan moet de prijs nog lager. Maar in ieder geval verlaagde AMD de prijs op het laatste moment nog van $299 naar $269. Maar ergens is dat ook niet bepaald geruststellend omdat het besef dat die nooit voor $299 zou verkopen, niet aanwezig lijkt te zijn geweest bij AMD.

En dan N32. Tja als ze "per ongeluk" die chip gewoon laten zien, dan denk ik dat die allang klaar is. Kwestie van tijd voordat die komt. Zodra N21 echt uitverkocht is, een punt dat we langzaam lijken te bereiken als ik naar de beschikbaarheid kijk, dan gaat N32 komen. Wat AMD ermee gaat doen? Geen idee. Er kan realiteitszin doordringen dat die chip echt niet duurder is dan N21 om te maken en ook makkelijk goedkoper verkocht kan worden, iets dat ook wel zal moeten als ze iets willen verkopen. Maar ze kunnen ook proberen er veel te veel voor te vragen, hun review cyclus wederom te verknallen en later de prijs weer te laten zakken. Het is de RTG. Ik heb werkelijk geen flauw benul wat ze nu weer gaan doen. :z


edit:
Wat me alleen wel dwars zit is het gat dat AMD moet overbruggen. De RX7900XTX is op 1080p, 203% sneller, op 1440p is het 220% en op 4K is het 245% (HWU gemiddelden)

Ze kunnen er een N31 gebaseerde "RX7800" tussen zetten. 4480 x 2 x 2600MHz = 23,3TFLOPS. Met sneller geheugen kom je dan waarschijnlijk boven de RX6900XT. Zit je rond de 30% sneller dan de RX6800, waardoor ik RX7800 eerder verwacht. Want AMD zit steeds te zoeken naar die 30% deze generatie. Die overige 20% die we verwachten, tja die zou uit VOPD moeten komen. Buiten CoD MWII heb je daar nu niet veel aan. :z

Zet N32 ook op 2600MHz zoals elke andere chip en dan kijk je naar 20TFLOPS en ongeveer RX6800XT prestatieniveau. En dan moet je met de andere N32 SKU, de cut down, een prestatieverschil van circa 50% tussen de RX7600 en RX6800XT gaan vullen. Precies in het midden zit de RTX4060Ti die AMD dan totaal kan vernietigen. :P

Qua prijzen is het alleen nogal wat om via drie SKU's van de €900 kostende RX7900XT naar de €300 kostende RX7600 te gaan. En als die "RX7800" er niet komt, dan helemaal.
[...]

Ik zou dat ook heel graag willen zien, maar verwacht het niet (al helemaal niet wanneer genormaliseerd wordt op performance/watt).
Maar de 7900XTX deed globaal gezien in de praktijk ook niet meer dan +45% t.o.v. een RX6900XT? Met uitschieters naar 70 % in games waar het wel goed werkte.
Neem je de RX6950XT als referentie, dan blijft daar <40% van over op 4k. Op 1440p is de winst een stuk minder (deels door een cpu bottleneck vermoed ik). Alleen met zeer veel vermogen is de +50% haalbaar (7900XTX nitro)
Bij HWU kwamen ze op bijna 49% op 4K. Dat noem ik ongeveer 50%.
1440p was 35%. Maar de RX6950XT komt dichterbij ja en dan is het nog 35% sneller voor de RX7900XTX op 4 en 25% op 1440p.
Igor, iemand die normaal gesproken niet van speculatie houdt, heeft tegen zijn aard in een 'sim' gedaan van wat de RX7800XT ongeveer moet gaan doen:
https://www.igorslab.de/e...view-as-radeon-pro-w7800/
Dat zou iets beter zijn dan mijn eigen verwachting en mocht het werkelijk zo uitpakken, dan kan de 7800XT best een succes worden. Mits de prijs rond €500 of lager blijft.
De W7800 is best een mooie blowerkaart trouwens :).
Volgens mij speculeert Igor de laatste tijd wel meer. Iets met 12VHPWR. ;)
Maar geen idee of AMD die 70CU configuratie gaat lanceren voor gaming.


Edit 2:
Alsjeblieft niet zeg AMD. Haal het niet in je hoofd om de volle N32 de RX7800XT te noemen. Laat het dan alsjeblieft die 70CU N31 zijn. }:| :/
Afbeeldingslocatie: https://cdn.videocardz.com/1/2023/06/ASROCK-RX7800XT.png
https://videocardz.com/ne...-16gb-vram-spotted-at-eec

[ Voor 12% gewijzigd door DaniëlWW2 op 16-06-2023 18:30 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En daar hebben we dan eindelijk een UE5 game met Lumen in actie. :)
Game lijkt een lichte Nvidia bias te hebben zonder hardwarematige RT aan, maar met hardware RT aan, is het relatieve prestatieverlies van een RDNA3 videokaart tegen haar Ada tegenhanger, een paar procent.

N21 vs. RTX4070 is ook leuk. Want de RX6950XT blijft de RTX4070 zelfs met hardware RT nog net voor op 4K en 1440p. Op 1080p komt de RTX4070 er pas voorbij. RX6800XT hangt er een beetje achter zoals te verwachten valt.

RX6700XT vs. RTX4060Ti vs. A770 wint de RTX4060Ti wel vrij gemakkelijk, zeker naarmate de resolutie afneemt en de RTX4060Ti niet meteen tegen die 128 bit bus aan lijkt te lopen. RX6700XT volgt en de A770 licht nog wat achter.



Het is precies zoals ik had gehoopt en een beetje verwacht. Want met dit soort Lumen implementaties heb je echt serieuze lichteffecten en kan je dan misschien echt eens RT gebruiken omdat je niet vast zit aan Nvidia RTX implementaties die vaak alleen maar werken met high end. videokaarten en upscaling. Want upscaling staat hier ook uit en zelfs een RX7600 kan op 1080p nog makkelijk meer dan 60fps halen met hardware RT aan.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12-10 13:29
Ik moest echt heel goed kijken en de video pauzeren om überhaupt enig verschil te zien tussen RT aan en RT uit op de 4090 (op de FPS na dan), en dan nog is het alleen zichtbaar omdat het side by side is. In een blinde test (no pun intended) zou ik absoluut niet in staat zijn om te zeggen dat de RT lighting "beter" is (ten opzichte van "anders"), en waarschijnlijk zou ik RT aan vs. RT uit waarschijnlijk niet eens betrouwbaar kunnen onderscheiden tenzij ik van tevoren verteld was waar ik precies op moest letten. Dat kan natuurlijk zijn omdat Lumen zo fantastisch is of Layers of Fear gewoon niet zo interessant, maar linksom of rechtsom zou ik voor dit spel nul interesse hebben in RT aan omdat je perf inlevert voor schijnbaar niets.

Best case zou natuurlijk zijn als er dankzij Lumen dan wel spellen komen waarbij het verschil zichtbaar is en de perf drop beperkt, maar of dat dan zo is is de vraag. Misschien iets meer spiegels en half doorzichtige oppervlakken toevoegen; Layers of Fear in een spiegelpaleis is vast anders. :+

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

MneoreJ schreef op maandag 19 juni 2023 @ 19:00:
Ik moest echt heel goed kijken en de video pauzeren om überhaupt enig verschil te zien tussen RT aan en RT uit op de 4090 (op de FPS na dan), en dan nog is het alleen zichtbaar omdat het side by side is. In een blinde test (no pun intended) zou ik absoluut niet in staat zijn om te zeggen dat de RT lighting "beter" is (ten opzichte van "anders"), en waarschijnlijk zou ik RT aan vs. RT uit waarschijnlijk niet eens betrouwbaar kunnen onderscheiden tenzij ik van tevoren verteld was waar ik precies op moest letten. Dat kan natuurlijk zijn omdat Lumen zo fantastisch is of Layers of Fear gewoon niet zo interessant, maar linksom of rechtsom zou ik voor dit spel nul interesse hebben in RT aan omdat je perf inlevert voor schijnbaar niets.

Best case zou natuurlijk zijn als er dankzij Lumen dan wel spellen komen waarbij het verschil zichtbaar is en de perf drop beperkt, maar of dat dan zo is is de vraag. Misschien iets meer spiegels en half doorzichtige oppervlakken toevoegen; Layers of Fear in een spiegelpaleis is vast anders. :+
Beiden zijn RT, dat is het punt juist. Je zet RT niet uit, je zet hardware based RT aan of uit. :)
Lumen ondersteund zowel software als hardware based RT en laat developers kiezen. Het hele punt hiervan is dat je heel ver kan komen met software based RT en de hele BvH + ray casting + denoising cyclus zeker niet altijd nodig hebt.

Hardware based RT is preciezer, maar die precisie is gewoon niet overal nodig. Ik weet niet of je RDR2 hebt gespeeld? Maar die game haar ray marching in St. Dennis was wel echt indrukwekkend. Ander voorbeeld zijn de reflecties in een spiegel. Dat zijn software based technieken. Het is geen ray tracing, ook niet software based, maar het illustreert wel hoeveel je kan met software technieken. Het koste alsnog wel aardig wat fps, maar het resultaat is overduidelijk.


Misschien erg bot gesteld, maar Nvidia heeft gamers zowat gehersenspoeld met RTX dit en RTX dat. Je moet RT hardware hebben, het moet ook Nvidia RTX zijn, je moet upscaling hebben, je moet plassen water hebben die reflecteren alsof het spiegels zijn, je moet RTX shadows hebben en recentelijk moet je path tracing hebben. Het is leuk en aardig, maar het werkt gewoon niet op vrijwel elke videokaart, ook die Nvidia verkoopt.

Je hebt voor veel RTX effecten eigenlijk niet eens RT hardware nodig. RT hardware kan zaken in theorie preciezer doen, maar het kost zo enorm veel rekenkracht dat het in de praktijk nu al dusdanig spaarzaam gebruikt moet worden, dat je de echte winst er niet uit gaat halen. Nu heb je vaak de situatie dat veel zaken niet eens goed te ray tracen zijn. Daarnaast wordt er ook nog eens upscaling of nu zelfs upscaling + interpolatie toegepast. Dat verslaat alleen volledig het punt van hardware based RT. Waarom ga je dit doen voor hogere precisie als je kunstmatig de render resolutie verlaagt, de frame opschaalt en soms ook nog eens interpoleert? Dan verdwijnt juist de hogere precisie.

Sterker nog, het is nu te vaak een valse tegenstelling. Je hebt of goede rasterisation based lighting of RTX in je game. En als je beiden hebt, tja hoeveel mensen zetten de RT dan eens aan, denken oh dit en dat is wel iets mooier, zien de fps instorten waarna de game log voelt en zetten RT uit? Want ik heb veel te veel mensen dit de afgelopen jaren horen zeggen.

Zeker zoiets als Cyberpunk RT overdrive is er een voorbeeld van. Waarom moet alles nu via path tracing worden gedaan? Je kan het meeste makkelijk softwarematig doen met een combinatie van baked lights en software RT of alleen software RT. En doe die paar dingen midden in je scherm die je ook echt ziet, hardware based. Denk aan zoiets als volledig dynamische shadows over je wapen die meebewegen en veranderen met verschillende lichtbronnen.

Hoe meer ik lees en zie over RT, hoe meer Nvidia hun RTX me zo ontiegelijk tegen is gaan staan. RTX is gewoon geen oplossing. RTX is het najagen van iets onmogelijks voor marketingredenen om meer peperdure videokaarten te verkopen. De gemiddelde gamer heeft er niks aan want de gemiddelde gamer kan het niet eens aanzetten door een gebrek aan een videokaart die überhaupt hardware RT ondersteund. En als je die wel hebt, dan trekken de meeste videokaarten het alsnog niet met goede framerates, ook niet na je upscaling.


Laat ik duidelijk zijn, ik wil RT, ik wil het echt. Ik wil Global Illumination, alsmede wat RT based shadows en reflections waar het zinvol is en iets toevoegt aan de game ervaring. En dit is iets waar ik bereid ben voor te betalen. Als ik dit kan krijgen, dan wil ik best zelfs een RX7900XTX overwegen, puur omdat dit daadwerkelijke meerwaarde heeft in een gaming ervaring. Maar ik besef me al een tijd dat ik dit de komende jaren alleen ga krijgen met veel betere software RT technieken met hier en daar wat RT hardware acceleratie voor de echt intensieve dingen. :Y

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12-10 13:29
DaniëlWW2 schreef op maandag 19 juni 2023 @ 20:44:
Beiden zijn RT, dat is het punt juist. Je zet RT niet uit, je zet hardware based RT aan of uit. :)
OK. Dan is het nog een stuk minder indrukwekkend dat als de hardware based RT aan gaat het spel langzamer wordt... dat is immers sinds jaar en dag al het idee achter hardware acceleration en de reden waarom je zou investeren. Zodat het er nog steeds geweldig uitziet, maar dan vloeiender.
Hardware based RT is preciezer, maar die precisie is gewoon niet overal nodig. Ik weet niet of je RDR2 hebt gespeeld? Maar die game haar ray marching in St. Dennis was wel echt indrukwekkend. Ander voorbeeld zijn de reflecties in een spiegel. Dat zijn software based technieken. Het is geen ray tracing, ook niet software based, maar het illustreert wel hoeveel je kan met software technieken. Het koste alsnog wel aardig wat fps, maar het resultaat is overduidelijk.
Nee, RDR2 is niet mijn soort spel. Ik sluit niet uit dat er goede voorbeelden zijn waarbij RT wel degelijk wat toevoegt, en dan hopelijk zonder exorbitante perf cost, maar ik zie de sweet spot daarvoor nog een eind in de toekomst liggen.

Ik merk eigenlijk dat we er qua fotorealisme in spellen eigenlijk al gewoon "zijn" -- de rek is er nog niet helemaal uit met hoeveel we het kunnen laten lijken op het echie, maar wel bijna. Ja, natuurlijk kan het altijd nog wat gedetailleerder met textures, nog wat vloeiender met polygonen, maar als de makers een beetje hun best hebben gedaan en geen Lord of the Rings: Gollum afleveren zit het met de visuele immersie in het gros van de spellen gewoon prima. Zeker omdat een spel een fantasiewereld met een bepaalde visie is en fotorealisme nog niet eens altijd nodig of wenselijk.

Wat nu steeds meer begint op te vallen is de "uncanny valley" waarbij spellen het nog net niet helemaal goed doen op vlakken waar we als mensen wel heel gevoelig voor zijn -- gezichtsuitdrukkingen, animaties, gedrag. Een spel kan er ontzettend overtuigend uit zien in een still frame en onmiddellijk door de mand vallen als iemand z'n mond open doet. Ik verwacht dat AI hier nog een hele hoop verbetering kan gaan brengen. Of er een paar lichtstraaltjes onrealistisch vallen omdat de belichting niet perfect wiskundig uitgewerkt is, of zelfs dat er een bord in een weerspiegeling ontbreekt dat er eigenlijk had moeten zijn valt mij daarentegen alleen op als je erop wijst, en ik vind het dan ook moeilijk om daar hype voor te ontwikkelen.

Natuurlijk is het voor de spellenbakkers geweldig als alle belichting perfect uit de engine kan gaan rollen zonder verdere trucerij, maar daar koop ik als consument dan weer weinig voor. Sterker nog, ik betaal me blauw aan de hardware die het mogelijk zou moeten maken. :P
Laat ik duidelijk zijn, ik wil RT, ik wil het echt. Ik wil Global Illumination, alsmede wat RT based shadows en reflections waar het zinvol is en iets toevoegt aan de game ervaring. En dit is iets waar ik bereid ben voor te betalen. Als ik dit kan krijgen, dan wil ik best zelfs een RX7900XTX overwegen, puur omdat dit daadwerkelijke meerwaarde heeft in een gaming ervaring. Maar ik besef me al een tijd dat ik dit de komende jaren alleen ga krijgen met veel betere software RT technieken met hier en daar wat RT hardware acceleratie voor de echt intensieve dingen. :Y
Ja, dit dus. Ik zeg niet dat RT onzin is of overbodig, zeker niet, als we alles kunnen gaan raytracen dan graag. Ik heb in het verleden hele mooie plaatjes uit raytracers weten te persen, waar je dan nog een hele avond op moest wachten, als we dat voortaan real-time in spellen kunnen gaan doen van boven naar onder met alles erop en eraan dan prima. Maar het valt nu nog allemaal een beetje tussen wal en schip waarbij de bestaande technieken gewoon goed genoeg zijn en de RT er (nog) niet in slaagt het naar het volgende niveau te tillen zonder dat de perf compleet instort. Ik zou iedere maand een hagelnieuwe RTX 4090 kunnen kopen, dat is het probleem niet, maar word ik er blij van? Op dit moment nog niet. :P

Beetje OT omdat er in heel mijn verhaal hierboven geen Radeon zit maar dat moet je er maar even bij bedenken. :P

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +1 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 22-09 01:32
MneoreJ schreef op maandag 19 juni 2023 @ 21:16:
[...]

OK. Dan is het nog een stuk minder indrukwekkend dat als de hardware based RT aan gaat het spel langzamer wordt... dat is immers sinds jaar en dag al het idee achter hardware acceleration en de reden waarom je zou investeren. Zodat het er nog steeds geweldig uitziet, maar dan vloeiender.
Hardware lumen is in dat spel helemaal niet nodig. De voordelen van hardware lumen worden nauwelijks gebruikt, en de nadelen zijn wel duidelijk. Als je de verschillen wil zien, heeft Digital Foundry een vrij goede (maar al wat oudere) video die hardware en software lumen vergelijkt YouTube: Unreal Engine 5 Matrix City Sample PC Analysis: The Cost of Next-Gen...

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

MneoreJ schreef op maandag 19 juni 2023 @ 21:16:
[...]

OK. Dan is het nog een stuk minder indrukwekkend dat als de hardware based RT aan gaat het spel langzamer wordt... dat is immers sinds jaar en dag al het idee achter hardware acceleration en de reden waarom je zou investeren. Zodat het er nog steeds geweldig uitziet, maar dan vloeiender.
Yup en dat is nu hoe ontiegelijk vereisend hardware RT is. Het verklaard ook meteen waarom ik weinig goeds over Nvidia RTX te zeggen heb.
[...]

Nee, RDR2 is niet mijn soort spel. Ik sluit niet uit dat er goede voorbeelden zijn waarbij RT wel degelijk wat toevoegt, en dan hopelijk zonder exorbitante perf cost, maar ik zie de sweet spot daarvoor nog een eind in de toekomst liggen.

Ik merk eigenlijk dat we er qua fotorealisme in spellen eigenlijk al gewoon "zijn" -- de rek is er nog niet helemaal uit met hoeveel we het kunnen laten lijken op het echie, maar wel bijna. Ja, natuurlijk kan het altijd nog wat gedetailleerder met textures, nog wat vloeiender met polygonen, maar als de makers een beetje hun best hebben gedaan en geen Lord of the Rings: Gollum afleveren zit het met de visuele immersie in het gros van de spellen gewoon prima. Zeker omdat een spel een fantasiewereld met een bepaalde visie is en fotorealisme nog niet eens altijd nodig of wenselijk.
Ik vind Unrecorded anders toch nog wel een ander niveau. :P

Maar we beginnen nu echt dat punt te benaderen. Het moet alleen wel in elk aspect van een game zijn en dus niet alleen wat lichteffecten over een nog steeds matige spelwereld. ;)
Wat nu steeds meer begint op te vallen is de "uncanny valley" waarbij spellen het nog net niet helemaal goed doen op vlakken waar we als mensen wel heel gevoelig voor zijn -- gezichtsuitdrukkingen, animaties, gedrag. Een spel kan er ontzettend overtuigend uit zien in een still frame en onmiddellijk door de mand vallen als iemand z'n mond open doet. Ik verwacht dat AI hier nog een hele hoop verbetering kan gaan brengen. Of er een paar lichtstraaltjes onrealistisch vallen omdat de belichting niet perfect wiskundig uitgewerkt is, of zelfs dat er een bord in een weerspiegeling ontbreekt dat er eigenlijk had moeten zijn valt mij daarentegen alleen op als je erop wijst, en ik vind het dan ook moeilijk om daar hype voor te ontwikkelen.

Natuurlijk is het voor de spellenbakkers geweldig als alle belichting perfect uit de engine kan gaan rollen zonder verdere trucerij, maar daar koop ik als consument dan weer weinig voor. Sterker nog, ik betaal me blauw aan de hardware die het mogelijk zou moeten maken. :P
Tja ik denk dat AI ook wel een beetje een buzzword is geworden. Maar game developers kunnen inmiddels wel echte dingen inscannen en importeren in games. Niet alleen gezichtsuitdrukkingen, maar ook hele gebouwen als ze willen. Dat is wel iets dat aardig wat extra detail kan opleveren. Maar het gaat ook heel wat performance kosten.
[...]

Ja, dit dus. Ik zeg niet dat RT onzin is of overbodig, zeker niet, als we alles kunnen gaan raytracen dan graag. Ik heb in het verleden hele mooie plaatjes uit raytracers weten te persen, waar je dan nog een hele avond op moest wachten, als we dat voortaan real-time in spellen kunnen gaan doen van boven naar onder met alles erop en eraan dan prima. Maar het valt nu nog allemaal een beetje tussen wal en schip waarbij de bestaande technieken gewoon goed genoeg zijn en de RT er (nog) niet in slaagt het naar het volgende niveau te tillen zonder dat de perf compleet instort. Ik zou iedere maand een hagelnieuwe RTX 4090 kunnen kopen, dat is het probleem niet, maar word ik er blij van? Op dit moment nog niet. :P

Beetje OT omdat er in heel mijn verhaal hierboven geen Radeon zit maar dat moet je er maar even bij bedenken. :P
Huidige hardware RT want de grote pusher van RT hardware, levert totaal inadequate hardware voor hun marketing beloften. ;)

Software RT is nog steeds RT. Je hebt ook helemaal geen dedicated RT hardware nodig om RT te doen. Het versnelt het proces. Maar we zijn inmiddels bijna vijf jaar na de introductie van Turing en RTX en het is nog steeds niet echt doorgebroken. Laat een andere partij met een andere software stack het maar eens proberen. En wat ik van UE5 heb gelezen en gezien, is het veelbelovender. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
MneoreJ schreef op maandag 19 juni 2023 @ 21:16:
[...]
Ik merk eigenlijk dat we er qua fotorealisme in spellen eigenlijk al gewoon "zijn" -- de rek is er nog niet helemaal uit met hoeveel we het kunnen laten lijken op het echie, maar wel bijna.
Nu nog eventjes dezelfde kwaliteit leveren in VR met 2 x 8K schermen voor je ogen. En dat dan met een chip die in de VR-bril past en max 15 watt gebruikt.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12-10 13:29
DaniëlWW2 schreef op dinsdag 20 juni 2023 @ 20:58:
Tja ik denk dat AI ook wel een beetje een buzzword is geworden. Maar game developers kunnen inmiddels wel echte dingen inscannen en importeren in games. Niet alleen gezichtsuitdrukkingen, maar ook hele gebouwen als ze willen. Dat is wel iets dat aardig wat extra detail kan opleveren. Maar het gaat ook heel wat performance kosten.
Niet alleen dat, het is ook gewoon tijdrovend, en potentieel duur of lastig, afhankelijk van wat je precies wil scannen. AI is nu inderdaad een buzzword, maar dat neemt niet weg dat de huidige neurale modellen wel degelijk goede toepassingen hebben -- het autogenereren van (min of meer) overtuigende organische content met een getraind model is nu net precies iets waar spellen baat bij kunnen hebben omdat alles ambachtelijk bij elkaar scannen dan wel simuleren gewoon een vervelende klus is. Ik denk hierbij overigens niet aan iets dat letterlijk uit het niets alles produceert, want dan zit er alsnog veel handwerk in om de ruwe kantjes ervan af te slijpen, maar het ondersteunen van traditionele technieken zodat je, ook als je niet Keanu Reeves in de studio hebt je toch overtuigende resultaten neer kunt zetten. :P

Hoe vaak je bijvoorbeeld niet "canned" animaties in spellen kunt zien waarbij NPC's altijd op dezelfde manier reageren, poseren, bepaalde bewegingen herhalen, linea recta van A naar B sjezen, telkens hetzelfde hoofdknikje maken in discussies. Met een beetje machine learning kun je dat een stuk minder mechanisch maken zonder aan overtuigingskracht in te boeten, veel beter dan wanneer je gewoon wat RNG erin prutst.

Ik heb bovenstaande overigens vanuit de luie leunstoel bedacht, ik heb nog geen toepassingen gezien (of zelf gemaakt :P) maar het lijkt mij een inkoppertje. Volledig AI gegenereerde NPC's waar je hier en daar pilots van ziet geloof ik dan weer niet zonder meer in, daar zit toch teveel onzin bij, maar een snufje machine learning hier en daar kan de soep net wat beter maken.
Ludewig schreef op dinsdag 20 juni 2023 @ 21:50:
Nu nog eventjes dezelfde kwaliteit leveren in VR met 2 x 8K schermen voor je ogen. En dat dan met een chip die in de VR-bril past en max 15 watt gebruikt.
VR is inderdaad andere koek. Maar ja, dan ook echt wel heel andere koek. De uitdagingen zitten daar niet alleen in de visuele hoek.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +1 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 09:04
DaniëlWW2 schreef op dinsdag 20 juni 2023 @ 20:58:
[...]
Software RT is nog steeds RT. Je hebt ook helemaal geen dedicated RT hardware nodig om RT te doen. Het versnelt het proces. Maar we zijn inmiddels bijna vijf jaar na de introductie van Turing en RTX en het is nog steeds niet echt doorgebroken. Laat een andere partij met een andere software stack het maar eens proberen. En wat ik van UE5 heb gelezen en gezien, is het veelbelovender. :)
Goedemorgen dat is nogal een uitspraak. Zo kun je ook wel 3d renderen middels hardware oplossingen wegstrepen. Dit kan je ook via software door de CPU laten doen, maar kijk eens hoe groot het verschil is in prestaties was toen we dedicated 3d kaarten populair werden. Waar je met software rendering letterlijk frames per minuut had tegen frames per seconde met 3d kaarten. Je kunt een software oplossing echt niet zo makkelijk als waardig alternatief zetten tegenover hardware acceleratie. Tegen de tijd dat AMD op een gelijkwaardig niveau zit of Nvidia weet in te halen ben jij ook wel om ;)

Je statement over het doorbreken van RT is ook nogal kortzichtig. Er zijn sinds de optie voor RT zelfs meer titels op de markt met RT support dan menig mens had verwacht. Eerste 2 jaar was weinig spannends, dat was ook echt wel te verwachten aangezien het niet een slider was die een ontwikkelaar even op aan kon zetten. Je ziet wel dat er echt veel titels zijn de afgelopen 1 tot 2 jaar met enige vorm van hardware RT support komen (zelfs op consoles). Developers lijken er dus op zijn minst rekening mee te willen houden. Als er nauwelijks acceptatie zou zijn, dan had dit echt niet gebeurd. Dit soort features rol je niet uit in 6 maanden tijd als de markt de hardware nog niet heeft. Kip en ei.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

1) Ik herhaal gewoon wat Epic er zelf over zegt. Verder werd er al decennia voor dedicated RT hardware, ray tracing gedaan op GPU's. Nota bene heeft Nvidia zelfs RTX enabled op Pascal in tenminste bepaalde games. Draait natuurlijk voor geen meter, maar het kan gewoon.
https://docs.unrealengine...details-in-unreal-engine/

2) We zijn inmiddels vijf jaar verder en in veel games is RT nog steeds gigantisch prestatieverlies voor relatief weinig grafische winst. Dat zet ik dan ook graag af tegen meer geavanceerde raster based light effects of waar Epic mee is gekomen. Want blijkbaar kan je wel de grafische winst behalen zonder enorm prestatieverlies. Nota bene zelfs met ray tracing.


AMD, waarom? }:|
Als ze niet willen ontkennen dat XeSS en DLSS2 implementaties niet tegenhouden in gesponsorde titels, dan geven eigenlijk impliciet toe dat ze het wel doen.
To clarify, there are community sites that track the implementation of upscaling technologies, and these sites indicate that there are a number of games that support only DLSS currently (for example, see link).

AMD FidelityFX Super Resolution is an open-source technology that supports a variety of GPU architectures, including consoles and competitive solutions, and we believe an open approach that is broadly supported on multiple hardware platforms is the best approach that benefits developers and gamers. AMD is committed to doing what is best for game developers and gamers, and we give developers the flexibility to implement FSR into whichever games they choose.

–AMD Spokesperson to Wccftech
NVIDIA does not and will not block, restrict, discourage, or hinder developers from implementing competitor technologies in any way. We provide the support and tools for all game developers to easily integrate DLSS if they choose and even created NVIDIA Streamline to make it easier for game developers to add competitive technologies to their games.

— Keita Iida, vice president of developer relations, NVIDIA
https://videocardz.com/ne...ty-in-amd-sponsored-games
Voor de duidelijkheid, Nvidia is hier ook nogal creatief met de waarheid. A Plague Tale: Requiem is bijvoorbeeld al een goed voorbeeld van een game die wel Nvidia features, waaronder DLSS2 heeft, maar geen FSR2.

De gemiddelde consument heeft ondertussen helemaal geen "budget Nvidia" nodig die zelfde onzin gaat proberen als Nvidia jarenlang heeft gedaan. FSR2 is niet zo goed als DLSS2, deal with it. Maak dan een "FSR2 AI" die alleen werkt op RDNA3 en gebruik maakt van RDNA3 matrix units. Zorg dat je het gat tenminste fors verkleint door je nieuwe en betere hardware aan te gaan spreken. En dan kan je alsnog dit ook laten werken op Intel ARC en Turing/Ampere/Ada. Maar ga geen exclusiviteit kopen met een inferieure techniek.

Want wat is het punt van een Radeon kopen als het letterlijk een "budget GeForce" is? Zeker in de hogere segmenten waar je features en prestaties mag verwachten, zeker nu AMD ook de lagere segmenten eigenlijk laat zitten. Nota bene is de markt voor Radeon videokaarten voor een aardig deel waarschijnlijk ook consumenten die helemaal klaar zijn met Nvidia en het vertikken nog iets van Nvidia te kopen. En deze generatie is dat nog veel sterker geworden met de prijzen die Nvidia durft te vragen. En dan gaan ze bij AMD precies doen wat Nvidia ook al deed. :F

Ik zit me inmiddels hardop af te vragen waar ze mee bezig zijn? En toen dacht ik eens, Scott Herkelman kwam van Nvidia om general manager te worden van de Radeon group. En sindsdien zien we AMD, stapje voor stapje, zich steeds meer zoals Nvidia gedragen met prijsstellingen, houding etc. Tegelijkertijd is de marketing afdeling nog incompetenter geworden, is zo ongeveer elke launch sinds de RX5700XT eigenlijk gewoon slecht tot rampzalig geweest met leugens, slechte producten, slechte prijzen en chaos alom. En de verkoop van Radeon videokaarten is alleen maar afgenomen terwijl ze nu een veel competitievere architectuur hebben dan voor RDNA en Scott Herkelman. Ik krijg er echt het gevoel bij dat er nu geprobeerd word om te doen alsof ze Nvidia zijn zonder te leveren. Er lijkt geen enkele mogelijkheid meer te zijn om nog af te wijken van doen wat Nvidia doet en wegkijken als ze weer eens ruim te laat zijn of het niet zo goed is.

Volgende voorbeeld zit er ook aan te komen. FSR3 zou namelijk in H1/2023 arriveren. We hebben nog iets meer dan een week. :z

[ Voor 72% gewijzigd door DaniëlWW2 op 21-06-2023 20:06 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 22-09 01:32
DaniëlWW2 schreef op woensdag 21 juni 2023 @ 12:58:
Voor de duidelijkheid, Nvidia is hier ook nogal creatief met de waarheid. A Plague Tale: Requiem is bijvoorbeeld al een goed voorbeeld van een game die wel Nvidia features, waaronder DLSS2 heeft, maar geen FSR2.
De wens is de vader van de gedachte?

Dat er spellen zijn met DLSS en zonder FSR bewijst niet dat Nvidia creatief is met de waarheid. Als dat gebeurd met een nieuw Unreal Engine spel (zoals Jedi Survivor), waar FSR of DLSS implementatie letterlijk een checkbox is, zou je een punt hebben. Plague Tale Requiem gebruikt een custom engine, is uitgebracht vrij kort (4 maanden) nadat FSR2 openlijk beschikbaar was, en gemaakt door een relatief kleine game studio.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

cnieuweboer schreef op donderdag 22 juni 2023 @ 11:02:
[...]


De wens is de vader van de gedachte?

Dat er spellen zijn met DLSS en zonder FSR bewijst niet dat Nvidia creatief is met de waarheid. Als dat gebeurd met een nieuw Unreal Engine spel (zoals Jedi Survivor), waar FSR of DLSS implementatie letterlijk een checkbox is, zou je een punt hebben. Plague Tale Requiem gebruikt een custom engine, is uitgebracht vrij kort (4 maanden) nadat FSR2 openlijk beschikbaar was, en gemaakt door een relatief kleine game studio.
Er zijn modders die letterlijk FSR2 in een game met DLSS2 hebben geïmplementeerd door wat DLL bestanden te wisselen. Het koste een paar uur en die mods verschenen al in de dagen nadat FSR2 werd uitgebracht. ;)

Toegegeven dat er dan nog wel eens wat fine tuning moet gebeuren, maar dit is het probleem niet. Als een game XeSS, DLSS2 of FSR2 heeft, dan is het meeste voorwerk voor de andere twee al gedaan. Hierom val ik over het uitsluiten van DLSS2 dan wel FSR2. XeSS kan je nog enigszins over twisten omdat de installbase voor de de XMX versie (dus Intel haar eigen hardware), erg beperkt is. En de DP4a fallback voor Nvidia en AMD GPU's is vaak slechter dan FSR2. Maar eigenlijk zou ik ook gewoon willen dat als een game FSR2 en DLSS2 heeft, XeSS ook beschikbaar is.

Tweede is dat Nvidia uitgebreid heeft lopen adverteren met alle Nvidia tech in Plague Tale Requim. Zie bijvoorbeeld:

Het idee dat FSR2 hier "per ongeluk" ontbreekt, geloof ik niet. We hebben het hier over Nvidia. Die hebben het voordeel van de twijfel over dit soort zaken, jaren geleden al verloren.

Dan is er ook nog de kwestie dat Nvidia loopt te adverteren met hun SDK om upscaling te implementeren waarmee XeSS ook geïmplementeerd kan worden. Daar zit ook gedoe achter omdat Intel meteen meedeed en AMD juist niet mee wou doen. En ik vertrouw geen van beiden daarin. Nvidia omdat ze weten dat DLSS2 beter is dan XeSS en FSR2. Natuurlijk willen ze de slechtere alternatieven dan faciliteren. En AMD vertrouw ik niet omdat ze inderdaad games alleen FSR2 willen geven. En dat zou te tolereren zijn, als FSR2 daadwerkelijk vergelijkbaar zou presteren in kwaliteit en framerate winst met DLSS2 en ook werkte met specifieke hardware van Intel ARC en Turing/Ampere/Ada. Maar daar is nu geen sprake van, dus maak ik er een punt van.


Ik moet het blijkbaar blijven herhalen, maar ik ben "Team consument". Maakt me niks uit wie het doet, ik ga het zeggen. Ik doe niet mee aan de eindeloze en hopeloze Green. vs. Red vs. Blue tribale stammenstrijd...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 23:59
DaniëlWW2 schreef op woensdag 21 juni 2023 @ 12:58:

https://videocardz.com/ne...ty-in-amd-sponsored-games
Voor de duidelijkheid, Nvidia is hier ook nogal creatief met de waarheid. A Plague Tale: Requiem is bijvoorbeeld al een goed voorbeeld van een game die wel Nvidia features, waaronder DLSS2 heeft, maar geen FSR2.
Maar is dat ook een Nvidia sponsored titel waarbij Nvidia de implementatie van FRS2 blokkeert. Want dat is volgens mij waar het Videocardz artikel over gaan (en ik vermoed dus ook Nvidia's statement). Dat een game geen FRS2 support maar wel DLSS2 of omgekeerd is natuurlijk gewoon mogelijk. De vraag is of AMD / Nvidia dev's (actief) tegenhoud de implementatie van de concurrent te implementeren. Of Nvdia in dit geval creatief is met de waarheid zie ik niet direct bewezen worden nog (Al is het natuurlijk Nvidia, dus zeker niet uit te sluiten).

Voor nu lijkt het erop dat AMD in AMD Sponsored titels de implementatie van andere technieken als DLSS / XeSS mogelijk tegenhoud of frustreert omdat ze er niet duidelijk over willen zijn. Terwijl Nvidia wel een duidelijk statement afgeeft, dat wil natuurlijk niet zeggen dat het statement klopt, maar zou het niet kloppen moet het bijvoorbeeld voor een AMD vrij makkelijk zijn dat publiekelijk te ontkrachten. Bied bijvoorbeeld een studio aan FRS2 te implementeren in een DLSS Exclusive game (bijvoorbeeld in het door jou genoemde A Plague Tale: Requiem). En communiceer er duidelijk over mocht Nvidia dat tegenhouden.

Voor een goede onderzoeksjournalist zou dat imho ook niet al te lastig moeten zijn. Maar dan moeten ze wel het onderzoek willen doen natuurlijk.
Het idee dat FSR2 hier "per ongeluk" ontbreekt, geloof ik niet. We hebben het hier over Nvidia. Die hebben het voordeel van de twijfel over dit soort zaken, jaren geleden al verloren.
Dat hoeft natuurlijk dan ook niet 'per ongeluk' te zijn, de vraag moet zijn, zit FRS2 er niet in omdat Nvidia een zak geld heeft gegeven om het niet te implementeren, of laat Nvidia de dev's vrij het te implementeren, maar doen ze het niet omdat bijvoorbeeld AMD er niet in wil investeren. Dat het er niet inzit kan heel bewust zijn, alleen de reden erachter is belang om te weten of het anti consumer is, of omdat AMD bijvoorbeeld om wat voor reden dan ook niet wil investeren in het implementeren van FRS2 in bepaalde games / engines

[ Voor 22% gewijzigd door Dennism op 22-06-2023 12:04 ]


Acties:
  • +2 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 22-09 01:32
DaniëlWW2 schreef op donderdag 22 juni 2023 @ 11:32:
[...]
Er zijn modders die letterlijk FSR2 in een game met DLSS2 hebben geïmplementeerd door wat DLL bestanden te wisselen. Het koste een paar uur en die mods verschenen al in de dagen nadat FSR2 werd uitgebracht. ;)
En het kost me 5 seconden om de DLSS versie in Diablo 4 te updaten naar 3.1.13, wat de beeldkwaliteit veel beter maakt dan de standaard meegeleverde versie. Dat bewijst dat AMD Blizzard heeft betaald om DLSS slechter te doen lijken, toch?
DaniëlWW2 schreef op donderdag 22 juni 2023 @ 11:32:
[...]

Tweede is dat Nvidia uitgebreid heeft lopen adverteren met alle Nvidia tech in Plague Tale Requim. Zie
Dat doet Nvidia bij enorm veel spellen, ook spellen waar wel FSR2 in zit.
DaniëlWW2 schreef op donderdag 22 juni 2023 @ 11:32:
[...]
Het idee dat FSR2 hier "per ongeluk" ontbreekt, geloof ik niet. We hebben het hier over Nvidia. Die hebben het voordeel van de twijfel over dit soort zaken, jaren geleden al verloren.
Dus omdat je negatieve herinneringen over Nvidia hebt geloof je nu Nvidia niet, waarmee je een nieuwe negatieve herinnering creëert die je weer kunt gebruiken voor de volgende keer. Lijkt me niet een goede basis voor geloofwaardigheid of objectiviteit.
DaniëlWW2 schreef op donderdag 22 juni 2023 @ 11:32:
[...]

Ik moet het blijkbaar blijven herhalen, maar ik ben "Team consument". Maakt me niks uit wie het doet, ik ga het zeggen. Ik doe niet mee aan de eindeloze en hopeloze Green. vs. Red vs. Blue tribale stammenstrijd...
Show, don't tell.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 23:59
de AMD community krijgt er ook deels even van langs op /r/hardware naar aanleiding van het wel / niet blokkeren DLSS en XeSS:

https://www.reddit.com/r/...ored_games_with_fsr_dont/

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 09:04
DaniëlWW2 schreef op donderdag 22 juni 2023 @ 11:32:
[...]


Er zijn modders die letterlijk FSR2 in een game met DLSS2 hebben geïmplementeerd door wat DLL bestanden te wisselen. Het koste een paar uur en die mods verschenen al in de dagen nadat FSR2 werd uitgebracht. ;)

Toegegeven dat er dan nog wel eens wat fine tuning moet gebeuren, maar dit is het probleem niet. Als een game XeSS, DLSS2 of FSR2 heeft, dan is het meeste voorwerk voor de andere twee al gedaan. Hierom val ik over het uitsluiten van DLSS2 dan wel FSR2. XeSS kan je nog enigszins over twisten omdat de installbase voor de de XMX versie (dus Intel haar eigen hardware), erg beperkt is. En de DP4a fallback voor Nvidia en AMD GPU's is vaak slechter dan FSR2. Maar eigenlijk zou ik ook gewoon willen dat als een game FSR2 en DLSS2 heeft, XeSS ook beschikbaar is.

Tweede is dat Nvidia uitgebreid heeft lopen adverteren met alle Nvidia tech in Plague Tale Requim. Zie bijvoorbeeld:
[YouTube: A Plague Tale: Requiem | RTX ON - Exclusive First-Look]
Het idee dat FSR2 hier "per ongeluk" ontbreekt, geloof ik niet. We hebben het hier over Nvidia. Die hebben het voordeel van de twijfel over dit soort zaken, jaren geleden al verloren.

Dan is er ook nog de kwestie dat Nvidia loopt te adverteren met hun SDK om upscaling te implementeren waarmee XeSS ook geïmplementeerd kan worden. Daar zit ook gedoe achter omdat Intel meteen meedeed en AMD juist niet mee wou doen. En ik vertrouw geen van beiden daarin. Nvidia omdat ze weten dat DLSS2 beter is dan XeSS en FSR2. Natuurlijk willen ze de slechtere alternatieven dan faciliteren. En AMD vertrouw ik niet omdat ze inderdaad games alleen FSR2 willen geven. En dat zou te tolereren zijn, als FSR2 daadwerkelijk vergelijkbaar zou presteren in kwaliteit en framerate winst met DLSS2 en ook werkte met specifieke hardware van Intel ARC en Turing/Ampere/Ada. Maar daar is nu geen sprake van, dus maak ik er een punt van.


Ik moet het blijkbaar blijven herhalen, maar ik ben "Team consument". Maakt me niks uit wie het doet, ik ga het zeggen. Ik doe niet mee aan de eindeloze en hopeloze Green. vs. Red vs. Blue tribale stammenstrijd...
Op het moment dat je Nvidia al nergens in kan/wilt vertrouwen ben je eigenlijk al niet objectief en kies je een kant. Klinkt wellicht hard, maar mooier dan dit kan ik het niet uitdrukken.

Dat is ook gelijk mijn bezwaar bij veel van de argumenten die er rondom videokaarten rondgestrooid worden. Bij alles moet er altijd gelijk naar Nvidia gewezen worden als schuldige. Zij bepalen volgens veel mensen niet alleen de richting van de markt, maar ook nog eens de koers van AMD.

Als Nvidia aangeeft FSR/XeSS niet te blokkeren, dan zie ik echt niet waarom dat BS zou zijn. Stel je dan eerst de vraag wat de 'win' zou zijn voor hen en dan kom je al gauw tot de conclusie dat het tegenhouden van deze technieken zinloos is voor Nvidia. Mocht AMD/Intel nou met het gouden ei komen dat DLSS irrelevant zou maken, dan zou het nog enige grond hebben om DLSS als exclusief middel in te zetten.

Wat mij betreft is het een AMD zaak om FSR in een game te krijgen en niks anders. Als een developer de tools ter beschikking heeft en het niet inzet, dan is het aan AMD om daar verandering in te brengen.

Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 03:58
Oef hebben ze weer olie gevonden om op het trollenvuur te gooien?
De enige die echt weten of er sprake is van doelbewust geen ondersteuning bieden zijn de developers zelf.
De vraag moet dus aan de uitgevers gesteld worden, niet aan AMD of Nvidia want daar kan je het antwoord van voorspellen.

Het zou wel erg naïef zijn om te denken dat gesponsorde games geen prioriteit krijgen voor bepaalde ondersteuning/features. Dat is het hele idee achter sponseren... :F
cnieuweboer schreef op donderdag 22 juni 2023 @ 12:25:
[...]


En het kost me 5 seconden om de DLSS versie in Diablo 4 te updaten naar 3.1.13, wat de beeldkwaliteit veel beter maakt dan de standaard meegeleverde versie. Dat bewijst dat AMD Blizzard heeft betaald om DLSS slechter te doen lijken, toch?
Ik kan helaas niet goed bepalen of dit als een sarcastisch grapje is bedoeld of serieus gemeend. Het ligt er namelijk aan vanuit welke perspectief gelezen wordt. Dus sorry als ik het verkeerd geïnterpreteerd heb.

Diablo 4 had van dag 1 al DLSS3 ondersteuning, waarbij het *.dll bestandje v3.1.13 juist uit Diablo 4 komt.
DLSS3 heeft verder ook weinig met de beeldkwaliteit te maken, het is namelijk een frame interpolatietechniek. Gaat dus vooral om het genereren van meer frames = soepelere beweging in het spel.

Dus mocht het geen sarcasme zijn geweest, dan snap ik helemaal niet waar je het over hebt.
Diablo 4 is een spel waarbij zowel DLSS als FRS erg goed werken (mogelijk door de topdown view en een camera die niet ronddraait).

Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 22-09 01:32
CMT schreef op vrijdag 23 juni 2023 @ 14:33:
Ik kan helaas niet goed bepalen of dit als een sarcastisch grapje is bedoeld of serieus gemeend. Het ligt er namelijk aan vanuit welke perspectief gelezen wordt. Dus sorry als ik het verkeerd geïnterpreteerd heb.

Diablo 4 had van dag 1 al DLSS3 ondersteuning, waarbij het *.dll bestandje v3.1.13 juist uit Diablo 4 komt.
DLSS3 heeft verder ook weinig met de beeldkwaliteit te maken, het is namelijk een frame interpolatietechniek. Gaat dus vooral om het genereren van meer frames = soepelere beweging in het spel.
Het was inderdaad sarcastisch.

De dll versie is niet direct gekoppeld aan upscaling of frame generation, dat onderscheid wordt gemaakt door de bestandsnaam. En de upscaling dll heeft ook 3.x versies. De frame generation in Diablo 4 is inderdaad 3.1.13, maar upscaling dll zeer zeker niet. En voor DLAA is de standaard upscaling dll niet ideaal. Veel environment details vallen helemaal weg als je beweegt, heel duidelijk zichtbaar bij bijvoorbeeld kleine steentjes op de grond. TAA is wat dat betreft beter dan DLAA met de standaard dll. Maar DLAA met upscaling dll 3.1.13 is veel beter dan TAA, environment details zijn ongeveer gelijk ongeacht of je stil staat of beweegt.

upscaling dll's https://www.techpowerup.com/download/nvidia-dlss-dll/
frame generation dll's https://www.techpowerup.c...s-3-frame-generation-dll/

Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12-10 13:29
sjekneck schreef op vrijdag 23 juni 2023 @ 14:18:
Dat is ook gelijk mijn bezwaar bij veel van de argumenten die er rondom videokaarten rondgestrooid worden. Bij alles moet er altijd gelijk naar Nvidia gewezen worden als schuldige. Zij bepalen volgens veel mensen niet alleen de richting van de markt, maar ook nog eens de koers van AMD.
Nou is dat laatste indirect toevallig wel waar -- maar dan wel omdat het expliciet de keus van AMD is (of beter de Radeon afdeling) om achter Nvidia aan te hobbelen, omdat het ze blijkbaar aan wil of kunde ontbreekt om iets anders te doen. Nou is dat vanuit de positie die ze hebben ook niet heel makkelijk, maar het valt wel op. Of het nu gaat om nieuwe features die je als gamer zou moeten hebben, om de prijsstellingen, of om welke modellen er gelanceerd worden, er lijkt bij AMD nog nooit iemand ontslagen om gewoon Nvidia makjes te volgen als de nummer twee (of in ieder geval niet de afgelopen jaren).

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 03:58
cnieuweboer schreef op vrijdag 23 juni 2023 @ 14:49:
[...]


Het was inderdaad sarcastisch.

De dll versie is niet direct gekoppeld aan upscaling of frame generation, dat onderscheid wordt gemaakt door de bestandsnaam. En de upscaling dll heeft ook 3.x versies. De frame generation in Diablo 4 is inderdaad 3.1.13, maar upscaling dll zeer zeker niet. En voor DLAA is de standaard upscaling dll niet ideaal. Veel environment details vallen helemaal weg als je beweegt, heel duidelijk zichtbaar bij bijvoorbeeld kleine steentjes op de grond. TAA is wat dat betreft beter dan DLAA met de standaard dll. Maar DLAA met upscaling dll 3.1.13 is veel beter dan TAA, environment details zijn ongeveer gelijk ongeacht of je stil staat of beweegt.

upscaling dll's https://www.techpowerup.com/download/nvidia-dlss-dll/
frame generation dll's https://www.techpowerup.c...s-3-frame-generation-dll/
Okee, goed dat ik het even gevraagd heb dan ^^.
Dat ze de bestandsnamen niet koppelen aan de DLSS versie maakt het wel extra verwarrend.
Het is al erg genoeg om in het achterhoofd te houden DLSS3 = FG, DLSS = DLSS2 (= upscaling + DLAA).
De upscaling DLL is ook gloednieuw zie ik, een dag na de early acces van Diablo 4 uit het SDK pakket geplukt.

Ik vind overigens wel wat anders wanneer een bepaalde techniek een algehele update krijgt dat dan doorvloeit in alle ondersteunde spellen v.s. een andere techniek in een bestaande game toevoegen/implementeren/modden.

Maarja als je ziet hoe moeizaam sommige dingen gaan of gewoon niet gebeuren, terwijl het bij wijze van spreken een fluitje van een cent kan zijn om het beschikbaar te maken..
Neem bijvoorbeeld een simpele software sRGB clamp, wat met de huidige DCI-P3 monitoren echt een must is voor SDR werk / bronmateriaal.
Het is gewoon mogelijk met de Nvidia driver, maar er moest een creative programmeur/modder aan te pas komen om daar een tooltje voor te ontwikkelen waarbij het aan/uit geschakeld kan worden.
AMD is daar trouwens ook bijna net zo erg in, maar daar is nog wel via de driver indirect gebruik van te maken. Het is werkelijk onvoorstelbaar dat zoiets cruciaals niet standaard een optie is in de driver, naast resolutie, verversingssnelheid etc.

Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 22-09 01:32
CMT schreef op vrijdag 23 juni 2023 @ 15:38:
[...]
Neem bijvoorbeeld een simpele software sRGB clamp, wat met de huidige DCI-P3 monitoren echt een must is voor SDR werk / bronmateriaal.
Het is gewoon mogelijk met de Nvidia driver, maar er moest een creative programmeur/modder aan te pas komen om daar een tooltje voor te ontwikkelen waarbij het aan/uit geschakeld kan worden.
AMD is daar trouwens ook bijna net zo erg in, maar daar is nog wel via de driver indirect gebruik van te maken. Het is werkelijk onvoorstelbaar dat zoiets cruciaals niet standaard een optie is in de driver, naast resolutie, verversingssnelheid etc.
Ja dat is waardeloos. Ik gebruik Windows in HDR mode omdat mijn monitor in SDR mode ook met novideo_srgb niet geweldig is. HDR mode werkt op mijn monitor veel beter voor sRGB content.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
sjekneck schreef op vrijdag 23 juni 2023 @ 14:18:
[...]

Op het moment dat je Nvidia al nergens in kan/wilt vertrouwen ben je eigenlijk al niet objectief en kies je een kant. Klinkt wellicht hard, maar mooier dan dit kan ik het niet uitdrukken.
Los van de hele DLSS en FSR discussie, hier ben ik het dus niet met je eens. Nvidia heeft in mijn ogen genoeg rotzooi uitgehaald dat je juist niet objectief bent als je niet een mate van wantrouwen hebt.
Als ik 3x iets vervelends doe bij jou dan ga je toch hopelijk ook bij opvolgende keren de situatie anders aan? Anders ben je een ezel die zich aan dezelfde steen stoot.

Andersom zou je hetzelfde kunnen stellen over de AMD drivers, dat die toch zo slecht zijn. Sinds een paar maanden na de launch van de 5700 XT heb ik werkelijk geen enkele problemen gehad (5700 XT, 6900 XT en nu op Linux de 7900 XTX). Toch hoor je nog steeds mensen met Nvidia kaarten zeggen dat AMD drivers niet stabiel zijn; iets met objectiviteit.
De Nvidia kaart in mijn laptop met Linux, dat is een ander verhaal.... als hij werkt doet hij het verder prima en ik game er eigenlijk ook niet op.

Het maakt het niet beter dat AMD dat vendor lockin dus nu ook flikt; maar ik ben bij AMD tenminste nog geneigd eerder misschien te gebruiken dan bij Nvidia.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Nieuws/gerucht:

Volgens MLID kan N31 ook worden uitgebracht als een 40 x 40 mm2 package, ipv van de 55 x 47.5mm2 package die gebruikt wordt voor de 7900. Dat gaat wel ten koste van het aantal pinnen naar de chip, dus kan dit vermoedelijk ook alleen met een bus van 265 bit of minder (4 MCD's).

Daardoor zouden goedkopere GPU's gemaakt kunnen worden, omdat er goedkopere PCB's gebruikt kunnen worden. Deze BOM-kosten zouden volgens MLID dan nauwelijks boven N32 uitkomen, waardoor een 7800 XT gebaseerd op N31 relatief weinig zou kosten. Al zouden er relatief weinig N31 chips moeten zijn die zo slecht zijn dat ze die als een 7800 XT willen verkopen, dus wellicht willen ze de prijzen wel relatief hoog houden om de vraag niet te hoog te laten zijn.

Het zou dan ook mogelijk zijn om deze chip in een laptop te rammen en die zou dan qua prestaties richting de '4090 laptops' gaan (wat dus eigenlijk 4080's zijn).

Zie: https://wccftech.com/amd-...-mcd-compact-form-factor/

[ Voor 20% gewijzigd door Ludewig op 23-06-2023 18:52 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 23:59
Ik zag de plaatjes van dat MLID verhaal ook al op reddit. Ik vraag me af of de W7800 die chip waar MLID het over heeft dan al niet gebruikt, iemand toevallig een Gamers Nexus style ontledingsvideo van die kaart?

Specs komen immers precies overeen met wat je zou verwachten van die kleinere N31 qua bus:

https://www.amd.com/en/pr...hics/amd-radeon-pro-w7800

Als dat inderdaad zo is, waarom er dan nu pas zo'n heisa over maken, terwijl die chip dan al maanden op de markt is.

Maar als W7800 wel normale grotere variant is snap ik het doel van die kleinere variant niet echt. immers kun je dan met die grotere variant ook af met een simpeler PCB (als je dat echt zou willen, is een simpeler PCB ontwikkelen echt zoveel goedkoper dan een bestaand PDB gebruiken? Ik weet het echt niet) omdat je de traces naar de dummy dies ook niet hoeft te trekken. Waarom dan voor desktop gebruik een kleine variant ontwikkelen, zeker omdat dit in de huidige markt mogelijk om redelijk beperkte volumes zal gaan.

Beperkte ruimte in laptops zou ik me dan inderdaad nog kunnen indenken. Maar is het dan nog wel goedkoper om een heel nieuwe package te ontwikkelen. In high end laptops kan dat ook wel uit als het duurder is, daar is marge genoeg. En dan zou je de chips die het niet halen voor laptop gebruik mogelijk nog wel kunnen verkopen als desktop kaart.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
Dennism schreef op zaterdag 24 juni 2023 @ 10:51:
Ik zag de plaatjes van dat MLID verhaal ook al op reddit. Ik vraag me af of de W7800 die chip waar MLID het over heeft dan al niet gebruikt, iemand toevallig een Gamers Nexus style ontledingsvideo van die kaart?

Specs komen immers precies overeen met wat je zou verwachten van die kleinere N31 qua bus:

https://www.amd.com/en/pr...hics/amd-radeon-pro-w7800

Als dat inderdaad zo is, waarom er dan nu pas zo'n heisa over maken, terwijl die chip dan al maanden op de markt is.

Maar als W7800 wel normale grotere variant is snap ik het doel van die kleinere variant niet echt. immers kun je dan met die grotere variant ook af met een simpeler PCB (als je dat echt zou willen, is een simpeler PCB ontwikkelen echt zoveel goedkoper dan een bestaand PDB gebruiken? Ik weet het echt niet) omdat je de traces naar de dummy dies ook niet hoeft te trekken. Waarom dan voor desktop gebruik een kleine variant ontwikkelen, zeker omdat dit in de huidige markt mogelijk om redelijk beperkte volumes zal gaan.

Beperkte ruimte in laptops zou ik me dan inderdaad nog kunnen indenken. Maar is het dan nog wel goedkoper om een heel nieuwe package te ontwikkelen. In high end laptops kan dat ook wel uit als het duurder is, daar is marge genoeg. En dan zou je de chips die het niet halen voor laptop gebruik mogelijk nog wel kunnen verkopen als desktop kaart.
Ik dacht eerst dat er 1 package was voor zowel N31 als N32, maar er zijn er 2. Interessant omdat hergebruik kosten kan verlagen.

Voor N41 42 43 zouden ze mogelijk alle 3 dezelfde package kunnen gebruiken. Aangezien de geheugen chiplets ook zeer goedkoop zijn, gaan de kosten dan puur zitten in de compute chiplets, GCD dan wel GCX's (meerdere GCD's die moeten gaan samenwerken als 1).

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
Sp3ci3s8472 schreef op vrijdag 23 juni 2023 @ 17:18:
[...]


Los van de hele DLSS en FSR discussie, hier ben ik het dus niet met je eens. Nvidia heeft in mijn ogen genoeg rotzooi uitgehaald dat je juist niet objectief bent als je niet een mate van wantrouwen hebt.
Als ik 3x iets vervelends doe bij jou dan ga je toch hopelijk ook bij opvolgende keren de situatie anders aan? Anders ben je een ezel die zich aan dezelfde steen stoot.

Andersom zou je hetzelfde kunnen stellen over de AMD drivers, dat die toch zo slecht zijn. Sinds een paar maanden na de launch van de 5700 XT heb ik werkelijk geen enkele problemen gehad (5700 XT, 6900 XT en nu op Linux de 7900 XTX). Toch hoor je nog steeds mensen met Nvidia kaarten zeggen dat AMD drivers niet stabiel zijn; iets met objectiviteit.
De Nvidia kaart in mijn laptop met Linux, dat is een ander verhaal.... als hij werkt doet hij het verder prima en ik game er eigenlijk ook niet op.

Het maakt het niet beter dat AMD dat vendor lockin dus nu ook flikt; maar ik ben bij AMD tenminste nog geneigd eerder misschien te gebruiken dan bij Nvidia.
Ik ben zelf wat meer data gedreven, maar heb wel een lichte voorkeur door ingenieur achtergrond. Wat betreft die drivers zag ik laatst een interessante:



Wat zegt de data? Voor games vrijwel evenveel bug fixes en releases in afgelopen jaar, maar: verhoudingsgewijs meer kritieke bugs bij AMD. En dat zijn de vervelendste, want geen work around.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op zondag 25 juni 2023 @ 17:05:
[...]
Voor N41 42 43 zouden ze mogelijk alle 3 dezelfde package kunnen gebruiken. Aangezien de geheugen chiplets ook zeer goedkoop zijn, gaan de kosten dan puur zitten in de compute chiplets, GCD dan wel GCX's (meerdere GCD's die moeten gaan samenwerken als 1).
Dat lijkt me niet, aangezien de benodigde pins voor een 384 bit bus nogal wat ruimte nodig hebben. En het is niet handig om de N41 en N42 dan groter te maken, want dan worden de makers van laptops boos.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • batumulia
  • Registratie: Mei 2007
  • Laatst online: 11-10 15:55
sunsmountain schreef op zondag 25 juni 2023 @ 17:11:
[...]

Ik ben zelf wat meer data gedreven, maar heb wel een lichte voorkeur door ingenieur achtergrond. Wat betreft die drivers zag ik laatst een interessante:

[YouTube: THIS is why "AMD Drivers Suck"... And It's Super Interesting.]

Wat zegt de data? Voor games vrijwel evenveel bug fixes en releases in afgelopen jaar, maar: verhoudingsgewijs meer kritieke bugs bij AMD. En dat zijn de vervelendste, want geen work around.
Ik ervaar zelf weinig problemen met drivers (van beide bedrijven overigens) maar qua oplossen van bugs... AMD heeft al ruim 2 jaar een CS:GO bug die ze nog steeds niet opgelost hebben. Kan er wel omheen werken door Instant Replay aan te zetten, maar netjes is het niet.

Steam/Origin/Uplay: Batumulia | Star Citizen GoT organisation / Referral code | Gamerig


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
batumulia schreef op maandag 26 juni 2023 @ 10:30:
[...]


Ik ervaar zelf weinig problemen met drivers (van beide bedrijven overigens) maar qua oplossen van bugs... AMD heeft al ruim 2 jaar een CS:GO bug die ze nog steeds niet opgelost hebben. Kan er wel omheen werken door Instant Replay aan te zetten, maar netjes is het niet.
Ik merk dat AMD bugs bij oudere spellen (die ze zelf introduceren) niet fixen. Wat erg iritant is, gelukkig heb ik er met Proton op Linux geen last meer van. Denk dat ik wel binnenkort een keer een issue moet inschieten dat na een bepaalde tijd spelen van Final Fantasy 15 de fps langzamerhand steeds lager wordt tot ik het spel sluit en opnieuw start.
Ze zouden het driver team moeten uitbreiden dat je ook oude bugs kan oplossen... dan laat je eventueel de inwerk krachten zich daarop storten :P.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
Ludewig schreef op zondag 25 juni 2023 @ 18:24:
[...]


Dat lijkt me niet, aangezien de benodigde pins voor een 384 bit bus nogal wat ruimte nodig hebben. En het is niet handig om de N41 en N42 dan groter te maken, want dan worden de makers van laptops boos.
Ik bedoel meer schaalbaar dezelfde package connects, per GCX en 2 MCD. Als de frontend op een aparte chiplet kan, misschien zelfs een oudere node, krijg je een puur schaalbare Navi41/42/43.

Navi40 zou 192 CU kunnen worden :)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
batumulia schreef op maandag 26 juni 2023 @ 10:30:
[...]


Ik ervaar zelf weinig problemen met drivers (van beide bedrijven overigens) maar qua oplossen van bugs... AMD heeft al ruim 2 jaar een CS:GO bug die ze nog steeds niet opgelost hebben. Kan er wel omheen werken door Instant Replay aan te zetten, maar netjes is het niet.
Klinkt als een medium priority bug, waar Nvidia er dus relatief meer van op de backlog heeft staan.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • batumulia
  • Registratie: Mei 2007
  • Laatst online: 11-10 15:55
sunsmountain schreef op maandag 26 juni 2023 @ 18:30:
[...]

Klinkt als een medium priority bug, waar Nvidia er dus relatief meer van op de backlog heeft staan.
Ja, en 1 die waarschijnlijk ook nooit opgelost gaat worden met Counter-Strike 2 in het vooruitzicht. Jammer wel, vooral als je als gebruiker alle informatie bij AMD aanleverd en er vervolgens niks mee gebeurd (laat staan een reactie terug binnen een week)

Steam/Origin/Uplay: Batumulia | Star Citizen GoT organisation / Referral code | Gamerig


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
batumulia schreef op dinsdag 27 juni 2023 @ 13:20:
[...]


Ja, en 1 die waarschijnlijk ook nooit opgelost gaat worden met Counter-Strike 2 in het vooruitzicht. Jammer wel, vooral als je als gebruiker alle informatie bij AMD aanleverd en er vervolgens niks mee gebeurd (laat staan een reactie terug binnen een week)
Dat is nog het meest storende; reageer en zeg het spel is erg oud en heeft lage prioriteit we gaat dit niet oplossen of waarschijnlijk niet oplossen.
Niet het antwoord waar je op wacht, maar een stuk beter dan doen alsof je neus bloed.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Sp3ci3s8472 schreef op dinsdag 27 juni 2023 @ 15:42:
[...]
Dat is nog het meest storende; reageer en zeg het spel is erg oud en heeft lage prioriteit we gaat dit niet oplossen of waarschijnlijk niet oplossen.
Niet het antwoord waar je op wacht, maar een stuk beter dan doen alsof je neus bloed.
Je begrijpt niet hoe zulke dingen werken. Vanuit het perspectief van het bedrijf als geheel worden zulke bugs gemeld bij het driver-team en die pakt het op indien mogelijk. Vanuit het perspectief van de ontwikkelaar pak je op wat de hoogste prioriteit heeft en schuif je lagere prioriteit-bugs naar de toekomst. Dan is er af en toe een opschoning waarbij de lage prioriteit-bugs die al heel lang niet worden opgepakt, massaal worden gesloten.

En als bedrijf krijg je alleen maar gezeik als je eerlijk meldt dat bepaalde dingen lage prioriteit hebben, want iedereen vindt zijn eigen probleem erg belangrijk.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Ik begrijp het echt wel... alleen zou ik liever zien dat bedrijven het op de andere manier aanpakken.

Zeker met bugs die ze zelf introduceren, het werkte prima met de RDNA 1 drivers. Toen RDNA 2 uit kwam hebben ze de bug geintroduceerd (ook op mijn oude 5700 XT).
Het boeit mij nu vrij weinig, ik zit nu op Linux en ben in principe afhankelijk van Proton waar het wel werkt, alleen met wat performance verlies.

Acties:
  • +2 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 12-10 15:15
Ik denk ook wel dat AMD driver team het wat lastiger heeft met alweer een nieuwe architectuur, waar bij Nvidia de SMs al 3 generaties hetzelfde zijn (als niet langer).

Maar @Sp3ci3s8472 heeft wel een punt. De manier waarop je omgaat met Bugs, maakt uit. Wees eerlijk in welke je wel en niet fixt, en waarom. Is er een work around? Sorry geen (snelle) fix. Kan je niet spelen? Fixen we in de eerstvolgende release.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +3 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26


Jammer van AMD.... ik ben het eens met de analyse van Gamers Nexus. Zijn we eindelijk af van Nvidia met hun GameWrecks rotzooi en exclusiviteits deals, gaat AMD ook de exclusiviteits kant op.

Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Fwiw:

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 23:59
Wat een clownfiesta toch weer, vooral die game waar DLSS / RTX verwijderd is zodra ze AMD sponsoring kregen.....

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Dennism schreef op dinsdag 4 juli 2023 @ 15:39:
Wat een clownfiesta toch weer, vooral die game waar DSLL / RTX verwijderd is zodra ze AMD sponsoring kregen.....
Zijn we eindelijk voor een groot gedeelte af van Nvidia die deze ellende deed, gaat AMD ze nu nadoen :?.

Acties:
  • +7 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12-10 13:29
Ik snap de ophef niet, AMD is gewoon bezig met het algemeen geaccepteerde plan voor succes in de hardwarewereld:
  • Gen-op-gen verbetering minimaliseren
  • Prijzen omhoog
  • Investeren in marketing en devs omkopen
  • ???
  • Mindshare en marktaandeel!
Let maar op, binnen no-time zal AMD van minder dan 10% marktaandeel voor dGPU's stijgen naar de nummer 2 van de wereld!

Voor toekomstige lezers: bovenstaande is bedoeld als grap, op het moment van schrijven was Intel ze nog niet voorbij...

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Goed punt :+.

Goed om te zien dat de media wel scherp is. Die krijgen nu weer een tijdje te horen dat ze Nvidia fanboys zijn, terwijl ze een maand daarvoor met de launches van de fantastisch goed geprijsde 4xxx serie van Nvidia waarschijnlijk nog AMD fanboys werden genoemd. :z

Acties:
  • +4 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12-10 13:29
Wie in deze tijd nog een fanboy van AMD of Nvidia is heeft zoveel boter op het hoofd dat zelfs hun graka op maximale load het nog niet weg kan smelten. Zelfs bij de harde kern moet er nu toch wel een belletje gaan rinkelen dat er niet zoiets bestaat als een bedrijf dat je makkertje is die je door dik en dun moet verdedigen -- ook niet als je een product gekocht hebt.

...nah, ik weet ook wel dat het net de harde kern is omdat dat soort dingen nooit zal doordringen. Voetbalfans zijn nog rationeler, daar speelt het cluppie in ieder geval soms nog voor de eer in de sport. :P

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 03:58
Het is eigenlijk al begonnen na RDNA1. Ieder opvolgende generatie worden de kaarten verder dichtgetimmerd zodat je zelf niet leuk kan modden meer : (. Dus in sommige opzichten zelfs erger dan Nvidia..
Er is gelukkig nog hoop in de vorm dat Intel doorzet en voet aan de grond krijgt met Arc Battlemage, maar dan voor een redelijke prijs.

Wat is het toch triest gesteld in GPU land sinds 2016.

Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12-10 13:29
CMT schreef op dinsdag 4 juli 2023 @ 21:21:
Er is gelukkig nog hoop in de vorm dat Intel doorzet en voet aan de grond krijgt met Arc Battlemage, maar dan voor een redelijke prijs.
Met de kanttekening dat Battlemage niet eerder dan de tweede helft van 2024 verwacht wordt. Niet dat je er niet op kunt wachten: RDNA 4 zal vast nauwelijks eerder zijn en de volgende Nvidia generatie komt niet eerder dan 2025. Dat is al aangenomen dat RDNA 4 de negatieve trend van RDNA 3 niet doorzet, en bij Nvidia weten we al zeker dat ze hun prijs/prestatie exact op hun eigen portemonnee gaan afstemmen en niet op de onze. We mogen de AI-overblijfselen hebben nadat ze netjes afgeknepen zijn.
Wat is het toch triest gesteld in GPU land sinds 2016.
Enige lichtpuntje dat ik kan bedenken is dat je naar alle verwachting heel lang met een graka kan moet doen, als je er eenmaal eentje hebt... Ik vond mijn 1070 destijds bij aanschaf heel duur, maar teruggerekend naar hoe lang ik het ding al heb was het een koopje. De volgende kaart die ik koop zal het bijna zeker net zo lang gaan uithouden, al dan niet noodgedwongen.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +2 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 08:22

vectormatic

Warlock of the doorlock

CMT schreef op dinsdag 4 juli 2023 @ 21:21:

Wat is het toch triest gesteld in GPU land sinds 2016.
Ach, er zijn ook lichtpuntjes, RDNA2 is lekker betaalbaar, en zeker als je op 1080p speelt ben je met een RX6600 voorlopig wel even zoet. Die dingen kan je nu voor 200 euro kopen, en als je dan bedenkt dat je dat voor een mid-range kaart in 2004 (een 6600gt) ook makkelijk kwijt was, en daar 19 jaar inflatie overheen mag...

Zelf ben ik behoorlijk in mn nopjes met die 6600, alleen de aankoop van een 34" ultrawide heeft wat druk gezet op een upgrade, maar ik zit nu soort van op een punt dat meer GPU power dan snowballt naar nieuwe PSU, grotere case etc...

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Fwiw: Coreteks heeft een mooie video over mogelijke 2023 next-gen graphics online gezet.

Ziet er prachtig uit maar sommige zaken zoals rond 6.02 en 6.58 komen op mij enigzins onnatuurlijk scherp over. Of ligt dat aan mij :?

[ Voor 3% gewijzigd door Help!!!! op 11-07-2023 18:51 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 22-09 01:32
Ziet er allemaal leuk uit, maar de titel is wel wat misleidend. Dat zijn niet allemaal games, meeste zijn tech demos. En de content is ook wat misleidend, zoals het stuk over software based pathtracing. Leuk dat ze de scene zo ver uit hebben kunnen kleden dat dat realtime werkt, maar dat heeft niets te maken met pathtracing in een normaal spel.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 23:59
Ben ik dan de enige die dat tech demo's er dus vaak helemaal niet uit vind zien, en ook eigenlijk waar weinig zin heeft in games met dat soort graphics?

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

AMD FidelityFX SDK 1.0 Available Now

What is the AMD FidelityFX SDK?
The AMD FidelityFX SDK is our new and easy to integrate solution for developers looking to include AMD FidelityFX technologies into their games without any of the hassle of complicated porting procedures. In a nutshell, it is AMD FidelityFX graphics middleware.
Background
In the last few years since we've started releasing AMD FidelityFX technologies, we've become one of the most used and trusted technology partners in the industry. Our outstanding open-source technology can now be found in over 250 games, made by some of the biggest names in gaming.

As our AMD FidelityFX technologies have grown and become more widely used, we recognized there were many ways we could improve the experience for developers looking to integrate them. The AMD FidelityFX SDK is the result of our aim to bring simplicity, structure, and consistency into all our great AMD FidelityFX technologies.

Of note, the SDK features:

A consistent standard and style that is much more user-friendly.
Easier application spawning letting us focus on core algorithm details rather than boilerplate setup code.
A re-architected graphical framework that is not only more robust and ready, but is also API agnostic, allowing us to develop our effects across intended targets simultaneously.
This also doubles as a great how-to in creating a custom backend implementation for developers' own multi-platform engines.
Extensive documentation.
And lastly, we've taken a lot of the guesswork out of implementation steps by offering complete pre-built solutions for all of our effects. Most of which can be supported in under 20 lines of code.
That being said, if you were a fan of taking the code we put out and manually integrating yourself, you are still free to do that. We've taken nothing away. All we've done is moved things into a more coherent structure on disk, and cleaned up the code to make it more consistent in style.

To read more about the introduction of three new AMD FidelityFX technologies go here.

[ Voor 88% gewijzigd door Help!!!! op 13-07-2023 08:47 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Dat hele verhaal gelezen en nog niks wijzer. Is dat HYPR-RX?

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12-10 13:29
Ludewig schreef op donderdag 13 juli 2023 @ 09:44:
Dat hele verhaal gelezen en nog niks wijzer. Is dat HYPR-RX?
Nee, Hypr-RX is een knopje dat drie andere knopjes aanzet. Puur een UI feature. Dit is een SDK, relevant voor softwareontwikkelaars. Ze willen het zo makkelijk mogelijk maken voor mensen om AMD features te ondersteunen.

De drie "nieuwe" effecten zijn overigens een Gaussian blur, een depth of field effect (bokeh) en een shader die, hou je vast, chromatic aberration, vignetting en film grain mogelijk maakt.

De overeenkomst met Hypr-RX is dus wel dat het vooral oude wijn in nieuwe zakken is, in sommige gevallen hele oude wijn. Dit is niet op dezelfde manier te hypen als RT, zeg maar. :P

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

De RX7900 lijkt er nu echt aan te komen.
Opvallende is dat het PCB ook duidelijk anders is op deze Nitro+, inclusief een beduidend kleiner GPU pakket. Lijkt erop dat het de 84CU N31 config op een N32 package is met 16GB/640GB/s i.p.v. 20GB/800GB/s.
https://videocardz.com/ne...t-feature-new-navi-3x-gpu

Nu ben ik zeer benieuwd hoeveel procent performance die 160GB/s gaat kosten, zeker op 1440p. Want als het verlies minimaal is en de prijs toch een stukje lager is omdat je een simpeler PCB, GPU package en minder VRAM chips hebt, dan is dit een potentieel zeer interessante videokaart. Uiteraard als deze wereldwijd verkrijgbaar zou zijn.

Verder zou AMD er ook goed aan doen dit gewoon de RX7800XT te noemen en die 70CU de RX7800, maar AMD is marketingtechnisch niet zo handig. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12-10 13:29
Voor mijn part noemen ze het ding Bob, als de prijs maar klopt. Maar ook dat is iets waar men marketingtechnisch niet zo handig in is... :/ Je zou denken dat ze van de denderende ontvangst van de RX 7600 geleerd moeten hebben, maar bij AMD marketing laat men bijna nooit een gelegenheid aan zich voorbij gaan om fouten uit het verleden te herhalen, dus tja...

[ Voor 43% gewijzigd door MneoreJ op 24-07-2023 18:16 ]

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Eindelijk zegt iemand het anders ook eens. Precies wat ik nu al tijden zeg.
AMD hun Radeon strategie is ongelofelijk dom. Er is geen plan om marktaandeel te verkrijgen. Hun marketingafdeling bakt er niks van en zaken zoals FSR3 beloven helpt helemaal niet. Ze laten kans na kans liggen want ze vragen veel te veel geld en verkopen vervolgens nauwelijks iets. Er ligt een gigantisch gat open voor AMD om de gamingmarkt te bedienen die Nvidia heeft laten zitten, en ze doen niks.

Komt er ook nog eens bij dat ReLive al een tijdje echt niet slechter is dan Shadowplay. Je moet alleen je bitrate iets hoger zetten voor encoding, maar je hebt meer features. Idem voor AV1. Verder heeft Nvidia juist behoorlijk wat problemen met flikkerende schermen met Ada en AMD doet het veel beter. En AMD hun software pakket zit ook veel beter in elkaar.


En het ergste is dat ze met Ryzen precies hebben gedaan wat ze met Radeon niet doen. Maak het fors goedkoper tot het punt dat het alternatief dom eruit ziet en bouw een marktaanwezigheid op. Ze hebben nota bene een chiplet architectuur en N33 zit op een oude node. Of wat ze ook al zeggen. rebrand de RX6700XT dan of kondig een officiële prijsverlaging naar $300 aan.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 09:48
De rx7900 16gb zal dan waarschijnlijk rx6900xt/6950xt prestaties krijgen?

Het prijskaartje zal dan ook zoiets zijn dus voegt het weer niks toe.. deze generatie gaat niks extra's brengen, bij beide kampen niet.

En ze laten elkaar leven door vooral niet teveel te concurreren.

Ondanks de erg hoge prijs in het begin ben ik tevreden over mijn xtx, maar hopelijk wordt het de volgende generatie allemaal wel weer wat beter, in ieder segment.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op donderdag 27 juli 2023 @ 20:54:
Eindelijk zegt iemand het anders ook eens. Precies wat ik nu al tijden zeg.
AMD hun Radeon strategie is ongelofelijk dom. Er is geen plan om marktaandeel te verkrijgen. Hun marketingafdeling bakt er niks van en zaken zoals FSR3 beloven helpt helemaal niet. Ze laten kans na kans liggen want ze vragen veel te veel geld en verkopen vervolgens nauwelijks iets. Er ligt een gigantisch gat open voor AMD om de gamingmarkt te bedienen die Nvidia heeft laten zitten, en ze doen niks.

Komt er ook nog eens bij dat ReLive al een tijdje echt niet slechter is dan Shadowplay. Je moet alleen je bitrate iets hoger zetten voor encoding, maar je hebt meer features. Idem voor AV1. Verder heeft Nvidia juist behoorlijk wat problemen met flikkerende schermen met Ada en AMD doet het veel beter. En AMD hun software pakket zit ook veel beter in elkaar.
[YouTube: Is AMD Missing Out On Market Share? Zen 4 Using DDR5-8000? July Q&A [Part 2]]

En het ergste is dat ze met Ryzen precies hebben gedaan wat ze met Radeon niet doen. Maak het fors goedkoper tot het punt dat het alternatief dom eruit ziet en bouw een marktaanwezigheid op. Ze hebben nota bene een chiplet architectuur en N33 zit op een oude node. Of wat ze ook al zeggen. rebrand de RX6700XT dan of kondig een officiële prijsverlaging naar $300 aan.
Niet de eerste keer dat ze het erover hebben; alleen gaan ze nu de diepte in en dit was inderdaad hard nodig.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op vrijdag 28 juli 2023 @ 14:57:
[...]


Niet de eerste keer dat ze het erover hebben; alleen gaan ze nu de diepte in en dit was inderdaad hard nodig.
En de RX7900GRE maakt het ook weer eens duidelijk.
Ik dacht nog even dat het misschien wel wat zou kunnen zijn, maar die hebben ze ook flink uitgekleed tot het punt dat prestaties vergelijkbaar met de RX6900XT/RX6950XT lijken te zijn. 80CU om 80CU en nauwelijks prestatiewinst. Dat is gewoon slecht. Het enige dat ik erover kan zeggen is dat AMD blijkbaar wel een relatief functionele N31 videokaart voor $650 kan en wil verkopen.

Verder denk ik dat die 80CU configuratie hardstikke logisch is. Ik heb nog niks kunnen vinden over de specifieke configuratie, maar ik vermoed dat er twee shader arrays van elk vier WGP/8CU uitgeschakeld zijn. De RX7900XT is waarschijnlijk een shader array en twee WGP ergens in de andere arrays. Qua yielding maakt het, vermoed ik, erg weinig uit of het 84CU of 80CU is.
Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/ovVKK9wGfQBnUco9VRTLyb.jpg

Dan is er nog de 70CU. Dat is een Shader Engine uit en dan nog eens vijf WGPs uit. Due configuratie mist namelijk ROPS die bij de Shader Engine horen.

Ga ik het gewoon weer over mijn favoriete onderwerp hebben: Hoe kan AMD hun eigen puinzooi oplossen.
Het is namelijk zo makkelijk. Die RX7900XT heeft de verkeerde naam. AMD was alleen zo dom om door te zetten waar Nvidia met hun "unlaunch" kwam. Maar AMD kan altijd hun lijn refreshen. Nu duidelijk is geworden dat ze een geheel nieuwe 80CU SKU hebben gevalideerd, lijkt het me overduidelijk:

-RX7900XT = stilletjes EOL verklaren en nooit meer iets over zeggen. :Y)
-RX7800XT 20GB = RX7900XT met 80CU i.p.v. 84CU en voor $700 in de markt zetten. 30% sneller dan RX6800XT.
-RX7800 16GB = 70CU N31 op hybride N31/N32 package en voor $600 in de markt zetten. 30% sneller dan RX6800.
-RX7700XTX 16GB = N32, richting 50% sneller dan RX6700XT, $500.
-RX7700 12GB = N32, 30% sneller dan RX6700 of RX7600, $400.

Ik zie wel of het gebeurd. Voor N31 koester ik bijzonder weinig hoop, N32 misschien nog een beetje...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 09:48
Is toch logisch? De 7900 xt is maar zon kleine 20% sneller dan de rx 6900xt. Kleed je hem verder uit dan is het dus idd 6900/6950xt zoals ik al eerder zei.

Zet je hem vervolgens voor 700 in de markt ben je wederom te duur, een 6950xt krijg je voor minder. Leg je geen euro's toe dan krijg je ook geen extra prestaties deze generatie, zo simpel is het en vaak zelfs nog duurder ook.

Ze hebben tijdens corona gezien dat er zat mensen zijn die er toch meer voor willen geven en dat buiten ze gewoon uit nu. Net als vele andere bedrijven.

[ Voor 16% gewijzigd door meljor op 28-07-2023 20:08 ]


Acties:
  • 0 Henk 'm!

  • stylezzz
  • Registratie: April 2000
  • Laatst online: 06:47
6950 xt gaat dit kwartaal eol. Dus als je dan wat nieuws wil, kom je al snel bij een 7900 of 7800 xt(x?) uit.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

meljor schreef op vrijdag 28 juli 2023 @ 20:06:
Is toch logisch? De 7900 xt is maar zon kleine 20% sneller dan de rx 6900xt. Kleed je hem verder uit dan is het dus idd 6900/6950xt zoals ik al eerder zei.

Zet je hem vervolgens voor 700 in de markt ben je wederom te duur, een 6950xt krijg je voor minder. Leg je geen euro's toe dan krijg je ook geen extra prestaties deze generatie, zo simpel is het en vaak zelfs nog duurder ook.

Ze hebben tijdens corona gezien dat er zat mensen zijn die er toch meer voor willen geven en dat buiten ze gewoon uit nu. Net als vele andere bedrijven.
Ik heb het over een niet uitgeklede configuratie. :)
Want de RX7900XT haalt de 30% sneller dan de RX6800XT. Het punt is dat dit altijd de RX7800XT voor RX7800XT prijzen had moeten zijn. Verder heeft AMD een manier nodig om gezichtverlies te verminderen. Die hebben ze in die 80CU configuratie.
Afbeeldingslocatie: https://tweakers.net/i/XWtzr0quQaD2tteonAlTtAW8JiM=/800x/filters:strip_icc():strip_exif()/f/image/mS2184h8lnU9Z6BWAKzBKVMV.jpg?f=fotoalbum_large
Afbeeldingslocatie: https://tweakers.net/i/30iyKCyiDw4DVK1u8FBDcDtazug=/800x/filters:strip_icc():strip_exif()/f/image/lecKjanDXTFcG8UZqso06cRL.jpg?f=fotoalbum_large

Verder gaat het ook geweldig met hun verkopen. Volgende week komen de Q2 cijfers. Kunnen we zien of het al iets minder dramatisch is geworden dan de afgelopen drie kwartalen waar al bestaande inventaris van videokaarten, langzaam is verkocht, nadat vanuit AMD de prijzen zijn verlaagd en AMD waarschijnlijk het merendeel van de kosten daarvoor heeft vergoed. Het idee dat particulieren of bedrijven bereid zijn deze prijzen te betalen, is niet te onderbouwen.
Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/YBg9idSBLqvbN49xV59HFn.png

Weet je, ik denk dat de RX7900GRE bestaat om de AIB exclusieve AIBs in XFX, Powercolor en Sapphire uit de brand te helpen. Want alleen die drie gaan ze maken en verkopen. De RX7900GRE wordt ook niet alleen uitgebracht in China. Die komt ook beschikbaar voor pre builds voor een beduidend lagere prijs dan de RX7900XT. Maar die chip zal niet veel goedkoper zijn voor AMD om te laten maken. Het is in ieder geval iets dat ze niet zouden doen als AMD makkelijk hun chips verkocht. Maak echt geen illusies. AMD heeft bewust een cost down N31 SKU ontwikkeld om meer van hun N31 chips te verkopen zonder de RX7900XT nu echt in prijs te moeten verlagen. Maar ik moet nog zien of dat niet alsnog gaat komen. Want toen een paar RX7900XT modellen de afgelopen weken wat goedkoper waren, lijken ze wel beter verkocht te zijn. Maar nu die prijzen weer omhoog zijn gegaan, zie ik de interesse gewoon weer wegzakken. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12-10 13:29
Jemig, die verkoopgrafiek ook. Go Intel! Go Intel! It's your birthday! :P Kijken of ze in 2025 met Battlemage het stokje definitief van AMD over kunnen nemen...

Jaja, verkeerde topic, ik weet het. Maar goede hemel, die Radeon afdeling toch. De processors gaan als de brandweer, maar om de grafische afdeling ook op iets van visie te betrappen moet je vroeg opstaan. Met Nvidia-afgunst alleen kom je er niet.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

MneoreJ schreef op vrijdag 28 juli 2023 @ 21:14:
Jemig, die verkoopgrafiek ook. Go Intel! Go Intel! It's your birthday! :P Kijken of ze in 2025 met Battlemage het stokje definitief van AMD over kunnen nemen...

Jaja, verkeerde topic, ik weet het. Maar goede hemel, die Radeon afdeling toch. De processors gaan als de brandweer, maar om de grafische afdeling ook op iets van visie te betrappen moet je vroeg opstaan. Met Nvidia-afgunst alleen kom je er niet.
En de oplossing is zo simpel. :)
Kijk bijvoorbeeld naar het nieuwste voorbeeld in Ratchet & Clank en dan met name de vorige generatie videokaarten op 1440p, maar ook naar de RX5700XT. Deze game met DirectStorage wil overduidelijk twee dingen: VRAM capaciteit en geheugenbrandbreedte. Je moet die data ergens opslaan en het moet van en naar de GPU komen. Mis je er een, dan zak je door het ijs.

AMD heeft ondertussen twee bijna perfecte GPUs om het $300-$500 segment compleet te domineren. Dat zijn N22 en N32. Maar ze laten het liggen op korte termijn denken. Met elke game die er nu komt, gaat de vraag om een videokaart met 12 of 16GB aan VRAM met een fatsoenlijke bus, groter worden. Dat gaat uiteindelijk vraag naar videokaarten genereren en dan kan je maar beter de partij zijn die ze heeft. AMD heeft die, Nvidia eigenlijk niet. Komt bij dat ik bij en prijspunt van $500 ook niet bepaald weg ben van 12GB. Dat lijkt mij te veel op 8GB twee jaar geleden.

Afbeeldingslocatie: https://tpucdn.com/review/ratchet-clank-rift-apart-benchmark-test-performance-analysis/images/vram.png
Afbeeldingslocatie: https://tweakers.net/i/SUUXDTYOtMMNgcM9Y8pDncx1PDc=/x800/filters:strip_icc():strip_exif()/f/image/ATqgBoXnJzFuAQWoNWxfMxrs.jpg?f=fotoalbum_large
https://www.techpowerup.c...rformance-analysis/5.html

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Premium Advanced Graphics!!!

Premium in de naam zetten maak het niet ineens waarheid.

Wat ook storend is dat AMD in samenwerking met de console makers "direct storage" heeft geimplementeerd en een keer de eerste is met een mooie techniek; om dan Nvidia de kans te geven om de eerste implementatie in Vulkan te doen.... 8)7 met natuurlijk hun stomme RTX naam erin. Werkelijk; Nvidia plakt op alles wat los en vast zit RTX }:O.
Het is geen direct storage op de consoles en het werkt net wat anders, maar dat maakt het net wat makkelijker om te zeggen waar het over gaat.

Nu krijgt Nvidia weer gratis marketing van o.a. Digital Foundry met hun (gesponserde?) content over RTX IO. AMD marketing strikes again.

Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12-10 13:29
Sp3ci3s8472 schreef op vrijdag 28 juli 2023 @ 23:16:
Nu krijgt Nvidia weer gratis marketing van o.a. Digital Foundry met hun (gesponserde?) content over RTX IO. AMD marketing strikes again.
Ik heb genoeg mensen die niet beter wisten online zien roeptoeteren dat AMD weer eens achterloopt en dit nog niet geïmplementeerd heeft... omdat geen hond weet dat AMD het nota bene begonnen is... omdat AMD toestaat dat anderen met zulke dingen te koop gaan lopen, en pas als Nvidia iets als feature verpakt misschien wellicht eens een keer wakker wordt om "oh maar wij ook hoor!" te roepen. En dat doen ze dan weer ongeacht of ze het al hebben, of ooit denken te gaan bouwen. Hypr-RX en FSR 3 any day now, for real.

Ik weet niet waarom precies maar toch wacht ik op de RX 7800/7700 (al dan niet XT). Om dan vervolgens waarschijnlijk een RTX 4070 te gaan kopen als de prijs/prestatie toch tegenvalt. Maar ik geef ze een kans en dat is meer dan ze verdienen. :|

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@Sp3ci3s8472 Er moet wel wat nuance bij. :)
DirectStorage 1.0 lijkt eigenlijk een mislukking te zijn geweest. Geen developer die het wou aanraken. Ik heb niet erg diep gegraven, maar het lijkt erop dat het niet fundamenteel sneller was.

Nvidia heeft vervolgens GDeflate gemaakt, open source aan Microsoft gegeven. Dat is de basis voor DirectStorage 1.1 en toen begonnen developers het wel serieus te nemen. Vervolgens heeft Nvidia er zelf RTX I/O rond gemaakt voor gebruik in Vulkan. Dat is ook GDeflate.

Het is natuurlijk wel noemenswaardig dat dit na RT, de tweede grote technologie met duidelijke Nvidia invloed is, die al hun 8GB VRAM videokaarten achterhaald maken en hun nieuwe 12GB modellen eigenlijk meteen al tegen de limiet duwen. Ik zelf zou eigenlijk niet veel meer dan €400 meer voor een 12GB videokaart willen betalen. Ik zie er gewoon de levensduur niet in.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • cnieuweboer
  • Registratie: November 2002
  • Laatst online: 22-09 01:32
DaniëlWW2 schreef op zaterdag 29 juli 2023 @ 13:49:
Het is natuurlijk wel noemenswaardig dat dit na RT, de tweede grote technologie met duidelijke Nvidia invloed is, die al hun 8GB VRAM videokaarten achterhaald maken en hun nieuwe 12GB modellen eigenlijk meteen al tegen de limiet duwen.
Directstorage is niet inherent een groter probleem voor minder VRAM, en kan het tegenovergesteld zijn. Bijvoorbeeld een van de redenen dat TLOU nu wel goed werkt icm 8GB VRAM is dat ze de asset caching in VRAM hebben aangepast, zodat full quality assest (optioneel) pas ingeladen worden op het moment dat ze gebruikt worden. En dat geeft soms een zichtbare vertraging. Direct Storage kan dat verbeteren.

Acties:
  • +1 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-10 13:31

SG

SG surft naar info hardewaren

DaniëlWW2 schreef op zaterdag 29 juli 2023 @ 13:49:
@Sp3ci3s8472 Er moet wel wat nuance bij. :)
DirectStorage 1.0 lijkt eigenlijk een mislukking te zijn geweest. Geen developer die het wou aanraken. Ik heb niet erg diep gegraven, maar het lijkt erop dat het niet fundamenteel sneller was.

Nvidia heeft vervolgens GDeflate gemaakt, open source aan Microsoft gegeven. Dat is de basis voor DirectStorage 1.1 en toen begonnen developers het wel serieus te nemen. Vervolgens heeft Nvidia er zelf RTX I/O rond gemaakt voor gebruik in Vulkan. Dat is ook GDeflate.

Het is natuurlijk wel noemenswaardig dat dit na RT, de tweede grote technologie met duidelijke Nvidia invloed is, die al hun 8GB VRAM videokaarten achterhaald maken en hun nieuwe 12GB modellen eigenlijk meteen al tegen de limiet duwen. Ik zelf zou eigenlijk niet veel meer dan €400 meer voor een 12GB videokaart willen betalen. Ik zie er gewoon de levensduur niet in.
Het probleem van direct storage is dat in tegen stelling tot console je breder variatie aan nvme performance kan krijgen zoals instap nvme oude nvme pcie3.0 tot top end pcie5.
Direct storage is op pc tussen conventioneel en nvme factor 10 en top end doet daar factor 4 boven op. Direct storage heeft dus te maken dat dev zich richten op mainstream markt dat houd soms in zen1 pcie3.0 met midrange uit die periode 1060 . Totdat nvme pcie4.0 4x minimum eis is voor game en niet recommended kan game engine niet afhankelijk zijn van direct storage zoals native deved ps5 titel . Wat dus dicteerd dat je game world niet afhankelijk kan zijn van directstorage streaming zoals bij xboxX en ps5. Bij console geld ook indien ook vorige gen dan is daar ook niet volledig ingezet op nvme streaming rendering.
Voor directstorage is 16x pcie 4.0 ook wel handig als texture managing genereert dan ook veel meer data verkeer naar de gpu V-ram

Naast dat dev asset pipeline nog iets anders meespeelt games verschillen in aantal textures. V-ram kan je dan zien als cache , maar game engine kan indien veel system mem de texture ook bufferen in sysmem. Het probleem is dus anders bij gpu met kleine hoeveelheid vram. Maar ook weinig sysmem en trage oude cheap nvme m.2 waarbij kans ook is 2x pcie3.0 is slot of ssd.
Bij veel sysmem kan het gebufferd worden van sata storage opstarten doet dan langer , maar goed gebufferd in sysmem en voldoende vram kan runtime ook vlot lopen.

Het is dus wachten op 5GB/s nvme mainstream zijn en dan ben je paar jaar verder zen6

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12-10 13:29
Een lichtpuntje is dat, in tegenstelling tot veel crypto, AI ook enorm veel behoefte heeft aan dik geheugen (vrijwel alle crypto ledgers hadden met 8 GB wel genoeg). Dat heeft weer tot gevolg dat vooral de high end in trek zal zijn (en dat was al zo voor AI), en de reguliere gamingkaarten een stuk minder. Wel heb je als gamer "pech" als de yields van de wafers goed zijn, want dan worden er meer high end kaarten gebakken (waar ze graag alle marge van zouden halen als het kon) en blijft er minder over voor de lower end.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

MneoreJ schreef op donderdag 3 augustus 2023 @ 12:53:
Een lichtpuntje is dat, in tegenstelling tot veel crypto, AI ook enorm veel behoefte heeft aan dik geheugen (vrijwel alle crypto ledgers hadden met 8 GB wel genoeg). Dat heeft weer tot gevolg dat vooral de high end in trek zal zijn (en dat was al zo voor AI), en de reguliere gamingkaarten een stuk minder. Wel heb je als gamer "pech" als de yields van de wafers goed zijn, want dan worden er meer high end kaarten gebakken (waar ze graag alle marge van zouden halen als het kon) en blijft er minder over voor de lower end.
Wij gamers hebben geen behoefte aan veel VRAM nu? :P
Maar ik weet niet of ik er blij mee ben. Persoonlijk ben ik er allang over uit dat mijn volgende videokaart minstens tweemaal zo snel als mijn RX5700XT moet zijn en minstens 16GB VRAM moet hebben. Voor mij is het dus "RX7800" (N32), "RX7800XT/RX7900"(dat 70CU N31 ding) of RX7900XT word. Als ik Nvidia al zou overwegen, dan moet ik al naar de RTX4080 kijken en dat is me echt veel te veel. RDNA2 interesseert me niet echt. Ik weet van mezelf dat ik een bepaalde mate van RT zeker wil proberen in elke games waar het kan.

Maar de prijzen zijn ondanks wat correcties nog steeds fors. Ik koester ook weinig hoop meer als ik Lisa Su zag zeggen dat ze met meer "enthousiast" videokaarten gaan komen. Inmiddels ga ik er vanuit dat die "RX7800" ook echt zo zal heten en €550-€600 gaat kosten hier. :/

Een strijd tegen AI gebruikers, gefinancierd door speculatieve investeringen, ik moet er niet aan denken. Zeker omdat AMD ook met dit kwam:
https://community.amd.com...gpu-computing/ba-p/621029

Want dat kan hier wel eens de aanleiding zijn, naast dat PyTorch open source is en niet CUDA vendor locked. Die CUDA vendor lock is toch al iets dat ROCm probeert te doorbreken. ROCm support voor RDNA3 zou later dit jaar volgen. Verder is AI meer dan neural. Er zijn toepassingen waar rauwe FP16 of FP32 en geheugen nodig is. En als je specifieke code voor RDNA3 schrijft die wel de extra ALU's aanspreekt, dan heb je even een bak aan rekenkracht. Zeker omdat RDNA3 ook nog eens hogere clockspeeds laat zien in compute dan graphics workloads.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12-10 13:29
DaniëlWW2 schreef op donderdag 3 augustus 2023 @ 13:28:
Wij gamers hebben geen behoefte aan veel VRAM nu? :P
Dat is niet te vergelijken met wat AI lust. :P Er is op dit moment geen game die zinvol gebruik kan maken van 24 GB, tenzij je misschien een of andere belachelijke ultra enhanced texture mod op 4K installeert en dan ook RT ultra aan wil hebben (of voor het handjevol VR enthousiastelingen, misschien), maar een AI model dat 24 GB in beslag kan nemen is goed te doen en maakt meer mogelijk dan een dat in 12 GB moet passen. En bij AI is het nog veel belangrijker dat je niet uit je geheugen loopt, want waar games nog enigszins dynamisch in kunnen spelen op het gebrek (hoe vervelend dat er ook uit kan zien) heb je bij je model gewoon pech en houdt de code op te werken (meestal; er zijn manieren om eromheen te werken maar dan raak je alsnog enorm veel performance kwijt). Je moet dan overstappen op een beperkter model.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 03:58
De reguliere gaming kaarten komen gewoon echt tekort als het op VRAM aankomt.
Het gaat nu weliswaar nog, maar nieuwe spellen zoals bijvoorbeeld Diablo 4 weten de vram van mijn RX6900XT tot aan de nek te vullen. En dat met ultra settings op 3440x1440. Dus 24GB is geen overbodig luxe meer als het om toekomstbestendigheid gaat.
Daarnaast vermoed ik dat het alleen maar meer gaat worden, wanneer Direct Storage ook een ding wordt.

Mocht het weer zo'n ramp worden qua beschikbaarheid en prijzen, dan hoop ik dat Intel het nu wel lukt om serieus in de GPU markt te stappen en de duopolie te doorbreken.
Ik ben AMD en Nvidia om diverse redenen eigenlijk zat en wil mijn geld geven aan een fabrikant die het verdient :O

De RX6900XT zal ik dus nog lang koesteren. Naast de MSI 1080TI Gaming X, de 2e gouden aankoop die ik voor een PC gedaan heb.

Acties:
  • +2 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12-10 13:29
CMT schreef op donderdag 3 augustus 2023 @ 13:49:
De reguliere gaming kaarten komen gewoon echt tekort als het op VRAM aankomt.
Het gaat nu weliswaar nog, maar nieuwe spellen zoals bijvoorbeeld Diablo 4 weten de vram van mijn RX6900XT tot aan de nek te vullen. En dat met ultra settings op 3440x1440. Dus 24GB is geen overbodig luxe meer als het om toekomstbestendigheid gaat.
Toekomstbestendigheid is een vaag begrip dat angst en onzekerheid aanjaagt als je niet ook aangeeft voor hoeveel jaar je eigenlijk denkt in te kopen. Laten we wel wezen, als jij het budget hebt voor een 6900 XT en 4K gaming dan trek je toch wel weer de portemonnee lang voordat je "toekomstbestendige" kaart echt niet meer mee kan. Mensen die nu in de markt zijn voor een 7900 XTX moeten zich inderdaad zorgen gaan maken over de AI inkopers die op dezelfde kaarten azen, maar ik had het over een niveautje lager.

We beginnen nu te zien dat 8 GB aantoonbaar niet meer genoeg is... soms, en we zouden nu al zo ver zijn dat we onszelf aanpraten dat "24GB geen overbodige luxe is"? Over het woord "overbodig" zal ik geen discussie hebben, maar dat het luxe is kunnen we toch hopelijk wel stellen. Waarom 24 GB tenslotte? Wat armoedig. Zou je niet liever wachten op de kaarten met 48 GB? Veel toekomstbestendiger. :P

Ik durf wel te stellen dat de geheugenbehoefte van AI altijd voor gaat liggen op die van gaming, ook als die laatste toeneemt, en dat in die zin de highest end altijd interessanter zal zijn voor de AI inkopers (ook omdat compute toepassingen hun performance netjes lineair kunnen schalen met de hardware, en games niet).
Het lijkt mij dat het alleen maar meer gaat worden, wanneer Direct Storage een ding wordt.
Een jaar geleden hoorde ik mensen nog beweren dat je gek was als je geen hardware met ondersteuning voor PCIe 5 kocht en een dito SSD, "want DirectStorage". Goed, kun je zeggen dat die de klok en de klepel niet helemaal goed geplaatst hadden, maar de algemene trend blijft: we praten ons veel en veel makkelijker aan dat we toch echt duurdere hardware nodig hebben voor de rap aansnellende toekomst dan dat we settelen voor iets redelijkers en dan upgraden als de tijd daar is en we weten hoeveel hardware we nou eigenlijk nodig hebben. En zolang je het geld voor die gemoedsrust over hebt is dat ook prima natuurlijk, maar laten we niet doen alsof zoiets mainstream is.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 03:58
MneoreJ schreef op donderdag 3 augustus 2023 @ 14:09:
[...]

Toekomstbestendigheid is een vaag begrip dat angst en onzekerheid aanjaagt als je niet ook aangeeft voor hoeveel jaar je eigenlijk denkt in te kopen. Laten we wel wezen, als jij het budget hebt voor een 6900 XT en 4K gaming dan trek je toch wel weer de portemonnee lang voordat je "toekomstbestendige" kaart echt niet meer mee kan. Mensen die nu in de markt zijn voor een 7900 XTX moeten zich inderdaad zorgen gaan maken over de AI inkopers die op dezelfde kaarten azen, maar ik had het over een niveautje lager.
Voor mij persoonlijk betekent toekomstbestendig dat een GPU minimaal 2 jaar mee moet gaan, met het oog op 4-5 jaar. Toen ik 2 jaar geleden de RX6900XT aanschafte, dacht ik nog: "mijn hemel, wat ik heb ik nu aan 16GB vram, dat wordt toch niet gebruikt binnen de levensduur".
De ervaring met Diablo 4 en de reviews van een aantal games het afgelopen jaar, heeft deze gedachte volledig omgedraaid in opluchting.

Dat ik destijds zoveel voor een GPU uit heb geven, ging trouwens ook met tegenzin. Het is alleen een gouden koop geweest omdat de omstandigheden zo beroerd waren.
Daarnaast investeer ik liever in een highend gpu omdat het op de lange termijn vaak goedkoper blijkt te zijn.
Gaat het minder lang mee dan gehoopt, dan is de kaart een stuk makkelijker te verkopen dan een evt. midrange kaart dat dan gedegradeerd is tot lowend. In die zin houdt het dus zijn waarde wat langer vast.
Er kunnen dus ook andere motieven zijn om de portemonnee open te trekken en toch voor een highend GPU te gaan.

Ik beschouw mijzelf overigens als enthousiast (zeker geen mainstream), waarbij ik graag de games in volle glorie wil ervaren op UWHD. 4K en/of hoge FPS heeft voor mij dan weer geen meerwaarde omdat de 21:9 beeldverhouding + max. details verreweg het belangrijkst zijn.

Een niveautje lager van de 7900XTX, is de 7900XT, maar dat is mijn opinie (nog) geen mainstream, maar upper midrange. Aan mainstream denk ik eerder aan een model zoals de 7600XT of a.s. 7800XT.
Met zulke kaarten zullen de meesten ook wel op 1440p spelen en dan heb je in principe genoeg aan 12GB om probleem vrij te zijn.
Maar marge is er dan ook weer niet, zoals blijkt uit een recente game: https://www.techpowerup.c...rformance-analysis/5.html

Afbeeldingslocatie: https://tpucdn.com/review/ratchet-clank-rift-apart-benchmark-test-performance-analysis/images/vram.png

Het zijn er nu nog niet zoveel, maar het aantal games dat veeleisend is aan de hoeveelheid vram neemt gewoon toe. De tendens is wel zichtbaar.
We beginnen nu te zien dat 8 GB aantoonbaar niet meer genoeg is... soms, en we zouden nu al zo ver zijn dat we onszelf aanpraten dat "24GB geen overbodige luxe is"? Over het woord "overbodig" zal ik geen discussie hebben, maar dat het luxe is kunnen we toch hopelijk wel stellen. Waarom 24 GB tenslotte? Wat armoedig. Zou je niet liever wachten op de kaarten met 48 GB? Veel toekomstbestendiger. :P

Ik durf wel te stellen dat de geheugenbehoefte van AI altijd voor gaat liggen op die van gaming, ook als die laatste toeneemt, en dat in die zin de highest end altijd interessanter zal zijn voor de AI inkopers (ook omdat compute toepassingen hun performance netjes lineair kunnen schalen met de hardware, en games niet).
Ik denk dat je toch behoorlijk onderschat hoe snel 8GB een probleem vormt.
Op 1080p zijn er gevallen waarbij het ontoereikend is (Last of Us 1, Star Wars Jedi: Survivor, Hogwarts en nu Ratchet & Clank).

Het hoeft niet alleen zichtbaar te zijn aan de gemiddelde FPS of dat bepaalde grafische opties niet meer selecteerbaar zijn (tjonge ik kan die tijd van vroeger nog wel herinneren..zat je daar met een nieuwe game dat alleen met medium opties speelbaar was) of dat een game botweg crashed.
In een aantal reviews wordt ook aangeven dat het invloed heeft op de framepacing of dat er dan soms een kleine hiccup merkbaar is of een texture dat niet goed geladen wordt, maar dat het dan nauwelijks zichtbaar is aan de gemiddelde FPS. Dat zijn dan eerder de grensgevallen, van 'ken njet'.
Mijn vermoeden is dat mainstream eerder 1440p zal zijn en dan heb je nu minimaal 12GB nodig met 16GB om veilig te zitten voor de recente games.

Dat A.I. voorop zal lopen aan benodigde vram t.o.v. games, zal ik niet betwisten. Maar dat mainstream genoeg zal hebben aan 12GB wel. Want dat is wat er nu op de mainstream kaarten hooguit zit, met uitzondering van highend / upper midrange kaarten uit de vorige generatie: RX6800 (XT).
Maar ik heb eerder ook aangeven dat Diablo 4 (in mijn situatie), de 16GB vram tot aan de nek weet te vullen.
Daar schrok ik wel even van met mijn 2 jaar oude halo GPU. In die zin vind ik 24GB geen overbodige luxe. Temeer omdat ik niet weet hoe het verder gaat ontwikkelen.
Een jaar geleden hoorde ik mensen nog beweren dat je gek was als je geen hardware met ondersteuning voor PCIe 5 kocht en een dito SSD, "want DirectStorage". Goed, kun je zeggen dat die de klok en de klepel niet helemaal goed geplaatst hadden, maar de algemene trend blijft: we praten ons veel en veel makkelijker aan dat we toch echt duurdere hardware nodig hebben voor de rap aansnellende toekomst dan dat we settelen voor iets redelijkers en dan upgraden als de tijd daar is en we weten hoeveel hardware we nou eigenlijk nodig hebben. En zolang je het geld voor die gemoedsrust over hebt is dat ook prima natuurlijk, maar laten we niet doen alsof zoiets mainstream is.
Het is misschien koffiedik kijken wat betreft Direct Storage en hoe dat zich verder gaat ontwikkelen. Dat zal echt afhangen van de adoptie vanuit de game developers.
Persoonlijk zou ik de aankoop van een GPU daar niet van af laten hangen, maar gezien de huidige GPU prijzen een tier opgeschoven zijn, kan het wel iets zijn om rekening mee te houden. Mainstream of niet.

Acties:
  • 0 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 09:48
Er zijn natuurlijk ook al heel lang games die het geheugen vullen omdat het er is maar met minder ook prima werken omdat het niet echt nodig is.

Maar idd, de ontwikkeling dat sommige games zelfs op 1080p tekort hebben aan 8gb is shocking, en al helemaal omdat nieuwe kaarten van 400-500 euro zelfs maar 8gb hebben.

De beste "budget" kaart is al heel lang de rx6700xt wat mij betreft en ook de 3060 12gb lijkt tegenwoordig een aardige keus.

Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 12-10 13:29
CMT schreef op donderdag 3 augustus 2023 @ 17:49:
Maar ik heb eerder ook aangeven dat Diablo 4 (in mijn situatie), de 16GB vram tot aan de nek weet te vullen.
Daar schrok ik wel even van met mijn 2 jaar oude halo GPU. In die zin vind ik 24GB geen overbodige luxe. Temeer omdat ik niet weet hoe het verder gaat ontwikkelen.
Nou, ik durf wel een klein voorschotje erop te nemen dat games de komende 2-3 jaar geen 24 GB gaan vereisen voor mensen die niet op 4K ultra met compromisloze framerates spelen -- stomweg omdat dan geen hond de hardware ervoor heeft en men niet redelijkerwijs kan verwachten dat iedereen dan maar een segment (of 2... of 3...) hoger gaat zitten. Speel je wel in de hoogste regionen, dan wellicht, maar dan weet je ook dat je de high-end koopt. Dat is per definitie luxe, al is die dan misschien inderdaad niet overbodig. :P

Dit alles is behoorlijk ver verwijderd van mijn oorspronkelijke punt though. Goed, laat er de komende jaren wel veel meer nut zijn voor 24 GB dat ik onderschat (mijn glazen bol is ook niet perfect), dan nog zullen mensen die niet op dat niveau zitten kaarten overhouden die de AI-bonzen niet opkopen. Tenzij de wafers er dan niet zijn natuurlijk.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Het gaat dan ook niet om 24GB aan VRAM moeten hebben. Het gaat om een adequate VRAM capaciteit met bijbehorende geheugenbrandbreedte hebben. De RX7900XTX en RTX4090 hebben 24GB om de 384 bit bus te vullen. Maar qua capaciteit is het niet strikt noodzakelijk. Ik zie die 24GB videokaarten ook meer als de GTX1080Ti of RTX2080Ti met 11GB. Je weet gewoon dat je meer dan genoeg hebt voor de levensduur van die videokaart.

Maar ik maak er wel een punt van dat ik 12GB niet indrukwekkend vind als verbetering boven 8GB. Te veel games die op maximale settings en 1440p of soms zelfs al op 1080p, al behoorlijk richting de 12GB gaan. 12GB is voor mij eigenlijk al een randgeval. 4K absoluut niet, 1440p kan je er nog mee wegkomen, maar voor hoe lang. En op 1080p is ook niet helemaal zeker, maar daar verwacht ik minder problemen in de meeste games.

Het gaat mij erom dat ik 16GB pas afdoende vind voor 4K en daarmee ook voor 1440p en zeker voor 1080p. 20GB of 24GB is mooi meegenomen, zeker op 4K, maar gaat meer om geheugenbrandbreedte voor grotere GPU's dan capaciteit. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

You gotta be kidding me. }:|
Powercolor heeft de RX7800XT per ongeluk online gezet op hun website. Het is N32, GPU package is overduidelijk dat dit geen N31 is. Ze gaan echt de 60CU N32 als de RX7800XT in de markt zetten. Bijna 0% verbetering gen over gen zit eraan te komen. Dat ging zo goed met de RTX3060Ti naar de RTX4060Ti dat AMD het nu ook moet doen. ;(

Afbeeldingslocatie: https://cdn.videocardz.com/1/2023/08/POWERCOLOR-Radeon-RX-7800-XT-16GB-Red-Devil-6.jpg

https://videocardz.com/ne...-cores-and-16gb-confirmed
https://www.powercolor.co...ct?id=1689230953&isView=Y

edit: Niet eens 20Gbps GDDR6 maar 18Gbps dus 576GB/s net zoals de RX7900GRE of RX6950XT. De boostclocks in de 2500MHz range maakt mij ook meteen al duidelijk dat deze GPU getuned is voor ongeveer 2600MHz effectief in games. Dus 3840 x 2 x 2600MHz = 19.97TFLOPS. Let maar op, deze gaat rond de RX6800XT presteren, misschien net een tikje beter. Verder zal het wel iets efficienter zijn en betere RT. Dit is eigenlijk nog slechter dan de RTX3060Ti en RTX4060Ti. Dit hoort een high end product te zijn en het lijkt een veredelde refresh te worden na bijna drie jaar RX6800XT. :')
Afbeeldingslocatie: https://tweakers.net/i/Bst4B0u_5qyPOBfSLL2qx1YRoA4=/800x/filters:strip_exif()/f/image/wDGSLQlJjmrOCKcRQ0PjzLLP.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/2fyXQTeHwv3qEVZCUqYuNrMlZaY=/800x/filters:strip_exif()/f/image/a1W0Y24cfqf0bL8UxE1pHbsZ.png?f=fotoalbum_large

[ Voor 53% gewijzigd door DaniëlWW2 op 04-08-2023 18:11 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op donderdag 3 augustus 2023 @ 20:07:
Het gaat dan ook niet om 24GB aan VRAM moeten hebben. Het gaat om een adequate VRAM capaciteit met bijbehorende geheugenbrandbreedte hebben. De RX7900XTX en RTX4090 hebben 24GB om de 384 bit bus te vullen. Maar qua capaciteit is het niet strikt noodzakelijk. Ik zie die 24GB videokaarten ook meer als de GTX1080Ti of RTX2080Ti met 11GB. Je weet gewoon dat je meer dan genoeg hebt voor de levensduur van die videokaart.
Die kaart had anders 12GB gehad; wat voor die klasse te weinig is, zeker voor die prijs. Daarom blij met mijn 24GB gezien stable diffusion er blij van wordt.

Wilde mijn schermen op Linux aansluiten op mijn igpu in de 7950x3d.... eerder werkte het niet. Het werkte eindelijk voor het eerst deze week; tot er weer een nieuwe update kwam. Ik heb beeld, maar elke paar seconden een stutter van 100-250ms, journalctl vol met driver timeouts.... Het is overduidelijk dat AMD weinig werk maakt van de DP output van de igpus op Zen 4. HDMI lijkt wel goed te werken.
Waarom mijn extra schermen op de onboard, minder hitte uit mijn dedicated kaart.
Pagina: 1 ... 90 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.