Acties:
  • +2 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 20:54

XanderDrake

Build the future!

DaniëlWW2 schreef op donderdag 12 augustus 2021 @ 22:13:
[...]


€200 zou natuurlijk geweldig zijn, maar ik betwijfel inmiddels of dat nog mogelijk is.
Want het idee van de €200 middenmoot videokaart stamt uit de tijd van 55nm, 40nm en 28nm GPU's. En toen waren de "spelregels" gewoon anders dan ze nu zijn.

Behalve zaken zoals inflatie, het over het algemeen toch hogere verbruik van FinFET GPU's met zo effecten op de hele kostprijs van de videokaart of dat inmiddels de gemiddelde Chinese loonslaaf niet langer meer volstrekt debiel laag salaris meer kost, is het grootste probleem die FinFET nodes.

Want een wafer op een planar transistor (dus tot 32/28nm) was veel goedkoper en sneller te maken dan een FinFET wafer (vanaf 22nm voor Intel en 14/16nm voor de rest). En de escalatie de afgelopen jaren is enorm. Een 7nm wafer heb ik al vanuit meerdere kanten gezien in de $7000-$9000+ range en voor een 5nm wafer lijkt het zo om $17.000 te gaan. Een 14/16nm wafer was eerder in de grote van circa $3500. In het decennium ervoor was het een veel geleidelijke toename van iets van een paar honderd dollar per stap.

Het helpt ook niet dat TSMC effectief monopolist is en tegen iedereen kan zeggen dat ze de prijs moeten slikken of ze maar naar Samsung gaan. En maak echt geen illusies, de grote prestatiesprongen van alle spelers van ARM tot GPU's tot x86, zitten toch vooral in betere nodes en niet in architectuur. Soms komt er iets voorbij dat echt veel beter is, maar dat is de uitzondering. Denk Kepler naar Maxwell of Vega naar RDNA. Het gebeurd hooguit eens in de zoveel generaties. RDNA2 is eigenlijk ook bijzonder in hoeveel AMD er eigenlijk eruit heeft kunnen halen op dezelfde node, maar ik dwaal af.


Je ziet gewoon dat met zulke toenamen, het onmogelijk is om oude prijspunten te handhaven. En daar komt nog eens bij dat de consument tegenwoordig veeleisender is aan hun videokaart. Deze moet namelijk ook stil zijn, ideaal met goede ventilatoren. Heel wat mensen willen lichtjes en het moet er goed uitzien. PCB moet goed zijn want ook overclocken moet natuurlijk ook zo kunnen. En in combinatie met het hogere verbruik krijg je zo gewoon een duurdere videokaart buiten de exponentiële toename van de kosten van de GPU zelf.

Ik zie inmiddels niet meer hoe het nog voor €200 moet. Je mag er gerust vanuit gaan dat die Navi 23 chip in de RX6600XT, twee a driemaal zo duur is om te maken als een Polaris 10 van de RX580. En qua R&D zal die ook niet goedkoper zijn geweest. Polaris is immers ontwikkeld in een tijd dat AMD zowat failliet ging en ze alles wat ze hadden, hebben uitgegeven aan Zen en waarschijnlijk ook al aardig wat aan RDNA.

Het is ook geen ongeluk dat de sub €100 markt dood is. Daar valt niks meer te verdienen. En ik denk dat de markt tot €200 ook niet lang meer heeft in dit tempo. Ik denk toch echt dat €200 a €300 het minimum zal worden voor een discrete GPU.

Maar dit betekend niet dat ik een chip zoals Navi 23 zal accepteren op dit prijspunt. Want dat is geen instapper en hier weten we eigenlijk dat AMD ze echt wel goedkoper kan verkopen. Waarom? Nou omdat de chip qua formaat vergelijkbaar is met Navi 10 en een lichte cut down Navi 10 was de basis voor de $280 kostende RX5600XT. En ik denk niet dat AMD die met verlies verkocht. Minder winst dan ze maakte op de RX5700XT, zeker, maar verlies denk ik ook niet.

En daarop is mijn max €300 gebaseerd. Want dat is nog goed mogelijk waar AMD en de hele keten nog winst zal maken, zonder de gewone gamer die geen eindeloos budget heeft en gewoon wat games wil spelen, zo af te zetten. Want AMD zal nu flink verdienen aan Navi 23.


Dan de volgende generatie ook nog. Tja, de MCM geruchten zijn denk ik te hardnekkig en we weten eigenlijk ook wel dat AMD naar TSMC 5nm gaat. Hoe ik het begrepen heb, lijkt het erop dat er twee dingen fundamenteel veranderen in RDNA3.

-De CU zoals we die kennen (dus het cluster van 64 ALU's) lijkt te verdwijnen.
-Er lijkt (serieuze hoeveelheid zout hierbij) maar een ontwerp te zijn en dat lijkt een 5120 ALU chip te zijn. Ja, volle Navi 21 qua aantal ALU's en dan nog de RDNA3 zaken. Dus betere RT, efficiënter etc. Dat zou Navi 33 zijn. Navi 32 en 31 zijn MCM GPU's met respectievelijk twee en drie aparte chips.

En dat is misschien wel de redding voor ons. Want het zou de ontwikkelkosten om een ontwerp productie gereed te maken, serieus moeten drukken. Idem voor productiefouten omdat je meerdere kleinere chips zal hebben. Maar zelfs dan nog moet ik maar zien of er iets "betaalbaars" tussen zal zitten. Zeker voor de high end koester ik weinig hoop meer na een jaar van belachelijk dure vlaggenschepen in de RTX3090 en RX6900XT die nauwelijks sneller zijn dan de veel betaalbare RTX3080 of RX6800XT. En toen kwamen de tekorten, scalping etc erbij en mensen kochten het alsnog massaal of wachten nog steeds. De midrange (dus Navi 32) op €400 en lagere midrange (Navi 31) op €300 zou denk ik al heel wat zijn. Maar voor Navi 32 geloof ik dat eigenlijk ook niet meer. Ergens zou €500 misschien wel "acceptabel" zijn.

Ik begrijp echt wel dat mensen proberen om aan een videokaart te komen. Je zit een jaar thuis, kan niet zomaar weg, hebt waarschijnlijk geld over en dan maar gamen. Maar de effecten voor de langere termijn zijn denk ik niet goed. En het komt bovenop die enorme toename in kosten die de prijzen toch al onherroepelijk ging opstuwen. :/
Wat ik hieruit destilleer is: We hebben meer concurrentie nodig op node-productie niveau. Daar zet Intel vol op in en daar kan Samsung ook meer betekenen. ASML pompt als een tierelier EUV machines uit, dus dat zou op een gegeven moment de capaciteit flink moeten verhogen.

Daarnaast moeten GPU makers iets meer leunen op nog bestaande 14nm productie lijnen voor mid-range GPU's. De markt die daar zit is nog best groot, vroegâr was dat zelfs de grootste markt. Ik geloof er namelijk geen reet van dat bijv. Braziliaanse of Chinese gamers 700€ gaan betalen voor een 6700XT.
Turing based GPUs doen het nog prima. Een GTX 1650 opvolger voor €150 kan nog best even door. Intel's DG1 voor €100+ zou ook nog kunnen.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Sandwalker
  • Registratie: Juli 2011
  • Laatst online: 04-10 11:33
Als de fabrikant naar elkaar kijken voor een prijsstelling is het nog steeds lood om oud ijzer, dus er is een partij nodig die wil doorbreken door een gunstiger prijspeil. Met de investeringen die daarmee gemoeid zijn kijk je dan al snel naar Apple, Amazon, Samsung of Foxconn en daar past dit niet heel goed n de roadmap. Foxconn schurkt er nog het dichtst tegenaan maar die missen de Fab know how.

Acties:
  • 0 Henk 'm!

  • deraco96
  • Registratie: Oktober 2011
  • Laatst online: 30-09 18:45

deraco96

Altijd.

DaniëlWW2 schreef op donderdag 12 augustus 2021 @ 22:13:
En daarop is mijn max €300 gebaseerd. Want dat is nog goed mogelijk waar AMD en de hele keten nog winst zal maken, zonder de gewone gamer die geen eindeloos budget heeft en gewoon wat games wil spelen, zo af te zetten. Want AMD zal nu flink verdienen aan Navi 23.
Je gaat hier nog even voorbij aan een andere factor in de prijs van videokaarten: videogeheugen. GDDR6 is volgens Moore's Law is Dead verdubbeld in prijs. Hij heeft het over: "It's true that GDDR6 was <$6 per GB in the initial Ampere BOM Kit, but at this point it's exceeding $12 per GB... and we expect it to keep rising into Q4."

Ik snap dat er wel eens wat kritiek is op de speculaties van hem (ik heb timestamps gelinkt zodat je geen hele video's hoeft te kijken), maar dit lijkt me toch niet heel controversieel, het is namelijk best logisch: alles is in prijs gestegen!
Consumenten en games willen tegenwoordig veel geheugen op hun kaart, dus als de prijs daarvan stijgt heeft dit serieus invloed. Je komt ook eigenlijk niet meer weg met minder dan 8 GB op je videokaart, dus je hebt daar al minstens $ 50 in extra productiekosten te pakken. Daarmee is een videokaart voor 200 euro niet haalbaar meer, als er tenminste ook nog winst (in de hele keten) op gemaakt moet worden. Ook videokaarten die eigenlijk 300 euro hadden moeten kosten hebben hier last van, nog buiten de verdere marktcondities.

Voor een 3060 met 12 GB is dit effect namelijk nog sterker, dan praat je gerust over een extra $ 80 door de gestegen VRAM prijs. Stel je betaalde midden 2020 $5 per GB, en nu $12, dan ga je van $60 naar bijna $150...

Het positieve aan dit verhaal voor AMD is wel dat AMD de 6600 XT een "haalbaar" MSRP heeft gegeven (bron: ook MLID), waar de huidige VRAM prijzen in verwerkt zijn, met nog een beetje marge. Zolang de prijs van videogeheugen niet daalt, zul je de oorspronkelijke MSRPs nooit meer terugzien van de RTX 3060 en 3060 Ti. Wat de RX 6600 XT dus competitiever maakt dan ie op basis van de MSRPs lijkt.

[ Voor 0% gewijzigd door deraco96 op 13-08-2021 16:32 . Reden: woordje vergeten ]

01101000 01100001 01100100 00100000 01101010 01100101 00100000 01101110 01101001 01101011 01110011 00100000 01100010 01100101 01110100 01100101 01110010 01110011 00100000 01110100 01100101 00100000 01100100 01101111 01100101 01101110


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XanderDrake schreef op vrijdag 13 augustus 2021 @ 10:49:
[...]

Wat ik hieruit destilleer is: We hebben meer concurrentie nodig op node-productie niveau. Daar zet Intel vol op in en daar kan Samsung ook meer betekenen. ASML pompt als een tierelier EUV machines uit, dus dat zou op een gegeven moment de capaciteit flink moeten verhogen.
Oh dat zeker. Het probleem is alleen dat het zo ongelofelijk duur is geworden om een nieuwe node te ontwikkelen en in productie te brengen. Alleen partijen zoals Intel, TSMC of Samsung kunnen het nog betalen. GoFlo is inmiddels ook afgevallen en Intel lijkt het bedrijf te willen overnemen. En dan heb je alsnog heel veel kennis en technische productiekennis nodig om het te doen. En die uitdaging moet je ook niet onderschatten. Ooit lag Intel namelijk een generatie voor op TSMC en Samsung en niet een generatie achter op TSMC. :P
Daarnaast moeten GPU makers iets meer leunen op nog bestaande 14nm productie lijnen voor mid-range GPU's. De markt die daar zit is nog best groot, vroegâr was dat zelfs de grootste markt. Ik geloof er namelijk geen reet van dat bijv. Braziliaanse of Chinese gamers 700€ gaan betalen voor een 6700XT.
Turing based GPUs doen het nog prima. Een GTX 1650 opvolger voor €150 kan nog best even door. Intel's DG1 voor €100+ zou ook nog kunnen.
Ik denk het dus niet. Want je loopt tegen twee problemen aan als een architectuur gaat splitsen over meerdere nodes. Ten eerste kost het gewoon prestaties omdat een oudere node, simpelweg meer energie zal verbruiken voor vaak minder clockspeed. Een goed voorbeeld is Vega 10 en Vega 20. Oke, die zijn niet helemaal identiek buiten de node om, maar het was toch een duidelijk verschil in hoe ze presteren.

Tweede en veel grotere probleem is dat een chip word ontworpen rond een specifieke set aan eisen van het productieproces. Dat is een PDK. Daar heb je meteen al de serieuze juridische barrière dat al die fabrikanten, pertinent weigeren dat je een ontwerp bij meerdere fabrikanten laat maken. Daarom geloofde ik al die Ampere ook naar TSMC N7 geruchten dus nooit. En zelfs als die fabrikanten dit toestonden en moedwillig dus hun IP blootstellen aan vergelijking door een derde partij, wetende dat de concurrent op deze manier ook zal leren waar de ander goed en minder goed in is, dan is er nog een fors probleem. Het kost hartstikke veel geld om dit te doen.

Of je nu een CPU of GPU of iets anders pakt, het is toch voornamelijk een herhaling van identieke eenheden die ingepast zijn in een rechthoek. Of dat nu het herhalen van een 32 bit PHY is voor je geheugentoegang, een CU of SM, een blok cache etc. En met meerdere chips op een proces, hoef je deze eenheden maar een keer productie gereed te maken en deze dan een aantal keer herhalen en in een grotere chip verwerken. Met twee nodes, moet je dit dus twee keer doen. En dat kost heel wat geld, tijd en mankracht.


En dit is voor hoever ik het begrijp. Ik besef me namelijk heel goed dat ik net genoeg weet, om me te beseffen dat ik hier eigenlijk maar bar weinig van weet. Dus ik zie het niet gebeuren. De enige hoop op betaalbaarheid is en blijft denk ik MCM. Want juist GPU's zijn ook zo gevoelig voor deze kosteninflatie problematiek. Immers zijn het vaak enorme chips, is de videokaart zelf ook complex met veel extra onderdelen en verkopen ze voor veel minder per mm2 dan een CPU. En als je dan ook nog eens capaciteitsproblemen hebt, dan krijg je al snel het scenario waar de meeste omzet per mm2, prioriteit krijgt. En in het geval van AMD, zal een Navi 21/22/23 het nooit kunnen opnemen tegen een Zen 3 chiplet.
deraco96 schreef op vrijdag 13 augustus 2021 @ 15:12:
[...]


Je gaat hier nog even voorbij aan een andere factor in de prijs van videokaarten: videogeheugen. GDDR6 is volgens Moore's Law is Dead verdubbeld in prijs. Hij heeft het over: "It's true that GDDR6 was <$6 per GB in the initial Ampere BOM Kit, but at this point it's exceeding $12 per GB... and we expect it to keep rising into Q4."

Ik snap dat er wel eens wat kritiek is op de speculaties van hem (ik heb timestamps gelinkt zodat je geen hele video's hoeft te kijken), maar dit lijkt me toch niet heel controversieel, het is namelijk best logisch: alles is in prijs gestegen!
Consumenten en games willen tegenwoordig veel geheugen op hun kaart, dus als de prijs daarvan stijgt heeft dit serieus invloed. Je komt ook eigenlijk niet meer weg met minder dan 8 GB op je videokaart, dus je hebt daar al minstens $ 50 in extra productiekosten te pakken. Daarmee is een videokaart voor 200 euro niet haalbaar meer, als er tenminste ook nog winst (in de hele keten) op gemaakt moet worden. Ook videokaarten die eigenlijk 300 euro hadden moeten kosten hebben hier last van, nog buiten de verdere marktcondities.

Voor een 3060 met 12 GB is dit effect namelijk nog sterker, dan praat je gerust over een extra $ 80 door de gestegen VRAM prijs. Stel je betaalde midden 2020 $5 per GB, en nu $12, dan ga je van $60 naar bijna $150...

Het positieve aan dit verhaal voor AMD is wel dat AMD de 6600 XT een "haalbaar" MSRP heeft gegeven (bron: ook MLID), waar de huidige VRAM prijzen in verwerkt zijn, met nog een beetje marge. Zolang de prijs van videogeheugen niet daalt, zul je de oorspronkelijke MSRPs nooit meer terugzien van de RTX 3060 en 3060 Ti. Wat de RX 6600 XT dus competitiever maakt dan ie op basis van de MSRPs lijkt.
Oh het kan zeker een factor zijn, maar het is MILD dus ik geloof het zowat per definitie niet.
Want als je 90% van de tijd gewoon verkeerd zit dan is het lastig om die 10% wel te geloven. :z

En ik wou echt dat ik hier overdreef, maar helaas. Ik had het meeste gezien rond RDNA2 en Ampere, maar het leek toch echt heel erg op informatie van andere leakers die wel betrouwbaar zijn nemen en er zelf dingen bij bedenken. En die klopte dus voor geen meter. Ik kan eigenlijk ook geen betere verklaring bedenken. :/

Laatste om te demonstreren. Dit had ik bijna een jaar geleden getypt op reddit. En ik ben eigenlijk zelf verbaast dat ik behoorlijk in de buurt zat zonder "inside information" en een vrij basale analyse van bekende informatie toepassen.
https://www.reddit.com/r/...tm_medium=web2x&context=3

[ Voor 27% gewijzigd door DaniëlWW2 op 14-08-2021 12:30 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Zo te zien heeft de RX5000 serie nu ook eindelijk SAM gekregen. :)
downloads: AMD Radeon Software Adrenalin Edition 21.9.1

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • FairPCsPlease
  • Registratie: Maart 2018
  • Laatst online: 21:43
Ik heb geprobeerd het antwoord zelf te vinden voor ik de vraag stel, maar ik krijg in Ecosia geen goede zoekresultaten met een lijst van supported CPU's.

Mijn vraag is of SAM voor mij ook zal werken, op de Ryzen 2000 series CPU die ik heb, of heb je een nieuwere CPU nodig, wil SAM werken? Ik heb een Ryzen 2600 met een RX 5500 XT.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

FairPCsPlease schreef op dinsdag 14 september 2021 @ 11:32:
[...]


Ik heb geprobeerd het antwoord zelf te vinden voor ik de vraag stel, maar ik krijg in Ecosia geen goede zoekresultaten met een lijst van supported CPU's.

Mijn vraag is of SAM voor mij ook zal werken, op de Ryzen 2000 series CPU die ik heb, of heb je een nieuwere CPU nodig, wil SAM werken? Ik heb een Ryzen 2600 met een RX 5500 XT.
Uit mijn hoofd is het alleen voor Zen2/3 en een moederbord met een Zen 3 compatible bios waar Resizeable BAR aan te zetten is in je bios. Heb je die functie niet, dan gaat het niet werken. Ik val er dus waarschijnlijk alsnog buiten de boot met mijn 3700X en de X370 C6H die de meeste B450 en X470 borden doodknuppelt in pure kwaliteit. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • FairPCsPlease
  • Registratie: Maart 2018
  • Laatst online: 21:43
DaniëlWW2 schreef op dinsdag 14 september 2021 @ 11:36:
[...]


Uit mijn hoofd is het alleen voor Zen2/3 en een moederbord met een Zen 3 compatible bios waar Resizeable BAR aan te zetten is in je bios. Heb je die functie niet, dan gaat het niet werken. Ik val er dus waarschijnlijk alsnog buiten de boot met mijn 3700X en de X370 C6H die de meeste B450 en X470 borden doodknuppelt in pure kwaliteit. :z
Dank voor het antwoord. Mijn moederbord is een B350. Dat zal dus een dubbele reden zijn dat ik buiten de boot val. Én doodgeknuppeld door jou X370 ;) .

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

FairPCsPlease schreef op dinsdag 14 september 2021 @ 11:43:
[...]


Dank voor het antwoord. Mijn moederbord is een B350. Dat zal dus een dubbele reden zijn dat ik buiten de boot val. Én doodgeknuppeld door jou X370 ;) .
Ja, B350 en Zen+ is denk ik echt kansloos. Voor zover ik weet is er ook geen technische reden en lijkt het meer te zijn dat oudere platformen gewoon geen ondersteuning meer krijgen. En ja, ik ben er een beetje zuur over met mijn C6H. Ik wil gewoon mijn twee a drie fps erbij. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:48
DaniëlWW2 schreef op dinsdag 14 september 2021 @ 11:47:
[...]


Ja, B350 en Zen+ is denk ik echt kansloos. Voor zover ik weet is er ook geen technische reden en lijkt het meer te zijn dat oudere platformen gewoon geen ondersteuning meer krijgen. En ja, ik ben er een beetje zuur over met mijn C6H. Ik wil gewoon mijn twee a drie fps erbij. :P
Werkt het ook niet als je de C6H cross flashed met biossen van andere fabrikenten. Ik weet bijv. dat je Zen 3 werkend kan krijgen op o.a. de C6H met biossen van andere fabrikanten, bijvoorbeeld Asrock.

Verder eens trouwens, het hele 300 serie verhaal en de wijze waarop AMD dat uiteindelijk gehandeld heeft verdient geen schoonheidsprijs met o.a. het verbieden van het uitbrengen van werkende biossen.

En ik snap volledig waarom AMD dat gedaan heeft, maar de uitvoering had echt beter moeten zijn.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op woensdag 15 september 2021 @ 12:26:
[...]


Werkt het ook niet als je de C6H cross flashed met biossen van andere fabrikenten. Ik weet bijv. dat je Zen 3 werkend kan krijgen op o.a. de C6H met biossen van andere fabrikanten, bijvoorbeeld Asrock.

Verder eens trouwens, het hele 300 serie verhaal en de wijze waarop AMD dat uiteindelijk gehandeld heeft verdient geen schoonheidsprijs met o.a. het verbieden van het uitbrengen van werkende biossen.

En ik snap volledig waarom AMD dat gedaan heeft, maar de uitvoering had echt beter moeten zijn.
Dat werkt misschien wel, maar ik heb ergens niet zoveel zin om te gaan experimenteren met een beta bios van een andere fabrikant. :z
Maar fraai is dit niet nee. Het zijn namelijk de mensen die vroeg in je toch niet erg stabiele platform zijn gestapt en hiermee een aandeel hebben gespeeld in dat je nu niet failliet bent, die je hiermee treft.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Afbeeldingslocatie: https://tweakers.net/i/Pfazh6_-4h5-aztuc5DYBOsmPJA=/x800/filters:strip_icc():strip_exif()/f/image/xgv9BCPNOPufJg0aqH1zctsk.jpg?f=fotoalbum_large

https://twitter.com/greym.../1439486356548325387?s=19

[ Voor 19% gewijzigd door Xadeon op 19-09-2021 17:20 ]

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • +1 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 20:54

XanderDrake

Build the future!

Dit komt overeen met eerdere geruchten: AMD gaat chiplets doen terwijl nVidia monolitisch blijft werken. Ook laat nVidia Samsung achter voor TSMC N5, wat je duidelijk terug ziet in de clocks.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 04-10 19:38
Ik zou deze leak ernstig in twijfel trekken. De nieuwe lower end Navi 33 die beter gaat presteren dan de huidige topper (navi 21) lijkt me zeer twijfelachtig tot complete bs. Het is gangbaar dat de huidige high end de prestaties geven (give or take some %) van een tier lager in de opvolgende serie. Dit is al jaar en dag verwachting en valt soms nog lager uit als we op nodes blijven hangen. Dus Navi32 is straks ongeveer Navi21. Nu schuiven we nog een hele tier naar beneden en zou Navi 33 niet alleen gelijk zijn aan, maar zelf boven de prestaties zitten van de huidige topper van AMD zitten (6900xt). That just ain't gonna happen ;)

Acties:
  • 0 Henk 'm!

  • computerjunky
  • Registratie: Maart 2004
  • Laatst online: 19:51
De enige reden om dat te doen is een enorme powermove zodat mensen geen nvidia meer willen. Maar persoonlijk denk ik dat het er simelweg niet in zit. 2x prestaties ga je niet uit een die shrink halen zelfs als ze er 50 watt power draw bovenop gooit.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XanderDrake schreef op zondag 19 september 2021 @ 18:14:
[...]

Dit komt overeen met eerdere geruchten: AMD gaat chiplets doen terwijl nVidia monolitisch blijft werken. Ook laat nVidia Samsung achter voor TSMC N5, wat je duidelijk terug ziet in de clocks.
Tot dusver is het redelijk consistent wat er lekt. :)
-Er zou sprake zijn van een GPU chip geproduceerd op N5 die ze voor Navi 31/32/33 willen gaan inzetten met een MCM model. Een tweede voor Navi 32 en een derde voor Navi 31. Het gebruik van N6, dus N7 met EUV voor uit mijn hoofd wat extra dichtheid en wat kostenbesparing, zou logisch zijn. Het lijkt ook wel een beetje richting Zen 2/3 "stijl" te gaan met een I/O chiplet lijkend systeem. Die zal hier ongetwijfeld de scheduling moeten doen en waarschijnlijk ook de geheugencontrollers. L3 cache zit denk ik op de GPU chiplet. Ik vermoed namelijk toch al een hele tijd dat die L3 cache mede hiervoor op RDNA2 zit. Het is een mooie test voor RDNA3.
-De 128 ALU WGP verdwijnt voor een grotere configuratie. Dat lijkt nu 256 ALU's te zijn. En er was volgens mij een hele tijd geleden al eens wat patenten voorbijgekomen over deze mogelijkheid van een cluster van vier CU's. Want effectief is een WGP nu twee 64 ALU CU's die elk twee 32 ALU paden hebben.
-Resultaat zou een absoluut monsters zijn als Navi 31. Ook meteen een waarschijnlijk enorm verbruikend monster. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 22:51
sjekneck schreef op maandag 20 september 2021 @ 00:53:
[...]

Ik zou deze leak ernstig in twijfel trekken. De nieuwe lower end Navi 33 die beter gaat presteren dan de huidige topper (navi 21) lijkt me zeer twijfelachtig tot complete bs. Het is gangbaar dat de huidige high end de prestaties geven (give or take some %) van een tier lager in de opvolgende serie. Dit is al jaar en dag verwachting en valt soms nog lager uit als we op nodes blijven hangen. Dus Navi32 is straks ongeveer Navi21. Nu schuiven we nog een hele tier naar beneden en zou Navi 33 niet alleen gelijk zijn aan, maar zelf boven de prestaties zitten van de huidige topper van AMD zitten (6900xt). That just ain't gonna happen ;)
Dit is met de huidige generatie echter wel gebeurd. Navi 23 (6600XT) is gelijkwaardig/beter dan Navi 10 (5700XT)

Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 23:13
Blastpe schreef op maandag 20 september 2021 @ 11:25:
[...]


Dit is met de huidige generatie echter wel gebeurd. Navi 23 (6600XT) is gelijkwaardig/beter dan Navi 10 (5700XT)
Er zit een fout in je beredenering; de 5700XT was geen topper. Deze had immers slechts prestaties op het niveau van een RTX 2070 Super en daarboven zat nog wat, zoals de 2080 Ti.

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • +1 Henk 'm!

  • ocf81
  • Registratie: April 2000
  • Niet online

ocf81

Gewoon abnormaal ;-)

de 7-serie (6700HD/7700HD/RX 470/RX 570/RX 5700) is toch altijd meer een product voor (de bovenkant van) de mainsteam geweest?

© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:48
Blastpe schreef op maandag 20 september 2021 @ 11:25:
[...]


Dit is met de huidige generatie echter wel gebeurd. Navi 23 (6600XT) is gelijkwaardig/beter dan Navi 10 (5700XT)
Die zie ik niet direct, de 6600XT heeft een MSRP van $389, de 5700XT had een MSRP van $399 bij introductie. Kijk ik naar de HWU review dan zie ik dat de 6600XT het in 1080P heel nipt wint (zeg maar gelijk spel): YouTube: AMD Radeon RX 6600 XT Review: Worse Than Expected, But Can It Be Saved?

Terwijl op 1440P de 5700XT het zelfs nipt win: YouTube: AMD Radeon RX 6600 XT Review: Worse Than Expected, But Can It Be Saved? (al is ook dat eigenlijk gewoon een gelijk spel).

Daar zit dus helemaal geen generational leap in. AMD verkoopt je 2 jaar na introductie van de 5700XT een kaart met gelijke performance voor een vrijwel gelijk MSRP en laat het marketing technisch lijken alsof het een generational leap is door deze 6600XT te noemen.

[ Voor 4% gewijzigd door Dennism op 20-09-2021 11:51 ]


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 04-10 19:38
Blastpe schreef op maandag 20 september 2021 @ 11:25:
[...]


Dit is met de huidige generatie echter wel gebeurd. Navi 23 (6600XT) is gelijkwaardig/beter dan Navi 10 (5700XT)
De topper van AMD bij Navi10 (5700xt) kwam als een midtier chip geen echte high end. AMD deed die generatie gewoon niet mee in het hogere segment en daar loopt de vergelijking tussen die generaties stuk. Een 6600xt is een logische vervanging van de 5700xt. Dit ligt precies weer in lijn met wat een "normaal" verloop is generatie op generatie en de sprong in prestaties met een verbetering van de architectuur en dieshrink. De xxx8 serie nu is de xxx7 serie van de volgende generatie, de xxx7 van nu is straks de xxx6.
Als men zou speculeren dat Navi 32 iets beter gaat presteren dan Navi 21 zou ik dat nog geloven en zelfs in de lijn der verwachting plaatsen, maar een hele tier lager doorschuiven is gewoon ongeloofwaardig.

Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 22:51
NitroX infinity schreef op maandag 20 september 2021 @ 11:39:
[...]

Er zit een fout in je beredenering; de 5700XT was geen topper. Deze had immers slechts prestaties op het niveau van een RTX 2070 Super en daarboven zat nog wat, zoals de 2080 Ti.
Wat het prestatie niveau van de 5700XT was (tov van NVidia) maakt niet uit. De stelling wordt gedropt dat het bijna onmogelijk is dat een Navi 33 niet een vergelijkbaar niveau kan hebben als Navi 21. Echter is met de huidige generatie wel het geval (N10=<N23).

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:48
Blastpe schreef op maandag 20 september 2021 @ 12:07:
De stelling wordt gedropt dat het bijna onmogelijk dat een Navi 33 niet een vergelijkbaar niveau kan hebben als Navi 21. Echter is met de huidige generatie wel het geval (N10=<N23)
Ook dat gaat hier niet direct op, immers zijn N10 en N23 vergelijkbare chips van een zelfde grootte in die size.

Als Navi 33 een een rebrand of iets in die strekking gaat zijn van Navi 21 kan het performance niveau inderdaad best vergelijkbaar zijn, echter zal de prijs dan uitmaken of het ook daadwerkelijk een verbetering gaat zijn. Als straks bij wijze van de 7700XT (bijna) net zoveel kost als nu een 6900XT en hetzelfde presteert gaan we er simpelweg niet op vooruit.

wat je minimaal eigenlijk wil zien is flink betere prestaties wanneer het prijspunt gelijk blijft of een flink lager prijspunt wanneer de prestaties vergelijkbaar zijn.

[ Voor 40% gewijzigd door Dennism op 20-09-2021 12:23 ]


Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 22:51
Dennism schreef op maandag 20 september 2021 @ 12:14:
[...]


Ook dat gaat hier niet direct op, immers zijn N10 en N23 vergelijkbare chips van een zelfde grootte in die size.

Als Navi 33 een een rebrand of iets in die strekking gaat zijn van Navi 21 kan het performance niveau inderdaad best vergelijkbaar zijn, echter zal de prijs dan uitmaken of het ook daadwerkelijk een verbetering gaat zijn. Als straks bij wijze van de 7700XT (bijna) net zoveel kost als nu een 6900XT en hetzelfde presteert gaan we er simpelweg niet op vooruit.
Het ontgaat mij even wat MSRP en die size met die stelling te maken hebben.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:48
Blastpe schreef op maandag 20 september 2021 @ 12:22:
[...]


Het ontgaat mij even wat MSRP en die size met die stelling te maken hebben.
Jouw stelling is dat de 6600XT een gen on gen leap is t.o.v. de 5700XT, terwijl de prijsstelling (MSRP), Performance en de grootte van de chip (die size) laat zien dat dit niet het geval is.

AMD verkoopt je dezelfde performance voor dezelfde prijs, met een vrijwel identieke chip grootte als 2 jaar geleden. Dit verbloemen ze met wat marketing door het een 6600XT te noemen. Er is geen gen on gen leap, normaal gesproken zou men dit oude wijn in nieuwe zakken noemen.......

Zou je van een gen on gen leap willen speken had bij een gelijkwaardige performance de 6600XT flink goedkoper moeten zijn dan de 5700XT bij lancering en dat is geenszins het geval geweest.

[ Voor 12% gewijzigd door Dennism op 20-09-2021 12:29 ]


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Inderdaad. In de 'oude tijd' zou de 6600XT dan eerder $299 gekost hebben, waardoor je dezelfde prestaties voor minder geld zou krijgen. Dat is het het vroeger vaak ging.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Blastpe
  • Registratie: Augustus 2006
  • Laatst online: 22:51
Dennism schreef op maandag 20 september 2021 @ 12:27:
[...]


Jouw stelling is dat de 6600XT een gen on gen leap is t.o.v. de 5700XT, terwijl de prijsstelling (MSRP), Performance en de grootte van de chip (die size) laat zien dat dit niet het geval is.

AMD verkoopt je dezelfde performance voor dezelfde prijs, met een vrijwel identieke chip grootte als 2 jaar geleden. Dit verbloemen ze met wat marketing door het een 6600XT te noemen. Er is geen gen on gen leap, normaal gesproken zou men dit oude wijn in nieuwe zakken noemen.......
Waar lees jij die stelling? Ik heb het nergens over prijs en die size gehad.
Wat maakt het onmogelijk dat Navi33 niet het niveau haalt van Navi21, dit terwijl we hebben gezien dat van RDNA 1 naar 2 AMD het wel kan. Of dit komt door die vergroting, kleiner processof andere architectuur maakt toch niet uit?

[ Voor 13% gewijzigd door Blastpe op 20-09-2021 12:40 ]


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 30-09 14:44
Blastpe schreef op maandag 20 september 2021 @ 12:22:
[...]


Het ontgaat mij even wat MSRP en die size met die stelling te maken hebben.
Die size kun je veel meer uit afleiden dan de naam van een chip. Ongeacht of dat de codenaam of marketingnaam is.

RDNA 1 had Navi 10 en Navi 14, RDNA 2 heeft Navi 21, 22 en 23. Er is dus sowieso al geen vergelijkbaar patroon tussen RDNA 1 en 2 qua naamgeving. Er is geen Navi 20 of 24; of Navi 11, 12 of 13.

Navi 10 is 251mm^2, Navi 23 is 237mm^2, op vrijwel hetzelfde procedé . Dat is wat ze vergelijkbaar maakt. Laatstgenoemde heeft iets minder CU's, maar heeft door de hogere kloksnelheden evenveel throughput. Hij is niet zo klein als je zou verwachten met 8 CU's minder doordat er weer wat ruimte op is geslokt voor de nieuwe stukjes hardware (RT).

Navi 14 is slechts 158mm^2; 22 en 21 zijn respectievelijk 335mm^2 en 520mm^2. Er is dus geen vergelijkbare chip met RDNA 2 voor Navi 14 en omgekeerd zijn er geen vergelijkbare chips met RDNA 1 voor Navi 22 en 21.

Die size verklaart ook waarom Navi 21 zo veel minder sap slurpt dan GA102. Ongeacht eventuele nadelen van Samsung (waarvan ik nog steeds denk dat ze lang zo erg niet zijn als men denkt), is GA102 gewoon 20% groter met ook relatief hoge kloksnelheden. Niet zo hoog als N21, maar ook niet mijlenver er vandaan.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:48
Blastpe schreef op maandag 20 september 2021 @ 12:29:
[...]


Waar lees jij die stelling? Ik heb het nergens over prijs en die size gehad.
die stelling bring jij met deze post en quote in: Blastpe in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144"

Dat je prijs of die size niet expliciet noemt is niet direct van belang, immers zijn dat, met bijvoorbeeld performance, juist de criteria op basis waarvan je bepaald of een chip gelijkwaardig / beter is en dus een gen on gen improvement.

[ Voor 26% gewijzigd door Dennism op 20-09-2021 12:37 ]


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 04-10 19:38
Blastpe schreef op maandag 20 september 2021 @ 12:07:
[...]


Wat het prestatie niveau van de 5700XT was (tov van NVidia) maakt niet uit. De stelling wordt gedropt dat het bijna onmogelijk is dat een Navi 33 niet een vergelijkbaar niveau kan hebben als Navi 21. Echter is met de huidige generatie wel het geval (N10=<N23).
Nee je duwt nu de 5700xt naar voren als een high end chip en dat is het nooit geweest.

Navi 1 bestond uit 2 chips:
Low: Navi 14 158 mm2
Mid: Navi 10 251 mm2 (5700xt)
High: nvt

Deze generatie zijn het er 3:
Low: Navi 23 237 mm2 (6600xt)
Mid: Navi 22 335 mm2
High: Navi 21 520 mm2 (dit is je high end)

Nu is Navi 23 iets sneller als Navi 10, dat klopt nog. Maar Navi 10 is/was geen high end chip. De omvang, prijs, prestaties, naam en ook ivm Nvidia (daar is de naam op gepositioneerd) gaat niet op. Zelfs AMD heeft ten tijde van Nav10 gemeld dat ze niet mee deden met de high end in die generatie.

Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 22:52

Mars Warrior

Earth, the final frontier

Als ik een grove vergelijking mag maken, dan is een 6900XT ca 2x zo snel als een 6600XT bij wat hogere resoluties en instellingen, toch?

Volgens de leaks zou AMD streven naar 2,5x de performance.

Is het dan gek dat het aannemelijk is dat een 7600XT net zo snel of sneller is dan de huidige 6900XT?

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En dit alles over de RX5700XT en RX6600XT is hier irrelevant.

Want de geruchtenmolen over RDNA3 zegt ongeveer dit:
-Er is maar een GPU chip configuratie in de hele RDNA3 generatie. Het gaat hier om een 20 WGP chip met 5120 ALU's. Dat is een verdubbeling van ALU's per WGP ten opzichte van RDNA2. Maar met 5120 ALU's zit je alsnog op hetzelfde niveau als de RX6900XT. Dus tenzij AMD een dramatische regressie in per ALU efficiëntie zou meemaken om wat voor reden dan ook, zal een 5120 ALU Navi 33, op zijn minst vergelijkbaar moeten presteren met de RX6900XT.
-Het idee lijkt te zijn dat voor Navi 32 en Navi 31, meerdere van deze 20 WGP/ 5120 ALU chips worden gecombineerd in een MCM ontwerp. Navi 32 met twee van deze chips, dus in theorie al het dubbele van Navi 21. Navi 31 een derde chip erbij voor het drievoudige. En daarbij zou je zomaar tegen een schalingsprobleem kunnen aanlopen. 2,5x Navi 21 voor Navi 31 is denk ik dan ook geloofwaardiger dan 3x. Immers schalen de grotere chips uit een generatie meestal niet perfect op met hun extra hardware. En dit is een potentieel monster met een bijna ongekende prestatiesprong, generatie op generatie.

Zeker voor Navi 31 zou een dergelijk ontwerp ook een gigantisch oppervlakte bevatten. En het verbruik zal ook enorm zijn. AMD claimt weer 50% power/perf verbetering, maar dat gaat hier bij lange na niet afdoende zijn. En als ze dat geclaimde doel weer halen, dan kijk je potentieel dus naar een circa 150W Navi 33 voor vergelijkbare prestaties als een 300W Navi 21. Potentieel, want deze berekening kan meerdere kanten opgaan waardoor je misschien 200W krijgt en net iets sneller dan een RX6900XT. Ook kan die 50% te ideaal worden voorgesteld, bijvoorbeeld een Navi 33 die op het ideale punt in haar perf/efficiëntiecurve zit tegenover een RX6900XT die zeker wat aan de inefficiënte kant van haar perf/efficiëntiecurve zit, waardoor die in de praktijk niet zo efficiënt is. Dat soort claims gebeurden ook vaak.

Maar als het echt perfect zou schalen met de RX6900XT als 100% punt in zowel perf als power, dan zou een Navi 32 kan dan ook wel eens richting de 300W gaan en Navi 31 naar de 450W. Dat is een zeer ruwe schatting omdat er een aantal factoren zoals L3 cache, geheugencontrollers, losse chiplet voor I/O bij zullen komen voor Navi 32 en 31. Maar reken gerust op heel wat verbruik.


Onder de streep, MCM = in theorie echt verdomd snel. :Y)
Mars Warrior schreef op maandag 20 september 2021 @ 13:53:
Als ik een grove vergelijking mag maken, dan is een 6900XT ca 2x zo snel als een 6600XT bij wat hogere resoluties en instellingen, toch?

Volgens de leaks zou AMD streven naar 2,5x de performance.

Is het dan gek dat het aannemelijk is dat een 7600XT net zo snel of sneller is dan de huidige 6900XT?
Ja en nee. :P

Eerst heb ik maar een slecht paint plaatje gemaakt van wat de geruchtenmolen suggereert. Daarop kan je zien dat er inderdaad een RX6900XT klasse (Navi 21) chip lijkt te komen als de opvolger van Navi 23 (RX6600 series).
Afbeeldingslocatie: https://tweakers.net/i/OitY6ScscwrtMDwsM40vvRSU5PM=/800x/filters:strip_icc():strip_exif()/f/image/7sTbyHmpZKC0ud5lZX95L1UC.jpg?f=fotoalbum_large

Twee van die Navi 33 chips samen met een I/O chip zouden dan samen Navi 32 zijn en drie zijn samen Navi 31.

Het nee komt van de gigantische prijzen die hier waarschijnlijk aan verbonden worden. Het zou dus heel goed kunnen dat Navi 33 alsnog "maar" de RX7700 series gaan worden en beginnen bij ergens rond de $500. Een RX7600 series kan dan helemaal niet bestaan, toch een kleinere chip zijn of een rebrand van bijvoorbeeld Navi 22/RX6700XT. :)

[ Voor 27% gewijzigd door DaniëlWW2 op 20-09-2021 14:35 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • 0 Henk 'm!

  • Tincahunter
  • Registratie: September 2020
  • Laatst online: 07-04-2022
Allemaal leuk en aardig maar zal die zooi ook verkrijgbaar zijn laat staan voor een normale prijs?

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:48
Tincahunter schreef op maandag 20 september 2021 @ 20:06:
[...]

Allemaal leuk en aardig maar zal die zooi ook verkrijgbaar zijn laat staan voor een normale prijs?
Als de voorlopige geruchten kloppen, nee. Sterker nog, volgens die geruchten gaan bij de volgende generaties de MSRP's iedere tier flink omhoog.

Acties:
  • +2 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • +1 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • +1 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 22:52

Mars Warrior

Earth, the final frontier

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Overigens de 'delay' betreft alleen N31, N33 wordt volgens zeggen gewoon eind 2022 verwacht.

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • +2 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DaniëlWW2 schreef op maandag 20 september 2021 @ 14:01:
En dit alles over de RX5700XT en RX6600XT is hier irrelevant.

Want de geruchtenmolen over RDNA3 zegt ongeveer dit:
-Er is maar een GPU chip configuratie in de hele RDNA3 generatie. Het gaat hier om een 20 WGP chip met 5120 ALU's. Dat is een verdubbeling van ALU's per WGP ten opzichte van RDNA2. Maar met 5120 ALU's zit je alsnog op hetzelfde niveau als de RX6900XT. Dus tenzij AMD een dramatische regressie in per ALU efficiëntie zou meemaken om wat voor reden dan ook, zal een 5120 ALU Navi 33, op zijn minst vergelijkbaar moeten presteren met de RX6900XT.
-Het idee lijkt te zijn dat voor Navi 32 en Navi 31, meerdere van deze 20 WGP/ 5120 ALU chips worden gecombineerd in een MCM ontwerp. Navi 32 met twee van deze chips, dus in theorie al het dubbele van Navi 21. Navi 31 een derde chip erbij voor het drievoudige. En daarbij zou je zomaar tegen een schalingsprobleem kunnen aanlopen. 2,5x Navi 21 voor Navi 31 is denk ik dan ook geloofwaardiger dan 3x. Immers schalen de grotere chips uit een generatie meestal niet perfect op met hun extra hardware. En dit is een potentieel monster met een bijna ongekende prestatiesprong, generatie op generatie.

Zeker voor Navi 31 zou een dergelijk ontwerp ook een gigantisch oppervlakte bevatten. En het verbruik zal ook enorm zijn. AMD claimt weer 50% power/perf verbetering, maar dat gaat hier bij lange na niet afdoende zijn. En als ze dat geclaimde doel weer halen, dan kijk je potentieel dus naar een circa 150W Navi 33 voor vergelijkbare prestaties als een 300W Navi 21. Potentieel, want deze berekening kan meerdere kanten opgaan waardoor je misschien 200W krijgt en net iets sneller dan een RX6900XT. Ook kan die 50% te ideaal worden voorgesteld, bijvoorbeeld een Navi 33 die op het ideale punt in haar perf/efficiëntiecurve zit tegenover een RX6900XT die zeker wat aan de inefficiënte kant van haar perf/efficiëntiecurve zit, waardoor die in de praktijk niet zo efficiënt is. Dat soort claims gebeurden ook vaak.

Maar als het echt perfect zou schalen met de RX6900XT als 100% punt in zowel perf als power, dan zou een Navi 32 kan dan ook wel eens richting de 300W gaan en Navi 31 naar de 450W. Dat is een zeer ruwe schatting omdat er een aantal factoren zoals L3 cache, geheugencontrollers, losse chiplet voor I/O bij zullen komen voor Navi 32 en 31. Maar reken gerust op heel wat verbruik.


Onder de streep, MCM = in theorie echt verdomd snel. :Y)


[...]


Ja en nee. :P

Eerst heb ik maar een slecht paint plaatje gemaakt van wat de geruchtenmolen suggereert. Daarop kan je zien dat er inderdaad een RX6900XT klasse (Navi 21) chip lijkt te komen als de opvolger van Navi 23 (RX6600 series).
[Afbeelding]

Twee van die Navi 33 chips samen met een I/O chip zouden dan samen Navi 32 zijn en drie zijn samen Navi 31.

Het nee komt van de gigantische prijzen die hier waarschijnlijk aan verbonden worden. Het zou dus heel goed kunnen dat Navi 33 alsnog "maar" de RX7700 series gaan worden en beginnen bij ergens rond de $500. Een RX7600 series kan dan helemaal niet bestaan, toch een kleinere chip zijn of een rebrand van bijvoorbeeld Navi 22/RX6700XT. :)
Plaatjes zijn leuk. Wat ik alleen mis is dat 5nm+6nm gerucht. Welk deel van de echte RDNA3 is 5nm, welk 6nm?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Tincahunter schreef op maandag 20 september 2021 @ 20:06:
[...]

Allemaal leuk en aardig maar zal die zooi ook verkrijgbaar zijn laat staan voor een normale prijs?
Dat is afhankelijk van de mining profit per dag. En niks anders. De kaarten zijn nu ook gewoon meer waard omdat er een print geld knop op zit.

Zodra de profit per dag boven de 12 maanden terugverdientijd komt, volgt er een dumping. Ter vergelijking, de vraag in 2007: 70 miljoen discrete GPUs. 2019? 40 miljoen. En dat is misschien nu 45 miljoen als mining wegvalt. Niet veel.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op dinsdag 5 oktober 2021 @ 09:49:
[...]


Plaatjes zijn leuk. Wat ik alleen mis is dat 5nm+6nm gerucht. Welk deel van de echte RDNA3 is 5nm, welk 6nm?
Navi 33 schijnt helemaal N6 te zijn. Navi 32 en 31 N5 + N6.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DaniëlWW2 schreef op dinsdag 5 oktober 2021 @ 10:26:
[...]


Navi 33 schijnt helemaal N6 te zijn. Navi 32 en 31 N5 + N6.
Ok en met jouw kennis van RDNA2, welke onderdelen van Navi 31 en Navi 32 zijn dan logischerwijs N5? Alleen de MCM controller? Infinity cache? PCI express en display port bussen?

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op dinsdag 5 oktober 2021 @ 19:19:
[...]

Ok en met jouw kennis van RDNA2, welke onderdelen van Navi 31 en Navi 32 zijn dan logischerwijs N5? Alleen de MCM controller? Infinity cache? PCI express en display port bussen?
Ik vermoed dat ze de I/O onderdelen zullen afsplitsen. Immers schalen deze vaak minder goed mee met kleinere nodes en hoeven deze niet per se direct naast de rekendelen te zitten om optimaal te presteren. Dus geheugencontrollers, PCI-E, display control etc. Vermoedelijk ook de scheduling omdat ze dit moeten verdelen over meerdere GPU chiplets als het inderdaad een MCM ontwerp is. Die L3 cache blijft denk ik zeker bij de GPU zelf zitten. Want ik vermoed al een hele tijd dat een van de redenen voor die enorme L3 cache, juist te maken heeft met de stap naar een chiplet based GPU te faciliteren. Immers kan je zo namelijk de enorme latency penalty opvangen.

Mede gezien wat patenten die gepubliceerd zijn, verwacht ik eigenlijk iets dat op grote lijnen wel eens op Zen 2 kan lijken. Maar het is gewoon echt nog een jaar wachten denk ik. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • +2 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 20:54

XanderDrake

Build the future!

In de discussie AMD FSR vs nVidia DLSS, ben ik ondertussen vol voorstander van FSR geworden. Ik denk dat de kwaliteit van de in-game image iets beter is met DLSS als je veel beweegt, maar dat weegt niet op tegen de brede inzetbaarheid van FSR. Ik zag net een filmpje van Krizzp met een GTX 750Ti in Far Cry 6:



1080p @ low + FSR Ultra @ 35fps... Op een bijna acht jaar oude midrange Maxwell 1.0 GPU... Met weinig shaders en maar 2gb VRAM op een 128bit bus. Episch gewoon _/-\o_
Op FSR Ultra zie je gewoon het verschil met normaal niet, en je FPS gaan van 25 naar 35! Als je FSR performance neemt zou je soms zelfs de 60 halen :o

Het is best wel een pro-consumer move van zowel AMD (voor het openstellen en breed ontwikkelen van FSR), Ubisoft (voor het verkiezen van FSR boven DLSS) en zelfs nVidia (om na tig jaar nog vrolijk long term driver support te geven aan een oude midranger). Met een 750 Ti kan je op deze manier nog lang door :)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 23:13
@XanderDrake De 750 Ti was een low-end kaart.

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:48
Leuk dat je nog 30 FPS kan halen met zo'n kaartje, maar ik moet wel zeggen dat ik het echt niet om aan te gluren vind. Ik zou zo niet met plezier kunnen gamen. Nee, mijn ding zou het niet zijn.

Verder eens dat FSR een mooie techniek is, maar ik weet niet of dit voor mij een goede reclame zou zijn.

Acties:
  • +1 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 20:54

XanderDrake

Build the future!

Dennism schreef op vrijdag 22 oktober 2021 @ 12:40:
Leuk dat je nog 30 FPS kan halen met zo'n kaartje, maar ik moet wel zeggen dat ik het echt niet om aan te gluren vind. Ik zou zo niet met plezier kunnen gamen. Nee, mijn ding zou het niet zijn.

Verder eens dat FSR een mooie techniek is, maar ik weet niet of dit voor mij een goede reclame zou zijn.
Deze berichten smaken beide een beetje naar elitarisme :>

Tweakers noemt de kaart midrange in hun review, en volgens Steams hardware lijst wordt hij meer gebruikt dan 95% van alle AMD GPUs :+ Dus het is goed dat een developer het mogelijk maakt om FSR gebruiken. Ik vind het hele positieve reclame.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:48
XanderDrake schreef op vrijdag 22 oktober 2021 @ 12:59:
[...]


[...]

Deze berichten smaken beide een beetje naar elitarisme :>
Ik zie dat niet direct, ik geef alleen aan dat het er niet uit ziet, weinig elitairs aan imho.
Dus het is goed dat een developer het mogelijk maakt om FSR gebruiken
Volledig mee eens.
Ik vind het hele positieve reclame.
Ik had liever gezien dat ze een setting hadden gebruikt, waar de kwaliteit niet zo laag is, dat zou naar mijn mening een nog betere reclame zijn. Als ik kijk naar andere resultaten met FSR zijn er een stuk betere showcases te vinden. Ik heb zelf nog geen games die FSR support hebben, maar dit flimpje zou mij niet uitnodigen het te gaan gebruiken op mijn 6000 serie kaart.

[ Voor 9% gewijzigd door Dennism op 22-10-2021 13:13 ]


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 00:27
Elitarisme of niet, midrange of niet, ik vind noch 25, noch 35 FPS onder de noemer "fijn speelbaar" vallen, helemaal niet als je dan alles op low moet draaien."Ultra" is meestal onzin en verlaagt alleen maar de framerate voor niet noemenswaardige verbetering ten opzichte van "high" (eventueel customized), maar "low" is in de meeste spellen (waaronder ook FC6) toch echt wel een flinke snoekduik qua kwaliteit. Ziet er prima uit voor een shooter uit het midden van de jaren '90, maar niet veel verder. :P Die textures aan de achterkant van je wapen... big oof. En ik ben echt niet iemand die uitgebreid naar de muur gaat staren op zoek naar de pixels.

Tuurlijk, als je vastzit aan deze hardware en bereidt bent de compromissen voor lief te nemen is het leuk dat FSR er nog wat extra perf uit perst, maar om nou te zeggen dat het echt het verschil maakt. Moet je nu van low naar medium kunnen (of wellicht nog wat hoger) met goede framerates dan is het nog eens wat, maar ik denk dat ook FSR niet zulke grote wonderen kan verrichten als de kaart het echt niet meer trekt qua VRAM/perf.

[ Voor 6% gewijzigd door MneoreJ op 22-10-2021 13:14 ]

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 30-09 14:44
Vergeet niet dat GM107 minder dan 65W trok, gemiddeld zelfs onder de 60W. De laatste GPU in die klasse is GP107 (1050 Ti), TU117 (1650) is al een stapje hoger. Die tikt de 90W wel aan en is ook zo'n 33% groter; onder Nvidia's oude naamgeving zou het een **6 chip geweest zijn. GP107 loopt ook constant tegen een powerlimit aan, die trekt gewoon 75W over het algemeen. GM107 is/was best een bizar ding en dat zo'n klein ding nog zo'n gigantisch voordeel uit FSR kan halen is op zich best mooi. Niet zo zeer omdat het alles ineens super speelbaar maakt, maar omdat het laat zien hoe goed FSR schaalt. Dat ding heeft maar 640 shaders op amper 1 GHz. Laat dat even bezinken. GP107 heeft al bijna het dubbele aan theoretische rekenkracht.

[ Voor 4% gewijzigd door Werelds op 22-10-2021 14:04 ]


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
XanderDrake schreef op vrijdag 22 oktober 2021 @ 09:59:
In de discussie AMD FSR vs nVidia DLSS, ben ik ondertussen vol voorstander van FSR geworden. Ik denk dat de kwaliteit van de in-game image iets beter is met DLSS als je veel beweegt, maar dat weegt niet op tegen de brede inzetbaarheid van FSR. Ik zag net een filmpje van Krizzp met een GTX 750Ti in Far Cry 6:

[YouTube: GTX 750 Ti | Far Cry 6 - This Card Just Doesn't Die!]

1080p @ low + FSR Ultra @ 35fps... Op een bijna acht jaar oude midrange Maxwell 1.0 GPU... Met weinig shaders en maar 2gb VRAM op een 128bit bus. Episch gewoon _/-\o_
Op FSR Ultra zie je gewoon het verschil met normaal niet, en je FPS gaan van 25 naar 35! Als je FSR performance neemt zou je soms zelfs de 60 halen :o

Het is best wel een pro-consumer move van zowel AMD (voor het openstellen en breed ontwikkelen van FSR), Ubisoft (voor het verkiezen van FSR boven DLSS) en zelfs nVidia (om na tig jaar nog vrolijk long term driver support te geven aan een oude midranger). Met een 750 Ti kan je op deze manier nog lang door :)
Het ziet er op die ultra quality setting nog prima uit. Dat dit spellen zoals FC6 met een 750Ti enigzins speelbaar maakt is erg nice. Denk dat dit voor kaarten in de range van 290, 580, 970, 1060 etc super interessant kan zijn.

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 18:59

Damic

Tijd voor Jasmijn thee

@DaniëlWW2 wat vind je van de CDNA2 leak op de FP (nieuws: Gerucht: AMD Instinct MI250X-accelerator krijgt 110 compute units en ...)?

Spijtig dat ze echt de datacenter weg zijn ingeslagen, deze kaart is echt niet op een gewone pc in te prikken zonder speciale base plate.

[ Voor 89% gewijzigd door Damic op 24-10-2021 15:20 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Nog niet goed gekeken en ik volg het de laatste tijd ook wat minder. Van de GPU markt wordt je namelijk niet bepaald enthousiast op het moment. :z

Maar dan CDNA2 relatief snel na CNDA zou komen, was al even bekend. MCM lijkt er ook wel te komen. Gezien de enorme toename in theoretische FP output lijkt ook geen 64 SP configuratie van de CU's meer te zijn. Dat zou RDNA3 ook hebben. Ook zal er iets verbeterd zijn in specifiek FP64 output.

Verder heb ik geen idee hoever CDNA2 al afwijkt van RDNA3. Veel meer dan "dit ding knuppelt in theorie A100 helemaal dood", kom ik zo ook niet. Oh en je kan er niet op gamen. Immers geen display out op CDNA. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 18:59

Damic

Tijd voor Jasmijn thee

@DaniëlWW2 ik denk dat je er wel kunt op gamen maar dan virtueel of misschien ook niet.

denk ook wel dat het MCM is anders zou het een serieus grote chip zijn. In ieder geval is de IPC weer serieus omhoog gegaan.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 20:54

XanderDrake

Build the future!

DaniëlWW2 schreef op zaterdag 14 augustus 2021 @ 12:15:
[Bij het maken van lower end GPUs] loop je tegen twee problemen aan als je een architectuur gaat splitsen over meerdere nodes. Ten eerste kost het gewoon prestaties omdat een oudere node, simpelweg meer energie zal verbruiken voor vaak minder clockspeed. Een goed voorbeeld is Vega 10 en Vega 20. Oke, die zijn niet helemaal identiek buiten de node om, maar het was toch een duidelijk verschil in hoe ze presteren.

Tweede en veel grotere probleem is dat een chip word ontworpen rond een specifieke set aan eisen van het productieproces. Dat is een PDK. Daar heb je meteen al de serieuze juridische barrière dat al die fabrikanten, pertinent weigeren dat je een ontwerp bij meerdere fabrikanten laat maken. Daarom geloofde ik al die Ampere ook naar TSMC N7 geruchten dus nooit. En zelfs als die fabrikanten dit toestonden en moedwillig dus hun IP blootstellen aan vergelijking door een derde partij, wetende dat de concurrent op deze manier ook zal leren waar de ander goed en minder goed in is, dan is er nog een fors probleem. Het kost hartstikke veel geld om dit te doen.

Of je nu een CPU of GPU of iets anders pakt, het is toch voornamelijk een herhaling van identieke eenheden die ingepast zijn in een rechthoek. Of dat nu het herhalen van een 32 bit PHY is voor je geheugentoegang, een CU of SM, een blok cache etc. En met meerdere chips op een proces, hoef je deze eenheden maar een keer productie gereed te maken en deze dan een aantal keer herhalen en in een grotere chip verwerken. Met twee nodes, moet je dit dus twee keer doen. En dat kost heel wat geld, tijd en mankracht.
Het is een beetje oftopic maar wel hier besproken: nVidia lijkt dit nu wel te gaan doen, een RTX 2060 met meer VRAM (her)introduceren. Of hebben ze nog een oude voorraad RTX 2060 GPU's liggen?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:48
XanderDrake schreef op maandag 1 november 2021 @ 16:48:
[...]

Het is een beetje oftopic maar wel hier besproken: nVidia lijkt dit nu wel te gaan doen, een RTX 2060 met meer VRAM (her)introduceren. Of hebben ze nog een oude voorraad RTX 2060 GPU's liggen?
Dat hoeft geen oude voorraad te zijn en ook geen andere node dan voorheen. Het is zeker niet onmogelijk dat Nvidia nog steeds capaciteit heeft bij TSMC voor Turing of opnieuw capaciteit ingekocht heeft.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XanderDrake schreef op maandag 1 november 2021 @ 16:48:
[...]

Het is een beetje oftopic maar wel hier besproken: nVidia lijkt dit nu wel te gaan doen, een RTX 2060 met meer VRAM (her)introduceren. Of hebben ze nog een oude voorraad RTX 2060 GPU's liggen?
Nah, Nvidia lijkt gewoon TU-106 opnieuw in productie te nemen op TSMC N16/12. Andere generatie dus geen IP conflict. Maar die geruchten gaan inmiddels ook al een jaar. Het is hetzelfde met het wel of niet bestaan van GA-103, al dan niet op TSMC N7 of toch Samsung N8 en toch RTX30xx series SKU's met een meer fatsoenlijke hoeveelheid VRAM.

Ik wacht gewoon af of Nvidia wel iets gaat doen. Ben in ieder geval sceptisch over GA103 op TSMC N7. Want buiten het hele IP verhaal, heb je nu ook nog eens Intel die ook wafers hebben ingekocht voor Alchemist. AMD zal waarschijnlijk ook willen uitbreiden zodra meer SoC productie naar N5 verschuift.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 20:54

XanderDrake

Build the future!

DaniëlWW2 schreef op maandag 1 november 2021 @ 17:02:
Nah, Nvidia lijkt gewoon TU-106 opnieuw in productie te nemen op TSMC N16/12. Andere generatie dus geen IP conflict.
Dit is wat ik initieel bedoelde met mijn post een tijd geleden: Als er zo'n te kort aan GPUs is, dat zelfs midrangers onbetaalbaar worden, moeten GPU fabrikanten overwegen oudere nodes levend te houden voor lower end GPUs.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XanderDrake schreef op maandag 1 november 2021 @ 17:04:
[...]

Dit is wat ik initieel bedoelde met mijn post een tijd geleden: Als er zo'n te kort aan GPUs is, dat zelfs midrangers onbetaalbaar worden, moeten GPU fabrikanten overwegen oudere nodes levend te houden voor lower end GPUs.
Oh dat, tja dat lijkt al de planning te zijn met RDNA3. Volgens de geruchtenmolen zou Navi 33 zou nog op N6 zitten en geen MCM zijn. Maar dat excuus ga ik Nvidia niet geven omdat de echte prijsstijgingen pas bij de 7nm klasse uit de hand begonnen te lopen. Nvidia zit met Ampere op een veredelde 10nm klasse node. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • +4 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

fwiw:

TechPowerup: 50 Games Tested: GeForce RTX 3080 vs. Radeon RX 6800 XT

"In our launch day review, the Radeon RX 6800 XT was 6% behind the GeForce RTX 3080 at 4K resolution (launch review). At 1440p, the difference was 4%, and 6% at Full HD. A lot has changed since then. We've upgraded our test system from Core i9-9900K to Ryzen 7 5800X, both AMD and NVIDIA have enabled PCI-Express Resizable BAR in their drivers, and drivers of course had time to mature.

Today, the performance difference has shrunk to 2.1% at 4K, 0% at 1440p, and 1.2% at Full HD. This means NVIDIA's GeForce RTX 3080 is still faster than the Radeon RX 6800 XT, but AMD has caught up a lot, and the average difference is small enough that I'd say both cards can be considered equal in terms of performance. Of course, even though we tested 50 games, or maybe because we tested so many games, the performance in specific titles will vary big time. For example, if you play Battlefield V all day, the RX 6800 XT will give you higher framerates. On the other hand, if the games you play are mostly older releases using the DirectX 11 API, NVIDIA will be ahead. That's exactly why I tried to break out specific scenarios, like "DX12 and Vulkan Games Only" or "Games released 2020."

The biggest surprise for me is that there seems to be a very clear trend showing that AMD's Radeon is running better and better in new releases. I'm not sure about the exact reason. Maybe it's because the new game consoles are based on AMD hardware? The last generation of consoles used AMD, too, so that's probably not it. What seems to be real though is that AMD developer relations are more active, probably with more staff, resources, and money. While AMD did regularly miss the ball on day zero driver support several years ago, important game releases are now almost guaranteed to have an AMD game-ready driver available on launch—something NVIDIA has been providing for more than a decade. Many of you will remember driver issues on AMD, like all the problems people had with the Radeon RX 5700 XT. These seem to be a thing of the past, too, so good job, AMD...... etc."

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +2 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 20:54

XanderDrake

Build the future!

Help!!!! schreef op woensdag 3 november 2021 @ 08:30:
fwiw:

TechPowerup: 50 Games Tested: GeForce RTX 3080 vs. Radeon RX 6800 XT

"In our launch day review, the Radeon RX 6800 XT was 6% behind the GeForce RTX 3080 at 4K resolution (launch review). At 1440p, the difference was 4%, and 6% at Full HD. A lot has changed since then. We've upgraded our test system from Core i9-9900K to Ryzen 7 5800X, both AMD and NVIDIA have enabled PCI-Express Resizable BAR in their drivers, and drivers of course had time to mature.

Today, the performance difference has shrunk to 2.1% at 4K, 0% at 1440p, and 1.2% at Full HD. This means NVIDIA's GeForce RTX 3080 is still faster than the Radeon RX 6800 XT, but AMD has caught up a lot, and the average difference is small enough that I'd say both cards can be considered equal in terms of performance. Of course, even though we tested 50 games, or maybe because we tested so many games, the performance in specific titles will vary big time. For example, if you play Battlefield V all day, the RX 6800 XT will give you higher framerates. On the other hand, if the games you play are mostly older releases using the DirectX 11 API, NVIDIA will be ahead. That's exactly why I tried to break out specific scenarios, like "DX12 and Vulkan Games Only" or "Games released 2020."

The biggest surprise for me is that there seems to be a very clear trend showing that AMD's Radeon is running better and better in new releases. I'm not sure about the exact reason. Maybe it's because the new game consoles are based on AMD hardware? The last generation of consoles used AMD, too, so that's probably not it. What seems to be real though is that AMD developer relations are more active, probably with more staff, resources, and money. While AMD did regularly miss the ball on day zero driver support several years ago, important game releases are now almost guaranteed to have an AMD game-ready driver available on launch—something NVIDIA has been providing for more than a decade. Many of you will remember driver issues on AMD, like all the problems people had with the Radeon RX 5700 XT. These seem to be a thing of the past, too, so good job, AMD...... etc."
Ergens niet verrassend, we zien dit eigenlijk bij elke generatie. Maar het is ook niet zo'n duidelijk beeld:
Afbeeldingslocatie: https://tpucdn.com/review/geforce-rtx-3080-vs-radeon-rx-6800-xt-megabench/images/directx-12-vulkan.png
Er zijn genoeg outliers beide kanten op, ondanks dat het allemaal nieuwere APIs en titels betreft.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
XanderDrake schreef op woensdag 3 november 2021 @ 09:04:
[...]

Ergens niet verrassend, we zien dit eigenlijk bij elke generatie. Maar het is ook niet zo'n duidelijk beeld:
[Afbeelding]
Er zijn genoeg outliers beide kanten op, ondanks dat het allemaal nieuwere APIs en titels betreft.
Toch leuk om te zien dat het nu beide kanten op gaat terwijl 4k het territorium is van de 3080 en 3090.

Acties:
  • 0 Henk 'm!

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 18:33

ParaWM

Pro Prutser

Sp3ci3s8472 schreef op woensdag 3 november 2021 @ 11:54:
[...]


Toch leuk om te zien dat het nu beide kanten op gaat terwijl 4k het territorium is van de 3080 en 3090.
Ehm niet meer? 4k ook gelijk, plaatje hierboven de 3080 zelfs 0.8% slower op 4k. En met 10Gb geheugen, zou ik de 6800XT met 16GB eerder 4k noemen; 3080 ideaal voor 1440p of 1440p UW.

Sinterklaas wil bier !


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
ParaWM schreef op woensdag 3 november 2021 @ 17:30:
[...]


Ehm niet meer? 4k ook gelijk, plaatje hierboven de 3080 zelfs 0.8% slower op 4k. En met 10Gb geheugen, zou ik de 6800XT met 16GB eerder 4k noemen; 3080 ideaal voor 1440p of 1440p UW.
Voorheen was de 3080 duidelijk sterker in 4k en liep de 6800 XT voor op 1080p en gelijk in 1440p.

Nee RDNA2 is sterker op lagere resoluties doordat er in verhouding veel meer in de Infinity Cache kan. Ampere wint het juist op hogere resoluties door de belachelijk hoge geheugenbandbreedte en het feit dat die dubbel uitgevoerde shaders efficienter gebruikt kunnen worden.

Ik ben echt geen Nvidia fanboy, maar ik ben wel realistisch :+. Ik heb ondertussen 2x 6800 XT en 2x 6900 XT in huis gehad (heb nog steeds een 6900 XT in mijn main rig).

Acties:
  • 0 Henk 'm!

  • ParaWM
  • Registratie: December 2016
  • Laatst online: 18:33

ParaWM

Pro Prutser

Sp3ci3s8472 schreef op woensdag 3 november 2021 @ 18:16:
[...]


Voorheen was de 3080 duidelijk sterker in 4k en liep de 6800 XT voor op 1080p en gelijk in 1440p.

Nee RDNA2 is sterker op lagere resoluties doordat er in verhouding veel meer in de Infinity Cache kan. Ampere wint het juist op hogere resoluties door de belachelijk hoge geheugenbandbreedte en het feit dat die dubbel uitgevoerde shaders efficienter gebruikt kunnen worden.

Ik ben echt geen Nvidia fanboy, maar ik ben wel realistisch :+. Ik heb ondertussen 2x 6800 XT en 2x 6900 XT in huis gehad (heb nog steeds een 6900 XT in mijn main rig).
Ja precies. Dat WAS de situatie. Het 4k verschil lijkt ingelopen en dan blijft 10GB vram krap voor de komende jaren. FSR gaat ook lekker. (Zelf een Nvidia kaart hoor, 3080Ti)

Sinterklaas wil bier !


Acties:
  • +1 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:48
Sp3ci3s8472 schreef op woensdag 3 november 2021 @ 11:54:
[...]


Toch leuk om te zien dat het nu beide kanten op gaat terwijl 4k het territorium is van de 3080 en 3090.
Je kijkt daar natuurlijk wel naar een specifieke subset van resultaten,

Wat mij vooral opvalt is dat vziw bij launch de RTX3080 het moest afleggen op 1080P, +- gelijk op 1440P en de 6800XT het moest afleggen op 4K, zoals je zelf in een latere post ook al aangeeft.

Kijk ik echter naar de volledige resultaten van TPU dan is het nu ineens de RTX3080 die wint op 1080P, gelijk op 1440P en de RTX wint weer op 4K. https://www.techpowerup.c...eon-rx-6800-xt-megabench/

Kijkende naar al hun resultaten wint de 6800XT alleen de DX12/Vulcan only tests, en de 2021 only tests. Wat dan opzich wel weer goed is voor AMD, want in nieuwere titels doen ze het dus beter.

Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 00:27
Ik vind het een stuk nuttiger om te kijken naar de uitschieters en de trends. Die 0.8% of whatever boeit toch niemand als er extremen tussen zitten van 15% langzamer en 11% sneller... dat is een muntje opgooien bij elk spel om te zien of je geluk hebt. Het betekent dus ook dat dat gemiddelde makkelijk kan schuiven door hier en daar een spel weg te laten -- iets om bij op te letten in andere benchmarks (met 50 spellen zit TPU redelijk goed natuurlijk).

Voor mij is de hele test eigenlijk weinig interessant omdat ik in principe alleen op zoek ben naar stabiele framerates boven de 60 op mijn resolutie (en alles daarboven is mooi meegenomen), en deze test gaat niet over absolute framerates. Of AMD of Nvidia dan technisch gezien het wedstrijdje verpissen wint gebaseerd op gemiddelde snelheden over alle games, tja, dat lijkt me typisch voer voor fanboys en verder weinig als het over kleine marges gaat.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +2 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 20:54

XanderDrake

Build the future!

De pc-versie van God of War (2018) krijgt ondersteuning voor AMD FSR. Ontwikkelaar Santa Monica Studio maakte eerder al bekend dat de pc-port Nvidia DLSS zou ondersteunen.

Super interessant, is dit toevallig het eerste spel dat zowel FSR als DLSS ondersteunt?
Zo ja dan kunnen we eindelijk appels met appels vergelijken :). Tevens, zou het mogelijk zijn om FSR en DLSS tegelijk aan kan zetten??

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
XanderDrake schreef op zaterdag 6 november 2021 @ 17:16:
De pc-versie van God of War (2018) krijgt ondersteuning voor AMD FSR. Ontwikkelaar Santa Monica Studio maakte eerder al bekend dat de pc-port Nvidia DLSS zou ondersteunen.

Super interessant, is dit toevallig het eerste spel dat zowel FSR als DLSS ondersteunt?
Zo ja dan kunnen we eindelijk appels met appels vergelijken :). Tevens, zou het mogelijk zijn om FSR en DLSS tegelijk aan kan zetten??
Er zijn er al meerdere. Volgens mij een of ander Marvel spel en een of andere Necro nog iets shooter :P.

Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

TechPowerup: Call of Duty: Vanguard: DLSS vs. FSR Comparison Review

Conclusion
In Call of Duty: Vanguard, the DLSS and FSR implementations use sharpening filters in their render paths. As per usual, you can't control the level of sharpening for FSR, but as soon as you enable DLSS, a sharpening slider becomes available in the settings menu. Use it to set the value (from 0 to 100) that suits your personal preferences. This sharpening slider was introduced with DLSS 2.2, but only since DLSS 2.3 have more developers been adding it to their DLSS implementations, which are thus in our opinion more "player friendly" than the FSR implementations. We wouldn't be surprised if such an adjustable sharpening feature will be added to FSR in the future—hopefully. By default, the game sets the DLSS sharpening value to 50, so we kept that setting for our testing.

With DLSS enabled, you can expect more detail and less blur than with SMAA T2X, as well as greatly increased performance across all resolutions in DLSS Quality mode. Speaking of FSR, the image quality with it enabled is pretty good even without the ability to tweak the sharpening level, and unlike some other FSR implementations, it's not heavily oversharpened at lower resolutions.

Most gamers consider FSR for old GPUs (GTX 900/1000 and RX 400/500 series) at 1080p resolution, and many previous FSR implementations weren't that good at low resolutions, resulting in a noticeable loss to image quality in favor of performance. That said, the FSR implementation in Call of Duty: Vanguard is different. It is actually a good implementation with well-balanced sharpening in the FSR render path—it doesn't look oversharpened, and with such a fast-paced game, the difference in image quality isn't easily spotted while actually playing the game.

[ Voor 83% gewijzigd door Help!!!! op 08-11-2021 19:07 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Afbeeldingslocatie: https://tweakers.net/i/C55jWkL9pN-wo7x_EGFisH8g2Yw=/x800/filters:strip_exif()/f/image/O8a2WPMdi9oNRBYX9j6Gr86i.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/d_TsRr8U6Tq0CirVVRQx5E_N0rc=/800x/filters:strip_exif()/f/image/uPQ2w7QwIwBOsvxX5TqnLM3n.png?f=fotoalbum_large

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • 0 Henk 'm!

  • SuX DeLuXe
  • Registratie: Oktober 2005
  • Laatst online: 06-07-2023
*knip*

Leuk, maar dit is geen Radeon nieuws en voegt niks toe.

[ Voor 86% gewijzigd door Blaat op 09-11-2021 07:02 ]


Acties:
  • 0 Henk 'm!

  • SuX DeLuXe
  • Registratie: Oktober 2005
  • Laatst online: 06-07-2023
*knip*

[ Voor 96% gewijzigd door Blaat op 09-11-2021 07:02 ]


Acties:
  • +3 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Kwam het volgende tegen op jijtubes:


Erg interessant, bij UE5 hebben ze dus hun eigen gespecialiseerde software rasterizer gebouwd die 3x sneller is in hun usecase dan een hardware rasterizer. Ben benieuwd wat er in de toekomst gaat gebeuren aan de hardware kant en/of meer engines dit gaan doen.

@Werelds @DaniëlWW2
Gezien jullie dit sowieso leuk vinden :P.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 30-09 14:44
Sp3ci3s8472 schreef op dinsdag 9 november 2021 @ 12:17:
Kwam het volgende tegen op jijtubes:
[YouTube: A Deep Dive into Nanite Virtualized Geometry]

Erg interessant, bij UE5 hebben ze dus hun eigen gespecialiseerde software rasterizer gebouwd die 3x sneller is in hun usecase dan een hardware rasterizer. Ben benieuwd wat er in de toekomst gaat gebeuren aan de hardware kant en/of meer engines dit gaan doen.

@Werelds @DaniëlWW2
Gezien jullie dit sowieso leuk vinden :P.
Dank, staat nu in de "Watch Later" lijst :p

Ik heb het al eerder gezegd, maar UE5 is de grootste stap in rendering technieken in jaren. Nanite en Lumen werken bizar goed (vooral Nanite) en de IK solver is ook een mooi stukje techniek. En het is allemaal gewoon beschikbaar voor iedereen (de engine, de tools en de hardware ondersteuning *kuch*). De out-of-box optimalisatie lijkt ook beter te zijn dan voorheen (UE3 was dramatisch :P).

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Update📈
Afbeeldingslocatie: https://tweakers.net/i/5Mlolt3QgGHIPDGXkU3YDye98Jc=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/9hyRN19FwghCNpYa9JLmoxXe.jpg?f=user_large

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Werelds schreef op dinsdag 9 november 2021 @ 13:08:
[...]

Dank, staat nu in de "Watch Later" lijst :p

Ik heb het al eerder gezegd, maar UE5 is de grootste stap in rendering technieken in jaren. Nanite en Lumen werken bizar goed (vooral Nanite) en de IK solver is ook een mooi stukje techniek. En het is allemaal gewoon beschikbaar voor iedereen (de engine, de tools en de hardware ondersteuning *kuch*). De out-of-box optimalisatie lijkt ook beter te zijn dan voorheen (UE3 was dramatisch :P).
Deze had je waarschijnlijk dan ook al gevonden:


Vind wat Epic Games met hun store doet nu niet echt fantastisch; maar de Unreal Engine makers zijn echt wizards :P!

[ Voor 7% gewijzigd door Sp3ci3s8472 op 12-11-2021 14:32 ]


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 18:59

Damic

Tijd voor Jasmijn thee

Euhm euhm 75Tflops FP32 dat is dan ook 75Tflops FP64 vermits FP32 en FP64 dezelfde lengte (zeg ik dat juist?) zijn, maar niet moet wachten.
En 15360SP's :o MCM dus 2x7680 met wrs dus nog wat reserve SU's (zoals CDNA2)

DAMN BOI :X :X :X :X :X

edit: waarom heeft TechPowerup al een data entry voor de 7900XT https://www.techpowerup.c...s/radeon-rx-7900-xt.c3839 _O- _O- _O- _O- _O-

[ Voor 9% gewijzigd door Damic op 12-11-2021 16:50 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Damic schreef op vrijdag 12 november 2021 @ 16:28:
[...]

Euhm euhm 75Tflops FP32 dat is dan ook 75Tflops FP64 vermits FP32 en FP64 dezelfde lengte (zeg ik dat juist?) zijn, maar niet moet wachten.
En 15360SP's :o MCM dus 2x7680 met wrs dus nog wat reserve SU's (zoals CDNA2)

DAMN BOI :X :X :X :X :X

edit: waarom heeft TechPowerup al een data entry voor de 7900XT https://www.techpowerup.c...s/radeon-rx-7900-xt.c3839 _O- _O- _O- _O- _O-
Zou dat 2-3x zo snel zijn als een 6900 XT, zolang hij maar niet meer gebruikt :X. Voor een videokaart vind ik 225 Watt eigenlijk de grens; ik heb een 6900 XT maar ik voel de warme lucht onder mijn bureau hangen. De 5700 XT was een stuk minder warm.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Damic schreef op vrijdag 12 november 2021 @ 16:28:
[...]

Euhm euhm 75Tflops FP32 dat is dan ook 75Tflops FP64 vermits FP32 en FP64 dezelfde lengte (zeg ik dat juist?) zijn, maar niet moet wachten.
En 15360SP's :o MCM dus 2x7680 met wrs dus nog wat reserve SU's (zoals CDNA2)

DAMN BOI :X :X :X :X :X

edit: waarom heeft TechPowerup al een data entry voor de 7900XT https://www.techpowerup.c...s/radeon-rx-7900-xt.c3839 _O- _O- _O- _O- _O-
Uh ja, dit zijn al tijden de geruchten? :P
Het gaat al tijden steeds om het volgende:
-15360 ALU's
-MCM met drie GPU chiplets
-Gebruik van N5 + N6 nodes
-2,5x a 3x zo snel als Navi 21
-Stupide verbruik. Denk gerust richting de 400W als het niet meer is.

De RX6900XT is ook al 23TFLOPS FP32 en 75TFLOPS FP32 is gewoon goed mogelijk voor Navi 31. Navi 32 zou dan twee GPU chiplets zijn, dus "maar" 10,240 ALU's. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Damic schreef op vrijdag 12 november 2021 @ 16:28:
[...]

edit: waarom heeft TechPowerup al een data entry voor de 7900XT https://www.techpowerup.c...s/radeon-rx-7900-xt.c3839 _O- _O- _O- _O- _O-
Doen ze wel vaker, zodra er geruchten opduiken wordt een nieuwe videokaart op basis van die geruchten aangemaakt. Dat is goed voor SEO verkeer :)

March of the Eagles


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 30-09 14:44
Sp3ci3s8472 schreef op vrijdag 12 november 2021 @ 14:23:
[...]


Deze had je waarschijnlijk dan ook al gevonden:
[YouTube: Radiance Caching for Real-Time Global Illumination]

Vind wat Epic Games met hun store doet nu niet echt fantastisch; maar de Unreal Engine makers zijn echt wizards :P!
Yep. Ik was vergeten dat Advance nu plaats vond, dus ik heb het hele kanaal bekeken :P

Heel mooi om te zien hoe "simpel" Nanite eigenlijk is. Heel simpel principe dat uiteraard niet simpel te implementeren is, maar dus wel werkt, met nog wat beperkingen. Het mooie aan die video is dat de denkwijze wordt uitgelegd. Het is niet zomaar "dit is het hoe en wat", maar het "waarom (niet)" zit er ook in. Ga zo door Unreal team, dit soort dingen hebben we voorlopig meer aan dan bijvoorbeeld RT.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Implementatie van FSR bij Unity:


Wel interessant dat ze bij de upscaling stap dus nog als extra de bias van de texture mipmap LOD aanpassen naar een negatieve waarde (waardoor je detail terugkrijgt).

Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Hallo, is dat een MCM, CDNA2 chip? ;)
Afbeeldingslocatie: https://www.servethehome.com/wp-content/uploads/2021/11/HPE-Cray-EX-AMD-Instinct-MI250X-at-SC21-Package-Close-696x527.jpg
Afbeeldingslocatie: https://www.servethehome.com/wp-content/uploads/2021/11/HPE-Cray-EX-AMD-Instinct-MI250X-at-SC21-Close.jpg
https://www.servethehome....tinct-mi250x-oam-at-sc21/

Oh en mijn snelle analyse is dat ze enorm zijn. Ongetwijfeld zal er snel wel iemand komen met een inschatting van het formaat, gemeten met de HBM2E chips. :)

[ Voor 36% gewijzigd door DaniëlWW2 op 17-11-2021 19:50 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 23:13
En ondertussen in de low-end...

...

...

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Afbeeldingslocatie: https://tweakers.net/i/wmMjJFLsUuOffsiW7w0TX9_rctU=/232x232/filters:strip_icc():strip_exif()/f/image/0j3yFjwj5DCoRhCOohiW1ZQW.jpg?f=fotoalbum_tileAfbeeldingslocatie: https://tweakers.net/i/Z-AgRYdnxSwtBfosI8o5dlE2sPg=/232x232/filters:strip_icc():strip_exif()/f/image/CJv7aQUbnJLSyBgvKYOWMoh2.jpg?f=fotoalbum_tile

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • +1 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

RDNA 3*
Afbeeldingslocatie: https://tweakers.net/i/IiLD_wgK4GwXzekj0NW63qTkiTI=/x800/filters:strip_icc():strip_exif()/f/image/6gSuisaJXdT3WBucvgYYdQCu.jpg?f=fotoalbum_large

>>> https://twitter.com/greym...94uPx3B-NKdXjcDUWbuA&s=19

[ Voor 126% gewijzigd door Xadeon op 17-11-2021 22:15 ]

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • 0 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 00:27
NitroX infinity schreef op woensdag 17 november 2021 @ 20:20:
En ondertussen in de low-end...

...

...
De high end komt altijd eerst. En met de huidige chiptekorten komt het al helemaal op de eerste plek, want marge. Als AMD het zelf niet snel genoeg doet voorzie ik nog wel end-user hardware mods waarbij kaarten met die mooie multicore chips gewoon in twee gehakt worden omdat de helft van de perf ook wel goed genoeg is. :+

Het komt wel weer, maar het zal even duren. Ik zit als eindgebruiker iig niet met smart te wachten op nieuwe 400 W straalkacheltjes zodat ik de 0.25 AAA games in een jaar die daar iets aan hebben en niet zuigen qua gameplay met hoge FPS kan spelen. Doe mij maar efficiëntere kaarten, maar ja, zolang die ook voor goud geld over de toonbank gaan... Ik sluit niet uit dat het uiteindelijk een RDNA 3 refresh/rethread wordt over een jaar of twee.

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 20:54

XanderDrake

Build the future!

NitroX infinity schreef op woensdag 17 november 2021 @ 20:20:
En ondertussen in de low-end...

...

...
Intel Xe discrete :+ !!

En APU's, als we een beetje kunnen hopen op OK productie hoeveelheden van AMD Rembrandt en Vermeer CPU's met RDNA2 GPUs, dan ben je daar ook wel mee geholpen hoor. Stukken sneller dan Vega en 6nm TSMC dus lekker clocks _/-\o_

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 00:27
APUs worden nu ook al best goed verkocht, maar helaas alleen in grote hoeveelheden voor OEM afnemers, niet zelfbouw. Ik heb nog geen berichten gezien dat we daar veranderingen in mogen verwachten. Het zou mooi zijn, maar er zit nu eenmaal een grens aan hoeveel chips AMD op het moment kan produceren, en zelfbouw staat achteraan in de rij (aangenomen dat je niet met vage Chinese verkoopkanalen in zee wil gaan).

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


  • Damic
  • Registratie: September 2003
  • Laatst online: 18:59

Damic

Tijd voor Jasmijn thee

DaniëlWW2 schreef op woensdag 17 november 2021 @ 19:48:
Hallo, is dat een MCM, CDNA2 chip? ;)
[Afbeelding]
[Afbeelding]
https://www.servethehome....tinct-mi250x-oam-at-sc21/

Oh en mijn snelle analyse is dat ze enorm zijn. Ongetwijfeld zal er snel wel iemand komen met een inschatting van het formaat, gemeten met de HBM2E chips. :)
Wooohaaa dat is grooooooot

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 20:54

XanderDrake

Build the future!

NitroX infinity schreef op woensdag 17 november 2021 @ 20:20:
En ondertussen in de low-end...

...

...
Ondertussen in mid-range land :9 :

https://tweakers.net/nieu...x-6400-met-4gb-gddr6.html

Ik ben positief verrast! Ik vond de RX 550, volgens mij de laatste discrete low-midrange AMD kaart, nogal matig. Ik dacht dat ze bij deze generatie niet die kant op zouden gaan. Maar ik heb goede hoop dat bijvoorbeeld de RX 6400 de RX 480 eindelijk met pensioen gaat sturen.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Postman
  • Registratie: Februari 2000
  • Laatst online: 26-09 12:50
XanderDrake schreef op zaterdag 20 november 2021 @ 18:09:
[...]

Ondertussen in mid-range land :9 :

https://tweakers.net/nieu...x-6400-met-4gb-gddr6.html

Ik ben positief verrast! Ik vond de RX 550, volgens mij de laatste discrete low-midrange AMD kaart, nogal matig. Ik dacht dat ze bij deze generatie niet die kant op zouden gaan. Maar ik heb goede hoop dat bijvoorbeeld de RX 6400 de RX 480 eindelijk met pensioen gaat sturen.
Alles is afhankelijk van de prijzen. Verwacht zelf dat ze weer veel te hoog in de markt gezet gaan worden, dus is het al snel niet interessant meer te noemen.

Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift

Pagina: 1 ... 57 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.