• CMT
  • Registratie: Januari 2003
  • Laatst online: 23:57
@Werelds
Ook heel erg bedankt voor de uitleg _/-\o_ . Zo blijkt maar weer hoe weinig ik er vanaf weet.

Acties:
  • +1 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dit roept bij mij de vraag op in hoeverre PSU fabrikanten een GPU TDP rating alsmede SKU naam weten.

Want Enermax heeft voor hun PSU calculator ook vier RDNA3 SKU's online gezet met de volgende PSU ratings/door mij omgezet naar ingeschatte TDP:
RX7950XT = 538W/420W
RX7900XT = 446W/330W
RX7800XT = 416W/300W
RX7700XT = 314W/200W
https://enermax.outervision.com/PSUEngine

Het punt is ook dat dit goed kan. De implicatie is waarschijnlijk ook twee N31 en twee N32 SKU's. Een ander zou zijn dat AMD zou doen waarop ik hoop, namelijk hun chips uitsplitsen met een zeer efficiëntie SKU en een maximale performance SKU.

[ Voor 6% gewijzigd door DaniëlWW2 op 09-10-2022 15:04 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DaniëlWW2 schreef op zondag 9 oktober 2022 @ 14:52:
Dit roept bij mij de vraag op in hoeverre PSU fabrikanten een GPU TDP rating alsmede SKU naam weten.

Want Enermax heeft voor hun PSU calculator ook vier RDNA3 SKU's online gezet met de volgende PSU ratings/door mij omgezet naar ingeschatte TDP:
RX7950XT = 538W/420W
RX7900XT = 446W/330W
RX7800XT = 416W/300W
RX7700XT = 314W/200W
https://enermax.outervision.com/PSUEngine

Het punt is ook dat dit goed kan. De implicatie is waarschijnlijk ook twee N31 en twee N32 SKU's. Een ander zou zijn dat AMD zou doen waarop ik hoop, namelijk hun chips uitsplitsen met een zeer efficiëntie SKU en een maximale performance SKU.

[Twitter]
Ah, in reactie op Videocardz, interessant:
https://videocardz.com/ne...t-and-geforce-rtx-40-gpus

Ik denk dat deze 4 kaarten de
2x Navi31 dies zijn (48 en 42 WGP)
1x Navi32 (30 WGP)
1x Navi33 (16 WGP)
zijn.

Qua TDPs:
RX7950XT = max is 525W, namelijk 3x150+75 (Igor's Lab leak), waarschijnlijk lager
RX7900XT = 446W/330W
RX7800XT = max is vermoed ik 375W, 2x150+75W, waarschijnlijk lager
RX7700XT = 314W/200W

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@sunsmountain

Dan zou het wel anders zijn dan bij de 6000-serie, waar Navi 21 werd gebruikt voor de 6800 tot de 6950 en de Navi 22 voor de 6700 (XT).

Misschien dat AMD het ook een stapje opschuift, maar daar kunnen we niet klakkeloos van uit gaan. Dat de 7800 XT en de 7900 XT vrijwel hetzelfde wattage zouden verbruiken, duidt er juist eerder op dat dit dezelfde die is.

[ Voor 19% gewijzigd door Ludewig op 10-10-2022 09:05 ]

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 23:17
Ludewig schreef op maandag 10 oktober 2022 @ 09:03:
@sunsmountain
...
Dat de 7800 XT en de 7900 XT vrijwel hetzelfde wattage zouden verbruiken, duidt er juist eerder op dat dit dezelfde die is.
Nee, de 7800 XT kan ook gewoon een kleinere chip zijn die flink hoger is geklokt waardoor de efficiëntie minder is dan een lager geklokte 7900 XT (welke flink wat meer shaders zal hebben en dus nog steeds beter presteerd).

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@NitroX infinity

Ja, ik heb even gekeken naar de 6000 serie en daar heeft de 6650 XT zelfs een hogere TDP dan de 6700, ook al heeft die laatste een grotere chip.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Ludewig schreef op maandag 10 oktober 2022 @ 09:03:
@sunsmountain

Dan zou het wel anders zijn dan bij de 6000-serie, waar Navi 21 werd gebruikt voor de 6800 tot de 6950 en de Navi 22 voor de 6700 (XT).

Misschien dat AMD het ook een stapje opschuift, maar daar kunnen we niet klakkeloos van uit gaan. Dat de 7800 XT en de 7900 XT vrijwel hetzelfde wattage zouden verbruiken, duidt er juist eerder op dat dit dezelfde die is.
De 7800 XT zou nog de Navi31 XL kunnen zijn, die had ik eerder als 7900 (a la 6800) verwacht, maar 7800 XT kan ook.

De vraag is dan hoe Navi32 gaat heten, als 7700XT Navi33 is (zie ook PlayStation 5 Pro geruchten). Navi32 schijnt pas later uit te komen volgend jaar Q2.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Kom op, wees waar. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • zzzzz
  • Registratie: Juni 2007
  • Laatst online: 25-05 21:59
Ik ben benieuwd. Zeker als je kijkt naar de resultaten voor Nvidia 4000 series tot nu toe.
Ik zal zelf geen 7000 series kaart kopen, maar als er weer software of driverspul terug komt naar 6000 series dan houd ik me van harte aanbevolen natuurlijk. *O*

Fotografie: Sony A7RIV + Canon P + DJI Mini 2 Flickr - PC: Ryzen 5600X | Gigabyte RX6800XT Aorus Master | Dell U4320Q 4K


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic



En terug naar wachten op RDNA3. -O-

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • UniMatrix
  • Registratie: December 2002
  • Laatst online: 06-10 06:50
:(:) Morgen over 3 weken :)

EV: 2017 Ioniq Electric | PC: AMD Ryzen 7 5700X | MSI RTX 4090 Gaming Trio | VR: Pico 4


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 23:57
-O-

Zen4 = Moo?
RTX4090 = MooMoo?
RDNA3 = M...?

Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 00:13
CMT schreef op woensdag 12 oktober 2022 @ 19:19:
-O-

Zen4 = Moo?
RTX4090 = MooMoo?
RDNA3 = M...?
Mooi?

Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 23:57
Ik hoop op MOOOOOOO!! }:O ;)

[ Voor 9% gewijzigd door CMT op 12-10-2022 19:24 ]


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 20:08

Damic

Tijd voor Jasmijn thee

Stampede?

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Toch nog iets voor de teleurstelling. RDNA3 zou inderdaad wel DP 2.0 krijgen. Kunnen we nog ergens 4K 120Hz+ doen zonder DSC...
[Twitter: https://twitter.com/KyleBennett/status/1580247905956376576]

edit: Nee, 2.1? Dat lijkt ook geen typo te zijn, maar nog een verbetering over DP2.0. De kabels bestaan immers al.

[ Voor 23% gewijzigd door DaniëlWW2 op 13-10-2022 14:17 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
CMT schreef op woensdag 12 oktober 2022 @ 19:19:
-O-

Zen4 = Moo?
RTX4090 = MooMoo?
RDNA3 = M...?
offtopic:
Meltdown

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@DaniëlWW2

Dat had ik wel verwacht. AMD is veel sneller met het adopteren van standaarden.

Ben trouwens nu wel erg benieuwd wat de pricing gaat worden vanwege de toch wel vrij goede reviews van DLSS 3. Ik denk dat ze minder kunnen vragen dan ze eerder dachten.

De vraag is wel of ze dat zelf ook zo zien of dat ze eerst te hoog inzetten en dan prijscorrecties moeten gaan doen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

De geruchtenmolen is weer aan het draaien :Y)
Bilibili leaker Enthusiast Citizen states that the AMD Radeon RX 7000 graphics cards will go on sale in December. AMD will launch only two flagship SKUs at its November 3 event, neither of which can outperform the GeForce RTX 4090 in rasterization or raytracing.
Afbeeldingslocatie: https://tweakers.net/i/vZwsv5XLsaqDJLBNYM2oE4dMFS8=/full-fit-in/4000x4000/filters:no_upscale():fill(white):strip_exif()/f/image/6mGVrqmlEliLmXRT2DbsHr3Z.png?f=user_large

Link

Ik mag toch hopen dat de 7800XT / 7800 ook nog dit jaar beschikbaar komen. Anders heeft nvidia tot ergens in begin 2023 geen concurrentie voor hun 4080.

[ Voor 12% gewijzigd door Tyranium op 13-10-2022 14:27 ]


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Tyranium schreef op donderdag 13 oktober 2022 @ 14:24:
De geruchtenmolen is weer aan het draaien :Y)


[...]


[Afbeelding]

Link

Ik mag toch hopen dat de 7800XT / 7800 ook nog dit jaar beschikbaar komen. Anders heeft nvidia tot ergens in begin 2023 geen concurrentie voor hun 4080.
Het zou me verbazen als Navi31 met 168/192 CU de 128 SM van RTX 4090 niet zou verslaan. Als niet, dan man-man-man.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 03-10 12:52
sunsmountain schreef op donderdag 13 oktober 2022 @ 16:02:
[...]

Het zou me verbazen als Navi31 met 168/192 CU de 128 SM van RTX 4090 niet zou verslaan. Als niet, dan man-man-man.
Dit is wel heel oude informatie. Volgens SkyJuice heeft N31 48 WGPs of 96 CUs (eigenlijk heeft het 0 CUs want die bestaan niet meer).

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 23:42
Tyranium schreef op donderdag 13 oktober 2022 @ 14:24:
De geruchtenmolen is weer aan het draaien :Y)


[...]


[Afbeelding]

Link

Ik mag toch hopen dat de 7800XT / 7800 ook nog dit jaar beschikbaar komen. Anders heeft nvidia tot ergens in begin 2023 geen concurrentie voor hun 4080.
Dat zou toch wel heel terugstellend zijn. O.a. @DaniëlWW2 heeft toch regelmatig best uitgebreid betoogd waarom Navi 31 Lovelace omver zou moeten blazen op basis van de leaks. Dan zou Navi 31 dus eigenlijk iets compleet anders zijn dan dat de leaks zouden laten zien. Want ik geloof ik niet dat hij er anders zover naast zou zitten met zijn berekeningen.

Acties:
  • +4 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Wat mij betreft hoeft AMD de 4090 niet te verslaan. Zou leuk zijn maar een kaart die een heel eind komt qua rasterization en raytracing performance voor een veel betere prijs vind ik zelf stuk interessanter voor de markt.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 23:42
Help!!!! schreef op donderdag 13 oktober 2022 @ 16:47:
^
Wat mij betreft hoeft AMD de 4090 niet te verslaan. Zou leuk zijn maar een kaart die een heel eind komt qua rasterization en raytracing performance voor een veel betere prijs vind ik zelf stuk interessanter voor de markt.
Van mij hoeft het ook zeker niet, maar dat neemt niet weg dat gezien de berekeningen van DanielWW2, die ik zeker grotendeels geloof het wel teleurstellend zou zijn als AMD met al die hardware die volgens de leaks in Navi 31 zou zitten Love Lace niet zou verslaan. Dan moeten of die leaks niet kloppen, waardoor uiteraard Daniels berekeningen ook niet kloppen, of AMD moet wel heel slecht werk leveren als die leaks wel kloppen. Ten minste dat is wat ik uit Daniels analyse haalde.

Neemt niet weg dat ik het als aandeelhouder wel leuk zou vinden als AMD eens echt de crown stevig te pakken zou hebben.

Acties:
  • +3 Henk 'm!

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

Help!!!! schreef op donderdag 13 oktober 2022 @ 16:47:
^
Wat mij betreft hoeft AMD de 4090 niet te verslaan. Zou leuk zijn maar een kaart die een heel eind komt qua rasterization en raytracing performance voor een veel betere prijs vind ik zelf stuk interessanter voor de markt.
Helemaal mee eens. De prijzen van nvidia gaan nergens over.
Als amd dan iets lagere performance biedt, maar dan wel voor een mooie prijs dan zou ik dat alleen maar toejuichen.

Wat betreft de eerdere leaks en dat dit gerucht qua performance niet overeenkomt met de genoemde specs... Tsja, het zou niet de eerste keer zijn dat we warm worden gemaakt met op papier hele mooie specificaties, maar dat het uiteindelijk qua performance net niet is.
Zie bijvoorbeeld de radeon VII kaart met hbm geheugen. Die zou ook alles omver blazen qua performance.

Wat dat betreft heeft amd alles behalve een vlekkeloze reputatie als het aankomt op het introduceren van nieuwe technologie (in dit geval een chiplet design) in hun videokaarten.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op donderdag 13 oktober 2022 @ 16:40:
[...]


Dat zou toch wel heel terugstellend zijn. O.a. @DaniëlWW2 heeft toch regelmatig best uitgebreid betoogd waarom Navi 31 Lovelace omver zou moeten blazen op basis van de leaks. Dan zou Navi 31 dus eigenlijk iets compleet anders zijn dan dat de leaks zouden laten zien. Want ik geloof ik niet dat hij er anders zover naast zou zitten met zijn berekeningen.
Ik zie gewoon weer precies hetzelfde gebeurden als met RDNA2. Toen werd hetzelfde geroepen dat het net RTX3070 niveau zou worden. Ja dat bleek te kloppen. Dat was alleen N22. :z
Ik zie N32 niet zomaar winnen van de RTX4090, maar zoals ik nu eindeloos heb betoogd, zie ik 140% extra SIMD32 units echt niet verliezen van zelfs de volle AD102 chip. Daar hangt het nu op, hoe groot zijn N32 en N31 precies?

Kopt 140%, dan moeten ze het echt, echt heel erg verpesten nu Nvidia botweg niet is komen opdagen. Zo durf ik het wel te noemen nu we hebben gezien met de RTX4090. Die GPU is uiteindelijk 50% groter dan de RTX3090Ti en dat is verreweg de grootste factor voor die 60-65% verbetering. Dat lijkt indrukwekkend en het is zeker ook niet slecht, maar het komt voornamelijk uit veel meer transistoren, zoals het bijna altijd gaat met zeker GPU's. Niks weerhoud AMD om hetzelfde te doen. Sterker nog, MCM zou juist meer transistoren mogelijk moeten maken.

Los van alles is nu al duidelijk dat de rest van de RTX40 series simpelweg niet zulke sprongen laat zien. AD103 valt waarschijnlijk net boven de RTX3090Ti uit en AD104 daaronder. TDP is rond de 300W. Dat kan in rasterisation al redelijk beconcurreerd worden met de nu goedkopere N21 SKU's en dat is niet overdreven. Hier moet het wel helemaal misgaan als AMD de concurrentie hier ook niet mee aangaat.

Het probleem is en blijft dat AMD zo goed is in zaken geheim houden. Nog drie weken en we weten eigenlijk niks over hoe snel ze zijn. Maar wat we wel zeker weten uit die Linux patches, suggereert zeker niet dat dit een opgepoetste RDNA1/2 is. Tenminste niet voor rasterisation. Ik bedoel, ze gooien de hele oude graphics pipeline eruit en vervangen voor de NGG die zo spectaculair niet werkte in Vega, maar wel in RDNA1/2. We hebben ook: Matrix instructions, OREO, VOPD, 192KB Vector Register File, MCM en de 50% perf/watt claim.

[ Voor 10% gewijzigd door DaniëlWW2 op 13-10-2022 18:31 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 07-10 07:45
Tyranium schreef op donderdag 13 oktober 2022 @ 17:04:
Wat dat betreft heeft amd alles behalve een vlekkeloze reputatie als het aankomt op het introduceren van nieuwe technologie (in dit geval een chiplet design) in hun videokaarten.
Kanttekening dat het ook niet per se AMD is die hiervoor verantwoordelijk is, maar het hele leger aan hoopvolle mensen die bij elke nieuwe generatie denken dat AMD dit keer met een hele grote klapper gaat komen waarbij NV het nakijken heeft, waarbij dat telkens toch net even minder uitvalt (ook als het resultaat objectief gezien gewoon in orde is). :P Nvidia hypet zichzelf wel, AMD moet het vooral hebben van de fans.

[ Voor 4% gewijzigd door MneoreJ op 13-10-2022 18:06 ]

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • +2 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Tyranium schreef op donderdag 13 oktober 2022 @ 17:04:
[...]
Helemaal mee eens. De prijzen van nvidia gaan nergens over.
Als amd dan iets lagere performance biedt, maar dan wel voor een mooie prijs dan zou ik dat alleen maar toejuichen.
Ik ben zelf meer geïnteresseerd in de mid-range. Ik denk dat AMD daar en bij de low-end vooral de winst kan pakken door veel betere prijs/performance te bieden.

De high-end van Nvidia is eigenlijk al gigantische overkill voor rasterization, dus daar is het sowieso de vraag hoeveel je dan krijgt ten opzichte van een normaal geprijsde mid-range. En dus niet de 4080's die vooral 'koop maar een 3080' uitstralen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
napata schreef op donderdag 13 oktober 2022 @ 16:11:
[...]

Dit is wel heel oude informatie. Volgens SkyJuice heeft N31 48 WGPs of 96 CUs (eigenlijk heeft het 0 CUs want die bestaan niet meer).
Niet echt oude info (oude info zou 60 WGP of 240 CU zijn), 48 WGPs en RDNA3 heeft een verdubbeling van SIMD, dus met 8 SIMDs ipv 4 SIMDs per WGP (4 SIMD = 2 CU = dual CU, de oude WGP). Dus de 48 nieuwe WGPs hebben evenveel SIMDs als de oude 96 dual CU. RX 6900XT heeft 40 dual CU.

https://wccftech.com/amd-...ompute-unit-shader-array/
SPs Per WGP 128 vs 256

Maar niet alles is verdubbeld in Navi31 (ROPs, texture units, etc.), en een hoop legacy pipeline is weggesneden. Het is te hopen dat daarmee geen performance met het badwater is weggegooid. Anyway, ik heb nog geen enkel performance gerucht gezien van Navi31 behalve van greymon55 een TSE score van 19k+.... niet echt concreet.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +7 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Goed nieuws: Decks Cleared for DirectStorage 1.1 and GPU-accelerated Game Asset Decompression

'Back in March 2022, Microsoft formally debuted the DirectStorage 1.0 API that enables direct interactions between a GPU and a storage device; thereby reducing the processing load of the storage stack on the CPU and main memory. This release, however, lacked a killer feature that's available to consoles—asset decompression. With the lukewarm response from game developers to DirectStorage 1.0 for PC, Microsoft has finally updated the API, introducing the feature with DirectStorage 1.1.

Along with DirectStorage 1.1, Microsoft is introducing GDeflate, a file compression format for game assets, developed by NVIDIA, and is working with all PC GPU manufacturers, including AMD and Intel, to add support for this file format through graphics driver updates. The format is optimized for highly parallelized compression and decompression methods over a large number of threads, which make them better optimized for GPUs. This doesn't necessarily mean that all games have to use GDeflate in order to take advantage of GPU-accelerated asset decompression over DirectStorage 1.1, it's just an added optimization for game developers working on new projects. Patching already-released games to have GDeflate would involve redistributing the entire game asset load (which is still fine if the developer chooses to).

Microsoft plans to release DirectStorage 1.1 to game developers toward the end of 2022. The first games released or patched with DirectStorage 1.1 support should start coming out in 2023.'

https://devblogs.microsof...tstorage-1-1-coming-soon/

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +6 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En daar is DP 2.1. :)
https://videocardz.com/pr...layport-2-1-specification

edit: Heb nog twee dingen:
RDNA3 ondersteunt dus in ieder geval de matrixinstructie BF16.


Tweede is dit patent dat ook iets van RDNA3 lijkt te beschrijven. Hier moet ik alleen nog eens goed naar kijken hoe het nu helemaal in elkaar steekt. edit: ik denk dat ik het begrijp :)
https://www.freepatentsonline.com/y2022/0188076.html

Dit is wel wat duidelijker. Zo komt het vermoeden naar boven dat AMD naar SIMD64 gaat met twee pipelines. Het verschil met Nvidia is waarschijnlijk dat ze 32 threads breed zijn en dat beide pipelines een hele serie aan instructies kunnen doen. Immers is er ook een SIMD32 issue mode naast SIMD64.
Afbeeldingslocatie: https://tweakers.net/i/mwBJZrhkA9uPTl9rWp-Mqn4rfCs=/800x/filters:strip_icc():strip_exif()/f/image/lL4RF8tc14cgie62aNawwA3h.jpg?f=fotoalbum_large


Edit: ik denk dat ik het snap. Het idee is dat je WGP een aantal waves krijgt vanuit de centrale scheduling. Deze worden in een que gezet voor dispatch naar de SIMD rekenclusters. Die informatie komt dan in een VGPR bank terecht. Gezamenlijk is dit de Vector Register File die voor N31/N32 naar 192KB gaat van 128KB in RDNA1/2.

Het idee hier lijkt te zijn dat de CU van RDNA3 weer SIMD64 eenheden krijgt, twee per CU. Elke van die SIMD64 heeft vervolgens twee SIMD32 paden. Nu lijkt er alleen een extra laag tussen geplaatst te worden. Dat is dit verhaal:

Let op dat het hier om instructies gaat, dus er is er maar een per SIMD32 eenheid. Wat hier staat is dat als er twee instructies zijn, de bijbehorende operations (max 32) van eke instructie naar een SIMD32 gaan. Dit is de normale gang van zaken. Maar als er maar een instructie is, dan zou de GPU swizzling doen. Dat is het proces hieronder. Het komt neer op het herorganiseren van individuele operaties die opgeslagen staan in de Vector Register File voor executie om occupency te verhogen. Het doel hier is dan ook om extra operations toe te voegen als er een wave64 niet vol is met een specifieke instructie.
Afbeeldingslocatie: https://tweakers.net/i/czQ5jIY3yppHXreRtGIqvyvfy4k=/x800/filters:strip_icc():strip_exif()/f/image/AD0w8ISLPbO72Um2LHdkppWf.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/hEdIN1FRTlrKXsX_pxM-Pp0aW7I=/800x/filters:strip_icc():strip_exif()/f/image/DaZXofoJMT0iYIrSvGpkYuQ4.jpg?f=fotoalbum_large


TLDR: RDNA3 goes even more brr. :+

[ Voor 131% gewijzigd door DaniëlWW2 op 17-10-2022 21:07 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Xadeon
  • Registratie: April 2005
  • Niet online

Xadeon

[☆] Generaal Laagvlieger [☆]

Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21


Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En weer komt AMD met een RT tool bij GPU open. Ditmaal een plugin voor een AMD implementatie van Global Illumination. Uiteraard werkt dit met UE5, zou het beter zijn dan Lumen etc etc.


Wat mij hieraan interesseert is dat de laatste tijd de focus van GPUOpen qua graphics op overduidelijk twee dingen ligt. FSR 2 en RT. Op zich logisch, maar wat ze specifiek doen vind ik opvallend. De focus lijkt namelijk heel scherp te liggen op gaming en als ze met iets komen, dan is het meteen ook interessant. Voor FSR 2 spreekt het een beetje voor zich met hun upscaling algoritme verbeteren. Maar voor RT is de focus systematisch op RT optimaliseren alsmede developers tools geven om dit te doen. Daaruit deduceer ik eigenlijk dat AMD RT ook belangrijker aan het vinden is waarbij het bij RDNA2 iets meer leek op een vinkje aftikken. En zo in de maanden voor RDNA3 is dat denk ik geen toeval.

Het vult Nvidia hun AI generated gaming asset creation ook aan. Zoals waarschijnlijk bekend ben ik niet de grootse fan van Lovelace, maar dat is wel erg interessant. Het is denk ik ook noodzakelijk omdat met de hand nog objecten creëren van afdoende kwaliteit, bijna ondoenlijk aan het worden moet zijn. Van foto's en filmmateriaal vervolgens 3D objecten maken is een zeer interessante en valide techniek waar die tensor cores wel tot hun recht komen. De combinatie met AMD hun RT zaken en hopelijk ook echt open source van micro meshes, gaan het nog eens leuk maken als de twee kampen eens iets bijdragen en elkaar eens aanvullen. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +4 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op dinsdag 18 oktober 2022 @ 22:56:
En weer komt AMD met een RT tool bij GPU open. Ditmaal een plugin voor een AMD implementatie van Global Illumination. Uiteraard werkt dit met UE5, zou het beter zijn dan Lumen etc etc.
[Twitter]

Wat mij hieraan interesseert is dat de laatste tijd de focus van GPUOpen qua graphics op overduidelijk twee dingen ligt. FSR 2 en RT. Op zich logisch, maar wat ze specifiek doen vind ik opvallend. De focus lijkt namelijk heel scherp te liggen op gaming en als ze met iets komen, dan is het meteen ook interessant. Voor FSR 2 spreekt het een beetje voor zich met hun upscaling algoritme verbeteren. Maar voor RT is de focus systematisch op RT optimaliseren alsmede developers tools geven om dit te doen. Daaruit deduceer ik eigenlijk dat AMD RT ook belangrijker aan het vinden is waarbij het bij RDNA2 iets meer leek op een vinkje aftikken. En zo in de maanden voor RDNA3 is dat denk ik geen toeval.

Het vult Nvidia hun AI generated gaming asset creation ook aan. Zoals waarschijnlijk bekend ben ik niet de grootse fan van Lovelace, maar dat is wel erg interessant. Het is denk ik ook noodzakelijk omdat met de hand nog objecten creëren van afdoende kwaliteit, bijna ondoenlijk aan het worden moet zijn. Van foto's en filmmateriaal vervolgens 3D objecten maken is een zeer interessante en valide techniek waar die tensor cores wel tot hun recht komen. De combinatie met AMD hun RT zaken en hopelijk ook echt open source van micro meshes, gaan het nog eens leuk maken als de twee kampen eens iets bijdragen en elkaar eens aanvullen. :)
Het is mooi om te zien dat AMD het stuk game development goed op orde hebben tegenwoordig. Op andere vlakken zoals content creatie en renderen ontbreekt helaas nog erg veel.

AI asset creation werkt tegenwoordig ook prima met AMD tenminste als je Linux draait. Het werkt op Windows maar dan ben je een third class citizen zeg maar. Ik heb stable diffusion hier werkend gekregen maar er is geen ROCM op Windows (daar heb je HIP) en wat je wel hebt draait gewoon erg traag.
Zelfs met WSL 2 icm Docker om Linux te draaien kom je er niet want je kaart wordt niet gevonden in de Docker container.

Daarnaast heb ik het op mijn veel tragere laptop getest waar een Nvidia kaart in zit. Alles is voor Cuda gemaakt en het werkte zonder veel te hoeven tweaken.
Met een kleine benchmark kom ik op het volgende uit:
6900 XT in Windows 10: 1-1.3 seconde/iteratie
3070m in Linux(PopOS): 7.5-8 iteraties/seconde

Waar ik het vermoeden krijgt dat de 6900 XT gewoon zwaar uit zijn neus zat te eten door de slechte implementatie. Namelijk geen verschil in FP32 vergeleken met FP16 en de clocksnelheden waren de 2D clocks van de kaart.
Nu zal een echte 3070 waarschijnlijk in zulke taken wel sneller zijn dan de 6900 XT, maar dit was bedroevend. AMD zal hier echt wat aan moeten doen, voornamelijk aan support want nu jan alleman met stable diffusion en dergelijken aan de gang kan gaan is dat nog meer een incentive om voor Nvidia te gaan.

Ook met dingen zoals Blender is renderen met de 6900 XT gewoon niet heel veel sneller dan mijn 3950x, het is een tijdje geleden maar volgens mij was hij 1.5-2x zo snel.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
Sp3ci3s8472 schreef op dinsdag 18 oktober 2022 @ 23:47:
Zelfs met WSL 2 icm Docker om Linux te draaien kom je er niet want je kaart wordt niet gevonden in de Docker container.
En rechtstreeks in WSL2?

Acties:
  • +5 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Iets anders dan. We zitten nu twee weken voor de launch. De kans dat de AIB's inmiddels functionele samples hebben is aanzienlijk. Zeker omdat AMD wel voor launch details zoals prestatiepunten en prijs zou communiceren. Wat dus nu begint is het roepen. Dus vergeet niet je grote bak popcorn, extra gezouten. ;)

[Twitter: https://twitter.com/greymon55/status/1582598870223446016]
[Twitter: https://twitter.com/greymon55/status/1582599964567314432]
[Twitter: https://twitter.com/rheumi/status/1582630429693468674]
[Twitter: https://twitter.com/greymon55/status/1582630645674934272]
[Twitter: https://twitter.com/rheumi/status/1582630886716997632]
[Twitter: https://twitter.com/greymon55/status/1582631013242785792]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Jumpiefox
  • Registratie: November 2001
  • Laatst online: 00:00

Jumpiefox

Hoi ?

Wat verwacht jij @DaniëlWW2 dat amd met de prijs gaat doen? Heb zelf een 3090 en vond dat eigenlijk al veel te veel geld voor een gpu maar wat ze nu vragen voor de nieuwe gen totaal geen zin in om te betalen. 1500e voor een 4080gaat me gewoon te ver.

Denk jij dat als amd net als de vorige gen binnen een paar procent van nvidias performance komt, de vorige gen prijzen hanteert met een kleine inflatie correctie of dat ze ook een zware premium extra inflatie winst sausje erover heen gaan gooien?

The first casualty in war is always the truth...


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Helaas staat dit al 2 jaar open:
https://github.com/microsoft/WSL/issues/5495

Dat was namelijk het eerste wat ik heb geprobeerd ;).

[ Voor 11% gewijzigd door Sp3ci3s8472 op 19-10-2022 16:18 ]


Acties:
  • 0 Henk 'm!

  • UniMatrix
  • Registratie: December 2002
  • Laatst online: 06-10 06:50
DaniëlWW2 schreef op woensdag 19 oktober 2022 @ 16:10:
Iets anders dan. We zitten nu twee weken voor de launch. De kans dat de AIB's inmiddels functionele samples hebben is aanzienlijk. Zeker omdat AMD wel voor launch details zoals prestatiepunten en prijs zou communiceren. Wat dus nu begint is het roepen. Dus vergeet niet je grote bak popcorn, extra gezouten. ;)

[Twitter]
[Twitter]
[Twitter]
[Twitter]
[Twitter]
[Twitter]
Ik moet me echt zo beheersen om geen 4090 :X te kopen en dit helpt echt enorm _/-\o_

Hopium of niet.

EV: 2017 Ioniq Electric | PC: AMD Ryzen 7 5700X | MSI RTX 4090 Gaming Trio | VR: Pico 4


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
Sp3ci3s8472 schreef op woensdag 19 oktober 2022 @ 16:18:
[...]


Helaas staat dit al 2 jaar open:
https://github.com/microsoft/WSL/issues/5495

Dat was namelijk het eerste wat ik heb geprobeerd ;).
Och :(

Vraag me af waar dat aan ligt. AMD's Linux ondersteuning zal het niet aan liggen en aan de Windows kant werkt het ook, dus het moet ergens in de passthrough liggen. Het is niet iets waar ik me ooit veel in heb verdiept, dus wellicht dat MxGPU gewoon slechter dan vGPU is?

Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
UniMatrix schreef op woensdag 19 oktober 2022 @ 16:19:
[...]

Ik moet me echt zo beheersen om geen 4090 :X te kopen en dit helpt echt enorm _/-\o_

Hopium of niet.
AMD is altijd best stilte voor de storm, hetzelfde met RDNA 2. Waar de meeste beter geinformeerde mensen al lang wisten dat het minimaal 2x was en de rest nog dacht dat kan AMD nooit :+.
Enige verbazing die ik had was dat RT op RDNA 2 niet dramatisch slecht was. Het was pas op Turing niveau maar dat is prima voor een eerste implementatie.

Acties:
  • 0 Henk 'm!

  • UniMatrix
  • Registratie: December 2002
  • Laatst online: 06-10 06:50
Sp3ci3s8472 schreef op woensdag 19 oktober 2022 @ 16:22:
[...]


AMD is altijd best stilte voor de storm, hetzelfde met RDNA 2. Waar de meeste beter geinformeerde mensen al lang wisten dat het minimaal 2x was en de rest nog dacht dat kan AMD nooit :+.
Enige verbazing die ik had was dat RT op RDNA 2 niet dramatisch slecht was. Het was pas op Turing niveau maar dat is prima voor een eerste implementatie.
Als de performance en beschikbaarheid OK zijn denk ik dat jouw vraag over de prijzen door concurrentie wel beantwoordt gaat worden en de prijzen onder het huidige '4090 niveau' terecht komen.

EV: 2017 Ioniq Electric | PC: AMD Ryzen 7 5700X | MSI RTX 4090 Gaming Trio | VR: Pico 4


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Werelds schreef op woensdag 19 oktober 2022 @ 16:22:
[...]

Och :(

Vraag me af waar dat aan ligt. AMD's Linux ondersteuning zal het niet aan liggen en aan de Windows kant werkt het ook, dus het moet ergens in de passthrough liggen. Het is niet iets waar ik me ooit veel in heb verdiept, dus wellicht dat MxGPU gewoon slechter dan vGPU is?
Ik ben ook niet bijster veel bezig met dat. Wellicht dat ik het nog met bijvoorbeeld Hyper-V kan testen icm VMWare (hoewel 2+/- jaar geleden Hyper-V + VMWware nog dramatisch slecht was) of de variant van MS.

Het zou best kunnen zijn dat dit dus aan MS ligt en niet aan AMD.

Edit:
Mijn eerste ingeving was dat het niet uit zou moeten maken omdat WSL2 ook op Hyper-V draait en Docker daar tegenwoordig gebruik van maakt.

[ Voor 9% gewijzigd door Sp3ci3s8472 op 19-10-2022 16:27 ]


Acties:
  • 0 Henk 'm!

  • UniMatrix
  • Registratie: December 2002
  • Laatst online: 06-10 06:50
Ik ben ook wel nieuwsgierig of 12VHPWR door AMD gebruikt gaat worden, nu mijn PSU fabrikant daar een mooie kabel voor heeft uitgebracht vind ik dat wel een nettere oplossing dan een bundel van 2 of 3 8-pins kabels.

EV: 2017 Ioniq Electric | PC: AMD Ryzen 7 5700X | MSI RTX 4090 Gaming Trio | VR: Pico 4


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
Sp3ci3s8472 schreef op woensdag 19 oktober 2022 @ 16:25:
Ik ben ook niet bijster veel bezig met dat. Wellicht dat ik het nog met bijvoorbeeld Hyper-V kan testen icm VMWare (hoewel 2+/- jaar geleden Hyper-V + VMWware nog dramatisch slecht was) of de variant van MS.

Het zou best kunnen zijn dat dit dus aan MS ligt en niet aan AMD.

Edit:
Mijn eerste ingeving was dat het niet uit zou moeten maken omdat WSL2 ook op Hyper-V draait en Docker daar tegenwoordig gebruik van maakt.
Ja, maar WSL is een gevalletje apart. De manier waarop dat draait is niet hetzelfde als een "eigen" Linux Hyper-V VM, WSL2 is slechts een subset. Docker is volgens mij wel een normale setup (tenzij je het in WSL2 draait).
UniMatrix schreef op woensdag 19 oktober 2022 @ 16:28:
Ik ben ook wel nieuwsgierig of 12VHPWR door AMD gebruikt gaat worden, nu mijn PSU fabrikant daar een mooie kabel voor heeft uitgebracht vind ik dat wel een nettere oplossing dan een bundel van 2 of 3 8-pins kabels.
Ik hoop echt van niet. Blijf maar lekker bij fatsoenlijke Molex stekkers.

Acties:
  • +6 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Jumpiefox schreef op woensdag 19 oktober 2022 @ 16:17:
Wat verwacht jij @DaniëlWW2 dat amd met de prijs gaat doen? Heb zelf een 3090 en vond dat eigenlijk al veel te veel geld voor een gpu maar wat ze nu vragen voor de nieuwe gen totaal geen zin in om te betalen. 1500e voor een 4080gaat me gewoon te ver.

Denk jij dat als amd net als de vorige gen binnen een paar procent van nvidias performance komt, de vorige gen prijzen hanteert met een kleine inflatie correctie of dat ze ook een zware premium extra inflatie winst sausje erover heen gaan gooien?
Ik zit tussen hoop en vrees. O-)
Aan de ene kant zou zeker N31 goedkoper om te maken moeten zijn dan AD102. Dat vooral omdat AD102 een echt heel erg dure GPU is. Idem voor waarschijnlijk N32 en AD103. In beide gevallen sneller kan ook heel goed als de leaks die allemaal dezelfde kant op wijzen, ook kloppen. Dat weet je nooit 100% zeker met AMD omdat ze zo goed zijn om hun zaken verborgen te houden.

Aan de andere kant zit AMD met twee specifieke problemen:
1) Ze hebben moeite om hun complexere MCM chips te plaatsen op substraten. Die capaciteit proberen ze nu al twee jaar uit te breiden, maar de sancties van Biden gaan daar waarschijnlijk weer voor problemen zorgen. AMD splitst hun productie namelijk uit tussen hun oude faciliteit in Maleisië die ze verkocht hebben in 2016 en een in China. Door de volgende sanctieronde mag AMD al geen CDNA2 (MI250) meer exporteren naar China voor zelfs de GPU op een substraat monteren. CDNA3 zal helemaal niet mogen en Genoa (Zen 4 Epyc) is ook zeer twijfelachtig. Ze gaan onherroepelijk weer gedoe krijgen hiermee, ook als RDNA3 wel nog naar China mag voor assemblage. Overigens mag Nvidia zeer waarschijnlijk ook geen AD102 of AD103 naar China meer exporteren, waardoor al die RTX4080 en RTX4090 videokaarten niet in China geassembleerd kunnen worden. Dat zal in Taiwan moeten gebeuren en ik vermoed dat dit een van de redenen voor de belachelijke prijzen van met name de RTX4080. Zie ook:
Advanced logic falls under two categories. The first is for chips that can be used in AI and HPC. First is the Advanced Computing Integrated Circuit controls. This applies to the entirety of China. The test is per chip. Every export to China, even to a subsidiary of a US company, is covered. That test is for chips with both 600 GB/S IO and [4800 (PERF*Bit length) or 600 TOPS PERF]. Under this definition, Nvidia’s A100, H100, AMD’s MI250X, Biren’s BR100, Graphcore’s BOW, Cerebras’s WSE, and more apply.
https://www.semianalysis....re-officially-at-economic

2) Willen ze bij AMD de moeite steken om meer wafercapaciteit te alloceren aan RDNA3? Immers is dat waarschijnlijk hun minst winstgevende productserie waar ze de grootste chips verkopen voor de laagste marges. Daarin heb ik iets meer hoop omdat het niet goed gaat met de Zen 4 verkoop. Daar kunnen wel eens N5 wafers voor vrijkomen.

Ik denk dat AMD voor zeker de volle N31 maar twee opties zal hebben:
1) Ze vragen $1500 en verpletteren Nvidia alsnog.
2) Ze handhaven de $1000/$1100 van de RX6900XT/RX6950XT. Dit kan een beginpunt van aanval op meer marktaandeel zijn of de leaks klopten (totaal) niet en ze redden het toch (net) niet tegenover de RTX4090.

Hoe dan ook koester ik weinig hoop voor een echt aantrekkelijke prijs voor de volle N31. Dat ding lijkt simpelweg te gigantisch te zijn. Een cut down N31 is misschien wat beter te betalen. Maar als het een beetje gaat zoals de leaks suggereren, dan is N32 waarschijnlijk ook al fors sneller dan een RTX3090. Daar is denk ik wat meer hoop. Uiteindelijk is N32 de midrange chip van een set van drie. Die positioneren als $800 of nog hoger, zie ik gewoon niet.
UniMatrix schreef op woensdag 19 oktober 2022 @ 16:19:
[...]

Ik moet me echt zo beheersen om geen 4090 :X te kopen en dit helpt echt enorm _/-\o_

Hopium of niet.
Je koopt gewoon niks nu, basta. :P
Al is het maar omdat de RTX4090 nauwelijks te krijgen is. ;)
UniMatrix schreef op woensdag 19 oktober 2022 @ 16:28:
Ik ben ook wel nieuwsgierig of 12VHPWR door AMD gebruikt gaat worden, nu mijn PSU fabrikant daar een mooie kabel voor heeft uitgebracht vind ik dat wel een nettere oplossing dan een bundel van 2 of 3 8-pins kabels.
Liever niet. Het is niet een al te best ontworpen connector en het voegt verder weinig. Ik heb liever mijn oude PCIe kabels die gewoon werken. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • raymondw
  • Registratie: November 2000
  • Laatst online: 23:31
DaniëlWW2 schreef op woensdag 19 oktober 2022 @ 16:42:


[...]
Je koopt gewoon niks nu, basta. :P
Al is het maar omdat de RTX4090 nauwelijks te krijgen is. ;)

[...]
Liever niet. Het is niet een al te best ontworpen connector en het voegt verder weinig. Ik heb liever mijn oude PCIe kabels die gewoon werken. ;)
In beide gevallen een +1 :)

Grafische kaarten op zo'n wegwerp connector zijn gewoon geen goed idee.
Nvidia probeert met de grotere koelers en custom connectors gewoon een split te creëren tussen zakelijk en consumer. (CPU 8-pin vs custom hpwr)
Meer dan 2 slot of met een AIO past niet in een server, zelfde met die gekke connector....

AMD heeft tot nu toe alleen PCIE pwr gebruikt.
Mijn vermoeden is dat dat niet snel zal veranderen, zowel zakelijk (MI250/210) als consumer.

to linux or not ,that's my quest... | 5800X | 32GB 3800C15 | X570-Pro | 980 1TB | 7900XTX | PVoutput | Fiets


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Die connector is vastgelegd in de ATX 3.0 spec en deze spec komt bij intel vandaan.

Aangezien de ATX 3.0 spec uiteindelijk relatief controversieel is verbaast het me dat Intel er dan zo makkelijk in meegegaan lijkt te zijn.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op woensdag 19 oktober 2022 @ 17:17:
^
Die connector is vastgelegd in de ATX 3.0 spec en deze spec komt bij intel vandaan.

Aangezien de ATX 3.0 spec uiteindelijk relatief controversieel is verbaast het me dat Intel er dan zo makkelijk in meegegaan lijkt te zijn.
Ik vraag me meer af waarom Intel ARC ze niet heeft. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • raymondw
  • Registratie: November 2000
  • Laatst online: 23:31
DaniëlWW2 schreef op woensdag 19 oktober 2022 @ 17:22:
[...]


Ik vraag me meer af waarom Intel ARC ze niet heeft. ;)
Ouderwetse koehandel?
Wij doen SR in DGX, jullie hanteren de aanvraag voor 3.0 spec.

Met een EDP van net geen 800w/p/s is SR een keuze die men niet snel maakt.

to linux or not ,that's my quest... | 5800X | 32GB 3800C15 | X570-Pro | 980 1TB | 7900XTX | PVoutput | Fiets


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

raymondw schreef op woensdag 19 oktober 2022 @ 17:27:
[...]

Ouderwetse koehandel?
Wij doen SR in DGX, jullie hanteren de aanvraag voor 3.0 spec.

Met een EDP van net geen 800w/p/s is SR een keuze die men niet snel maakt.
Dat kan, maar ergens vermoed ik ook dat Intel ook geen zin heeft in die adapter. Eigenlijk alleen Nvidia heeft die nodig omdat ze daar anders vier kabelaansluitingen moeten gebruiken. Dit voor die mensen die een PSU aansluiten waarvan en kabel + connector eigenlijk niet veel meer dan 150W aankan, voor een videokaart van meer dan €2000. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 00:38

rapture

Zelfs daar netwerken?

UniMatrix schreef op woensdag 19 oktober 2022 @ 16:28:
Ik ben ook wel nieuwsgierig of 12VHPWR door AMD gebruikt gaat worden, nu mijn PSU fabrikant daar een mooie kabel voor heeft uitgebracht vind ik dat wel een nettere oplossing dan een bundel van 2 of 3 8-pins kabels.
Zo'n mechanisch zwakke connector komt bij mij niet binnen. Je zou maar de kabel beetje te strak managen zodat de pinnen niet meer 100,00 % recht in de gaten zitten. De weerstand tussen de contacten is hoger dan verwacht, de spanningsval, vermogensverlies en warmte is ook hoger dan verwacht. Met een warmtebeeldcamera kan brandgevaar opgespoord worden.

Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
@Jumpiefox

Ik voorspel ongeveer $1199-1249 voor de max Navi31 met 48 WGP, op basis van de BOM cost leak door semianalysis, en de bruto marges van Nvidia, AMD en AIB partners.

$1099 of misschien $999 voor het 42 WGP geknipte Navi31 model (gegroepeerd als 84 CU's, maar equivalent met 168 oude CU's), dat is nog even duimen.

Performance inderdaad 1,875 of meer, dat is "gewoon" 50% performance/Watt en van 300W naar 375W, zoals AMD ook met RX 5700XT en RTX 6900XT heeft laten zien op 4k performance (zonder SAM). Supervet!

Afbeeldingslocatie: https://tpucdn.com/review/amd-radeon-rx-6900-xt/images/relative-performance_3840-2160.png

Ik hoop later vanavond m'n kosten berekeningen eindelijk te gaan delen.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Maar ben nog even gaan kijken naar wat resultaten. Uiteindelijk heb ik HUW en computerbase.de gepakt.
Die zeggen respectievelijk 88% en 93% sneller op 4K raster dan een RX6900XT. Ik pak bewust die omdat ik weet dat de RX6950XT nog wat sneller is (en omdat die ontbreekt bij Computerbase.de)

2x is dan net de snelste GPU in rasterisation. Qua RT is het beeld wat complexer. De minder intensieve RT titels houden het op zowel 1440p als 4K op circa 100% sneller voor de RTX4090, soms wat lager soms hoger. Waar de RTX4090 uitloopt is in een paar RT intensieve games op 4K en in mindere mate ook 1440p zonder upscaling. Dus games zoals Cyberpunk.

Het opvallende is alleen dat als je DLSS/FSR2 erbij pakt, de RTX4090 minder uitloopt op GA102 en N21. De RTX4090 lijkt DLSS ook minder nodig te hebben voor RT omdat het verlies ten opzichte van de rasterisation performance minder is. En hoewel ik heel graag RT zonder upscaling zou zien, lijkt dit er nog steeds niet in te zitten, tenminste niet voor de meer RT intensieve titels.

YouTube: GeForce RTX 4090 Review, Nvidia's Stupid Fast GPU!
https://www.computerbase....rce-rtx-4090-review-test/

Onder de streep zou 2x raster en iets meer dan 2x RT vanaf de RX6900XT interessant worden.
Uitgaande dat het 12288ALU's is, zou AMD toch een merkbaar verlies in schaling hebben vanaf de 5120 ALU N21. Immers 140% extra ALU's voor 100% extra raster en iets meer RT. Het zou dus ook kunnen dat de chip relatief efficiënt geclockt is en dat AIB partners meer mogen doen. Ik zou het ook helemaal niet erg vinden. Hopelijk goed voor de prijzen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
DaniëlWW2 schreef op woensdag 19 oktober 2022 @ 19:49:
Maar ben nog even gaan kijken naar wat resultaten. Uiteindelijk heb ik HUW en computerbase.de gepakt.
Die zeggen respectievelijk 88% en 93% sneller op 4K raster dan een RX6900XT. Ik pak bewust die omdat ik weet dat de RX6950XT nog wat sneller is (en omdat die ontbreekt bij Computerbase.de)

2x is dan net de snelste GPU in rasterisation. Qua RT is het beeld wat complexer. De minder intensieve RT titels houden het op zowel 1440p als 4K op circa 100% sneller voor de RTX4090, soms wat lager soms hoger. Waar de RTX4090 uitloopt is in een paar RT intensieve games op 4K en in mindere mate ook 1440p zonder upscaling. Dus games zoals Cyberpunk.

Het opvallende is alleen dat als je DLSS/FSR2 erbij pakt, de RTX4090 minder uitloopt op GA102 en N21. De RTX4090 lijkt DLSS ook minder nodig te hebben voor RT omdat het verlies ten opzichte van de rasterisation performance minder is. En hoewel ik heel graag RT zonder upscaling zou zien, lijkt dit er nog steeds niet in te zitten, tenminste niet voor de meer RT intensieve titels.

YouTube: GeForce RTX 4090 Review, Nvidia's Stupid Fast GPU!
https://www.computerbase....rce-rtx-4090-review-test/

Onder de streep zou 2x raster en iets meer dan 2x RT vanaf de RX6900XT interessant worden.
Uitgaande dat het 12288ALU's is, zou AMD toch een merkbaar verlies in schaling hebben vanaf de 5120 ALU N21. Immers 140% extra ALU's voor 100% extra raster en iets meer RT. Het zou dus ook kunnen dat de chip relatief efficiënt geclockt is en dat AIB partners meer mogen doen. Ik zou het ook helemaal niet erg vinden. Hopelijk goed voor de prijzen.
Schaling is nooit 100% natuurlijk qua ALU's, en de drivers zullen wel weer tijd nodig hebben voordat ze "alle" performance uit Navi3x gaan halen. N10 naar N21 werd geholpen door de kloksnelheid, en de ALU configuratie bleef meer hetzelfde (niet compleet, maar toch).

Ik zou het ook zeker niet erg vinden, en qua prijzen moet het wel beter worden de komende tijd.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • Seth_Chaos
  • Registratie: Oktober 2003
  • Niet online
Is het anderen ook opgevallen dat AMD alle 6000 kaarten er doorheen aan het jagen is, zodat er geen keuze meer is wanneer de volgende generatie wordt uitgebracht? Dit doet mij vrezen dat ook AMD een flinke price bump gaat doorvoeren. In twee weken tijd is het aanbod 6000 kaarten naar nog geen 10% geslonken.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:14
Seth_Chaos schreef op donderdag 20 oktober 2022 @ 10:57:
Is het anderen ook opgevallen dat AMD alle 6000 kaarten er doorheen aan het jagen is, zodat er geen keuze meer is wanneer de volgende generatie wordt uitgebracht? Dit doet mij vrezen dat ook AMD een flinke price bump gaat doorvoeren. In twee weken tijd is het aanbod 6000 kaarten naar nog geen 10% geslonken.
Schijnbaar is er animo voor die prijs, dus de consument wint, toch? Daarnaast betekent het minder concurrentie voor de toekomstige generatie. Verder ben ik benieuwd waar die 10% vandaan komt eigenlijk.

[ Voor 6% gewijzigd door Paprika op 20-10-2022 11:04 ]


Acties:
  • 0 Henk 'm!

  • Seth_Chaos
  • Registratie: Oktober 2003
  • Niet online
Paprika schreef op donderdag 20 oktober 2022 @ 11:03:
[...]

Schijnbaar is er animo voor die prijs, dus de consument wint, toch? Daarnaast betekent het minder concurrentie voor de toekomstige generatie. Verder ben ik benieuwd waar die 10% vandaan komt eigenlijk.
Het aanbod kaarten neemt af in de webshops. Het slinken van het aanbod op tweakers klopte niet. Schijnbaar vindt tweakers dat er standaard een filter op mijn zoekopdracht gezet moet worden, waarin is aangegeven dat alleen resultaten weergegeven moeten worden die in de laatste 5 dagen zijn bijgewerkt. Super irritant. Als ik het uitvink staat het bij de volgende zoekopdracht gewoon weer aan.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Seth_Chaos schreef op donderdag 20 oktober 2022 @ 10:57:
Is het anderen ook opgevallen dat AMD alle 6000 kaarten er doorheen aan het jagen is, zodat er geen keuze meer is wanneer de volgende generatie wordt uitgebracht? Dit doet mij vrezen dat ook AMD een flinke price bump gaat doorvoeren. In twee weken tijd is het aanbod 6000 kaarten naar nog geen 10% geslonken.
De 6700XT is populair en in prijs gestegen, maar er zijn nog genoeg 6600's, en AMD zal zeker keuze blijven bieden. Het is alleen wel zo dat je er steeds meer een CPU gratis bij gaat krijgen :)

Onder Navi33 ($399-$499?) zijn er 2 mogelijkheden:
  • Navi22/Navi23 refresh op 6nm (net zoals Navi24 op 6nm is), òf
  • Ze maken van Phoenix (mobile, laptop chip) GPU deel van de APU, een discrete kaart, zoals ze met de 6500XT/6400 hebben gedaan. Dat kan vanwege chiplets: I/O + CCX + GCD + MCD, die ook los van elkaar gepackaged kunnen worden (CCX + I/O) vs (GCD + MCD).
Phoenix heeft 8 Zen4 cores CPU + 8 WGP GPU wat equivalent is met 32 CU en best een degelijke discrete kaart kan worden, gegeven genoeg TDP (buiten de laptop/mobile setting).

Prijs van $200-300, hopelijk.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Seth_Chaos schreef op donderdag 20 oktober 2022 @ 11:08:
[...]


Het aanbod kaarten neemt af in de webshops. Het slinken van het aanbod op tweakers klopte niet. Schijnbaar vindt tweakers dat er standaard een filter op mijn zoekopdracht gezet moet worden, waarin is aangegeven dat alleen resultaten weergegeven moeten worden die in de laatste 5 dagen zijn bijgewerkt. Super irritant. Als ik het uitvink staat het bij de volgende zoekopdracht gewoon weer aan.
Als je hier zit te kijken:
https://tweakers.net/pricewatch/deals/
kan je "Daling sinds" verhogen, en wordt het niet gefilterd tot 5 dagen, maar tot wat je instelt.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +4 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
sunsmountain schreef op donderdag 20 oktober 2022 @ 10:36:
Schaling is nooit 100% natuurlijk qua ALU's, en de drivers zullen wel weer tijd nodig hebben voordat ze "alle" performance uit Navi3x gaan halen. N10 naar N21 werd geholpen door de kloksnelheid, en de ALU configuratie bleef meer hetzelfde (niet compleet, maar toch).
Ik ga het dan toch maar eens hier plaatsen. Ik heb me de laatste weken bezig gehouden met wat kwalitatieve analyse en dit statement is niet volledig juist :)

RDNA1 naar RDNA2 schaalt zelfs iets béter dan je zou verwachten, zolang je niet tegen een bandbreedte of CPU bottleneck aan loopt. RDNA2 perst er per theoretische FLOP net iets meer uit dan je zou verwachten. N24 is de enige die niet lekker loopt, maar dat ligt aan de 64-bit geheugenbus. Op 1080p loop je met N21XT tegen de CPU bottleneck aan, maar op 2160p schaalt alles dat geen N24 is op +-5% van de te verwachten prestaties. N21XTX (6900 XT) loopt in enkele games tegen een bandbreedte bottleneck aan op 2160p (de 6800 XT en 6950 XT niet, dus de chip heeft die 18 GT/s nodig op volle kracht), maar dat is het wel zo'n beetje.

Dat komt echter inderdaad doordat RDNA 1 en 2 niet wezenlijk verschillen, de laatste vangt vooral enkele problemen op met IC. RDNA3 is lastiger te voorspellen als er inderdaad 128 ALU's per WGP bij komen zoals Angstronomics stelt, maar dit is wel AMD waar we het over hebben, niet Nvidia. Ik betwijfel ten zeerste of ze dat zouden doen als ze ze niet aan het werk zouden kunnen houden. RDNA1 zat al net iets boven Pascal qua daadwerkelijke performance tegenover theoretisch en RDNA2 en Turing doen pakweg hetzelfde.

Waarom geef ik nu weer af op Nvidia? Omdat Ampère en Ada gigantische verspillingen van transistors zijn. Ik heb m'n mening over Turing ietwat bij gesteld, want het INT32 pad dat ze daar toe voegden hielp weldegelijk. Zowel Pascal als Turing schalen binnen hun architectuur nagenoeg lineair, net als RDNA 1 en 2. Van Pascal naar Turing is er zo'n 25% winst; waarbij TU102 op 1080p uiteraard ook tegen een CPU bottleneck aan loopt. 25% is niet geweldig voor in feite hetzelfde aantal ALU's er bij voor INT32, maar omdat het INT betreft zou je ook geen perfecte schaling verwachten. Inefficiënt, maar het kan erger.

Want dat zijn Ampère en Ada, met zogenaamd de dubbele FP32 throughput. Ze hebben daar 64 FP32 ALU's toegevoegd (naast de al bestaande 64 FP32 en 64 INT32) die zelfs in de beste gevallen hooguit 25% winst geven. Dat is dan GA104 op 2160p, GA102 komt hooguit tot 15%. En op 1080p zit je te bottlenecken. Ten opzichte van Pascal zijn er dus dubbel zo veel FP32 units, een hele bups aan INT32 units en zou je volgens de theoretische cijfers 3,5 keer zo snel uit moeten komen. Maar zelfs 2,5 wordt niet gehaald. Daar komt bovenop dat Ampère niet verder schaalt dan GA104 - alles wat groter dan dat is, is verspilling van transistors, omdat Nvidia simpelweg niet in staat is de hele handel aan het werk te houden. Ada maakt dat alleen maar erger. Waar een 3090 Ti "slechts" 1,85x een 3070 Ti zou moeten zijn en tot ~1,55x komt (zou dus nog eens 20% sneller moeten zijn), zou de 4090 3,8x zo snel moeten zijn. Daar krijg je 2,3x van. Dat ding zou dik 65% sneller moeten zijn dan hij is, vergeleken met Ampère.

Vergeleken met Pascal of Turing wordt het echter pas echt erg voor Ada; dan heb je het over op papier meer dan 7 keer zo snel als GP102 (en daar krijg je de helft van), of 6 keer zo snel als TU102 (waar je mínder dan de helft van krijgt).

Ik vind het ook heel geinig hoe er wordt gezegd dat AD102 tegen een CPU bottleneck aan loopt op 2160p. Maar waar niemand het over heeft, is dat dat geen bottleneck is zoals in alle andere gevallen. Met CPU bottleneck doelen we doorgaans op de engine die niet meer frames kan leveren, met als gevolg dat je over de gehele linie identieke framerates ziet, op verschillende resoluties. Zoals Borderlands 3, dat op 1080p en 1440p gewoon niet sneller dan ~100 FPS kan. Nee, de CPU bottleneck zit in dit geval in Nvidia's driver en scheduling (wat ze grotendeels in de driver doen). Nvidia heeft meer cycles nodig om de GPU aan het werk te houden. Het is een geheel ander soort CPU bottleneck en één waar men wat mij betreft veel kritischer over zou moeten zijn, want het is een grove tekortkoming van Nvidia. Het enige positieve voor Nvidia daaraan is dat ze in theorie een magische driver zouden kunnen verzinnen waarbij ze GA102 en AD102 ineens wél aan het werk kunnen houden, maar die kans is vrij klein.


Dat is ook het risico wat RDNA3 loopt. Als AMD inderdaad 4 SIMD32's aan elke WGP toe voegt en ze niet aan het werk kan houden, ga je net als bij Ampère en Ada een terugval zien in wat er uit komt ten opzichte van wat er uit zou móeten komen. Het verschil is dat AMD dit niet in de driver doet en er met zowel Zen als RDNA juist heel erg op gefocust is om de chips bezet te houden. Daarom denk ik niet dat we zo'n terugval zullen zien bij AMD, het past gewoon niet bij de manier waarop ze hun chips de laatste jaren aan het ontwikkelen zijn. Ik denk dus ook niet dat AMD ook maar in de buurt komt van die 76 miljard transistors die Nvidia in AD102 stopt. Dat gaat misschien zelfs onder de 50 miljard blijven (voor de GCD en 6 MCD's bij elkaar).

Ik zou zo graag eens iets van een heatmap-achtig iets willen zien voor al deze chips. Iets in de trant van de Z80 simulators die je tegenwoordig hebt, waar je precies ziet welke transistor aan het schakelen is. Volgens mij zou je dan pas echt goed zien hoe veel transistors er bij Nvidia stil liggen. Als die chips fatsoenlijk bezet werden zou je van z'n leven niet onder de 600W blijven.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

Die workload verdeling, is dat ook iets wat (deels) door de scheduler( en registers) gedaan moet worden?

Met Ada is het idd erg grillig, soms haal ik wel bijna 2x meer perf. op 5K native en in andere (oudere games) is het slechts amper de helft meer perf. en dit betreft geen CPU limited scenario, (bv. Far Cry3). Heb wel in elke game Reshade incl. de RTGI shaders.

Ik kan me ook voorstellen dat het deels aan de gameengine ligt?

[ Voor 7% gewijzigd door edward2 op 20-10-2022 16:26 ]

Niet op voorraad.


Acties:
  • +4 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
edward2 schreef op donderdag 20 oktober 2022 @ 16:25:
[...]

Die workload verdeling, is dat ook iets wat (deels) door de scheduler gedaan moet worden?

Met Ada is het idd erg grillig, soms haal ik wel bijna 2x meer perf. op 5K native en in andere (oudere games) is het slechts amper de helft meer perf. en dit betreft geen CPU limited scenario, (bv. Far Cry3). Heb wel in elke game Reshade incl. de RTGI shaders.
Yep.

Engines groeperen al een deel van het werk dat bij elkaar hoort in workgroups en dergelijke. In games die op DX11 of ouder draaien is dat een stuk beperkter dan met DX12 en Vulkan. Wat Nvidia al jaren doet, is die groepen verder onder verdelen; dat is waarom Nvidia op DX11 en ouder meestal zo veel winst boekt, want zij hebben in hun driver in feite "hacks" zitten waar ze per game dingen splitsen op een manier die voor hun GPU's werkt. Sterk staaltje software, maar het heeft ook zo z'n beperkingen, want ze leunen daar dus ook vrijwel volledig op. Ze kunnen niet álles splitsen, wat betekent dat ze zo'n brede GPU's als GA102 en AD102 gewoon niet aan het werk krijgen. Als je die GPU's voor de helft zou uit schakelen (dus slechts 64 SM's voor AD102), zou je waarschijnlijk nauwelijks iets aan performance in boeten.

In DX12 en Vulkan hebben devs meer controle en zie je dus ook dat er veel meer kleinere groepen zijn. Omdat Nvidia echter nog steeds het merendeel van hun scheduling in de driver moet doen, moeten ze dus ook meer analyseren. Tegelijkertijd moeten ze vaker op de GPU wachten vanwege barriers (letterlijk wat het woord zegt; een dev plaatst zo'n barrier als hij wil dat ál het GPU werk ervoor klaar moet zijn voordat er verder gegaan wordt). Daardoor zie je dus dat er op CPU's met hogere ST performance ineens winst te boeken is, terwijl je niet CPU-bound bent in de traditionele zin van de term. Sterker nog, ik denk dat je de meeste performance zou zien als je de CPU in ST-modus zou kunnen forceren; dus geen all-core boost. En dan de driver op die core laten draaien. De rest van de cores zou nog steeds snel genoeg zijn voor de rest van de engine, maar die snelheid zou Nvidia's driver fijn vinden.

AMD heeft dat probleem veel minder; uiteraard moet hun driver de workgroups alsnog op een manier verdelen dat het op de GPU past en zijn barriers alsnog niet optimaal, maar zij kunnen wel veel meer naar de GPU gooien zonder tussenkomst van de driver.

En dat is hoogstwaarschijnlijk ook waarom AMD naar verluid meer bínnen de clusters vergroot, dan simpelweg het aantal clusters verhogen zoals Nvidia.

[ Voor 3% gewijzigd door Werelds op 20-10-2022 16:45 ]


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Werelds schreef op donderdag 20 oktober 2022 @ 15:06:
[...]
Ik vind het ook heel geinig hoe er wordt gezegd dat AD102 tegen een CPU bottleneck aan loopt op 2160p. Maar waar niemand het over heeft, is dat dat geen bottleneck is zoals in alle andere gevallen. Met CPU bottleneck doelen we doorgaans op de engine die niet meer frames kan leveren, met als gevolg dat je over de gehele linie identieke framerates ziet, op verschillende resoluties. Zoals Borderlands 3, dat op 1080p en 1440p gewoon niet sneller dan ~100 FPS kan. Nee, de CPU bottleneck zit in dit geval in Nvidia's driver en scheduling (wat ze grotendeels in de driver doen). Nvidia heeft meer cycles nodig om de GPU aan het werk te houden. Het is een geheel ander soort CPU bottleneck en één waar men wat mij betreft veel kritischer over zou moeten zijn, want het is een grove tekortkoming van Nvidia. Het enige positieve voor Nvidia daaraan is dat ze in theorie een magische driver zouden kunnen verzinnen waarbij ze GA102 en AD102 ineens wél aan het werk kunnen houden, maar die kans is vrij klein.
Dus geen game engine beperking, maar een Nvidia driver beperking, dat is best explosief. Wel jammer dat we nu al weten dat AMD marketing dit niet breed gaat uitmeten.

Ik vond het al zo raar dat moderne engines een frame cap zouden hebben bij 185 of 240 fps, echt, waardoor dan? Dat hebben ze dus niet en het is bekend dat Nvidia GPU's meer leunen op de CPU.

Betekent dit voor RDNA3 dan ook niet een nog sterkere belasting op hun command & frontend processor? De CPU kan AMD ook niet echt helpen op deze manier, daar heeft Nvidia dan wel weer geluk mee (behalve dan dat hun driver de bottleneck is).

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +5 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
sunsmountain schreef op donderdag 20 oktober 2022 @ 16:57:
Dus geen game engine beperking, maar een Nvidia driver beperking, dat is best explosief. Wel jammer dat we nu al weten dat AMD marketing dit niet breed gaat uitmeten.

Ik vond het al zo raar dat moderne engines een frame cap zouden hebben bij 185 of 240 fps, echt, waardoor dan? Dat hebben ze dus niet en het is bekend dat Nvidia GPU's meer leunen op de CPU.
Er zal vast wel een enkel geval zijn waar de engine de beperking is, maar dat is vrij eenvoudig te spotten. Dan loop je namelijk op meer dan één resolutie tegen vergelijkbare framerates aan.

Neem bijvoorbeeld BF5 (al het onderstaande van TPU). Op 1080p en 1440p loop je met highend GPU's op zowel 1080p als 1440p vast op 200-230 FPS. Daar zie je echter ook al dat AMD op beide resoluties heel dicht op de 230 zit, terwijl Nvidia iets verder eronder zit (dat is de driver die de CPU bottleneck nog erger maakt). Op 2160p ben je echter GPU bound en zie je dus ook dat de 3090 Ti éindelijk langs de 6800 XT (!) komt en dat de 4090 flink uit loopt, richting de 200 - maar wel nog steeds er onder, wat betekent dat ze de limiet van de engine nog niet bereiken. En toch biedt een 12900K winst. Niet veel, maar wel iets. Dat komt niet uit de engine, die kan al harder dan dat. Het maakt niet uit of het 720p of 2160p is; de engine kan frames blijkbaar simpelweg niet sneller dan ~4,5ms klaar zetten. Maar met 190 FPS zit je daar nog ruim boven.

Overigens hebben engines dus ook weldegelijk een "framecap". Afhankelijk van hoe ze geoptimaliseerd zijn zullen ze gewoon een bepaalde minimum tijd nodig hebben om een frame klaar te zetten; neem bijvoorbeeld Cyberpunk, die engine heeft blijkbaar minimaal zo'n 7ms nodig om een frame klaar te zetten, waardoor je niet verder komt dan ~140 FPS. Maar ook daar zie je dat Nvidia achter AMD aan hobbelt op 1080p door hun hogere vereisten. En op 1440p loopt de 4090 ook nog tegen een muur aan, terwijl die op 2160p verdwijnt.
Betekent dit voor RDNA3 dan ook niet een nog sterkere belasting op hun command & frontend processor? De CPU kan AMD ook niet echt helpen op deze manier, daar heeft Nvidia dan wel weer geluk mee (behalve dan dat hun driver de bottleneck is).
Ja, maar dat is bij AMD al overbemeten. Vergeet niet dat graphics workloads heel veel stop-and-go zijn vergeleken met compute werk en AMD's scheduling units zijn op dat laatste gericht.


Edit: ik had trouwens misschien even duidelijk moeten zeggen dat ik het had over alle claims dat de 4090 "te snel" is voor 2160p. Op lagere resoluties uiteraard wel, maar dat was de vorige generatie ook al. En op 2160p lopen ze nu tegen muren aan voordat ze bij de limieten van de engines komen. Uitzonderingen als BL3, die sowieso al voor geen meter lopen, daargelaten.

[ Voor 6% gewijzigd door Werelds op 20-10-2022 17:28 ]


Acties:
  • 0 Henk 'm!

  • napata
  • Registratie: Oktober 2020
  • Laatst online: 03-10 12:52
Werelds schreef op donderdag 20 oktober 2022 @ 15:06:
[...]

Ik vind het ook heel geinig hoe er wordt gezegd dat AD102 tegen een CPU bottleneck aan loopt op 2160p. Maar waar niemand het over heeft, is dat dat geen bottleneck is zoals in alle andere gevallen. Met CPU bottleneck doelen we doorgaans op de engine die niet meer frames kan leveren, met als gevolg dat je over de gehele linie identieke framerates ziet, op verschillende resoluties. Zoals Borderlands 3, dat op 1080p en 1440p gewoon niet sneller dan ~100 FPS kan. Nee, de CPU bottleneck zit in dit geval in Nvidia's driver en scheduling (wat ze grotendeels in de driver doen). Nvidia heeft meer cycles nodig om de GPU aan het werk te houden. Het is een geheel ander soort CPU bottleneck en één waar men wat mij betreft veel kritischer over zou moeten zijn, want het is een grove tekortkoming van Nvidia. Het enige positieve voor Nvidia daaraan is dat ze in theorie een magische driver zouden kunnen verzinnen waarbij ze GA102 en AD102 ineens wél aan het werk kunnen houden, maar die kans is vrij klein.
Gemiddeld is het verschil in overhead tussen Nvidia en AMD zo klein dat het geen zin heeft om hier kritisch over te zijn. De resultaten zijn immers totaal niet consistent want sommige games hebben dan weer minder overhead op Nvidia dan AMD zoals Spider-man recent waar het 20% in het voordeel van Nvidia is. In de recente CPU review van PCGH (waarbij ze alle CPUs zowel op een Nvidia GPU als AMD GPU testen) zit Nvidia gemiddeld zelfs hoger dan AMD qua performance op superlage resoluties. Ik weet nu wel niet hoeveel DX11 er tussen zitten maar de conclusie blijft in ieder geval hetzelfde als dit nu een paar % in het voordeel van AMD verschuift door de DX11 games er uit te halen.

Met een CPU bottleneck wordt trouwens bedoeld dat de zwakste schakel de CPU is en dus wanneer je <95-99% GPU gebruik ziet, ongeacht wat de rede daarvoor ook moge zijn. Je framerate is dan afhankelijk van de CPU. Je kan dit zelf natuurlijk zelf herdefiniëren maar dan ga je naast de kwestie praten want zo interpreteren anderen het dus niet. Jouw definitie ben ik dan ook nog nooit tegengekomen. Hier kan je dit mooi in actie zien.

BL3 kan wel degelijk boven de 100fps. Je hebt er gewoon een snellere CPU voor nodig. Dat is dus een traditionele CPU bottleneck. De 5800x haalt max 100fps en deze is gebruikt in de review van de 4090.

Afbeeldingslocatie: https://tpucdn.com/review/intel-core-i9-13900k/images/borderlands-3-1280-720.png

[ Voor 5% gewijzigd door napata op 20-10-2022 17:55 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

sunsmountain schreef op donderdag 20 oktober 2022 @ 16:57:
[...]


Dus geen game engine beperking, maar een Nvidia driver beperking, dat is best explosief. Wel jammer dat we nu al weten dat AMD marketing dit niet breed gaat uitmeten.
Hoeft ook niet. ;)
2x raster ten opzichte van de RX6900XT zou al betekenen dat N31 nipt wint, op 4K. Op 1440p is het waarschijnlijk geen discussie. Je zag de RTX3090 al tegen de limieten van Nvidia hun scheduling aanlopen en aangezien ze er niks aan gedaan hebben, zie je de RTX4090 het nog zwaarder hebben. Dat ga je waarschijnlijk niet zien met RDNA3 en een afdoende capabele processor, 58003XD, Zen 4, Alder of Raptor.
Ik vond het al zo raar dat moderne engines een frame cap zouden hebben bij 185 of 240 fps, echt, waardoor dan? Dat hebben ze dus niet en het is bekend dat Nvidia GPU's meer leunen op de CPU.

Betekent dit voor RDNA3 dan ook niet een nog sterkere belasting op hun command & frontend processor? De CPU kan AMD ook niet echt helpen op deze manier, daar heeft Nvidia dan wel weer geluk mee (behalve dan dat hun driver de bottleneck is).
Dat is een understatement. :P
AMD hun scheduling gaat het zwaarder krijgen, maar dat zou ingecalculeerd moeten zijn.

Overigens om @Werelds zijn punt nog eens te sterken. Kijk naar de RTX3060Ti (GA104) en de RX6900XT. Je ziet dat GA104 behoorlijk efficiënt kan zijn en N21 wat terrein verliest en dat is consistent met het formaat van die chip. N22 is de helft, clockt iets hoger maar is relatief ook beter voorzien in bandbreedte, zowel L3 als VRAM. N23 verliest veel L3 en VRAM bandbreedte, maar nauwelijks framerate. N24 is de negatieve uitschieter. Dat laat zien wat er steeds bedoeld word met schaling.

Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2022/10/arc_fp32_throughput.png?resize=610%2C600&ssl=1
Afbeeldingslocatie: https://i0.wp.com/chipsandcheese.com/wp-content/uploads/2022/10/arc_fp32_latency-1.png?resize=589%2C546&ssl=1
DaniëlWW2 in "Intel Arc Nieuwsdiscussietopic"

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +4 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dus over twee weken om 21:00. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Freyaldo
  • Registratie: Maart 2008
  • Laatst online: 21:02
Seth_Chaos schreef op donderdag 20 oktober 2022 @ 10:57:
Is het anderen ook opgevallen dat AMD alle 6000 kaarten er doorheen aan het jagen is, zodat er geen keuze meer is wanneer de volgende generatie wordt uitgebracht? Dit doet mij vrezen dat ook AMD een flinke price bump gaat doorvoeren. In twee weken tijd is het aanbod 6000 kaarten naar nog geen 10% geslonken.
dat de prijs omhoog gaat tov de 6k launch, is enigszins logisch:
-zwakke euro (de 6900xt is al via de AMD-site duurder)
-inflatie
-NVIDIA die deze ruimte geeft.

ben dus 1 van die personen die recent zo'n tufje heeft gekocht voor onder de AMD-msrp prijs.
tevens ben ik bang dat de 7k serie zeker de eerste 3 maanden slecht te verkrijgen is, dus de (winkel)scalper prijs zal ook zeker invloed hebben op de prijs.

als de 7800xt-(AIB) onder de 1000,- euro's blijft zal me dat positief verrassen.
dan hoop ik echt voor de mensen die wachten dat de prestatie winst goed genoeg is, zolang de kaart ook niet ineens ook veel meer gaat verbruiken (wat dus ook "kosten" zijn).

Helaas heeft mijn glazen bol mij wel vaker misleid.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
napata schreef op donderdag 20 oktober 2022 @ 17:51:
Gemiddeld is het verschil in overhead tussen Nvidia en AMD zo klein dat het geen zin heeft om hier kritisch over te zijn.
Ik vind bijna 10% (bijna 20 FPS tussen de 3090 Ti en 6950 XT) in BF5 niet te verwaarlozen. En dat is driver overhead, want op 2160p verdwijnt dat verschil als sneeuw voor de zon.
De resultaten zijn immers totaal niet consistent want sommige games hebben dan weer minder overhead op Nvidia dan AMD zoals Spider-man recent waar het 20% in het voordeel van Nvidia is. In de recente CPU review van PCGH (waarbij ze alle CPUs zowel op een Nvidia GPU als AMD GPU testen) zit Nvidia gemiddeld zelfs hoger dan AMD qua performance op superlage resoluties. Ik weet nu wel niet hoeveel DX11 er tussen zitten maar de conclusie blijft in ieder geval hetzelfde als dit nu een paar % in het voordeel van AMD verschuift door de DX11 games er uit te halen.
In het geval van Spiderman is dat is geen overhead, maar optimalisatie. Het spel draait nu eenmaal beter op Nvidia; waardoor dat komt is een ander verhaal (10 jaar geleden zou je bijvoorbeeld games met zware tessellation veel beter op Nvidia zien draaien), maar qua overhead heeft Nvidia weldegelijk meer. Van een 13600 naar 13900 winnen zij in Spiderman 18%, AMD slechts 13%. Vanaf een 7950X is het respectievelijk 27% en 20%. In beide gevallen wint Nvidia meer met een betere CPU, dus hebben ze meer overhead.

En over de gehele linie games gaat AMD vanaf een 7950X slechts 8% vooruit naar een 13900K, terwijl Nvidia maar liefst 16% vooruit gaat.
Met een CPU bottleneck wordt trouwens bedoeld dat de zwakste schakel de CPU is en dus wanneer je <95-99% GPU gebruik ziet, ongeacht wat de rede daarvoor ook moge zijn. Je framerate is dan afhankelijk van de CPU. Je kan dit zelf natuurlijk zelf herdefiniëren maar dan ga je naast de kwestie praten want zo interpreteren anderen het dus niet. Jouw definitie ben ik dan ook nog nooit tegengekomen. Hier kan je dit mooi in actie zien.
Dat is helemaal niet mijn definitie, dat is altijd zo geweest omdat we tot nu toe nog geen keiharde CPU limiet door een driver hebben gezien. Dit is een nieuwe situatie.
BL3 kan wel degelijk boven de 100fps. Je hebt er gewoon een snellere CPU voor nodig. Dat is dus een traditionele CPU bottleneck. De 5800x haalt max 100fps en deze is gebruikt in de review van de 4090.

[Afbeelding]
Had ik daar nu werkelijk "op een 5800X" bij moeten zetten? Die 100 FPS was niet het punt an sich.

Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dan gaan we dit maar weer eens plaatsen. ;)
14% verlies met een RX6900XT van de 5600X naar de 1600X. De RTX3090 verliest 30%.
Afbeeldingslocatie: https://tweakers.net/i/hPOakn3-ra2lEEqb4CAKqoL_Hto=/800x/filters:strip_icc():strip_exif()/f/image/svubPb7KShHarZ4H8wkhIBPp.jpg?f=fotoalbum_large




Dit is al een tijdje bekend. Bij Turing waren de processoren nog net snel genoeg waardoor het niet opviel. Maar ik wist er al van dat het eraan zat te komen. Bij Ampere gebeurde het op 1440p al met GA102. Het was alleen nog wat beperkt. Nu met AD102 is het overduidelijk. Een 5800X trekt het niet op 4K en welke processor dan ook trekt het niet meer op 1440p. AMD heeft dat probleem veel minder omdat die niet zo'n grote overhead hebben.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 20:08

Damic

Tijd voor Jasmijn thee

Zo laat :(

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 23:57
napata schreef op donderdag 20 oktober 2022 @ 17:51:
[...]
BL3 kan wel degelijk boven de 100fps. Je hebt er gewoon een snellere CPU voor nodig. Dat is dus een traditionele CPU bottleneck. De 5800x haalt max 100fps en deze is gebruikt in de review van de 4090.

[Afbeelding]
Ik had in het Nvidia draadje daar over gepost m.b.t. de RTX4090.
Mijn inziens is dat geen traditionele CPU bottleneck omdat deze beperking puur door het gebruik van DX11 ontstaat. In deze modus presteert BL3 gewoon bar slecht.
Slecht geoptimaliseerd, waardoor er congestie ontstaat op de main thread en alles in de soep/vast loopt.
Alleen met bruteforce hogere klok en lage cache+geheugen latencies is er dan nog winst te zien.
Maar dat is geen eerlijke vergelijking imho.
Games zijn al lang niet meer singlecore en BL3 heeft fatsoenlijke DX12 ondersteuning, waarbij het spel wél prima loopt.

Om de een of andere historische reden blijft TPU echter aan DX11 vasthouden, maar als reviewer hadden ze gewoon achter de oren moeten krabben met dit soort nutteloze resultaten.

Ik heb even een BL3 1280x720 ultra settings DX12 benchmark gedraaid in mijn systeem (stock 5800X + RX6900XT). Resultaat: 235 avg. fps ;)

Acties:
  • +1 Henk 'm!

  • UniMatrix
  • Registratie: December 2002
  • Laatst online: 06-10 06:50

EV: 2017 Ioniq Electric | PC: AMD Ryzen 7 5700X | MSI RTX 4090 Gaming Trio | VR: Pico 4


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik zit nu al een tijdje te denken wat AMD waarschijnlijk van plan is en ik kom eigenlijk steeds tot de conclusie dat ik 42WGP niet helemaal begrijp voor N31.

Inmiddels betwijfel ik nauwelijks meer dat het dit gaat zijn:
Afbeeldingslocatie: https://tweakers.net/i/ZZNgc0D9_QFaSxUYWEh8GDLpxUE=/800x/filters:strip_icc():strip_exif()/f/image/ZbwVeVKSVLDIZuktiRFByvyH.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/xYn8gKQmAVjnsbJjdT_SO8VbhfM=/800x/filters:strip_icc():strip_exif()/f/image/YoyUooLZdwR7ybVZmdQxHpso.jpg?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/SGzTJDsktZDXLGFW58lU5HCE6w4=/800x/filters:strip_icc():strip_exif()/f/image/3kfPC44uaPfTCjDq88YC3Ejw.jpg?f=fotoalbum_large

Vervolgens kan je WGP's gaan schrappen om in te schatten welke configuraties logisch zijn. Een simpele maar effectieve manier om te achterhalen of iemand volslagen onzin verkondigd zoals bijvoorbeeld dat N21 twee jaar geleden zou bestaan uit 64CU's. :z

Maar als ik N31 neem, dan zou 42 WGP betekenen dat elke Shader Engine een WGP verliest. Dit kan op zich goed als je defecten in WGP's van verschillende Shader Engines hebt, maar wat doet AMD met een chip waarbij er een defect in rest van de Shader Engine zit? Op deze manier kan je dan de hele chip weggooien. Ook is een Shader Engine uit 40WGP wat nauwelijks verschilt van 42WGP. Een Shader Engine + een paar WGP's kan, maar ik betwijfel of er afdoende chips zullen zijn daarvoor. Daarom lijkt 44WGP en 40WGP me logischer, maar dat zullen we wel zien. :)

N32 en N33 laten denk ik geen uitschakeling van een Shader Engine toe omdat prestatieverlies dan te groot is voor een SKU. Daar zal het eerder WGP's of hooguit hele Shader Array's worden. Ook zit je met N31/N32 met aparte geheugencontroller chiplets met waarschijnlijk ook L3 cache. Ik zie cut down naar 320bit en 192bit wel gebeuren. Laatste is dat je misschien ook nog eens 3D stacked L3 cache krijgt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

DaniëlWW2 schreef op zondag 9 oktober 2022 @ 14:52:
Dit roept bij mij de vraag op in hoeverre PSU fabrikanten een GPU TDP rating alsmede SKU naam weten.

Want Enermax heeft voor hun PSU calculator ook vier RDNA3 SKU's online gezet met de volgende PSU ratings/door mij omgezet naar ingeschatte TDP:
RX7950XT = 538W/420W
RX7900XT = 446W/330W
RX7800XT = 416W/300W
RX7700XT = 314W/200W
https://enermax.outervision.com/PSUEngine

Het punt is ook dat dit goed kan. De implicatie is waarschijnlijk ook twee N31 en twee N32 SKU's. Een ander zou zijn dat AMD zou doen waarop ik hoop, namelijk hun chips uitsplitsen met een zeer efficiëntie SKU en een maximale performance SKU.

[Twitter]
Ik vind eigenlijk dat hier te weinig over gepraat is. De impact hiervan kan groter zijn dan je denkt namelijk. Als ik kijk naar de receptie van de 4090 zie je vooral 3 reacties:
- OMG wat snel!
- OMG wat een verbruik!
- OMG wat een prijs!

Als AMD op allen een antwoord heeft (wat wel zo lijkt op basis van wat ik hier zie) lijkt het wel alsof we weer in een soortgelijke situatie zitten als 12 jaar terug met de HD5870 vs de GTX 480. nVidia net wat sneller, maar AMD veel minder verbruik. Dan gaat alles van de prijs afhangen wat de beste koop gaat zijn, maar het vereist geen genie om te beredeneren dat AMD op dat vlak de betere kaarten in handen heeft. Iets met een multichip ontwerp wat veel goedkoper is om te maken, goedkoper geheugen, goedkopere PCB's want minder lagen en minder eisen aan VRM, en ga zo maar door...

Verbruik was voorheen altijd de achilleshiel van GCN kaarten. Met RDNA en in veel grotere mate RDNA2 hebben ze laten zien dat ze dat beter kunnen, en iets zegt mij dat ze met de 7700XT en 7900XT de efficiency kroon gaan pakken.

Kom maar op met die kaarten. Afgezien van de hoge prijzen van hardware i.h.a. is het een goede tijd op hardware gebied. Het is lang geleden dat zowel op gebied van graphics als van CPU's er geen duidelijke winnaar was, en dat is voor de consument uiteindelijk alleen maar goed!

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
Blaat schreef op maandag 24 oktober 2022 @ 14:45:
Als AMD op allen een antwoord heeft (wat wel zo lijkt op basis van wat ik hier zie) lijkt het wel alsof we weer in een soortgelijke situatie zitten als 12 jaar terug met de HD5870 vs de GTX 480. nVidia net wat sneller, maar AMD veel minder verbruik. Dan gaat alles van de prijs afhangen wat de beste koop gaat zijn, maar het vereist geen genie om te beredeneren dat AMD op dat vlak de betere kaarten in handen heeft. Iets met een multichip ontwerp wat veel goedkoper is om te maken, goedkoper geheugen, goedkopere PCB's want minder lagen en minder eisen aan VRM, en ga zo maar door...
Hopelijk komen we dan niet ook in dezelfde situatie qua verkoop als 12 jaar geleden, waar men dat alles goed lult en AMD alsnog niet zo heel veel terrein wint :)

Cypress (58x0) was toen overduidelijk het betere product. 90% van de performance voor 75% van de prijs (5870 vs 480; 5850 vs 470 was nog meer in AMD's voordeel), geen thermal throttling (20 graden koeler), stukken stiller, zelfs onder Furmark slechts 2/3e van het verbruik (in games was het eerder 50%)...en toch bleef men de 480 maar kopen.

Acties:
  • +1 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 04-10 13:03

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Werelds schreef op maandag 24 oktober 2022 @ 15:15:
[...]

Hopelijk komen we dan niet ook in dezelfde situatie qua verkoop als 12 jaar geleden, waar men dat alles goed lult en AMD alsnog niet zo heel veel terrein wint :)

Cypress (58x0) was toen overduidelijk het betere product. 90% van de performance voor 75% van de prijs (5870 vs 480; 5850 vs 470 was nog meer in AMD's voordeel), geen thermal throttling (20 graden koeler), stukken stiller, zelfs onder Furmark slechts 2/3e van het verbruik (in games was het eerder 50%)...en toch bleef men de 480 maar kopen.
Marketing, marketing en nog eens marketing. Al zolang als dat AMD aan het roer staat van Radeon graphics is dat het zorgenkindje van de hele bedoening. Met Ryzen hebben ze laten zien dat ze het kunnen. De vraag is, kunnen ze het beter dan nVidia?

Twijfelachtig... Maar een mens kan hopen. :)

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
Blaat schreef op maandag 24 oktober 2022 @ 15:18:
Marketing, marketing en nog eens marketing. Als zolang als dat AMD aan het roer staat van Radeon graphics is dat het zorgenkindje van de hele bedoening. Met Ryzen hebben ze laten zien dat ze het kunnen. De vraag is, kunnen ze het beter dan nVidia?

Twijfelachtig... Maar een mens kan hopen. :)
Met Zen 4 hebben ze echter ook laten zien dat ze te ver door kunnen slaan. Zen 4 is ook nog steeds een beter all-round product dan Raptor Lake...maar doordat ze in plaats van een "TURBO" modus een "ECO" modus doen ziet het er in reviews anders uit ;)

We zullen het wel zien. Ik ben echt heel benieuwd naar volgende week. En blijf in vredesnaam gewoon bij de betrouwbare PCIe Molex stekkers in plaats van die waardeloze 12VHPWR stekker.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Aansluitend op dat laatste heeft "iedereens favoriete rambler" ook wat te zeggen over de 12 pin connector. Want ze kunnen blijkbaar al kapot als ze niet helemaal perfect aangesloten zitten. Dat kan al gebeuren als je kabel een beetje gebogen is...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
De vraag is waar AMD de knip gaat zetten tussen Navi 31 en 32. Bij de 6000 serie was de 6900 al de volledige chip en was de 6950 slechts een overclock.

Gezien de leaks lijkt men nu de 7900 echt te knippen door in elk geval een IO die weg te laten. Ongetwijfeld knippen ze dan ook in de CU's. Daardoor is er dan minder reden om Navi 31 te gebruiken voor lagere SKU's, al verwacht ik wel dat ze de 7800 XT daarvoor dan nodig hebben.

Dus misschien leggen ze de knip voor de volgende generatie bij de 7800, die dan Navi 32 wordt. Misschien schuift alles eronder dan ook een plaatsje op, en wordt de 7700 dan een Navi 33.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op maandag 24 oktober 2022 @ 15:28:
De vraag is waar AMD de knip gaat zetten tussen Navi 31 en 32. Bij de 6000 serie was de 6900 al de volledige chip en was de 6950 slechts een overclock.

Gezien de leaks lijkt men nu de 7900 echt te knippen door in elk geval een IO die weg te laten. Ongetwijfeld knippen ze dan ook in de CU's. Daardoor is er dan minder reden om Navi 31 te gebruiken voor lagere SKU's, al verwacht ik wel dat ze de 7800 XT daarvoor dan nodig hebben.

Dus misschien leggen ze de knip voor de volgende generatie bij de 7800, die dan Navi 32 wordt. Misschien schuift alles eronder dan ook een plaatsje op, en wordt de 7700 dan een Navi 33.
Ik ga er al een tijd vanuit dat N31 helemaal bij de RX7900 series blijft. AMD hangt vaak een specifieke tier aan een specifieke GPU en N31 lijkt zo enorm te zijn dat ze weg kunnen komen met meerdere 90 SKU's. N32 en N33 zijn denk ik interessanter. Want je zou 80, 70 en 60 SKU's verwachten, maar er zijn maar twee chips. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 00:13
DaniëlWW2 schreef op maandag 24 oktober 2022 @ 15:26:
Aansluitend op dat laatste heeft "iedereens favoriete rambler" ook wat te zeggen over de 12 pin connector. Want ze kunnen blijkbaar al kapot als ze niet helemaal perfect aangesloten zitten. Dat kan al gebeuren als je kabel een beetje gebogen is...
[YouTube: The 12VHPWR connector sucks]
Het eerste wat ik zou doen is een verloop/adapter (eventueel haaks) kopen voor die connector... en die dan altijd in de connector op de videokaart laten zitten.
Dan heb je met videokaart in- en uitbouwen in ieder geval geen risico dat je de connector/pins op de kaart zelf vernaggeld (want de stekker kan je maar x aantal keren erin- en eruit halen).
Wat mij betreft is die nieuwe connector, om bovenstaande, een fail.

"Dit is uw nieuwe auto, let op: u mag maar x aantal keren al uw banden wisselen en daarna is uw auto afgeschreven/onveilig (kan in de fik vliegen)/niet meer te verzekeren/vervalt de garantie" :+ 8)7

[ Voor 9% gewijzigd door HugoBoss1985 op 24-10-2022 16:00 ]


Acties:
  • +5 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het verbaast me vooral dat Intel, die over de ATX spec gaat, deze connector goedgekeurd heeft en in de ATX 3.0 spec heeft opgenomen.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 22:46
Blaat schreef op maandag 24 oktober 2022 @ 14:45:
[...]
Als AMD op allen een antwoord heeft (wat wel zo lijkt op basis van wat ik hier zie) lijkt het wel alsof we weer in een soortgelijke situatie zitten als 12 jaar terug met de HD5870 vs de GTX 480. nVidia net wat sneller, maar AMD veel minder verbruik. Dan gaat alles van de prijs afhangen wat de beste koop gaat zijn, maar het vereist geen genie om te beredeneren dat AMD op dat vlak de betere kaarten in handen heeft. Iets met een multichip ontwerp wat veel goedkoper is om te maken, goedkoper geheugen, goedkopere PCB's want minder lagen en minder eisen aan VRM, en ga zo maar door...
Ja ho ff, zo simpel ligt het nou ook weer niet. Chiplets gebruiken is niet alleen maar win. Al die chips klein produceren is zeker een voordeel, want minder afval/defects die je weg kunt gooien. Aan de andere kant is het minder efficient op logica, want je moet die chiplets laten samenwerken en dus een interconnect toevoegen om ze aan elkaar te knopen. Hiermee valt een deel van de benefit weg. Daarnaast stijgt idle verbruik van de gpu met chiplets tegen een single chip design (zie idle verbruik van de Zen cpu's). Latency zal hoe dan ook een nadeel zijn ten opzichte van een single chip ontwerp en heb je altijd wel wat verlies in prestaties vanwege loadbalancing tussen chiplets onderling. Dit gaat nooit zo goed schalen als een single chip oplossing. Het is niet simpelweg een extra chip erbij plakken en de roepen 2 keer zo snel :P

Verder is het veels te voorbarig om nu al te claimen dat AMD op dezelfde node als Nvidia veel minder gaat verbruiken. Ik verwacht dat AMD namelijk ook rustig richting de 400Watt zal moeten gaan om competitief zijn tegen de 4090. Nvidia's verbruik lag vorige generatie ook al deels hoger door de uitstap naar Samsung, dat voordeel heeft AMD deze generatie niet meer nu Nvidia weer bij TSMC zit.
De 5870 was destijds ook vele malen kleiner (334 mm²), waar de GTX 480 met 529 mm² een gigantische chip was voor die tijd. Dat AMD toen zuiniger was lijkt me vrij evident, maar niet vergelijkbaar met nu :P

Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
Help!!!! schreef op maandag 24 oktober 2022 @ 15:37:
Het verbaast me vooral dat Intel, die over de ATX spec gaat, deze connector goedgekeurd heeft en in de ATX 3.0 spec heeft opgenomen.
100% dit.

Dat Nvidia dit wil doen is hun zaak. Er is echter ook een reden dat ze bij Amphenol zitten en niet bij Molex of TE. Ik betwijfel of één van die twee dit ooit zou willen produceren.

Ik heb me in de andere draad al over deze stekker uit gelaten dus ik zal dat niet weer doen. Ik stop hem in elk geval van z'n leven niet in m'n PC; en al helemaal niet dat ding van Nvidia, wat er uit ziet als het soort stekkers/verbindingen die ik zelf wel eens als tijdelijke oplossing voor dingen in elkaar heb geflanst. Geef je €2000 uit en krijg je dat er bij :')

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Werelds schreef op maandag 24 oktober 2022 @ 16:09:
[...]

100% dit.

Dat Nvidia dit wil doen is hun zaak. Er is echter ook een reden dat ze bij Amphenol zitten en niet bij Molex of TE. Ik betwijfel of één van die twee dit ooit zou willen produceren.

Ik heb me in de andere draad al over deze stekker uit gelaten dus ik zal dat niet weer doen. Ik stop hem in elk geval van z'n leven niet in m'n PC; en al helemaal niet dat ding van Nvidia, wat er uit ziet als het soort stekkers/verbindingen die ik zelf wel eens als tijdelijke oplossing voor dingen in elkaar heb geflanst. Geef je €2000 uit en krijg je dat er bij :')
Mooie crosspost, Buildzoid is het met je eens :+ :
https://www.youtube.com/watch?v=kRkjUtH4nIE

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Weet je, die wou ik een paar uur geleden plaatsen in het andere topic en toen kwam de stekker hier weer voorbij. :P
Help!!!! schreef op maandag 24 oktober 2022 @ 15:37:
Het verbaast me vooral dat Intel, die over de ATX spec gaat, deze connector goedgekeurd heeft en in de ATX 3.0 spec heeft opgenomen.
Dat ja. Intel heeft lopen slapen of is om een of andere reden gedwongen hiertoe.
Maar de stekker is dusdanig verdacht dat die eigenlijk als onveilig beschouwd moet worden en uit de ATX specificatie gezet. Heel zuur voor alle PSU fabrikanten, maar het moet wel. En dan beginnen de rechtzaken denk ik ook. :z

[ Voor 43% gewijzigd door DaniëlWW2 op 24-10-2022 16:53 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 00:38

rapture

Zelfs daar netwerken?

DaniëlWW2 schreef op maandag 24 oktober 2022 @ 15:26:
Aansluitend op dat laatste heeft "iedereens favoriete rambler" ook wat te zeggen over de 12 pin connector. Want ze kunnen blijkbaar al kapot als ze niet helemaal perfect aangesloten zitten. Dat kan al gebeuren als je kabel een beetje gebogen is...
[YouTube: The 12VHPWR connector sucks]
Bevestiging voor wat ik op de vorige pagina over deze connector schreef.

Het mag absoluut niet naar links of rechts gebogen worden.

Afbeeldingslocatie: https://tweakers.net/i/yyhb1KxWdOp9bRgYWN07t-e7ATU=/800x/filters:strip_icc():strip_exif()/f/image/SWPeiiN2KoVRYs9OlUJTGusX.jpg?f=fotoalbum_large

Je zou een houder aan de grafische kaart moeten bevestigen om de kabel minstens 35mm lang recht te houden.

In deze opstelling is de connector doorgebrand:

Afbeeldingslocatie: https://tweakers.net/i/oxJ3WZZFPoGmq3OshqK4LzmTA-o=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/D0EJQEck9g8WWqkeiCRRW96Q.jpg?f=user_large

We spreken hier niet over strak aangespannen cable management of de kabels in alle bochten wringen in een mini-ITX build.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
DaniëlWW2 schreef op maandag 24 oktober 2022 @ 16:51:
[...]


Weet je, die wou ik een paar uur geleden plaatsen in het andere topic en toen kwam de stekker hier weer voorbij. :P

[...]

Dat ja. Intel heeft lopen slapen of is om een of andere reden gedwongen hiertoe.
Maar de stekker is dusdanig verdacht dat die eigenlijk als onveilig beschouwd moet worden en uit de ATX specificatie gezet. Heel zuur voor alle PSU fabrikanten, maar het moet wel. En dan beginnen de rechtzaken denk ik ook. :z
Ik zat al te scrollen want ik zag jouw post en begreep al niet waarom het filmpje ontbrak :+. Oh wacht, ik zie dat je hem hier wel had.... ik heb youtube previews uit staan.

[ Voor 5% gewijzigd door Sp3ci3s8472 op 24-10-2022 16:57 . Reden: cookies ]


Acties:
  • +2 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
rapture schreef op maandag 24 oktober 2022 @ 16:54:
[...]
In deze opstelling is de connector doorgebrand:

[Afbeelding]

We spreken hier niet over strak aangespannen cable management of de kabels in alle bochten wringen in een mini-ITX build.
Het lijkt er wel op dat de voeding beneden zit, maar hij de kabels bovenlangs laat lopen, waardoor de kabels een flinke omweg moeten maken. De verticale GPU zorgt er sowieso voor dat je een 180 graden bocht moet maken als de voeding beneden zit.

Ophouden met die domme riser-builds dus. Sowieso moet je je 4090 build niet optimaliseren voor de looks, maar voor het brandgevaar. >:)

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
@Sp3ci3s8472 @DaniëlWW2 ik had hem zelf al in het Ada ervaringen topic geplaatst ;)

Ik doe al lang niets meer in die topics, maar ik vind deze stekker dusdanig gevaarlijk dat ik deze wel wilde plaatsen. Of men het verder overdreven vind, er niets aan doet of denkt dat die persoon "pech" heeft gehad, doet er niet toe. Het gebeurt zo makkelijk dat het een PSA vereist wat mij betreft.

En daarmee is het voor mij klaar. Het ding komt er hier gewoon absoluut niet in, dus wat anderen er van vinden boeit me niet :P

Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

sjekneck schreef op maandag 24 oktober 2022 @ 16:04:
[...]
Verder is het veels te voorbarig om nu al te claimen dat AMD op dezelfde node als Nvidia veel minder gaat verbruiken. Ik verwacht dat AMD namelijk ook rustig richting de 400Watt zal moeten gaan om competitief zijn tegen de 4090. Nvidia's verbruik lag vorige generatie ook al deels hoger door de uitstap naar Samsung, dat voordeel heeft AMD deze generatie niet meer nu Nvidia weer bij TSMC zit.
De 5870 was destijds ook vele malen kleiner (334 mm²), waar de GTX 480 met 529 mm² een gigantische chip was voor die tijd. Dat AMD toen zuiniger was lijkt me vrij evident, maar niet vergelijkbaar met nu :P
Dat weet je toch nog niet? Is er al bekend dan wat de die-sizes van rdna3 zijn :? AD102 is een sowieso een monsterchip in ieder geval.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Help!!!! schreef op maandag 24 oktober 2022 @ 17:18:
[...]

Dat weet je toch nog niet? Is er al bekend dan wat de die-sizes van rdna3 zijn :? AD102 is een sowieso een monsterchip in ieder geval.
308 mm² GCD voor Navi 31 met maximaal 6 MCDs van 37,5 mm²

200 mm² GCD voor Navi 32 met maximaal 4 MCDs van 37,5 mm²

203 mm² monoliet voor Navi 33.

Door het chiplet design zijn de chips zelf niet zo groot, maar er zijn kosten van de interconnects om alles met elkaar te verbinden.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
sjekneck schreef op maandag 24 oktober 2022 @ 16:04:
Latency zal hoe dan ook een nadeel zijn ten opzichte van een single chip ontwerp en heb je altijd wel wat verlies in prestaties vanwege loadbalancing tussen chiplets onderling.
Echter is AMD's chiplet ontwerp voor hun GPU's naar verluid anders dan voor de CPU's. Bij de GPU's gaat het om IC en GDDR PHY die elders geplaatst worden, terwijl de logica nog steeds geheel in één die zit - dus load balancing is enkel van toepassing op de cache hiërarchie.

Load balancing is vervolgens ook niet meer of minder een probleem dan voorheen, want hoewel het altijd over "X MB L2", "Y MB IC" en "Z PHY" gaat, is de werkelijkheid net even iets anders. Dat is allemaal verdeeld in blokken en die blokken hangen aan elkaar. De caches zijn allemaal set-associative, wat betekent dat er specifieke blokken voor specifieke adressen gebruikt worden. Navi 10/21's 4 MB L2 cache bestaat uit 16 blokken van 256 KB elk, die op hun beurt aan specifieke blokken in de IC hangen, en die hangen op hun beurt aan specifieke PHY's (wat overigens via 4x16-bit interfaces gebeurt; niet een enkele 64-bit interface).

Het enige wat er met de MCD's verandert is dat er iets meer tijd zit om iets van IC naar L2 te krijgen; de rest blijft hetzelfde. En daar hebben ze, afhankelijk van hoe veel je in gebruik hebt, al 20 tot maar liefst 100ns voorsprong op Nvidia.

AMD heeft niet voor niets eerst RDNA geïntroduceerd, vervolgens IC toegepast en nu pas chiplets. Ze hebben al 5,5 jaar ervaring met chiplets en interconnects daarvoor, en bewezen dat ze het kunnen laten werken. Ik denk dat dat de minste zorg is :p

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Vergelijking tussen FSR2, XeSS en DLSS2:


XeSS heeft helaas geen enkele waarde op AMD hardware en draait op ultra quality en quality eigenlijk altijd lager dan native.
Bij Nvidia zie je een vergelijkbaar iets maar dan alleen voor ultra quality.

In de vergelijkingen is DLSS het best; FSR is vergelijkbaar met XeSS; en met vergelijkbaar ze falen beiden op andere punten :P.

[ Voor 50% gewijzigd door Sp3ci3s8472 op 24-10-2022 19:50 ]


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Ja, erg trieste resultaten voor XeSS. De enige mogelijke use case ervoor is als het beter werkt op Intel Arc, voor de 3 mensen die zo'n kaart hebben.

Maar Intel heeft een achterstand qua ontwikkeling op zowel AMD als Nvidia en de volgorde in resultaat komt precies overeen met wie er het langst aan heeft kunnen werken. Op termijn verwacht ik dat ze steeds dichter bij elkaar komen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:14
Werelds schreef op maandag 24 oktober 2022 @ 15:15:
[...]

Hopelijk komen we dan niet ook in dezelfde situatie qua verkoop als 12 jaar geleden, waar men dat alles goed lult en AMD alsnog niet zo heel veel terrein wint :)

Cypress (58x0) was toen overduidelijk het betere product. 90% van de performance voor 75% van de prijs (5870 vs 480; 5850 vs 470 was nog meer in AMD's voordeel), geen thermal throttling (20 graden koeler), stukken stiller, zelfs onder Furmark slechts 2/3e van het verbruik (in games was het eerder 50%)...en toch bleef men de 480 maar kopen.
De 5870 was een jaar lang praktisch niet te krijgen en de kopers van 't eerste kwartaal konden een jaar later hun kaart met winst kwijt, dus er was genoeg animo als je 't mij vraagt.

ATI HD58xx en HD5970 Levertijden topic

De eerste reeks die een eigen levertijden draadje kreeg op tweakers.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Ludewig schreef op maandag 24 oktober 2022 @ 19:58:
Ja, erg trieste resultaten voor XeSS. De enige mogelijke use case ervoor is als het beter werkt op Intel Arc, voor de 3 mensen die zo'n kaart hebben.

Maar Intel heeft een achterstand qua ontwikkeling op zowel AMD als Nvidia en de volgorde in resultaat komt precies overeen met wie er het langst aan heeft kunnen werken. Op termijn verwacht ik dat ze steeds dichter bij elkaar komen.
FSR2 heeft minder ghosting, alleen particles doen ze niet echt goed. Dit zou misschien nog aan de implementatie kunnen liggen van de spellen.
XeSS heeft meer ghosting en soms shimmering maar doet particles iets beter.

Ik zou ze beiden nooit gebruiken. Zelfs DLSS niet, ik wacht dan wel tot er snellere kaarten zijn zodat ik die trucs niet nodig heb.

Edit:
Het is misschien wel handig om te vermelden dat de spellen die getest zijn FSR 2.0 gebruiken en niet 2.1 wat weer een stapje beter is.

[ Voor 7% gewijzigd door Sp3ci3s8472 op 24-10-2022 20:04 ]

Pagina: 1 ... 67 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.