Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
Paprika schreef op maandag 24 oktober 2022 @ 19:58:
[...]

De 5870 was een jaar lang praktisch niet te krijgen en de kopers van 't eerste kwartaal konden een jaar later hun kaart met winst kwijt, dus er was genoeg animo als je 't mij vraagt.

ATI HD58xx en HD5970 Levertijden topic

De eerste reeks die een eigen levertijden draadje kreeg op tweakers.
Tegen de tijd dat de 480 te krijgen was, was Cypress ook te leveren hoor :p

Van wat ik me herinner had het vooral te maken met waar je bestelde. Sommige winkels waren minder betrouwbaar dan andere, omdat ze niet de bestellingsvolgorde volgden (of überhaupt bestellingen uitleverden in plaats van gewoon in de winkel te verkopen).

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Blaat schreef op maandag 24 oktober 2022 @ 14:45:
[...]


Ik vind eigenlijk dat hier te weinig over gepraat is. De impact hiervan kan groter zijn dan je denkt namelijk. Als ik kijk naar de receptie van de 4090 zie je vooral 3 reacties:
- OMG wat snel!
- OMG wat een verbruik!
- OMG wat een prijs!

Als AMD op allen een antwoord heeft (wat wel zo lijkt op basis van wat ik hier zie) lijkt het wel alsof we weer in een soortgelijke situatie zitten als 12 jaar terug met de HD5870 vs de GTX 480. nVidia net wat sneller, maar AMD veel minder verbruik. Dan gaat alles van de prijs afhangen wat de beste koop gaat zijn, maar het vereist geen genie om te beredeneren dat AMD op dat vlak de betere kaarten in handen heeft. Iets met een multichip ontwerp wat veel goedkoper is om te maken, goedkoper geheugen, goedkopere PCB's want minder lagen en minder eisen aan VRM, en ga zo maar door...

Verbruik was voorheen altijd de achilleshiel van GCN kaarten. Met RDNA en in veel grotere mate RDNA2 hebben ze laten zien dat ze dat beter kunnen, en iets zegt mij dat ze met de 7700XT en 7900XT de efficiency kroon gaan pakken.

Kom maar op met die kaarten. Afgezien van de hoge prijzen van hardware i.h.a. is het een goede tijd op hardware gebied. Het is lang geleden dat zowel op gebied van graphics als van CPU's er geen duidelijke winnaar was, en dat is voor de consument uiteindelijk alleen maar goed!
Het is ook zeker belangrijk, maar niet zozeer voor het halo gevecht. Daar telt uiteindelijk wie is de snelste. ;)

Nee kijk naar N32 en N33. N32 zou 50% meer ALU's hebben dan N21 en met de 50% perf/watt claim kan je zomaar 300W = 50% sneller krijgen dan een RX6900XT. Dan is de RTX4080 gepasseerd in rasterisation. Tweede is dat N32 een zeer kleine 200mm2 zou zijn + 4x MCM chips van 38mm. Dat zou zomaar 80%+ yield moeten opleveren met meer dan 220 perfecte chips uit een wafer. Qua MCD's kijk je naar makkelijk 1400 per wafer. Dat is een volumeproduct dat helemaal niet tot zijn recht komt in kleine oplagen. Ik heb al eerder doorrekeningen gemaakt en ik blijf erbij dat de volle N32 zo voor max $600 in de markt kunnen zetten als ze echt willen. Immers halen ze misschien 80 N21 chips uit een wafer en dat is met de forse cut down RX6800. Ik besef me namelijk dat ook met de vier MCM chiplets, N32 best wel eens goedkoper kan zijn om te maken dan N21. Het vraagteken lijkt vooral packaging kosten en capaciteit te zijn.

N33 is nog dramatischer. Dat zou net iets meer dan 200mm2 zijn op N6 zonder andere chiplets. Die chip die "N21" niveau zou presteren, kost waarschijnlijk ongeveer net zoveel om te maken als N23. Verbruik ergens in de lage 200W range lijkt me een redelijke aanname. Nu verwacht ik niet zomaar RX6900XT prestaties, maar zelfs als het tussen de RX6800 en RX6800XT is, dan is dat alsnog uitstekend. Hier hebben ze ook nog eens de voordelen dat het een oudere node is met een kostenoptimalisatie vanaf N7 alsmede simpele packaging. Want juist de meer complexe substraten die AMD nodig heeft voor TSMC InFO_oS packaging techniek, spelen waarschijnlijk niet bij N33. We hebben het hier over een GPU die vergelijkbare kosten kan hebben met een Ryzen 6000 APU, maar zomaar (bijna) net zo presteren zoals vorige generatie hun high end.

En dan zie ik dat Ryzen 7000 niet goed verkoopt. AMD moet voor hun voorlopig Q3 cijfers al meedelen dat ze hun omzetdoel uit de CPU markt voor $1 miljard gaan missen. Er zit een recessie aan te komen waar veel mensen simpelweg dergelijke luxeproducten niet meer kunnen betalen. En juist N33 sluit hier potentieel zo goed bij aan. Goedkoop, makkelijk te produceren, waarschijnlijk zeer snel en na al die jaren weer een echt grote sprong voor het traditionele middensegment. In mindere mate ook N32 wel.


AMD moet nu alleen wel willen en durven te zeggen dat Nvidia hun prijzen dom zijn en de aanval te kiezen op marktaandeel. Maakt niet uit of ze ook nog beter zijn. Die 20% marktaandeel waar ze nu op zitten is niet houdbaar nu er een derde speler in de vorm van Intel haar intrede doet. De GPU markt is een stuk kleiner, videokaarten zijn duurder om te maken en de afzetmarkt is kleiner. Je hebt hier een bepaald percentage nodig om je ontwikkelkosten eruit te halen.

Dit lijkt een unieke kans te zijn voor AMD. Maar dan moeten ze die nu wel grijpen. N31 zou een statement moeten zijn waar ze demonstreren de beste GPU te hebben voor gamers. Maar N32 en N33 moeten ze verkopen in enorme aantallen. En dan zou heel goed mogelijk moeten zijn tussen wat ze lijken te hebben.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Sp3ci3s8472

FSR 2.1 heeft vooral minder ghosting en meer stability, dus dan zou je nog vooral last moeten hebben van de verdwijnende particles enzo.

Maar DLSS heeft ook vrij laat daar een flinke stap gemaakt in versie 2.3, dus ik denk dat AMD daar nu pas echt mee bezig is. Dat is ook niet het meest belangrijke detail om goed te hebben.

Uiteindelijk is het ook heel persoonlijk. Mijn beperkte ervaring in slechts 1 game (met een mod) is dat ik vooral graag mooie details heb bij statische content en het accepteer dat er wat ghosting is bij snelle actie.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

En net zoals altijd blijft het zelfs zo dicht op de realease nog totaal onduidelijk hoe het topmodel van Rdna 3 zich gaat verhouden tot zijn groene equivalent, met name de Raytrace perf. (Daar heeft Amd nog wat in te lopen).

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@DaniëlWW2

Ik denk dat het ook heel erg afhangt van de beschikbare productiecapaciteit. Als AMD echt lekker capaciteit kan inkopen of nog beter, teveel capaciteit heeft ingekocht, dan kunnen ze losgaan.

@edward2

Mijn verwachting is dat ze gelijk of beter zijn met raster, maar achter blijven lopen met RT. Al denk ik dat ze daar wel inlopen en zo'n beetje de raster/RT verhouding krijgen van de 3080.

Over het geheel denk ik dat ze nog steeds een duidelijk minder aantrekkelijk product gaan leveren en daardoor wel lager moeten beprijzen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +1 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 22:46
Werelds schreef op maandag 24 oktober 2022 @ 19:05:
[...]

Echter is AMD's chiplet ontwerp voor hun GPU's naar verluid anders dan voor de CPU's. Bij de GPU's gaat het om IC en GDDR PHY die elders geplaatst worden, terwijl de logica nog steeds geheel in één die zit - dus load balancing is enkel van toepassing op de cache hiërarchie.

Load balancing is vervolgens ook niet meer of minder een probleem dan voorheen, want hoewel het altijd over "X MB L2", "Y MB IC" en "Z PHY" gaat, is de werkelijkheid net even iets anders. Dat is allemaal verdeeld in blokken en die blokken hangen aan elkaar. De caches zijn allemaal set-associative, wat betekent dat er specifieke blokken voor specifieke adressen gebruikt worden. Navi 10/21's 4 MB L2 cache bestaat uit 16 blokken van 256 KB elk, die op hun beurt aan specifieke blokken in de IC hangen, en die hangen op hun beurt aan specifieke PHY's (wat overigens via 4x16-bit interfaces gebeurt; niet een enkele 64-bit interface).

Het enige wat er met de MCD's verandert is dat er iets meer tijd zit om iets van IC naar L2 te krijgen; de rest blijft hetzelfde. En daar hebben ze, afhankelijk van hoe veel je in gebruik hebt, al 20 tot maar liefst 100ns voorsprong op Nvidia.

AMD heeft niet voor niets eerst RDNA geïntroduceerd, vervolgens IC toegepast en nu pas chiplets. Ze hebben al 5,5 jaar ervaring met chiplets en interconnects daarvoor, en bewezen dat ze het kunnen laten werken. Ik denk dat dat de minste zorg is :p
Technisch hoeven we het niet heilig te verklaren of te doen alsof chiplets alleen maar voordelen hebben. Hoe mooi je dat ook gaat verwoorden, bij chiplets zullen hoe dan ook concessies gemaakt moeten worden of design keuzes zijn gemaakt die juist verlies/vertraging zullen opleveren en een extra bottleneck vormen bij loads. Als het alleen maar pro's had, was de hele industrie al lang over op dit design.

Neemt niet weg dat het is wel een slimme zet is van AMD met het oog op kosten die nu heel hard stijgen in de nieuwe nodes en grotere chips om dit toe te passen. Daar hoor je mij niet over. Minder complex/groot is minder onbruikbaar oppervlak per wafer. Als de klant dat ook merkt in de prijs om in te stappen uitstekend idee.

De verwachting is echt wel zoals elke AMD generatie weer onrealistisch aan het worden imho. Nvidia verslaan op prestatie, een beter ontwerp hebben en goedkoper zijn lijkt me vrij veel gevraagd van AMD in dit stadium. Maar je kunt het altijd hopen :P

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
sjekneck schreef op dinsdag 25 oktober 2022 @ 00:15:
[...]
De verwachting is echt wel zoals elke AMD generatie weer onrealistisch aan het worden imho. Nvidia verslaan op prestatie, een beter ontwerp hebben en goedkoper zijn lijkt me vrij veel gevraagd van AMD in dit stadium. Maar je kunt het altijd hopen :P
Volgens mij was bij RDNA 2 de verwachting dat ze niet eens in de buurt kwamen (tenminste door velen). Als AMD een keer de kans heeft dan lijkt mij dat dat moment nu is gezien ze er veel beter voorstaan dan ooit.

Als AMD met RDNA 2 al op raster gelijk was met Nvidia dan lijkt het mij echt niet raar dat ze nu in ieder geval Nvidia kunnen matchen op dat vlak. Vergeet niet dat Nvidia gigantisch veel die space aan andere dingen besteed (Tensor cores) en daarnaast qua efficienty erg laag zit (in het bezig houden van hun cuda cores).

AMD heeft een architectuur die efficienter is voor gamen tenminste in traditionele workloads. Waarom zouden ze Nvidia niet kunnen matchen?

Behaalde resultaten in het verleden... dat gezegde snap ik ook wel, maar toch :P.
Daarnaast is het juist de keren geweest dat AMD van de daken liep te schreeuwen dat ze snel waren dat ze niks hadden op de highend (Polaris en Vega). Terwijl ze de keren dat ze wel iets hadden muisstil waren RDNA 2 en in mindere mate RDNA 1.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
sjekneck schreef op dinsdag 25 oktober 2022 @ 00:15:
[...]

Technisch hoeven we het niet heilig te verklaren of te doen alsof chiplets alleen maar voordelen hebben. Hoe mooi je dat ook gaat verwoorden, bij chiplets zullen hoe dan ook concessies gemaakt moeten worden of design keuzes zijn gemaakt die juist verlies/vertraging zullen opleveren en een extra bottleneck vormen bij loads. Als het alleen maar pro's had, was de hele industrie al lang over op dit design.
Tuurlijk zijn er nadelen, maar uitgerekend AMD is er al zo lang mee bezig en heeft het al succesvol gedaan. En RDNA2 ligt op de vlakken die nadelig beïnvloed worden al ruim voor op Ampère, dus ze hebben de ruimte om het te doen.
De verwachting is echt wel zoals elke AMD generatie weer onrealistisch aan het worden imho. Nvidia verslaan op prestatie, een beter ontwerp hebben en goedkoper zijn lijkt me vrij veel gevraagd van AMD in dit stadium. Maar je kunt het altijd hopen :P
Mja, maar deze keer zit er meer achter dan enkel wishful thinking. We weten al dat Nvidia's ontwerp niet goed schaalt met grotere chips en dat hun geadverteerde theoretische rekenkracht volstrekt onzin is. Van de "40" TFLOPS die GA101 zou moeten hebben, komt er 20-23 uit (dat is waar Navi 21 zit). Ada zou ruim over de 80 (op 2700 heb je het over 88,5 TFLOPS) moeten hebben, maar presteert eerder als een chip met 35-40 TFLOPS in de 4090 configuratie. Tegelijkertijd heeft AMD met RDNA een architectuur die wél schaalt met grotere chips en om 40 TFLOPS te halen hebben ze niet bijzonder veel nodig. Anderhalve keer Navi 21 zou op marginaal hogere kloksnelheden (2750) al genoeg zijn.

RT is een ander verhaal. Maar voor raster is Ada helemaal niet zo goed.

Verbruik is lastiger in te schatten, want we weten niet hoe veel minder Samsung's procedé is dan TSMC's N7. Daar komt bovenop dat zowel het verbruik van zowel GA102 als AD102 enorm misleidend is, omdat beide chips driekwart van de tijd stil liggen doordat Nvidia ze niet bezig kan houden (zowel door driver overhead als hun frontend binnen de chip, vooral met de hoge latencies). Maar tegelijkertijd is RDNA2 stukken zuiniger dan GA102, dus ook daar hebben ze nog wat ruimte.

Wishful thinking is het altijd, maar Nvidia heeft niets speciaals laten zien ;)

Acties:
  • +1 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 07-10 07:45
Sp3ci3s8472 schreef op dinsdag 25 oktober 2022 @ 00:47:
Volgens mij was bij RDNA 2 de verwachting dat ze niet eens in de buurt kwamen (tenminste door velen).
Niet in deze thread hoor. RDNA 2 aka Big Navi werd juist zeer positief ontvangen en de verwachting was dat ze toch minstens Nvidia gingen matchen, met RT de grote onzekere.

Overigens was het toen ook al @sjekneck die probeerde jouw verwachtingen wat te temperen.

Uiteindelijk komen we met tussen de regels doorlezen van de jubelhypers en de azijnpissers wel in de buurt van wat het echt wordt. :P

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Sp3ci3s8472 schreef op dinsdag 25 oktober 2022 @ 00:47:
[...]


Volgens mij was bij RDNA 2 de verwachting dat ze niet eens in de buurt kwamen (tenminste door velen). Als AMD een keer de kans heeft dan lijkt mij dat dat moment nu is gezien ze er veel beter voorstaan dan ooit.
Volgens mij was er destijds speculatie dat RDNA 2 ongeveer RTX 3070 prestaties zou bieden voor $300.

Niet dat die claims ergens op gebaseerd waren... maar het leefde wel enige tijd.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:14
MneoreJ schreef op dinsdag 25 oktober 2022 @ 10:03:
[...]

Niet in deze thread hoor. RDNA 2 aka Big Navi werd juist zeer positief ontvangen en de verwachting was dat ze toch minstens Nvidia gingen matchen, met RT de grote onzekere.

Overigens was het toen ook al @sjekneck die probeerde jouw verwachtingen wat te temperen.

Uiteindelijk komen we met tussen de regels doorlezen van de jubelhypers en de azijnpissers wel in de buurt van wat het echt wordt. :P
In dat citaat wordt er gesproken op minstens de 2080Ti voorbij gaan en dat minimaal één chip de 3080 zou bijhouden in raster performance. Dat is ook ruimschoots gelukt.

Afbeeldingslocatie: https://tweakers.net/i/UCarlONnZselWCEveGm1JPoYdpo=/x800/filters:strip_exif()/f/image/XI129XdZQ8raKWGntFoUYXyx.png?f=fotoalbum_large

Afbeeldingslocatie: https://tweakers.net/i/FktIqVCdsZQ3pZ9teSxWjg7AtWg=/x800/filters:strip_exif()/f/image/lxbLbemNUobKRbbUyqVB9van.png?f=fotoalbum_large

6800XT is een 3080 en de 6950XT is een 3090, dus de 6800XT, 6900XT en 6950XT doen het alledrie even goed of beter dan de 3080.

[ Voor 17% gewijzigd door Paprika op 25-10-2022 10:20 ]


Acties:
  • 0 Henk 'm!

  • MneoreJ
  • Registratie: Januari 2006
  • Laatst online: 07-10 07:45
Paprika schreef op dinsdag 25 oktober 2022 @ 10:14:
In dat citaat wordt er gesproken op minstens de 2080Ti voorbij gaan en dat minimaal één chip de 3080 zou bijhouden in raster performance. Dat is ook ruimschoots gelukt.
Ja, ik zei ook niet dat de verwachtingen niet uitkwamen. :P Er gaat zeer veel technische kennis rond in dit topic waardoor de schattingen ook steeds beter convergeren naar de echte prestaties naarmate de tijd vordert (als er geen apen uit de mouw kruipen). In het begin, als er nog niet veel bekend is, overheerst de jubelstemming dan wat, maar daar is het dan ook het Radeon topic voor.

[ Voor 10% gewijzigd door MneoreJ op 25-10-2022 10:40 ]

Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".


Acties:
  • 0 Henk 'm!

  • UniMatrix
  • Registratie: December 2002
  • Laatst online: 06-10 06:50

EV: 2017 Ioniq Electric | PC: AMD Ryzen 7 5700X | MSI RTX 4090 Gaming Trio | VR: Pico 4


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Dat zou niet eens zo gek zijn, de 7950 XT naamgeving kan AMD achter de hand houden voor wanneer Nvidia een Ti-variant van de RTX 4090 introduceert.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:14
Bijna een verdubbeling van de "standaard" memory bandwidth en daar bovenop nog eens de cache. De theoretische bandwidth was al erg hoog (ruim 1.6 TBps?) voor de 6900 XT door de cache. Ik ben benieuwd waar het nieuwe topmodel op uit gaat komen.

[ Voor 4% gewijzigd door Paprika op 25-10-2022 11:04 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

edward2 schreef op maandag 24 oktober 2022 @ 23:13:
En net zoals altijd blijft het zelfs zo dicht op de realease nog totaal onduidelijk hoe het topmodel van Rdna 3 zich gaat verhouden tot zijn groene equivalent, met name de Raytrace perf. (Daar heeft Amd nog wat in te lopen).
Het is bijna alsof AMD het zo wil. ;)

@Ludewig Het punt is juist dat ze niet zozeer wafer beperkt zijn, maar de complexere packaging voor chiplets. Je hebt daarvoor een meer geavanceerde substraat nodig en die heb je niet zomaar. Packagingcapaciteit zijn ze nu al twee jaar aan het uitbreiden en daarnaast hebben ze nu N5 en N6/N7 wafercapaciteit beschikbaar. N33 zou dus helemaal geen probleem moeten zijn met een andere node dan Zen 4 en ook geen complexere substraat. N31/32 zouden dan profiteren van het feit dat ze relatief klein zouden zijn en je dus veel meer chips uit een wafer kan halen. Heb je ook nog het voordeel dat de consoles niet naar N5 gaan. Het is heel anders dan het met RDNA2 was. De grote vraag blijft dan ook packaging.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@DaniëlWW2

Een interessante optie zou dan kunnen zijn dat ze N33 heel vroeg introduceren en dan met name voor de laptops.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ludewig schreef op dinsdag 25 oktober 2022 @ 12:35:
@DaniëlWW2

Een interessante optie zou dan kunnen zijn dat ze N33 heel vroeg introduceren en dan met name voor de laptops.
Ik hoop in het algemeen dat N33 heel snel komt in enorme volumes. Natuurlijk gaat het constant over de snelste zijn in enthousiastelingen discussies op fora, maar dat is uiteindelijk het product dat ik de meeste mensen zie kopen. Want ondanks jaren van verkapte propaganda dat een beetje videokaart echt minstens $500 moet kosten, is realiteit heel anders. Een goede $300-$400 videokaart is al duur genoeg voor velen en als diel goed presteert, dan heb je ook niet meer nodig.

Maar ik ben bang dat die pas gaat verschijnen als de RDNA2 inventaris op is.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 23:42
DaniëlWW2 schreef op dinsdag 25 oktober 2022 @ 12:40:
[...]


Ik hoop in het algemeen dat N33 heel snel komt in enorme volumes. Natuurlijk gaat het constant over de snelste zijn in enthousiastelingen discussies op fora, maar dat is uiteindelijk het product dat ik de meeste mensen zie kopen. Want ondanks jaren van verkapte propaganda dat een beetje videokaart echt minstens $500 moet kosten, is realiteit heel anders. Een goede $300-$400 videokaart is al duur genoeg voor velen en als diel goed presteert, dan heb je ook niet meer nodig.

Maar ik ben bang dat die pas gaat verschijnen als de RDNA2 inventaris op is.
Dat zou mooi zijn, maar ik vraag me wel af of we wat hebben aan enorme volumes. Als ik kijk in mijn omgeving heeft iedereen de laatste tijd (Lees laatste 2 jaar) zo'n beetje geshopt, want corona, lockdowns, geld over, je kent het wel. En nu zit iedereen met de hand op de knip, want inflatie, energie crisis, stijgende prijzen en noem maar op.

Ik zie in mijn omgeving in ieder geval eigenlijk vrijwel niemand overwegen nu te gaan shoppen, met uitzondering van de uber enthousiasts die iedere generatie kopen. Verder wel volledig eens, Navi 33 en misschien 32 moeten de volume producten zijn, al blijft prijs natuurlijk een factor.

Wat dat betreft zie ik laptops ook zeker als primair verkoop punt voor N33, al moet ik ook daar zeggen dat ik zowel zakelijk als privé de vraag echt zie instorten momenteel .

Het zou mij weinig verbazen als AMD juist ook de volumes van deze producten al naar beneden bijschakelt, net zoals ze voor Zen 4 zouden doen volgens de geruchten. Ze zullen immers N21 performance ook niet te goedkoop moeten verkopen als ze dat kunnen voorkomen.

[ Voor 8% gewijzigd door Dennism op 25-10-2022 12:50 ]


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op dinsdag 25 oktober 2022 @ 12:40:
[...]Maar ik ben bang dat die pas gaat verschijnen als de RDNA2 inventaris op is.
Ja, maar ik vind het wel opvallend dat de verhalen steeds zijn dat Nvidia veel meer overtollige voorraad heeft dan AMD, terwijl AMD juist veel betere deals biedt. Dan heb ik het idee dat AMD die voorraad hard wegwerkt.

De vraag is ook of ze de 6600M uberhaupt kwijt kunnen aan AIBs. Uit landen als Brazilie hoor ik verhalen dat daar goedkope kaarten verkocht worden met 6600M chips. Als ze de 7600M gaan verkopen aan AIBs, maar nog niet de desktop 7600 uitbrengen, kunnen ze de Navi 33 chips alvast verkopen, maar ook nog de Navi 23 chips.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Dennism

Hoe meer productiecapaciteit beschikbaar komt, hoe aantrekkelijker het is om massaal lage marge producten te gaan wegzetten.

Uiteindelijk is de grens daaraan de productiekosten plus voldoende marge om de ontwikkelkosten terug te verdienen e.d.

Dit betekent overigens niet dat de top per se (veel) goedkoper moet worden, want ook tijdens een crisis zijn er een hoop mensen die zwemmen in het geld. Maar met name in de lagere segmenten moet de consument dan echt verleid worden met een goede deal.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@Dennism Je hebt alleen wel twee soorten beperking aan uitgaven. Helemaal niet en minder dan je misschien zou doen in betere tijden. Bij die tweede speelt N33 een rol. Zeker omdat de de afgelopen twee jaar ook niks kon kopen en je eigenlijk sinds 2016 al nauwelijks meer interessante midrange opties hebt gehad. De RX6600 doet het nu even net zoals een tijdje de RX5600XT, maar dat was het ook wel. Daarnaast is er nog de rest van de wereld waar weinig mensen een high end GPU kunnen betalen. Voor veel mensen is een $300 GPU al heel erg duur. Dat krijg je als je salaris fors lager is.

@Ludewig De 6600M is dan ook een N23 chip die AMD voor veel minder verkoopt dan de reguliere N23 chips. Het laat vooral zien dat ze nog lager kunnen gaan. Verder is de leveringsbeschikbaarheid van RDNA2 eigenlijk nog steeds niet goed. Je kan zeker niet alle modellen krijgen als je goed gaat krijgen. Hoeveel ze echt nog hebben weet niemand buiten AMD, maar ik vermoed dat het niet zoveel is als Nvidia.


En dan nog even Good News Everyone. :*)
[Twitter: https://twitter.com/KyleBennett/status/1584856217335517186]

[ Voor 9% gewijzigd door DaniëlWW2 op 25-10-2022 13:40 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 23:01

Format-C

Tracing Rays

edward2 schreef op maandag 24 oktober 2022 @ 23:13:
En net zoals altijd blijft het zelfs zo dicht op de realease nog totaal onduidelijk hoe het topmodel van Rdna 3 zich gaat verhouden tot zijn groene equivalent, met name de Raytrace perf. (Daar heeft Amd nog wat in te lopen).
Ben benieuwd.

Nog een week. Cant wait. 🎉⌛

(

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 23:42
Ludewig schreef op dinsdag 25 oktober 2022 @ 13:33:
@Dennism

Hoe meer productiecapaciteit beschikbaar komt, hoe aantrekkelijker het is om massaal lage marge producten te gaan wegzetten.

Uiteindelijk is de grens daaraan de productiekosten plus voldoende marge om de ontwikkelkosten terug te verdienen e.d.
Uiteraard, maar wat ik vooral hoorde was dat partijen als AMD en Nvidia juist bezig waren te proberen hun volume's bij TSMC te verlagen, iets wat voor AMD makkelijker zou moeten kunnen dan voor Nvidia, waar TSCM simpelweg nee gezegd lijkt te hebben.

Al was dat natuurlijk een paar weken geleden, dat kan nu weer veranderen door bijv. het China verhaal wat Nvidia en AMD veel omzet kan kosten, waardoor ze mogelijk nu zo lang het nog kan nog even gaan proberen zoveel mogelijk chips daar te slijten.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@DaniëlWW2

Uiteindelijk kan een GPU van 300 euro juist in crisistijd nog een redelijke uitgave zijn, als je dan minder gaat uitgeven aan uitjes e.d. en vooral achter de computer gaat zitten. Zeker met slim aankopen van wat oudere spellen in de uitverkoop heb je dan relatief goedkope entertainment.

En inderdaad hebben veel mensen hun aankopen uitgesteld, met name in de goedkopere segmenten, dus daar zie ik zeker kansen, maar alleen als prijs/prestaties weer eens een keertje echt stevig vooruit gaan. Dat lijkt AMD te kunnen doen.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

Ludewig schreef op dinsdag 25 oktober 2022 @ 14:12:
@DaniëlWW2

Uiteindelijk kan een GPU van 300 euro juist in crisistijd nog een redelijke uitgave zijn, als je dan minder gaat uitgeven aan uitjes e.d. en vooral achter de computer gaat zitten. Zeker met slim aankopen van wat oudere spellen in de uitverkoop heb je dan relatief goedkope entertainment.

En inderdaad hebben veel mensen hun aankopen uitgesteld, met name in de goedkopere segmenten, dus daar zie ik zeker kansen, maar alleen als prijs/prestaties weer eens een keertje echt stevig vooruit gaan. Dat lijkt AMD te kunnen doen.
Haha, 300 euro, dan moeten er wel redelijke kaarten zijn voor die prijs ;). Ik ben heel benieuwd naar wat AMD gaat doen. Als ze voor 1000 euro iets uitbrengen wat zich kan meten met een 4080 dan ben ik om in ieder geval.

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Thomas schreef op dinsdag 25 oktober 2022 @ 14:17:
[...]


Haha, 300 euro, dan moeten er wel redelijke kaarten zijn voor die prijs ;). Ik ben heel benieuwd naar wat AMD gaat doen. Als ze voor 1000 euro iets uitbrengen wat zich kan meten met een 4080 dan ben ik om in ieder geval.
En als AMD €1000 gaat vragen voor iets dat de RTX4080 matched, dan ga ik ze helemaal afbranden. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!

  • Thomas
  • Registratie: December 2009
  • Niet online

Thomas

☷☰

DaniëlWW2 schreef op dinsdag 25 oktober 2022 @ 14:24:
[...]


En als AMD €1000 gaat vragen voor iets dat de RTX4080 matched, dan ga ik ze helemaal afbranden. ;)
Ja, maar jouw prijswensen zijn wel een beetje een utopie.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Thomas schreef op dinsdag 25 oktober 2022 @ 14:17:
[...]
Haha, 300 euro, dan moeten er wel redelijke kaarten zijn voor die prijs ;). Ik ben heel benieuwd naar wat AMD gaat doen. Als ze voor 1000 euro iets uitbrengen wat zich kan meten met een 4080 dan ben ik om in ieder geval.
De 6650 heb je nu voor 360 en Navi 33 is een kleinere chip. Als het dan een beetje meezit met de transport- en grondstoffenkosten, die in een crisis zouden moeten dalen, lijkt me dat 300 euro realistisch kan zijn.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 00:13
DaniëlWW2 schreef op dinsdag 25 oktober 2022 @ 13:38:
@Dennism Je hebt alleen wel twee soorten beperking aan uitgaven. Helemaal niet en minder dan je misschien zou doen in betere tijden. Bij die tweede speelt N33 een rol. Zeker omdat de de afgelopen twee jaar ook niks kon kopen en je eigenlijk sinds 2016 al nauwelijks meer interessante midrange opties hebt gehad. De RX6600 doet het nu even net zoals een tijdje de RX5600XT, maar dat was het ook wel. Daarnaast is er nog de rest van de wereld waar weinig mensen een high end GPU kunnen betalen. Voor veel mensen is een $300 GPU al heel erg duur. Dat krijg je als je salaris fors lager is.

@Ludewig De 6600M is dan ook een N23 chip die AMD voor veel minder verkoopt dan de reguliere N23 chips. Het laat vooral zien dat ze nog lager kunnen gaan. Verder is de leveringsbeschikbaarheid van RDNA2 eigenlijk nog steeds niet goed. Je kan zeker niet alle modellen krijgen als je goed gaat krijgen. Hoeveel ze echt nog hebben weet niemand buiten AMD, maar ik vermoed dat het niet zoveel is als Nvidia.


En dan nog even Good News Everyone. :*)
[Twitter]
Afbeeldingslocatie: https://tweakers.net/i/yi0l1CMCjjXFeo3bW4AC4uxGfJk=/full-fit-in/4000x4000/filters:no_upscale():fill(white):gifsicle():strip_exif()/f/image/RHi2dmBJnJz0NKEhXaXoRJMJ.gif?f=user_large

Hij is "toevallig" nog groen ook ;)
Fijn dat Nvidia het eerste was met deze stekker, dan kan AMD het beter (niet) doen.

[ Voor 3% gewijzigd door HugoBoss1985 op 25-10-2022 15:04 ]


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
XWB schreef op dinsdag 25 oktober 2022 @ 10:54:
Dat zou niet eens zo gek zijn, de 7950 XT naamgeving kan AMD achter de hand houden voor wanneer Nvidia een Ti-variant van de RTX 4090 introduceert.
Andersom juist ;)

XTX > XT > XL > XLE > XE

We hebben veel van die suffixes al lang niet meer op kaarten gezien, maar de chips volgen die naamgeving wel nog steeds; en ze gebruiken nu ook K als extra prefix voor "performance" versies. Van Navi 21 hebben we XL (6800), XT (6800 XT), XTX (6900 XT) en KXTX (6950 XT). 6650 en 6750 zijn beide KXT varianten. Vanaf de 5600 hebben we XE, XLE, XL, XT en XTX allemaal.

Ze zijn niet geheel consistent in de manier waarop ze ze toepassen (XTX en KXT(X) kunnen beide voor betere bins gebruikt worden, zonder extra ALU's ofzo), maar de pikorde tussen alle lettertjes is wel nog steeds hetzelfde als altijd. Ze hebben wel "PRO" laten vallen als suffix (dat is nu XL), maar voor de rest kun je helemaal terug naar R600 waar de chips al op deze manier benoemd werden :p

Voor de kaarten zelf betwijfel ik of ze dat andersom zouden doen; XTX zal ook dan sneller dan XT zijn (zoals de X19x0 XTX ;)).

Acties:
  • +6 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Confirmed. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • rapture
  • Registratie: Februari 2004
  • Laatst online: 00:38

rapture

Zelfs daar netwerken?

Thomas schreef op dinsdag 25 oktober 2022 @ 14:50:
[...]
Ja, maar jouw prijswensen zijn wel een beetje een utopie.
Niet als je op de beurs aan het traden bent en weet hoe de echte prijsonderhandelingen werken. Onderschat de kracht van het sentiment niet.

De containervaart en vrachttarieven zakken nu al hard. In de VS spreken ze over de weggevallen vraag nationwide en de winkelvoorraden zijn stampvol. Er wordt nu in tegenstelling tot de andere jaren bijna niks voor de feestdagen verscheept.

Als de mensen geen geld meer hebben voor Thanksgiving, Black Friday, Sinterklaas, Kerstmis,... dit jaar dan zal er in de eerst helft volgend jaar helemaal geen geld meer zijn.

Als ik puts op de PC-hardware kan kopen, dan kies ik voor June 2023 expiration. Puts op NVDA kan nog altijd en ik ga ze in november kopen.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Ik denk wel dat AMD met hun brakke marketing en hun daadwerkelijke achterstand het moeilijk gaan krijgen om daadwerkelijk als beter te worden gezien, los van de prijs, zelfs als ze beter rasterizen met Navi 31.

DLSS 2 blijft vooralsnog beter dan FSR 2. DLSS 3 is geen optie bij AMD. AMD lijkt achter te blijven lopen bij RT, waar dit bij Nvidia nu in elk geval voor een deel van de spellen de beste keuze lijkt. AMD mist CUDA.

En dan noem ik nog niet een aantal zaken waar AMD zou kunnen aanhaken, maar het redelijk waarschijnlijk is dat ze toch nog wat achter blijven lopen, zoals encoders en drivers.

Dus ik voorzie dat ze moeten gaan prijsvechten, al denk ik dat ze zoals gewoonlijk zichzelf overschatten (zie ook Ryzen 7000 prijzen). Dus ik verwacht dat de prijzen initieel (mij) tegen zullen vallen, maar ze dan wanneer de verkopen flink inzakken, de prijzen stevig moeten laten zakken.

Maar ja, ik dacht ook dat we nu flink wat miner kaarten zouden zien, dus mijn dikke duim is niet altijd betrouwbaar (maar erop zuigen voelt zo lekker).

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Snowdog
  • Registratie: Maart 2001
  • Laatst online: 00:02
Ludewig schreef op dinsdag 25 oktober 2022 @ 18:34:

DLSS 2 blijft vooralsnog slechter dan FSR 2.
Andersom toch? Maar goed, verder wel eens dat AMD zal moeten prijsvechten, als ze close bij NVidia-prijzen gaan zitten, dan zullen ze weinig verkopen en al helemaal niet gaan inlopen. Toch denk ik dat ze dit wellicht wel zullen doen.

Zal ook een beetje aan de productiecapaciteit liggen denk ik. Weet niet precies hoe het daarmee zit? Maar als ze het gros kunnen verkopen, dan kan dat wel een optie zijn. Anders wellicht een mooi moment om eindelijk eens wat marktaandeel in te lopen.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Oops. Gefixed.
Zal ook een beetje aan de productiecapaciteit liggen denk ik. Weet niet precies hoe het daarmee zit? Maar als ze het gros kunnen verkopen, dan kan dat wel een optie zijn. Anders wellicht een mooi moment om eindelijk eens wat marktaandeel in te lopen.
Daar zit ook voor mij veel onduidelijkheid. We weten dat AMD in eerdere financiële calls zei dat ze meer vraag hebben dan dat ze voor een redelijke prijs aan capaciteit konden inkopen, vooral ook op de zakelijke markt.

Als de vraag inzakt naar electronica, zullen ze aan de ene kant minder vraag hebben en aan de andere kant ook meer productiecapaciteit kunnen inkopen voor een goede prijs. En sowieso is de chipindustrie nog aan het opschalen, dus de capaciteit neemt toch al toe.

Hoe verder dit gaat, hoe logischer het wordt om meer te produceren voor lagere marges.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Werelds schreef op dinsdag 25 oktober 2022 @ 15:18:
[...]

Andersom juist ;)

XTX > XT > XL > XLE > XE

We hebben veel van die suffixes al lang niet meer op kaarten gezien, maar de chips volgen die naamgeving wel nog steeds; en ze gebruiken nu ook K als extra prefix voor "performance" versies. Van Navi 21 hebben we XL (6800), XT (6800 XT), XTX (6900 XT) en KXTX (6950 XT). 6650 en 6750 zijn beide KXT varianten. Vanaf de 5600 hebben we XE, XLE, XL, XT en XTX allemaal.

Ze zijn niet geheel consistent in de manier waarop ze ze toepassen (XTX en KXT(X) kunnen beide voor betere bins gebruikt worden, zonder extra ALU's ofzo), maar de pikorde tussen alle lettertjes is wel nog steeds hetzelfde als altijd. Ze hebben wel "PRO" laten vallen als suffix (dat is nu XL), maar voor de rest kun je helemaal terug naar R600 waar de chips al op deze manier benoemd werden :p

Voor de kaarten zelf betwijfel ik of ze dat andersom zouden doen; XTX zal ook dan sneller dan XT zijn (zoals de X19x0 XTX ;)).
Angstronomics zegt 48WGP en 42WGP . Er wordt geroepen 20GB, maar dat kan niet met 42WGP (5 shader engines is maximaal 40WGP). Vergeet de 2 varianten infinity cache niet.

Navi 31 launch November voorspelling:
KXTX - 7950 XT later in 2023 met meer Infinity Cache (net als Zen4), 48 WGP met 192MB (1-hi) Infinity Cache en 24GB
XTX - 7900 XTX , 48 WGP met (0-hi) Infinity Cache 96MB en 24GB ~$1199-1249
XT - 7900 XT , 42 WGP met (0-hi) Infinity Cache 96MB en 24GB ~$1099
XL - 7900 , 35 WGP met (0-hi) Infinity Cache 96MB en 20GB ~$999

Waarom 35 WGP? Nou hoe wil je anders een Shader Engine uitschakelen?
48 = 6*8WGP
42 = 6*7WGP
35 = 5*7WGP

5*8WGP zou kunnen, maar dan zit de performance (en prijs) te dicht bij de 42 WGP SKU.
Al deze kaarten zullen de RTX4080 vermorzelen. Gevecht met RTX4090 zal interessant worden, sommige winnen, andere verliezen.

Het veel belangrijkere gevecht zal zijn tussen de 7700XT (Navi33) en de RTX4070 (AD104). Nvidia kan qua productiekosten niet concurreren op $499 of zelfs $399, maar AMD wel. Allebei met 6900XT/3080Ti level performance! $/€ 500 is niet alleen een psychologisch prijspunt, de meeste videokaarten worden de laatste jaren verkocht voor rond de $/€ 400!

Het laagste wat Nvidia kan is $699, en anders gaan ze straf krijgen van de aandeelhouders. De RTX4060 (AD106) is niet snel genoeg. Dit zou best wel eens het "Maxwell" (GTX 900 series) moment van AMD kunnen worden, volgend jaar Q1 2023:

Afbeeldingslocatie: https://cdn.wccftech.com/wp-content/uploads/2017/12/Q3-2017-Discrete-GPU-Market-Share-NVIDIA-AMD_1.png

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
sunsmountain schreef op woensdag 26 oktober 2022 @ 13:25:
Angstronomics zegt 48WGP en 42WGP . Er wordt geroepen 20GB, maar dat kan niet met 42WGP (5 shader engines is maximaal 40WGP). Vergeet de 2 varianten infinity cache niet.
Waarom zou 20/24 GB gebonden zijn aan het aantal shader engines? :)

Die 42-WGP variant waar hij het over heeft is gewoon 1 WGP per SE uitgeschakeld (of misschien 2 in 3 SE's; 1 per SA binnen die SE's om ze zo in balans te houden). Het geheugen staat daar verder los van, want dat hangt af van het aantal PHY dat beschikbaar is; of in dit geval, het aantal MCD's omdat de PHY daar in komen te zitten.

Zie bijvoorbeeld Navi 22 XL (6700); 2 WGP's (1 per SE) en een PHY uitgeschakeld, maar wel volle L2 en IC.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Werelds schreef op woensdag 26 oktober 2022 @ 13:40:
[...]

Waarom zou 20/24 GB gebonden zijn aan het aantal shader engines? :)

Die 42-WGP variant waar hij het over heeft is gewoon 1 WGP per SE uitgeschakeld (of misschien 2 in 3 SE's; 1 per SA binnen die SE's om ze zo in balans te houden). Het geheugen staat daar verder los van, want dat hangt af van het aantal PHY dat beschikbaar is; of in dit geval, het aantal MCD's omdat de PHY daar in komen te zitten.

Zie bijvoorbeeld Navi 22 XL (6700); 2 WGP's (1 per SE) en een PHY uitgeschakeld, maar wel volle L2 en IC.
Ah, ik dacht 1 Shader Engine, 1 MCD. Maar Navi32 zou dan 3 MCD's moeten hebben, en dat klopt niet met de 4 MCD's uit de geruchten. En inderdaad de zeldzame maar aanwezige RX6700.

TSMC yields zijn zodanig dat het dan zoiets kan worden:

KXTX - 7950 XT later in 2023 met meer Infinity Cache (net als Zen4), 48 WGP met 192MB (1-hi) Infinity Cache en 24GB, zit misschien al in de aankondiging van RDNA3 3 November
XTX - 7900 XTX , 48 WGP met (0-hi) Infinity Cache 96MB en 24GB ~$1199-1249 (6MCD)
XT - 7900 XT , 42 WGP met (0-hi) Infinity Cache 80MB en 20GB ~$999 (5MCD)

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
sunsmountain schreef op woensdag 26 oktober 2022 @ 14:18:
[...]
KXTX - 7950 XT later in 2023 met meer Infinity Cache (net als Zen4), 48 WGP met 192MB (1-hi) Infinity Cache en 24GB, zit misschien al in de aankondiging van RDNA3 3 November
Dat nu al aankondigen zou wel dom zijn, want dan gaan mensen wachten op de snellere versie. Nvidia doet dat ook niet, ook al kun je al uittekenen dat we een 4090 Ti gaan krijgen met ~12% meer transistors (op de 4090 zijn evenveel transistors uitgeschakeld als er op een hele GTX 980 zitten).

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
sunsmountain schreef op woensdag 26 oktober 2022 @ 14:18:
[...]

Ah, ik dacht 1 Shader Engine, 1 MCD. Maar Navi32 zou dan 3 MCD's moeten hebben, en dat klopt niet met de 4 MCD's uit de geruchten. En inderdaad de zeldzame maar aanwezige RX6700.
Dat staat inderdaad min of meer geheel los van elkaar.

Schematisch is het zoiets ongeveer:

Afbeeldingslocatie: https://p198.p4.n0.cdn.getcloudapp.com/items/OAuj17LJ/20a881c3-526d-4072-bbb2-7b15029cea60.png?source=viewer&v=1a85995e57facca65ce9a1c2d20fae2b

Hierbij neem ik even aan dat het klopt dat ze naar 256 KB L1$ per WGP gaan en bij 4 MB L2$ blijven. De precieze verdeling (hoe groot elk slice is) van IC weet ik niet meer :p

De WGP's hangen aan de L1$ en de rest zal ze worst wezen. Die L1$ hangt aan de L2$; ik geef hier x4 aan omdat ze fysiek wat verspreid zitten, maar vanuit de L1$ gezien is het gewoon een groot blok van 16x256 KB. En dat hangt dan weer aan de IC, wat op zijn beurt aan een PHY hangt.

Al die aantallen kunnen ze relatief los van elkaar wijzigen; Navi 23 en 24 hebben slechts de helft aan IC per geheugen interface vergeleken met 21 en 22 (16 in plaats van 32 MB). N22 XL heeft ook gewoon 3 MB L2$, ook al mist er een blok IC.

Het zijn eigenlijk vooral IC en geheugen die een vaste verdeling hebben, in de zin dat ze geen blok IC uit schakelen zonder ook een PHY uit te schakelen, of andersom. Ik vermoed dat dat met de addressering te maken heeft, aangezien het allemaal set-associative is (om diezelfde reden zou ik er niet van op kijken als het 6 MB L2$ wordt; 24x256, dan blijft het 4x256 per blok IC op volle kracht). En dat is nu met RDNA3 helemaal makkelijk, want dan besparen ze gewoon een hele die in het package.

Acties:
  • 0 Henk 'm!

  • Format-C
  • Registratie: Maart 2005
  • Laatst online: 23:01

Format-C

Tracing Rays

Is het zo dat deze serie eerst alleen weer bij AMD zelf te koop is? De reference? (En komen de custom kaarten later?) Anders moet ik nog ff een creditcard regelen voor a.s. woensdag. (?).
XTX - 7900 XTX , 48 WGP met (0-hi) Infinity Cache 96MB en 24GB ~$1199-1249

XT - 7900 XT , 42 WGP met (0-hi) Infinity Cache 96MB en 24GB ~$1099

XL - 7900 , 35 WGP met (0-hi) Infinity Cache 96MB en 20GB ~$999
Dus 1500 euro voor de 7900XT en 1300 voor de 7800XT? ($ x 1.21=€)

Das best pittig. (maar niet onoverkomelijk als hij performed. Hopelijk hebben ze bergen kaarten klaarliggen!!)

[ Voor 62% gewijzigd door Format-C op 26-10-2022 15:27 ]

Ducati 899 Panigale / CM MB511 RGB/ 7800X3D @ ML360R RGB/ RTX4090 FE/ Gigabyte B650 GAMING PLUS/ G.Skill Trident Z5 DDR5 6000 CL30 A-Die / Team MP34 M2 PCIe 1TB SSD/ Crucial MX500 2,5" 1TB/ 5TB SATA / Gbyte WBAX200/ CM V850/ Scarlett Solo / AOC AG493UCX


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Die cijfers vind ik maar raar, 96MB infinity cache voor een 7900 XTX? Dat is minder dan de 6900 XT; dat zullen ze moeten compenseren met een boel meer bandbreedte anders zal die kaart niet mee kunnen komen op 4k.

Acties:
  • +3 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Sp3ci3s8472 schreef op woensdag 26 oktober 2022 @ 15:34:
Die cijfers vind ik maar raar, 96MB infinity cache voor een 7900 XTX? Dat is minder dan de 6900 XT; dat zullen ze moeten compenseren met een boel meer bandbreedte anders zal die kaart niet mee kunnen komen op 4k.
Vond ik ook, totdat je de grafiek ziet van het effect van infinity cache in de 6900XT (zware diminishing returns boven de 96MB), en als je beseft dat kleinere (L3) caches sneller kunnen zijn qua latency. En absoluut minder ruimte innemen (relatief nemen ze meer ruimte in).

Afbeeldingslocatie: https://pbs.twimg.com/media/E2rDmb1WEAE7GGf?format=jpg&name=large

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Ludewig schreef op woensdag 26 oktober 2022 @ 14:39:
[...]


Dat nu al aankondigen zou wel dom zijn, want dan gaan mensen wachten op de snellere versie. Nvidia doet dat ook niet, ook al kun je al uittekenen dat we een 4090 Ti gaan krijgen met ~12% meer transistors (op de 4090 zijn evenveel transistors uitgeschakeld als er op een hele GTX 980 zitten).
Eens, daarom zei ik misschien.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Format-C schreef op woensdag 26 oktober 2022 @ 15:21:
Is het zo dat deze serie eerst alleen weer bij AMD zelf te koop is? De reference? (En komen de custom kaarten later?) Anders moet ik nog ff een creditcard regelen voor a.s. woensdag. (?).


[...]


Dus 1500 euro voor de 7900XT en 1300 voor de 7800XT? ($ x 1.21=€)

Das best pittig. (maar niet onoverkomelijk als hij performed. Hopelijk hebben ze bergen kaarten klaarliggen!!)
Board partners hebben bij AMD geen achterstand zoals bij Nvidia, en zonder de miners zal er minder scalping zijn. Maar ik denk dat je pas in Januari een kaart voor die lancering prijs zal kunnen krijgen, als de performance voorspelling klopt.

Zen4 verkoopt minder goed, dus hopelijk schakelen ze wat N5 capaciteit naar meer RDNA3! :Y) :9

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het is sowieso echt hommeles in de pc markt:

SK Hynix Slashes CapEX After "Unprecedented" Plunge In Chip Demand

Hopelijk kunnen de consumenten daar wat van profiteren.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
sunsmountain schreef op woensdag 26 oktober 2022 @ 19:07:
[...]


Vond ik ook, totdat je de grafiek ziet van het effect van infinity cache in de 6900XT (zware diminishing returns boven de 96MB), en als je beseft dat kleinere (L3) caches sneller kunnen zijn qua latency. En absoluut minder ruimte innemen (relatief nemen ze meer ruimte in).

[Afbeelding]
Niet als je naar de 4k kijkt, daar schaalt het nog door. Daarnaast lijkt het mij dat die 7900 XT een heel stuk sneller is en dus daarom ook een grotere cache nodig heeft.
Ik zou een 7900 XT dus niet voor 1080p of 1440p aanschaffen maar voor 1440 UW of 4k.

Ben benieuwd wat het uiteindelijk wordt.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:14
Sp3ci3s8472 schreef op woensdag 26 oktober 2022 @ 15:34:
Die cijfers vind ik maar raar, 96MB infinity cache voor een 7900 XTX? Dat is minder dan de 6900 XT; dat zullen ze moeten compenseren met een boel meer bandbreedte anders zal die kaart niet mee kunnen komen op 4k.
256-bit vs 384-bit zorgt ook voor best wel wat meer, toch?

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Paprika schreef op woensdag 26 oktober 2022 @ 19:58:
[...]

256-bit vs 384-bit zorgt ook voor best wel wat meer, toch?
Dat is in een eerdere post geplaatst? Als dat zo is dan heb je gelijk dat dat behoorlijk wat uit maakt!

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 00:14
Volgens mij is dat 1 van de dingen die consistent is gebleven in alle recente leaks en geruchten. Zonder de cache (dus puur bandwidth) ga je dan van 512GBps naar 960GBps.

Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
Sp3ci3s8472 schreef op woensdag 26 oktober 2022 @ 20:01:
[...]


Dat is in een eerdere post geplaatst? Als dat zo is dan heb je gelijk dat dat behoorlijk wat uit maakt!
Komt allemaal hier uit: https://www.angstronomics.com/p/amds-rdna-3-graphics

En zoals @Paprika aan geeft heb je dan sowieso al meer bandbreedte. Als ze dan ook nog eens 20 gebruiken in plaats van 16/18 zoals nu, kom je inderdaad op 960 uit. Maar zelfs met 16 heb je het al over 768 GB/s.

Aangezien IC afhankelijk is van de geheugen bus, zal die bandbreedte dus ook omhoog gaan; als de IF clock dan ook nog omhoog kan, komt daar nog meer uit.

Acties:
  • 0 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
Sp3ci3s8472 schreef op woensdag 26 oktober 2022 @ 19:42:
[...]


Niet als je naar de 4k kijkt, daar schaalt het nog door. Daarnaast lijkt het mij dat die 7900 XT een heel stuk sneller is en dus daarom ook een grotere cache nodig heeft.
Ik zou een 7900 XT dus niet voor 1080p of 1440p aanschaffen maar voor 1440 UW of 4k.

Ben benieuwd wat het uiteindelijk wordt.
Vergeet niet dat Navi31 naar 384-bit bus gaat, wat de lagere GDDR6 snelheid kan compenseren voor lange 4k data transfers.

Nvidia heeft nu ook veel L2 cache, maar dezelfde 384-bit bus en het is voor Ampere lastiger data op de juiste plek te krijgen en houden, gezien het memory system en het minder delen van data tussen shaders/texture units.

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Sp3ci3s8472 schreef op woensdag 26 oktober 2022 @ 15:34:
Die cijfers vind ik maar raar, 96MB infinity cache voor een 7900 XTX? Dat is minder dan de 6900 XT; dat zullen ze moeten compenseren met een boel meer bandbreedte anders zal die kaart niet mee kunnen komen op 4k.
Het komt uit Angstronomics.
Maar er spelen hierbij drie dingen.
1) N31 gaat zeer waarschijnlijk naar 384bit + sneller GDDR6.
2) We hebben maar een marketing slide van AMD die aangeeft wat cache hit percentages zijn. We weten niet hoe dit veranderd is en in hoeverre cache hits afhankelijk zijn van capaciteit. Ze kunnen ook hun caches hebben geoptimaliseerd om hogere hit rates te halen met minder cache. Dat zou ook het idee zijn.
3) Het is nog steeds onduidelijk of er 3D stacked cache is. Dat is vooralsnog een misschien.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Format-C schreef op woensdag 26 oktober 2022 @ 15:21:
Is het zo dat deze serie eerst alleen weer bij AMD zelf te koop is? De reference? (En komen de custom kaarten later?) Anders moet ik nog ff een creditcard regelen voor a.s. woensdag. (?).


[...]


Dus 1500 euro voor de 7900XT en 1300 voor de 7800XT? ($ x 1.21=€)

Das best pittig. (maar niet onoverkomelijk als hij performed. Hopelijk hebben ze bergen kaarten klaarliggen!!)
Volgende week is alleen de onthulling, de verkoop zou pas in december beginnen.

March of the Eagles


Acties:
  • +1 Henk 'm!

  • sunsmountain
  • Registratie: Mei 2007
  • Laatst online: 17-09 00:55
XWB schreef op donderdag 27 oktober 2022 @ 15:24:
[...]


Volgende week is alleen de onthulling, de verkoop zou pas in december beginnen.
[Twitter: https://twitter.com/greymon55/status/1580411605325869056]

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Dus dan ook weer nog geen reviews? Vermoeiend spelletje dit. :N

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Format-C schreef op woensdag 26 oktober 2022 @ 15:21:
Is het zo dat deze serie eerst alleen weer bij AMD zelf te koop is? De reference? (En komen de custom kaarten later?) Anders moet ik nog ff een creditcard regelen voor a.s. woensdag. (?).


[...]


Dus 1500 euro voor de 7900XT en 1300 voor de 7800XT? ($ x 1.21=€)

Das best pittig. (maar niet onoverkomelijk als hij performed. Hopelijk hebben ze bergen kaarten klaarliggen!!)
Momenteel is het echt bagger om in de EU nieuwe hardware te kopen prijzen vallen compleet verkeerd voor ons.
Maar TBH alleen als de 7900XT de 4090 aan kan is die prijs van AMD goed. Qua RT gaan ze het denk ik niet redden zo wel dan is het zeker wel een goede deal maar ga er een beetje van uit dat ze Raster nipt winnen maar RT verliezen en dan heeft nVidia DLSS 2.4 als voordeel want dat werkt toch het mooiste. FSR2.1 kan quality wise nog niet tippen aan DLS 2.4 en die zaken worden wel belangrijker voor 4K120 met RT aan. Want dat is waar deze kaarten voor bedoeld zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Seth_Chaos
  • Registratie: Oktober 2003
  • Niet online
Astennu schreef op donderdag 27 oktober 2022 @ 18:28:
[...]


Momenteel is het echt bagger om in de EU nieuwe hardware te kopen prijzen vallen compleet verkeerd voor ons.
Maar TBH alleen als de 7900XT de 4090 aan kan is die prijs van AMD goed. Qua RT gaan ze het denk ik niet redden zo wel dan is het zeker wel een goede deal maar ga er een beetje van uit dat ze Raster nipt winnen maar RT verliezen en dan heeft nVidia DLSS 2.4 als voordeel want dat werkt toch het mooiste. FSR2.1 kan quality wise nog niet tippen aan DLS 2.4 en die zaken worden wel belangrijker voor 4K120 met RT aan. Want dat is waar deze kaarten voor bedoeld zijn.
Hoe kom je erbij dat FSR2.1 onder doet voor DLSS 2.4? In tegendeel het is me nog niet gelukt om artifacts bij AMD te zien in bijvoorbeeld Cyberpunk. Maar wel bij Nvidia. Waar de overgang van een auto frame op een raam compleet vernagelt wordt door Nvidia.

Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Seth_Chaos schreef op zaterdag 29 oktober 2022 @ 09:50:
[...]


Hoe kom je erbij dat FSR2.1 onder doet voor DLSS 2.4? In tegendeel het is me nog niet gelukt om artifacts bij AMD te zien in bijvoorbeeld Cyberpunk. Maar wel bij Nvidia. Waar de overgang van een auto frame op een raam compleet vernagelt wordt door Nvidia.
Ze verschillen in hun sterkten en zwakheden. ;)
DLSS2 heeft altijd moeite gehad met scherpe overgangen en lijnen. Dat deed FSR2 meteen vrij aardig. Maar FSR2 heeft het wel wat lastiger met lage resolutie objecten op afstand. Die willen nog wel eens gaan flikkeren.

Onder de streep zijn beide upscalers inmiddels behoorlijk goed, minder goed dan native en perfect bruikbaar indien nodig. Er zijn eindeloze discussies gevoerd welke beter is, maar ik zie vrijwel niemand de vraag stellen waarom je dit gebruikt. Dat is veel belangrijker. Uiteindelijk zijn DLSS2 en FSR2 technieken die je voor minimaal verlies in grafische kwaliteit, beduidend meer frames geven. Je gebruikt dit in principe dan ook als je meer frames per seconde wenst te behalen. Daarvoor zijn uiteindelijk ook twee scenario's namelijk je GPU is niet snel genoeg of je hebt RT aan. Voor beide gevallen moet je een compromis accepteren.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 20:08

Damic

Tijd voor Jasmijn thee

Zolang wachten nog, sebiet heeft SpaceX hun Booster 7 en Ship 24 gelanceerd

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • +3 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

En weer iemand die suggereert dat het RX7900XT en RX7900XTX gaat worden.
Deze lekt veel van MSI wat goed kan aangezien MSI meestal echt zo lek als een mandje is. :P

In ieder geval weer die 320bit/20GB en 384bit/24GB. Dat is ook al de zoveelste keer.

https://videocardz.com/ne...900xt-confirmed-by-leaker

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • M-spec
  • Registratie: September 2004
  • Niet online
DaniëlWW2 schreef op zaterdag 29 oktober 2022 @ 10:40:
[...]


Ze verschillen in hun sterkten en zwakheden. ;)
DLSS2 heeft altijd moeite gehad met scherpe overgangen en lijnen. Dat deed FSR2 meteen vrij aardig. Maar FSR2 heeft het wel wat lastiger met lage resolutie objecten op afstand. Die willen nog wel eens gaan flikkeren.

Onder de streep zijn beide upscalers inmiddels behoorlijk goed, minder goed dan native en perfect bruikbaar indien nodig. Er zijn eindeloze discussies gevoerd welke beter is, maar ik zie vrijwel niemand de vraag stellen waarom je dit gebruikt. Dat is veel belangrijker. Uiteindelijk zijn DLSS2 en FSR2 technieken die je voor minimaal verlies in grafische kwaliteit, beduidend meer frames geven. Je gebruikt dit in principe dan ook als je meer frames per seconde wenst te behalen. Daarvoor zijn uiteindelijk ook twee scenario's namelijk je GPU is niet snel genoeg of je hebt RT aan. Voor beide gevallen moet je een compromis accepteren.
Ik vroeg mij voor de release van de Nvidia 3000 en AMD 6000 serie videokaarten als eens af waar een onderling vergelijk van videokaarten naar toe gaat.

Nu zijn DLSS en FSR nog opties die men zelf kan inschakelen. Een 1 op 1 vergelijk doet/deed men eigenlijk altijd op native resoluties, want zoals je aangeeft zijn die prestatieverbeterende opties inderdaad een compromis. Of dat voor iedereen even goed zichtbaar is, dat is vers twee maar die neem je inderdaad voor lief. Er komt natuurlijk een punt dat 'AI'/slimme beeldbewerking (met onze ogen) niet meer te onderscheiden is. Naast videokaarten hebben de huidige monitoren en helemaal tv toestellen al een eigen techniek van beeldverwerking.

Wanneer al die verschillende technieken gemeengoed zijn wordt beeldkwaliteit vergelijken steeds belangrijker en dat is een stuk lastiger te beoordelen is dan een getal in FPS. Het is nog maar de vraag of die FPS counter op een native resolutie en default instellingen nog wel het echte beeld is dat een game-engine wil laten zien. ;)

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


Acties:
  • +1 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Laatst online: 23:57
DaniëlWW2 schreef op zaterdag 29 oktober 2022 @ 10:40:
[...]


Ze verschillen in hun sterkten en zwakheden. ;)
DLSS2 heeft altijd moeite gehad met scherpe overgangen en lijnen. Dat deed FSR2 meteen vrij aardig. Maar FSR2 heeft het wel wat lastiger met lage resolutie objecten op afstand. Die willen nog wel eens gaan flikkeren.

Onder de streep zijn beide upscalers inmiddels behoorlijk goed, minder goed dan native en perfect bruikbaar indien nodig. Er zijn eindeloze discussies gevoerd welke beter is, maar ik zie vrijwel niemand de vraag stellen waarom je dit gebruikt. Dat is veel belangrijker. Uiteindelijk zijn DLSS2 en FSR2 technieken die je voor minimaal verlies in grafische kwaliteit, beduidend meer frames geven. Je gebruikt dit in principe dan ook als je meer frames per seconde wenst te behalen. Daarvoor zijn uiteindelijk ook twee scenario's namelijk je GPU is niet snel genoeg of je hebt RT aan. Voor beide gevallen moet je een compromis accepteren.
Als nu eens het AA onderdeel daarvan op native resolutie zou kunnen worden ingezet zonder verdere upscaling dan zou ik het toejuichen. DLSS2 is bijzonder fraai voor zeer fijne lijnen zoals het haar.
Helaas er is zoveel focus op meer FPS i.p.v. de extra hardware voor meer kwaliteit in te zetten.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

M-spec schreef op zaterdag 29 oktober 2022 @ 12:09:
[...]


Ik vroeg mij voor de release van de Nvidia 3000 en AMD 6000 serie videokaarten als eens af waar een onderling vergelijk van videokaarten naar toe gaat.

Nu zijn DLSS en FSR nog opties die men zelf kan inschakelen. Een 1 op 1 vergelijk doet/deed men eigenlijk altijd op native resoluties, want zoals je aangeeft zijn die prestatieverbeterende opties inderdaad een compromis. Of dat voor iedereen even goed zichtbaar is, dat is vers twee maar die neem je inderdaad voor lief. Er komt natuurlijk een punt dat 'AI'/slimme beeldbewerking (met onze ogen) niet meer te onderscheiden is. Naast videokaarten hebben de huidige monitoren en helemaal tv toestellen al een eigen techniek van beeldverwerking.

Wanneer al die verschillende technieken gemeengoed zijn wordt beeldkwaliteit vergelijken steeds belangrijker en dat is een stuk lastiger te beoordelen is dan een getal in FPS. Het is nog maar de vraag of die FPS counter op een native resolutie en default instellingen nog wel het echte beeld is dat een game-engine wil laten zien. ;)
Ik beschouw DLSS en FSR eigenlijk als iets tijdelijks.
De oorsprong hiervan vanuit Nvidia was om een probleem op te lossen dat ze zelf hebben gecreëerd. Immers heeft Nvidia besloten om hun gaming GPU's te voorzien van volstrekt inadequate RT hardware en heel veel dedicated matrix hardware. Dit ging ten koste van grotere stappen in rasterisation. Het antwoord was DLSS1 wat een complete mislukking bleek te zijn. Bijna twee jaar later kreeg je pas DLSS2.0 dat wel bruikbaar was. Toen moest AMD ook wel omdat Nvidia een bijna gratis 20-30% extra FPS knop had. Met RT is het eerder richting 100% waardoor dit ook eindelijk een beetje bruikbaar werd in bepaalde scenario's en met bepaalde hardware.

Maar we zijn inmiddels weer twee jaar verder en er is op zijn zachts gezegd wat aan de hand in gaming graphics. We hadden al een aantal jaar photogrammetry in games, maar opeens gaat het heel hard. Je kan inmiddels spreekwoordelijk echt naar een brug gaan, die uitgebreid fotograferen en er een 3D model van maken voor in je game. En je kan die modellen nu ook daadwerkelijk in real time renderen. We zien het nu ook gebeuren met nieuwe games die dit soort technieken beginnen te gebruiken.

Favoriete voorbeeld dan weer. Dit is met "maar" een RTX2080 en op 7fps.

Textures komen hier vandaan:
https://quixel.com/megascans

Dit niveau halen we nog niet, maar we beginnen dit wel te benaderen. Haal je dit niveau aan grafische kwaliteit met rasterisation dan is het de vraag waarom je nog precies upscaling nodig hebt? Het is voornamelijk zinvol om dit een paar jaar sneller te bereiken met minimaal verlies in grafische kwaliteit.

Dat is nu ook het fundamentele verschil tussen AMD en Nvidia. Nvidia kiest wederom voor een techniek om hun nog grotere investering in matrix hardware te kunnen gebruiken voor gaming. AMD lijkt hun rasterisation wederom fors te verbeteren om het direct te renderen. Het moge duidelijk zijn welke van de twee aanpakken mij meer aanspreekt. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Seth_Chaos schreef op zaterdag 29 oktober 2022 @ 09:50:
[...]


Hoe kom je erbij dat FSR2.1 onder doet voor DLSS 2.4? In tegendeel het is me nog niet gelukt om artifacts bij AMD te zien in bijvoorbeeld Cyberpunk. Maar wel bij Nvidia. Waar de overgang van een auto frame op een raam compleet vernagelt wordt door Nvidia.
Zie de laatste review van hwu waar ze dlss, fsr en xess vergelijken. Daar heeft FSR2.1 helaas meer last van ghosting. En pakken ze fijne partials niet altijd goed op. Dus er is nog wat ruimte voor verbetering. Dlss was in het verleden ook niet geweldig maar 2.4 lijkt veel van die dingen opgelost te hebben.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +3 Henk 'm!

  • meljor
  • Registratie: November 2004
  • Laatst online: 22:29
Astennu schreef op zaterdag 29 oktober 2022 @ 14:09:
[...]


Zie de laatste review van hwu waar ze dlss, fsr en xess vergelijken. Daar heeft FSR2.1 helaas meer last van ghosting. En pakken ze fijne partials niet altijd goed op. Dus er is nog wat ruimte voor verbetering. Dlss was in het verleden ook niet geweldig maar 2.4 lijkt veel van die dingen opgelost te hebben.
Ik begrijp alle liefde voor deze technieken niet. Het is altijd een compromis in beeldkwaliteit. Fsr heb ik gecheckt in oa RDR2 en Assetto Corsa Competitione en ik zie genoeg problemen. Draai 10x liever 1440p of 4K high ipv ultra met fsr. Dlss heb ik geen ervaring mee, maar verwacht dat het niet heel veel beter is.

RT voor mij hetzelfde, het is een mooie techniek maar gaat veel teveel ten koste van de performance. Wordt voor mij pas interessant als het nagenoeg "free" is, net als ooit 32bit kleuren, AA, bump mapping, physX etc. etc.

Zowel ATi als NV hebben ooit wel cheating drivers gehad waarbij dingen weggelaten werden om maar meer fps te halen, ze werden er op afgeschoten. Nu hebben ze technieken die eigenlijk hetzelfde effect hebben, dat is hoe ik het zie. Call me old :+

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
meljor schreef op zaterdag 29 oktober 2022 @ 14:45:
Ik begrijp alle liefde voor deze technieken niet. Het is altijd een compromis in beeldkwaliteit.
Maar FPS !!11!1

Nvidia zet er zo hard op in omdat hun huidige ontwerp simpelweg niet schaalt. TU102 was de piek van hun kunnen qua SM occupancy, alles daarna heeft flink wat verspilde transistors. Cache latency is te hoog, het grootste deel van de rekeneenheden worden hooguit 50% van de tijd aan het werk gehouden. Als je Nvidia's cijfers aan houdt zou de 4090 ruim 7 keer zo snel moeten zijn als GP102 (1080 Ti), of ruim 6 keer zo snel als TU102 (2080 Ti). Ten opzichte van GP102 is dat eerder ~3,5x, met Turing is het ~2,4x. GA104 komt er nog het beste vanaf, met ~1,5x uit ~1,9x ten opzichte van GP102, maar ten opzichte van TU102 is het ~1,05x in plaats van de ~1,6x die het zou moeten zijn. Pascal, Turing en beide RDNA versies schalen nagenoeg perfect van de kleine naar grote chips, Ampère en Ada totaal niet.

Voor graphics moet Nvidia terug naar de tekentafel (pun intended). Het huidige ontwerp volstaat simpelweg niet meer.

Deze technieken zijn wat mij betreft juist bedoeld voor de doelgroep die geen honderden of duizenden euro's uit geeft aan hun PC en sowieso al minder om beeldkwaliteit geeft.
Zowel ATi als NV hebben ooit wel cheating drivers gehad waarbij dingen weggelaten werden om maar meer fps te halen, ze werden er op afgeschoten. Nu hebben ze technieken die eigenlijk hetzelfde effect hebben, dat is hoe ik het zie. Call me old :+
Volledig met je eens. Waarom is dit nu ineens revolutionair en geweldig, maar mochten quack3.exe (ATI) of Nvidia's Crysis "optimalisaties" niet? :p

[ Voor 3% gewijzigd door Werelds op 29-10-2022 16:24 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Astennu schreef op zaterdag 29 oktober 2022 @ 14:09:
[...]


Zie de laatste review van hwu waar ze dlss, fsr en xess vergelijken. Daar heeft FSR2.1 helaas meer last van ghosting. En pakken ze fijne partials niet altijd goed op. Dus er is nog wat ruimte voor verbetering. Dlss was in het verleden ook niet geweldig maar 2.4 lijkt veel van die dingen opgelost te hebben.
Teste hij juist niet games met FSR 2.0?

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Sp3ci3s8472 schreef op zaterdag 29 oktober 2022 @ 16:47:
[...]


Teste hij juist niet games met FSR 2.0?
In ieder geval Spiderman. Hij had er volgens mij FSR2.1 bij staan. Maar ik zit er niet zo diep in welke spel wat ondersteund. Ik speel die games zelf niet. Heb het nog nooit gebruikt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Werelds schreef op zaterdag 29 oktober 2022 @ 16:23:
[...]
Volledig met je eens. Waarom is dit nu ineens revolutionair en geweldig, maar mochten quack3.exe (ATI) of Nvidia's Crysis "optimalisaties" niet? :p
Denk omdat dit stiekem was? Als ik als user een Quack3 of Crisis checkbox had in de driver dan hadden sommigen het misschien gebruikt?

Wel interessante video van Level1Techs:


Dit gaan we natuurlijk ook niet op Windows krijgen. Mijn volgende machine wordt dan ook geen Windows 10 (11 overweeg ik niet eens :+) maar waarschijnlijk iets van PopOs. ROCm en een veel betere ontwikkelomgeving en nu games veel beter werken door Valve met de SteamBoy (Steam Deck) lijkt mij dat ook geen probleem meer.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Astennu schreef op zaterdag 29 oktober 2022 @ 16:51:
[...]


In ieder geval Spiderman. Hij had er volgens mij FSR2.1 bij staan. Maar ik zit er niet zo diep in welke spel wat ondersteund. Ik speel die games zelf niet. Heb het nog nooit gebruikt.
Idem. Ik ga Cyberpunk pas spelen als het af is :+.
Misschien dat iemand met die spellen het kan nagaan?

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

In het verleden kon je in ieder geval bij sommige spellen de DLSS library vervangen door de laatste versie en dat zou dan ook moeten werken. Op TPU kon je die downloaden.

Geen idee of dit nog steeds kan, ik speel momenteel geen spellen met DLSS, maar dat is wel handig.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
Sp3ci3s8472 schreef op zaterdag 29 oktober 2022 @ 16:53:
Denk omdat dit stiekem was? Als ik als user een Quack3 of Crisis checkbox had in de driver dan hadden sommigen het misschien gebruikt?
Misschien, hoewel Nvidia het bij Crysis wel gewoon in de release notes had.
Dit gaan we natuurlijk ook niet op Windows krijgen. Mijn volgende machine wordt dan ook geen Windows 10 (11 overweeg ik niet eens :+) maar waarschijnlijk iets van PopOs. ROCm en een veel betere ontwikkelomgeving en nu games veel beter werken door Valve met de SteamBoy (Steam Deck) lijkt mij dat ook geen probleem meer.
Ik zit al een hele tijd te twijfelen of ik terug naar Linux ga, maar voor het merendeel van wat ik doe is WSL perfect. Maar met Valve's werk wordt Linux zónder dualboot wel steeds meer een serieuze optie.

Acties:
  • +1 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
meljor schreef op zaterdag 29 oktober 2022 @ 14:45:
[...]


Ik begrijp alle liefde voor deze technieken niet. Het is altijd een compromis in beeldkwaliteit. Fsr heb ik gecheckt in oa RDR2 en Assetto Corsa Competitione en ik zie genoeg problemen. Draai 10x liever 1440p of 4K high ipv ultra met fsr. Dlss heb ik geen ervaring mee, maar verwacht dat het niet heel veel beter is.

RT voor mij hetzelfde, het is een mooie techniek maar gaat veel teveel ten koste van de performance. Wordt voor mij pas interessant als het nagenoeg "free" is, net als ooit 32bit kleuren, AA, bump mapping, physX etc. etc.
Maar dat is het toch altijd? Je schrijft zelf in je tweede alinea dat je bij RT kiest voor framerate ipv betere beeldkwaliteit. Ook bij je normale spellen zal je moeten kiezen om ze misschien op medium ipv high te draaien voor de fps. Je kan geen 240Hz 4k scherm kopen, omdat je GPU dat niet trekt.

Acties:
  • 0 Henk 'm!

  • M-spec
  • Registratie: September 2004
  • Niet online
DaniëlWW2 schreef op zaterdag 29 oktober 2022 @ 13:06:
[...]


Ik beschouw DLSS en FSR eigenlijk als iets tijdelijks.
De oorsprong hiervan vanuit Nvidia was om een probleem op te lossen dat ze zelf hebben gecreëerd. Immers heeft Nvidia besloten om hun gaming GPU's te voorzien van volstrekt inadequate RT hardware en heel veel dedicated matrix hardware. Dit ging ten koste van grotere stappen in rasterisation. Het antwoord was DLSS1 wat een complete mislukking bleek te zijn. Bijna twee jaar later kreeg je pas DLSS2.0 dat wel bruikbaar was. Toen moest AMD ook wel omdat Nvidia een bijna gratis 20-30% extra FPS knop had. Met RT is het eerder richting 100% waardoor dit ook eindelijk een beetje bruikbaar werd in bepaalde scenario's en met bepaalde hardware.

Maar we zijn inmiddels weer twee jaar verder en er is op zijn zachts gezegd wat aan de hand in gaming graphics. We hadden al een aantal jaar photogrammetry in games, maar opeens gaat het heel hard. Je kan inmiddels spreekwoordelijk echt naar een brug gaan, die uitgebreid fotograferen en er een 3D model van maken voor in je game. En je kan die modellen nu ook daadwerkelijk in real time renderen. We zien het nu ook gebeuren met nieuwe games die dit soort technieken beginnen te gebruiken.

Favoriete voorbeeld dan weer. Dit is met "maar" een RTX2080 en op 7fps.
[YouTube: 【UE5】etchū-daimon station - 越中大門駅]
Textures komen hier vandaan:
https://quixel.com/megascans

Dit niveau halen we nog niet, maar we beginnen dit wel te benaderen. Haal je dit niveau aan grafische kwaliteit met rasterisation dan is het de vraag waarom je nog precies upscaling nodig hebt? Het is voornamelijk zinvol om dit een paar jaar sneller te bereiken met minimaal verlies in grafische kwaliteit.

Dat is nu ook het fundamentele verschil tussen AMD en Nvidia. Nvidia kiest wederom voor een techniek om hun nog grotere investering in matrix hardware te kunnen gebruiken voor gaming. AMD lijkt hun rasterisation wederom fors te verbeteren om het direct te renderen. Het moge duidelijk zijn welke van de twee aanpakken mij meer aanspreekt. ;)
Die voorbeelden laten zien dat realisme, met of zonder VR, inderdaad steeds dichterbij komt. Erg mooi. Nvidia en AMD zullen voorlopig nog wel voor de implementatie gaan die nu het beste uitkomt en verkoopt. Hetzij met DLSS of FSR maar dat compromis moet men weer meenemen in reviews wat het steeds lastiger maakt om een oordeel te geven. Alleen de hoogste FPS zegt dan helemaal niks.

Ik weet niet of het een correcte aanname is maar ik denk dat de gameindustrie nog iets teveel blijft inzetten op verkoop voor consoles en dit de graphics voor de PC markt wel afremt. Veel high FPS x86 ports met 'wat extra's'. ipv meer doelgerichte PC games met de nieuwste engines. RT kan best mooi zijn maar GPU upscalingtechniek maakt een zelfde game immers nog niet dermate realistischer om naar te kijken.

Benieuwd naar de reviews. Je zou zeggen dat er straks wel grotere stappen gemaakt kunnen worden als AMD goedkoper en misschien eenvoudiger zou kunnen schalen. Allemaal GPU's met inmiddels tientallen miljarden transistoren. Op zichzelf natuurlijk interessant om te volgen maar mooiere graphics in games zou toch beter moeten verkopen dan nog meer FPS dacht ik. Doe mij die voorbeeldrenders maar als game.

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


Acties:
  • 0 Henk 'm!

  • Snowdog
  • Registratie: Maart 2001
  • Laatst online: 00:02
Sissors schreef op zaterdag 29 oktober 2022 @ 19:51:
[...]

Maar dat is het toch altijd? Je schrijft zelf in je tweede alinea dat je bij RT kiest voor framerate ipv betere beeldkwaliteit. Ook bij je normale spellen zal je moeten kiezen om ze misschien op medium ipv high te draaien voor de fps. Je kan geen 240Hz 4k scherm kopen, omdat je GPU dat niet trekt.
Goeie comment wel eigenlijk imo, maar de vraag is dan wel wat RT echt toevoegt. Ik heb zelf (net als de persoon waarop je reageerde) het idee dat dat eigenlijk maar weinig is. Dan doe ik het wel met fake lighting. Dat ziet er ook prima uit. Met technieken als DLSS en FSR heb je andere problemen waarbij dingen gewoon verkeerd gerenderd worden en dat is wel een stukje storender. En RT is gewoon een enorme hit op je framerate.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

M-spec schreef op zaterdag 29 oktober 2022 @ 20:07:
[...]


Die voorbeelden laten zien dat realisme, met of zonder VR, inderdaad steeds dichterbij komt. Erg mooi. Nvidia en AMD zullen voorlopig nog wel voor de implementatie gaan die nu het beste uitkomt en verkoopt. Hetzij met DLSS of FSR maar dat compromis moet men weer meenemen in reviews wat het steeds lastiger maakt om een oordeel te geven. Alleen de hoogste FPS zegt dan helemaal niks.

Ik weet niet of het een correcte aanname is maar ik denk dat de gameindustrie nog iets teveel blijft inzetten op verkoop voor consoles en dit de graphics voor de PC markt wel afremt. Veel high FPS x86 ports met 'wat extra's'. ipv meer doelgerichte PC games met de nieuwste engines. RT kan best mooi zijn maar GPU upscalingtechniek maakt een zelfde game immers nog niet dermate realistischer om naar te kijken.
Ik denk eerder dat het probleem is dat handmatig zulke 3D objecten maken, dusdanig tijdrovend is dat developers het niet willen doen als zelfs de meest high end GPU het toch niet trekt. Dat is nu geen argument meer als je behoorlijk snel 3D assets kan creëren met AI technieken + real world footage. Dan is het een kwestie van downsamplen.

Als ik dan beelden zie van bijvoorbeeld de nieuwe CoD, altijd een toonbeeld van vooruit staande grafische pracht ( :+), tja dan denk ik dat het eraan zit te komen.
Benieuwd naar de reviews. Je zou zeggen dat er straks wel grotere stappen gemaakt kunnen worden als AMD goedkoper en misschien eenvoudiger zou kunnen schalen. Allemaal GPU's met inmiddels tientallen miljarden transistoren. Op zichzelf natuurlijk interessant om te volgen maar mooiere graphics in games zou toch beter moeten verkopen dan nog meer FPS dacht ik. Doe mij die voorbeeldrenders maar als game.
Ik denk dat het vooral een kwestie is van AMD die nu ook echt wil. Als ze die 20% marktaandeel wel best vinden en ook niet meer laten produceren dan 20% marktaandeel, dan gaan die prijzen ook dramatisch worden. Gaan ze wel voor meer marktaandeel dan moeten ze ook de prijzen ernaar maken. Over rasterisation performance maak ik me namelijk niet zoveel druk.

De grap is namelijk dat ik consequent reken met zowel slechte schaling als geen winst in clockspeed als geen extra verbeteringen in architectuur. Dit terwijl we allang weten dat er heel wat veranderen zijn en de clock speed waarschijnlijk ook fors omhoog gaat. Zelfs zonder aanpassingen of clock speed zie ik een 12288/48WGP GPU het eigenlijk niet verliezen van de RTX4090 tenzij er echt iets heel erg mis zit in dat ontwerp. Qua schaling zou AMD eigenlijk maar 80% moeten halen uit 140% meer rekeneenheden om niet te winnen in rasterisation. Dat zou een fors verval zijn zeker als je de aanpassingen en hogere clock speeds erbij neemt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Sissors schreef op zaterdag 29 oktober 2022 @ 19:51:
[...]
Je kan geen 240Hz 4k scherm kopen, omdat je GPU dat niet trekt.
Persoonlijk heb ik 2-3 videokaarten over de tijd dat ik weer een nieuw scherm koop. Het lijkt mij raar om en slechter scherm te kopen omdat je videokaart het nog niet aan kan.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Snowdog schreef op zaterdag 29 oktober 2022 @ 20:13:
[...]


Goeie comment wel eigenlijk imo, maar de vraag is dan wel wat RT echt toevoegt. Ik heb zelf (net als de persoon waarop je reageerde) het idee dat dat eigenlijk maar weinig is. Dan doe ik het wel met fake lighting. Dat ziet er ook prima uit. Met technieken als DLSS en FSR heb je andere problemen waarbij dingen gewoon verkeerd gerenderd worden en dat is wel een stukje storender. En RT is gewoon een enorme hit op je framerate.
Als fake lightning goed geimplementeerd is dan merk je het verschil tijdens normale gameplay weinig. Als dit niet goed geimplementeerd is, lees Metro Last Light (niet de redux editie) dan is het een ander verhaal.
Tot nu toe vind ik RT de hit het nog niet waard in veel spellen.

Acties:
  • +1 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
DaniëlWW2 schreef op zaterdag 29 oktober 2022 @ 13:06:
[...]
Ik beschouw DLSS en FSR eigenlijk als iets tijdelijks.
Ik denk juist van niet.

Iedereen in de sector, ook AMD, is er van overtuigd dat Moore's law richting z'n einde loopt en er dus minder winst kan worden behaald met nieuwe nodes. En dan hebben we ook nog de steeds toenemende kosten, waardoor de performance/euro minder zal verbeteren dan in het verleden.

Om mensen te verleiden tot een upgrade en te voorkomen dat de GPU-markt veranderd in een vervangingsmarkt, waarbij men pas een nieuwe kaart koopt als de vorige overlijdt, zal men het steeds meer moeten zoeken in software-truukjes (wat overigens dan wel weer geholpen kan worden met specifieke hardware).

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • M-spec
  • Registratie: September 2004
  • Niet online
DaniëlWW2 schreef op zaterdag 29 oktober 2022 @ 20:43:
[...]

Ik denk eerder dat het probleem is dat handmatig zulke 3D objecten maken, dusdanig tijdrovend is dat developers het niet willen doen als zelfs de meest high end GPU het toch niet trekt. Dat is nu geen argument meer als je behoorlijk snel 3D assets kan creëren met AI technieken + real world footage. Dan is het een kwestie van downsamplen.

Als ik dan beelden zie van bijvoorbeeld de nieuwe CoD, altijd een toonbeeld van vooruit staande grafische pracht ( :+), tja dan denk ik dat het eraan zit te komen.
[YouTube: Call of Duty gameplay vs realiteit]

[...]


Ik denk dat het vooral een kwestie is van AMD die nu ook echt wil. Als ze die 20% marktaandeel wel best vinden en ook niet meer laten produceren dan 20% marktaandeel, dan gaan die prijzen ook dramatisch worden. Gaan ze wel voor meer marktaandeel dan moeten ze ook de prijzen ernaar maken. Over rasterisation performance maak ik me namelijk niet zoveel druk.

De grap is namelijk dat ik consequent reken met zowel slechte schaling als geen winst in clockspeed als geen extra verbeteringen in architectuur. Dit terwijl we allang weten dat er heel wat veranderen zijn en de clock speed waarschijnlijk ook fors omhoog gaat. Zelfs zonder aanpassingen of clock speed zie ik een 12288/48WGP GPU het eigenlijk niet verliezen van de RTX4090 tenzij er echt iets heel erg mis zit in dat ontwerp. Qua schaling zou AMD eigenlijk maar 80% moeten halen uit 140% meer rekeneenheden om niet te winnen in rasterisation. Dat zou een fors verval zijn zeker als je de aanpassingen en hogere clock speeds erbij neemt.
Ik heb de game nog niet maar dat ziet er inderdaad goed uit. Maar vind je de max graphics op een PC vergeleken met een PS5 een verademend verschil? :+ Doen ze goed hoor, niks op aan te merken op de console maar gezien de hardware en daarvoor een veel duurdere gamePC aan te schaffen of te upgraden. Een PC kan meer. Dat is waar ik ook op doelde met (te) vaak alleen hogere FPS en een 'paar extra details'. ;)

Op zich zou het goed zijn als AMD zichzelf weer op de kaart kan zetten om de vooruitgang erin te houden. Zolang ze zich maar niet te verwaand gaan gedragen zoals we met de prijzen en bewuste 'hardware beperkingen' gezien hebben met de launch van Zen3. Als je er op forums wat van zei moest je bij wijze van niet zeuren terwijl het inmiddels allemaal is vrijgegeven. Of DLSS 3.0 bepaalde hardware vereisten heeft valt ook te bezien want een beetje TV doet al aan frame insertion, soms incl de artifacts. En is wel game afhankelijk.

Ik ben geen fan van die steeds hogere kloksnelheden net als met nieuwe CPU's.. Alleen maar nadelig voor de efficiëntie. Een kleiner proces doen ze meteen weer teniet door die spanning over de 1000mV te tillen. Ampere GA102 schaalt bijvoorbeeld sowieso al niet super op hoge snelheid maar kon ook weer niet heel veel minder verbruiken. Die kwam met een 350W power limit bijna al met een undervolt uit de doos. Puur om het aantal rekeneenheden op 'maar' 8nm. Onder 1000mV draaien was eigenlijk een vereiste. Met die tegenwoordige Epycs/Threadrippers vergelijking als GPU's kan men ook geen laag verbruik verwachten, alleen hebben die topmodellen wel zo veel mogelijk rekeneenheden op een lage kloksnelheid. Richting 3GHz met 400-600W vind ik een verkeerde trend maar dat overclocken kost minder als daarmee hetzelfde doel behaald wordt. Dat is, als de consument het blijft kopen en ik wou zeggen voedingsstekkers heel blijven maar dat is flauw en echt een serieuze zaak. Een AD102 kan juist wel weer energie-efficiënt zijn op lagere PL. Wat dat betreft zou AMD nu wel een goede slag kunnen maken als de schaling en latencies goed zijn en kloksnelheden mooi laag blijven. Overclocken kunnen we zelf wel.

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@M-spec

Nvidia gebruikt juist een andere techniek dan de TV's, die beter zou moeten zijn. Overigens heb je bij TV kijken natuurlijk het hele latency probleem meestal niet. Ze kunnen makkelijk de beelden een kwart seconde later tonen en die tijd gebruiken om de interpolatie te doen. Zelfs bij een sportwedstrijd zul je het niet snel merken dat de buren een kwart seconde eerder juichen. Zo'n vertraging kan echter niet bij gamen, want dan heb je verschrikkelijke input lag.

De reden waarom Nvidia DLSS 3 niet ondersteund voor oude kaarten is volgens hen omdat alleen de 4000 serie de data van de tensor cores heel snel kan afleveren bij de Optical Flow Accelerator. En dan hebben we het over 1 clock cycle vs 1000.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Ludewig schreef op zaterdag 29 oktober 2022 @ 23:11:
[...]


Ik denk juist van niet.

Iedereen in de sector, ook AMD, is er van overtuigd dat Moore's law richting z'n einde loopt en er dus minder winst kan worden behaald met nieuwe nodes. En dan hebben we ook nog de steeds toenemende kosten, waardoor de performance/euro minder zal verbeteren dan in het verleden.

Om mensen te verleiden tot een upgrade en te voorkomen dat de GPU-markt veranderd in een vervangingsmarkt, waarbij men pas een nieuwe kaart koopt als de vorige overlijdt, zal men het steeds meer moeten zoeken in software-truukjes (wat overigens dan wel weer geholpen kan worden met specifieke hardware).
Als je kijkt wat je nodig hebt voor 4k 144fps bij beetje nieuwe spellen, dan is enige wat een eind komt de 4090. En vast AMDs nieuwe topmodel ook. En weetje, die is misschien wel 10% sneller. Of 10% zuiniger. Maar het zal een gigantisch ding blijven. Die nauwelijks in veel kasten past en een enorm energieverbruik heeft. We zijn wel wat jaren verder voor die performance in de 'mid range' beschikbaar is, en tegen die tijd zijn spellen ook weer zwaarder.

Er is een reden dat de nieuwe kaarten maar groter, lomper en energie hongeriger worden: Ze kunnen niet de handel voldoende sneller maken met enkel betere ontwerpen en nieuwere tech nodes. En dan ben ik het dus compleet met jou eens: Het is mijn inziens niet slim om alles maar te gaan brute forcen, zeker op hogere resoluties en framerates waar kleine fouten minder opvallen. En of dat nou iets als FRS/DLSS of iets anders wordt (eg VR heeft zijn eigen methodes voor frame interpolatie), dat weet ik niet. Maar wat mij betreft zou het echt zonde zijn om niet die slimme trucjes te gebruiken, ook al kan het soms in situaties toch net wat minder zijn.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
Sissors schreef op zondag 30 oktober 2022 @ 08:51:
En dan ben ik het dus compleet met jou eens: Het is mijn inziens niet slim om alles maar te gaan brute forcen
Nvidia's aanpak is juist brute-forcen.

Ada heeft 0,0 verbeteringen ten opzichte van Ampère behalve de "optical flow accelerator" - wat waarschijnlijk eerder te maken heeft met het feit dat de GPU groter is dan iets anders en dat ze er méér hebben. Al het andere presteert exact hetzelfde als in Ampère. De RT cores hebben wel een stukje native hardware voor micro-meshes en opacity micro-maps, maar aangezien ze die SDK's nog niet eens uit hebben gebracht, wordt dat waarschijnlijk pas over een jaar (of nog langer) relevant.

We zullen het donderdag wel zien, maar AMD heeft de afgelopen jaren een hele hoop patenten geregistreerd die allemaal duiden op beter gebruik van de aanwezige transistors. Ik heb het al eerder gezegd, maar van een Nvidia GPU ligt op enig moment minimaal 50% gewoon stil omdat ze niet genoeg kunnen schedulen en niet genoeg data naar de rekeneenheden kunnen krijgen. Dus wat doen ze? Gooi er nog meer transistors tegenaan, zonder ze efficiënter te gebruiken, en verzin maar andere oplossingen zodat je niet daadwerkelijk hoeft te renderen omdat je dat niet behapstukt krijgt.

[ Voor 8% gewijzigd door Werelds op 30-10-2022 10:01 ]


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

meljor schreef op zaterdag 29 oktober 2022 @ 14:45:
[...]


Ik begrijp alle liefde voor deze technieken niet. Het is altijd een compromis in beeldkwaliteit. Fsr heb ik gecheckt in oa RDR2 en Assetto Corsa Competitione en ik zie genoeg problemen. Draai 10x liever 1440p of 4K high ipv ultra met fsr. Dlss heb ik geen ervaring mee, maar verwacht dat het niet heel veel beter is.

RT voor mij hetzelfde, het is een mooie techniek maar gaat veel teveel ten koste van de performance. Wordt voor mij pas interessant als het nagenoeg "free" is, net als ooit 32bit kleuren, AA, bump mapping, physX etc. etc.

Zowel ATi als NV hebben ooit wel cheating drivers gehad waarbij dingen weggelaten werden om maar meer fps te halen, ze werden er op afgeschoten. Nu hebben ze technieken die eigenlijk hetzelfde effect hebben, dat is hoe ik het zie. Call me old :+
Amen. Vroeger werden deze technieken inderdaad onder "cheating" geschaard, maar nu Nvidia het als selling point pusht, is het opeens de nieuwe heilige graal.

Ray tracing hardware kan ik nog begrijpen, maar je ziet nu in meerdere spellen dat de devs zich er eigenlijk makkelijk vanaf maken met de traditionele technieken, en daardoor wordt het verschil met RT zo groot in kwaliteit.

Ik hoop dat AMD vooral het lagere middensegment niet vergeet (zo rond de 250-300 euro). Ik heb echt behoefte aan een kaart in de geest van de 1060 of RX480.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • M-spec
  • Registratie: September 2004
  • Niet online
Ludewig schreef op zondag 30 oktober 2022 @ 02:22:
@M-spec

Nvidia gebruikt juist een andere techniek dan de TV's, die beter zou moeten zijn. Overigens heb je bij TV kijken natuurlijk het hele latency probleem meestal niet. Ze kunnen makkelijk de beelden een kwart seconde later tonen en die tijd gebruiken om de interpolatie te doen. Zelfs bij een sportwedstrijd zul je het niet snel merken dat de buren een kwart seconde eerder juichen. Zo'n vertraging kan echter niet bij gamen, want dan heb je verschrikkelijke input lag.

De reden waarom Nvidia DLSS 3 niet ondersteund voor oude kaarten is volgens hen omdat alleen de 4000 serie de data van de tensor cores heel snel kan afleveren bij de Optical Flow Accelerator. En dan hebben we het over 1 clock cycle vs 1000.
Daar zit wat in wat betreft latencies. Al kan je vanaf een externe source met beeld en audio gesplitst naar andere apparatuur ook niet teveel afwijking laten zien alvorens je het gaat merken. Frame Generation is aan de andere kant ook geen verbetering van inputlag, maar alleen optisch. Van bijvoorbeeld 60FPS naar 100FPS weergave blijft de inputlag tijdens het gamen gelijk aan de ervaring van 60FPS. Dat maakt de toevoeging van frame generatie iets om in de gaten te houden met een onderling vergelijk tussen de nieuwe generatie van AMD.
Werelds schreef op zondag 30 oktober 2022 @ 10:00:
[...]

Nvidia's aanpak is juist brute-forcen.

Ada heeft 0,0 verbeteringen ten opzichte van Ampère behalve de "optical flow accelerator" - wat waarschijnlijk eerder te maken heeft met het feit dat de GPU groter is dan iets anders en dat ze er méér hebben. Al het andere presteert exact hetzelfde als in Ampère. De RT cores hebben wel een stukje native hardware voor micro-meshes en opacity micro-maps, maar aangezien ze die SDK's nog niet eens uit hebben gebracht, wordt dat waarschijnlijk pas over een jaar (of nog langer) relevant.

We zullen het donderdag wel zien, maar AMD heeft de afgelopen jaren een hele hoop patenten geregistreerd die allemaal duiden op beter gebruik van de aanwezige transistors. Ik heb het al eerder gezegd, maar van een Nvidia GPU ligt op enig moment minimaal 50% gewoon stil omdat ze niet genoeg kunnen schedulen en niet genoeg data naar de rekeneenheden kunnen krijgen. Dus wat doen ze? Gooi er nog meer transistors tegenaan, zonder ze efficiënter te gebruiken, en verzin maar andere oplossingen zodat je niet daadwerkelijk hoeft te renderen omdat je dat niet behapstukt krijgt.
Ga je bij de verhouding tussen generaties zelf uit van hoeveelheid transistoren en 4K-prestaties of andere factoren zoals FPS per Watt? Is kan ook niet snel ergens een soort IPC vergelijk vinden. Zou wel interessant zijn als men de GPU's op een zelfde kloksnelheid tegen elkaar test.

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

@M-spec TFLOPS.
Een RTX3090Ti met 40TFLOPS FP32 presteert een paar procent beter dan een 23,8TFLOPS RX6950XT.
Vervolgens heeft de RTX4090 82,5TFLOPS FP32 en die is iets van 65% sneller voor meer dan tweemaal de TFLOPS. Ergo de boel schaalt voor geen meter. Een RX6950XT zit waarschijnlijk ergens rond de 20TFLOPS FP32 in realistische scenario's. Dan weet je dat de RTX4090 minder dan 40TFLOPS FP32 haalt in realistische scenario's.Niet eens de helft van de officiële rating.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +6 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
M-spec schreef op zondag 30 oktober 2022 @ 12:50:
Ga je bij de verhouding tussen generaties zelf uit van hoeveelheid transistoren en 4K-prestaties of andere factoren zoals FPS per Watt? Is kan ook niet snel ergens een soort IPC vergelijk vinden. Zou wel interessant zijn als men de GPU's op een zelfde kloksnelheid tegen elkaar test.
Niet zozeer het aantal transistors an sich, wel het aantal ALU's en wat er theoretisch uit zou moeten komen op een gegeven kloksnelheid (FLOPS). En als vergelijkingsmateriaal dan TPU's cijfers voor average FPS gebruiken. Het is eerder iets als FPS per TFLOP ofzo.

Nu heb ik over dat laatste sowieso al vaak gezegd dat Nvidia's cijfers 100% onzin zijn. De 40 TF die ze op geven voor een 3090 Ti zit er theoretisch wel in, maar door de manier waarop Ampère werkt ga je dat er nooit uit krijgen, zelfs niet met volledig synthetische workloads. Zodra je ook maar één integer OP hebt, verlies je meteen ergens 16 FP32 ops. Dat betekent geen branching, oppassen met moves, enzovoort.

Als je bij Pascal begint, had GP102 32 "CUDA cores" per partitie; 4 partities per SM, dus 128 in totaal per SM. Aanhalingstekens omdat de term "CUDA core" ambigu is. Wat dat precies betekent is door de jaren heen veranderd en dit is dan ook de enige keer dat ik de term gebruik omdat Pascal's ALU's nog iets van INT konden doen, waar de "CUDA cores" in latere GPU's enkel FP32 (en soms 2xFP16) kunnen doen. En pre-Maxwell waren ze ook weer anders.

Enfin, met Turing hebben ze in de SM's wat dingen veranderd. Waar GP102 1 scheduler en 2 dispatch units per partitie had (en ze dus 2 instructies per clock aan de ALU's én SFU's én LD/ST units konden uitdelen - per partitie), had TU102 slechts 1 scheduler en 1 dispatch unit. Verder zakten ze nu naar 16 pure FP32 ALU's, met daarnaast 16 pure INT32 ALU's, 2 Tensor Cores, en half zo veel LD/ST en SFU. De denkwijze daarachter was dat ze voor elke 100 FP32 ops gemiddeld 36 INT32 ops zagen, dus door dat te splitsen wilden ze ~36% meer FP32 throughput realiseren. In de praktijk kwam dat er niet helemaal uit, maar wel redelijk. Op 2160p is een 2080 Ti ~45% sneller dan een 1080 Ti, terwijl de te verwachten sprong op basis van theoretische FP32 throughput zo'n ~20% is. 25 procentpunten meer is dus best aardig. Het grote punt is echter dat TU102 met 64 FP32 ALU's per SM niet onderdeed voor GP102's 128 ALU's per SM. In totaal heeft TU102 wel 128 ALU's per SM, maar ze zijn 50/50 gesplitst tussen FP32 en INT32.

Met Ampère hebben ze weer 64 (16 per partitie) FP32 ALU's toegevoegd, maar cruciaal is dat die in hetzelfde blok als de INT32 ALU's zitten. Ze kunnen óf die INT32 ALU's aansturen, óf de extra FP32 ALU's. Een SM in GA10x heeft dus 192 ALU's in totaal, maar die kunnen niet allemaal aangestuurd worden. Gevolg is dat hoewel Nvidia claimt dat Ampère het dubbele aan FP32 uit kan voeren, gooit hun eigen opmerking bij TU102 dat er voor elke 100 FP32 ops ook ~36 INT32 ops zijn, ook roet in het eten. Die extra FP32 ALU's worden slechts een deel van de tijd aangestuurd. In de praktijk betekent dat dat een 3090 Ti op papier 40 TFLOPS zou moeten kunnen doen, waarmee hij net geen 3 keer zo snel is als TU102 met slechts 13,4 TFLOPS...maar als je dan gaat kijken presteert het ding op 2160p geen 200% beter, maar slechts 64%. En op lagere resoluties is dat enkel minder.

Op dezelfde manier kun je vergelijken bínnen een architectuur. Een 2080 Ti is op papier 34% sneller dan een 2080 en in de praktijk 27%. 7 procentpunt verlies dus, maar dat is niets vergeleken met wat Ampère verliest. Een 1080 Ti is op papier ~28% sneller dan een 1080 en in de praktijk zo'n 33%; 5 procentpunt winst dus, maar als je naar 1080p kijkt is het 27% uit 28% (1 procentpunt verlies) en op 1440p 30% uit 28% (2 procentpunt winst), dus dat is vrijwel zeker een bandbreedte probleem voor de kleinere 1080. Doe je datzelfde voor Ampère zie je echter dat zelfs op 2160p er al 17 procentpunt verlies is van een 3070 Ti naar een 3080 - en dat cijfer gaat omhoog hoe groter de GPU wordt. Dus niet alleen verliest Ampère ten opzichte van Turing, het verliest ook ten opzichte van zichzelf; de architectuur schaalt niet omhoog.

Het probleem bij Nvidia is dat enerzijds elke partitie voor minimaal een derde stil ligt op enig gegeven moment; want waar ik het nog niet over heb gehad is dat die ene scheduler + dispatch unit niet alleen de FP32 en INT32 aan moeten sturen...maar dus ook de LD/ST, SFU, de Tensor Core, texture units én RT ops naar de speciale scheduler daarvoor moeten sturen. Dus even los van het feit dat ze sowieso al niet alle ALU's aan kunnen sturen, moet de scheduler ook dusdanig veel units aan sturen dat ze daar ook cycles gaan verliezen. En met Ada is daar 0,0, nada, niks, noppes veranderd.

Als je diezelfde methodiek op RDNA 1 en 2 toe past zie je min of meer hetzelfde als bij Pascal en Turing. Binnen de architectuur schaalt het nagenoeg perfect en van RDNA1 naar RDNA2, met als enige verschil dat de "XL" chips boven hun kunnen presteren; de RX 5700 (non-XT) en RX 6800 (non-XT) presteren in verhouding iets beter dan je zou verwachten. Over het geheel gezien zit RDNA2 zo rond Turing qua prestaties, ze persen er beide ongeveer even veel frames per TFLOP uit.

Waar het allemaal op neer komt is dat Ampère en Ada een hoop transistors aan die 64 extra FP32 ALU's per SM spenderen, maar dat dat nauwelijks iets op levert omdat ze het niet aan kunnen sturen. Vervolgens hebben ze nóg een groot probleem in de zin dat hun cache latency dusdanig hoog is dat de SM's ook daardoor veel stil liggen. Pascal, Turing en RDNA zijn gewoon veel efficiënter als het aan komt op het daadwerkelijk gebruiken van de beschikbare ALU's.

Een 3090 Ti heeft op papier 40 TFLOPS uit z'n 10752 ALU's, in de praktijk komt daar ~24 uit (net iets meer dan de 6950 XT met z'n 5120 ALU's). Met andere woorden, als ze half zo veel ALU's (5376) beter aan konden sturen, zouden ze een hoop transistors bespaard hebben. AD102 is nog erger: die presteert ergens als een Turing/RDNA GPU met tussen de 35 en 40 TFLOPS. Op papier heeft dat ding met officiële specs 82,6 TFLOPS; in de praktijk ligt de kloksnelheid (ook weer zo'n bullshit cijfer van Nvidia :P) hoger en is het eigenlijk zelfs 88 TFLOPS. Er komt gewoon ruim minder dan de helft uit.

AMD heeft ongeveer even veel transistors gebruikt voor Navi 21 als Nvidia voor GA102, maar het grote verschil is dat AMD's transistors voor een groot deel in de gigantische caches zitten. Die caches hoefden ze sowieso al niet groter te maken voor RDNA3 - maar volgens Angstronomics worden ze zelfs iets kleiner. Dus waar AD102 ~2,7x zo veel transistors als GA102 heeft, zal dat voor AMD vrijwel zeker niet het geval zijn, omdat bij AMD de helft van de RDNA2 die even groot blijft als voorheen (en gesplitst wordt in losse, kleinere dies). Sterker nog, AMD zou zelfs onder de 50 miljard kunnen blijven, maar ze zullen vast meer transistors spenderen aan RT en dergelijke.

RT is een ander verhaal, daar verliest Ada minder ten opzichte van Ampère (en schaalt die laatste binnen z'n eigen architectuur wél min of meer lineair), maar dat komt doordat de RT hardware nog steeds bij lange na niet toereikend is. Dat gezegd hebbende, schaalt Ada ook daar niet 100%. 52% meer RT cores op 35% hogere kloksnelheid zou tot een verdubbeling in prestaties moeten leiden, maar dat doet het ook niet - zelfs niet op 2160p. Dat is uiteindelijk wel gunstig voor AMD, omdat het betekent dat ze daar minder in hoeven te lopen :+

En doordat zo veel van AD102 stil ligt, valt het verbruik ook mee; als ze iets zouden vinden waarmee ze de GPU beter bezig kunnen houden, blijft dat ding van z'n leven niet op de 350W hangen die hij nu in de meeste games gebruikt, die 450W wordt dan volledig benut. Dat zie je dan ook in Cyberpunk met RT, daar trekt dat ding gewoon alles wat hij mag trekken.

Edit: klein dingetje wat ik over AD102 had willen vermelden maar vergeten ben, maar wel heel erg onder de "brute force" methodiek valt. De grotere L2 cache is precies dat: groter. Niet sneller, enkel groter. En dat lost dus geen moer op, behalve dan iets minder druk op de geheugen controllers...maar dat was toch al geen probleem.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
M-spec schreef op zondag 30 oktober 2022 @ 12:50:
[...]

Daar zit wat in wat betreft latencies. Al kan je vanaf een externe source met beeld en audio gesplitst naar andere apparatuur ook niet teveel afwijking laten zien alvorens je het gaat merken. Frame Generation is aan de andere kant ook geen verbetering van inputlag, maar alleen optisch. Van bijvoorbeeld 60FPS naar 100FPS weergave blijft de inputlag tijdens het gamen gelijk aan de ervaring van 60FPS. Dat maakt de toevoeging van frame generatie iets om in de gaten te houden met een onderling vergelijk tussen de nieuwe generatie van AMD.
Je krijgt niet de ervaring van 60FPS omdat je een hogere input latency hebt. Met Frame Generation heb je altijd een verslechtering in input latency; nooit een verbetering.

Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
Sissors schreef op zondag 30 oktober 2022 @ 08:51:
[...]
Er is een reden dat de nieuwe kaarten maar groter, lomper en energie hongeriger worden: Ze kunnen niet de handel voldoende sneller maken met enkel betere ontwerpen en nieuwere tech nodes. En dan ben ik het dus compleet met jou eens: Het is mijn inziens niet slim om alles maar te gaan brute forcen
Er zit ook gewoon een grens aan hoe ver je kunt gaan met brute forcen. Je komt dan vrij snel op de grens wat een Amerikaanse socket aan stroom kan leveren en de hitte wordt dan ook een groot probleem.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • 0 Henk 'm!

  • Mars Warrior
  • Registratie: Oktober 2003
  • Laatst online: 00:19

Mars Warrior

Earth, the final frontier

Ludewig schreef op zondag 30 oktober 2022 @ 15:47:
[...]
Er zit ook gewoon een grens aan hoe ver je kunt gaan met brute forcen. Je komt dan vrij snel op de grens wat een Amerikaanse socket aan stroom kan leveren en de hitte wordt dan ook een groot probleem.
Oja, die US outlets waar je maar 80% van het amperage van de zekering mag gebruiken:
  • On 15A 110V, we have max. allowable outlet amps of 12A. Therefore a 110V outlet on 15A can provide 1,320 watts of power.
  • On 20A 110V, we have max. allowable outlet amps of 16A. Therefore a 110V outlet on 15A can provide 1,760 watts of power.
  • On 30A 110V, we have max. allowable outlet amps of 24A. Therefore a 110V outlet on 15A can provide 2,640 watts of power.
Als er nog meer op die zekering zit dan wordt een 1000-1200W voeding - die ook echt gebruikt wordt als zodanig - al een uitdaging met een 15A zekering aan de andere kant van de plas :D

Net als auto’s en raketonderdelen die niet groter kunnen worden vanwege de infrastructuur om ze te verplaatsen, kan een GPU dus niet nog eens een grote stap maken naar zeg 1200W zonder grote consequenties voor het gebruik 8)

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs


Acties:
  • 0 Henk 'm!

  • M-spec
  • Registratie: September 2004
  • Niet online
Werelds schreef op zondag 30 oktober 2022 @ 14:20:
[...]

Niet zozeer het aantal transistors an sich, wel het aantal ALU's en wat er theoretisch uit zou moeten komen op een gegeven kloksnelheid (FLOPS). En als vergelijkingsmateriaal dan TPU's cijfers voor average FPS gebruiken. Het is eerder iets als FPS per TFLOP ofzo.

Nu heb ik over dat laatste sowieso al vaak gezegd dat Nvidia's cijfers 100% onzin zijn. De 40 TF die ze op geven voor een 3090 Ti zit er theoretisch wel in, maar door de manier waarop Ampère werkt ga je dat er nooit uit krijgen, zelfs niet met volledig synthetische workloads. Zodra je ook maar één integer OP hebt, verlies je meteen ergens 16 FP32 ops. Dat betekent geen branching, oppassen met moves, enzovoort.

Als je bij Pascal begint, had GP102 32 "CUDA cores" per partitie; 4 partities per SM, dus 128 in totaal per SM. Aanhalingstekens omdat de term "CUDA core" ambigu is. Wat dat precies betekent is door de jaren heen veranderd en dit is dan ook de enige keer dat ik de term gebruik omdat Pascal's ALU's nog iets van INT konden doen, waar de "CUDA cores" in latere GPU's enkel FP32 (en soms 2xFP16) kunnen doen. En pre-Maxwell waren ze ook weer anders.

Enfin, met Turing hebben ze in de SM's wat dingen veranderd. Waar GP102 1 scheduler en 2 dispatch units per partitie had (en ze dus 2 instructies per clock aan de ALU's én SFU's én LD/ST units konden uitdelen - per partitie), had TU102 slechts 1 scheduler en 1 dispatch unit. Verder zakten ze nu naar 16 pure FP32 ALU's, met daarnaast 16 pure INT32 ALU's, 2 Tensor Cores, en half zo veel LD/ST en SFU. De denkwijze daarachter was dat ze voor elke 100 FP32 ops gemiddeld 36 INT32 ops zagen, dus door dat te splitsen wilden ze ~36% meer FP32 throughput realiseren. In de praktijk kwam dat er niet helemaal uit, maar wel redelijk. Op 2160p is een 2080 Ti ~45% sneller dan een 1080 Ti, terwijl de te verwachten sprong op basis van theoretische FP32 throughput zo'n ~20% is. 25 procentpunten meer is dus best aardig. Het grote punt is echter dat TU102 met 64 FP32 ALU's per SM niet onderdeed voor GP102's 128 ALU's per SM. In totaal heeft TU102 wel 128 ALU's per SM, maar ze zijn 50/50 gesplitst tussen FP32 en INT32.

Met Ampère hebben ze weer 64 (16 per partitie) FP32 ALU's toegevoegd, maar cruciaal is dat die in hetzelfde blok als de INT32 ALU's zitten. Ze kunnen óf die INT32 ALU's aansturen, óf de extra FP32 ALU's. Een SM in GA10x heeft dus 192 ALU's in totaal, maar die kunnen niet allemaal aangestuurd worden. Gevolg is dat hoewel Nvidia claimt dat Ampère het dubbele aan FP32 uit kan voeren, gooit hun eigen opmerking bij TU102 dat er voor elke 100 FP32 ops ook ~36 INT32 ops zijn, ook roet in het eten. Die extra FP32 ALU's worden slechts een deel van de tijd aangestuurd. In de praktijk betekent dat dat een 3090 Ti op papier 40 TFLOPS zou moeten kunnen doen, waarmee hij net geen 3 keer zo snel is als TU102 met slechts 13,4 TFLOPS...maar als je dan gaat kijken presteert het ding op 2160p geen 200% beter, maar slechts 64%. En op lagere resoluties is dat enkel minder.

Op dezelfde manier kun je vergelijken bínnen een architectuur. Een 2080 Ti is op papier 34% sneller dan een 2080 en in de praktijk 27%. 7 procentpunt verlies dus, maar dat is niets vergeleken met wat Ampère verliest. Een 1080 Ti is op papier ~28% sneller dan een 1080 en in de praktijk zo'n 33%; 5 procentpunt winst dus, maar als je naar 1080p kijkt is het 27% uit 28% (1 procentpunt verlies) en op 1440p 30% uit 28% (2 procentpunt winst), dus dat is vrijwel zeker een bandbreedte probleem voor de kleinere 1080. Doe je datzelfde voor Ampère zie je echter dat zelfs op 2160p er al 17 procentpunt verlies is van een 3070 Ti naar een 3080 - en dat cijfer gaat omhoog hoe groter de GPU wordt. Dus niet alleen verliest Ampère ten opzichte van Turing, het verliest ook ten opzichte van zichzelf; de architectuur schaalt niet omhoog.

Het probleem bij Nvidia is dat enerzijds elke partitie voor minimaal een derde stil ligt op enig gegeven moment; want waar ik het nog niet over heb gehad is dat die ene scheduler + dispatch unit niet alleen de FP32 en INT32 aan moeten sturen...maar dus ook de LD/ST, SFU, de Tensor Core, texture units én RT ops naar de speciale scheduler daarvoor moeten sturen. Dus even los van het feit dat ze sowieso al niet alle ALU's aan kunnen sturen, moet de scheduler ook dusdanig veel units aan sturen dat ze daar ook cycles gaan verliezen. En met Ada is daar 0,0, nada, niks, noppes veranderd.

Als je diezelfde methodiek op RDNA 1 en 2 toe past zie je min of meer hetzelfde als bij Pascal en Turing. Binnen de architectuur schaalt het nagenoeg perfect en van RDNA1 naar RDNA2, met als enige verschil dat de "XL" chips boven hun kunnen presteren; de RX 5700 (non-XT) en RX 6800 (non-XT) presteren in verhouding iets beter dan je zou verwachten. Over het geheel gezien zit RDNA2 zo rond Turing qua prestaties, ze persen er beide ongeveer even veel frames per TFLOP uit.

Waar het allemaal op neer komt is dat Ampère en Ada een hoop transistors aan die 64 extra FP32 ALU's per SM spenderen, maar dat dat nauwelijks iets op levert omdat ze het niet aan kunnen sturen. Vervolgens hebben ze nóg een groot probleem in de zin dat hun cache latency dusdanig hoog is dat de SM's ook daardoor veel stil liggen. Pascal, Turing en RDNA zijn gewoon veel efficiënter als het aan komt op het daadwerkelijk gebruiken van de beschikbare ALU's.

Een 3090 Ti heeft op papier 40 TFLOPS uit z'n 10752 ALU's, in de praktijk komt daar ~24 uit (net iets meer dan de 6950 XT met z'n 5120 ALU's). Met andere woorden, als ze half zo veel ALU's (5376) beter aan konden sturen, zouden ze een hoop transistors bespaard hebben. AD102 is nog erger: die presteert ergens als een Turing/RDNA GPU met tussen de 35 en 40 TFLOPS. Op papier heeft dat ding met officiële specs 82,6 TFLOPS; in de praktijk ligt de kloksnelheid (ook weer zo'n bullshit cijfer van Nvidia :P) hoger en is het eigenlijk zelfs 88 TFLOPS. Er komt gewoon ruim minder dan de helft uit.

AMD heeft ongeveer even veel transistors gebruikt voor Navi 21 als Nvidia voor GA102, maar het grote verschil is dat AMD's transistors voor een groot deel in de gigantische caches zitten. Die caches hoefden ze sowieso al niet groter te maken voor RDNA3 - maar volgens Angstronomics worden ze zelfs iets kleiner. Dus waar AD102 ~2,7x zo veel transistors als GA102 heeft, zal dat voor AMD vrijwel zeker niet het geval zijn, omdat bij AMD de helft van de RDNA2 die even groot blijft als voorheen (en gesplitst wordt in losse, kleinere dies). Sterker nog, AMD zou zelfs onder de 50 miljard kunnen blijven, maar ze zullen vast meer transistors spenderen aan RT en dergelijke.

RT is een ander verhaal, daar verliest Ada minder ten opzichte van Ampère (en schaalt die laatste binnen z'n eigen architectuur wél min of meer lineair), maar dat komt doordat de RT hardware nog steeds bij lange na niet toereikend is. Dat gezegd hebbende, schaalt Ada ook daar niet 100%. 52% meer RT cores op 35% hogere kloksnelheid zou tot een verdubbeling in prestaties moeten leiden, maar dat doet het ook niet - zelfs niet op 2160p. Dat is uiteindelijk wel gunstig voor AMD, omdat het betekent dat ze daar minder in hoeven te lopen :+

En doordat zo veel van AD102 stil ligt, valt het verbruik ook mee; als ze iets zouden vinden waarmee ze de GPU beter bezig kunnen houden, blijft dat ding van z'n leven niet op de 350W hangen die hij nu in de meeste games gebruikt, die 450W wordt dan volledig benut. Dat zie je dan ook in Cyberpunk met RT, daar trekt dat ding gewoon alles wat hij mag trekken.

Edit: klein dingetje wat ik over AD102 had willen vermelden maar vergeten ben, maar wel heel erg onder de "brute force" methodiek valt. De grotere L2 cache is precies dat: groter. Niet sneller, enkel groter. En dat lost dus geen moer op, behalve dan iets minder druk op de geheugen controllers...maar dat was toch al geen probleem.
Bedankt voor de uitgebreide uitleg. Top (y) Ik hou mij normaal gesproken niet echt bezig met de verschillen in interne opbouw wat betreft aansturing van ALU INT/FP units etc maar het is wel interessant. De effectieve output is zoals ik het begrijp dus vooral afhankelijk van de keuze/afweging in opbouw en wat daadwerkelijke tegelijkertijd aangestuurd en uitgevoerd kan worden op het totaal aan rekenkernen. De benuttingsgraad bij een bepaalde toepassing zeg maar. Er zit wel variatie in het verbruik bij games inderdaad. Bij GA102 kan 800mV 220W tot 350W PL zijn onder belasting. Dat kan er dus op duiden dat een deel van de GPU in sommige games niks zitten doen. Compensatie/schaling met een hogere kloksnelheid heeft dan ook maar tot zo ver effect. Wetenschappelijke berekeningen of DC projecten (geen FP64) is ie echt rap maar dat draai ik niet veel meer.

Voor een gaming GPU heeft Nvidia dus eigenlijk een verkeerde afslag genomen na Turing. Misschien was het goedkoper om na Ampère nog verder op te schalen dan alles opnieuw te ontwerpen. Als schaalvergroting nu niet optimaal werkt hebben ze bij Nvidia wel wat te doen als AMD het voor elkaar heeft gekregen met RDNA3. Tot nu toe vind ik de FPS per Watt nog niet heel gek als ik terugkijk naar mijn vorige kaarten; R290 en toen Vega56. ;)

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Toch staat nVidia in ieder geval tot 3 november :P wel aan de prestatie en perceptie top met hun aanpak.

Ik vraag me af, als de aanpak van nVidia zo inefficient is, hoe lang ze hier nog mee door kunnen blijven gaan, ook gezien hun forse die sizes ?

Intern moeten ze dan toch wel al aan een andere opbouw van hun architectuur werken :?

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-10 09:49
M-spec schreef op zondag 30 oktober 2022 @ 18:24:
Bedankt voor de uitgebreide uitleg. Top (y) Ik hou mij normaal gesproken niet echt bezig met de verschillen in interne opbouw wat betreft aansturing van ALU INT/FP units etc maar het is wel interessant. De effectieve output is zoals ik het begrijp dus vooral afhankelijk van de keuze/afweging in opbouw en wat daadwerkelijke tegelijkertijd aangestuurd en uitgevoerd kan worden op het totaal aan rekenkernen.
Yep. Je kunt 5000, 10000 of 15000 ALU's hebben, als je ze niet aan het werk kan houden, schiet je er niets mee op. Als ze te veel cycles moeten wachten op data en stil liggen kun je met meer units wel iets van die latency opvangen, maar dat is een pleister op de wonde. Nvidia heeft op beide vlakken best een probleem.

Deze en deze zijn leuk om te lezen. Is wel allemaal worst-case en OpenCL, dus 100% representatief voor graphics is het niet, maar komt er aardig bij in de buurt. Maar 30% SM bezetting voor Ampère tegenover 50% voor Pascal is best pijnlijk. En die cache latencies doen echt wel pijn, AMD's IC is bizar snel. Niet zo zeer omdat GPU's graag lage latency hebben (want dat valt wel mee), maar omdat Nvidia al heel rap naar de L2 moet. En graphics workloads zijn nu eenmaal heel erg uniform, waarbij je dezelfde data keer op keer hergebruikt.
Er zit wel variatie in het verbruik bij games inderdaad. Bij GA102 kan 800mV 220W tot 350W PL zijn onder belasting. Dat kan er dus op duiden dat een deel van de GPU in sommige games niks zitten doen. Compensatie/schaling met een hogere kloksnelheid heeft dan ook maar tot zo ver effect. Wetenschappelijke berekeningen of DC projecten (geen FP64) is ie echt rap maar dat draai ik niet veel meer.
Dat verbruik heeft echter ook te maken met de kloksnelheid én geheugen gebruik. 12 stuks 19 GT/s GDDR6X hebben al 26,5W nodig (~2,2W elk). Vervolgens schakelt kloksnelheid tegenwoordig dusdanig snel dat het verbruik dat je ziet eigenlijk het gemiddelde over een seconde is.

"GPU Usage" in GPU-Z is dan ook volstrekt nutteloos als enige vorm van "load" meten. Dat is enkel gebaseerd op saturatie, niet op daadwerkelijke activiteit. 99% GPU usage kan zowel 250W of 350W zijn, hangt er helemaal van af wat er op dat moment gebeurt :p
Voor een gaming GPU heeft Nvidia dus eigenlijk een verkeerde afslag genomen na Turing. Misschien was het goedkoper om na Ampère nog verder op te schalen dan alles opnieuw te ontwerpen. Als schaalvergroting nu niet optimaal werkt hebben ze bij Nvidia wel wat te doen als AMD het voor elkaar heeft gekregen met RDNA3. Tot nu toe vind ik de FPS per Watt nog niet heel gek als ik terugkijk naar mijn vorige kaarten; R290 en toen Vega56. ;)
Ik vermoed eerder dat Ada bestaat omdat ze moeite hadden met het volgende ontwerp. Ada lijkt gewoon een stop-gap te zijn. Goedkoper zeker, maar dat is zeker voor een bedrijf als Nvidia (of AMD) niet de drijfveer. Sowieso te laat begonnen met MCM ontwerpen, want dat is wel waar het allemaal naar toe moet. Voor Nvidia was dat nu juist een uitkomst geweest; RT en/of Tensor in een aparte die en dat opschalen, zonder de rest op te schalen? Juist met hun driver-heavy scheduling hadden zij dat wel klaar kunnen spelen, dat is voor AMD juist moeilijker omdat hun scheduling in de die plaats vindt.

Het is nog afwachten, misschien zijn AMD's chiplets juist extreem problematisch. Maar als ik kijk naar hoe ze de afgelopen jaren te werk zijn gegaan met zowel de GPU's als de CPU's, zouden ze het niet doen als ze het niet werkend kunnen krijgen.

Donderdag wordt in elk geval 99% zeker weten veel interessanter leesvoer dan Ada en hopelijk ook heel boeiend qua concurrentie :p

[ Voor 3% gewijzigd door Werelds op 30-10-2022 20:15 ]


Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 05:51

OMD

Kan het niet een keer zo zijn dat de volgende generatie (nVidia 50 serie en amd 8000 serie) nagenoeg zelfde snelheid houden maar de effiecientie alleen verbeteren?

Games staan ook een beetje stil de laatste jaren en het lijkt erop dat deze nieuwe gen GPU’s eigenlijk alles redelijk makkelijk kunnen draaien (de top sku’s that is)

Ik zou graag een 4090 zien met een reductie van 50% in het vermogen of een 7900xtx met 200 waterschap verbruik.

zou zoiets ooit haalbaar zijn en dan niet alleen technisch gezien maar ook economisch (zoals investeerders die graag veel winst willen zien)?

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • 0 Henk 'm!

  • M-spec
  • Registratie: September 2004
  • Niet online
Werelds schreef op zondag 30 oktober 2022 @ 19:00:
[...]

Yep. Je kunt 5000, 10000 of 15000 ALU's hebben, als je ze niet aan het werk kan houden, schiet je er niets mee op. Als ze te veel cycles moeten wachten op data en stil liggen kun je met meer units wel iets van die latency opvangen, maar dat is een pleister op de wonde. Nvidia heeft op beide vlakken best een probleem.

Deze en deze zijn leuk om te lezen. Is wel allemaal worst-case en OpenCL, dus 100% representatief voor graphics is het niet, maar komt er aardig bij in de buurt. Maar 30% SM bezetting voor Ampère tegenover 50% voor Pascal is best pijnlijk. En die cache latencies doen echt wel pijn, AMD's IC is bizar snel.


[...]

Dat verbruik heeft echter ook te maken met de kloksnelheid én geheugen gebruik. 12 stuks 19 GT/s GDDR6X hebben al 26,5W nodig (~2,2W elk). Vervolgens schakelt kloksnelheid tegenwoordig dusdanig snel dat het verbruik dat je ziet eigenlijk het gemiddelde over een seconde is.

"GPU Usage" in GPU-Z is dan ook volstrekt nutteloos als enige vorm van "load" meten. Dat is enkel gebaseerd op saturatie, niet op daadwerkelijke activiteit. 99% GPU usage kan zowel 250W of 350W zijn, hangt er helemaal van af wat er op dat moment gebeurt :p


[...]

Ik vermoed eerder dat Ada bestaat omdat ze moeite hadden met het volgende ontwerp. Ada lijkt gewoon een stop-gap te zijn. Goedkoper zeker, maar dat is zeker voor een bedrijf als Nvidia (of AMD) niet de drijfveer. Sowieso te laat begonnen met MCM ontwerpen, want dat is wel waar het allemaal naar toe moet. Voor Nvidia was dat nu juist een uitkomst geweest; RT en/of Tensor in een aparte die en dat opschalen, zonder de rest op te schalen? Juist met hun driver-heavy scheduling hadden zij dat wel klaar kunnen spelen, dat is voor AMD juist moeilijker omdat hun scheduling in de die plaats vindt.

Het is nog afwachten, misschien zijn AMD's chiplets juist extreem problematisch. Maar als ik kijk naar hoe ze de afgelopen jaren te werk zijn gegaan met zowel de GPU's als de CPU's, zouden ze het niet doen als ze het niet werkend kunnen krijgen.

Donderdag wordt in elk geval 99% zeker weten veel interessanter leesvoer dan Ada en hopelijk ook heel boeiend qua concurrentie :p
Ik zal de links eens doorlezen. :) We gaan het inderdaad zien of AMD een nieuwe kroon mag opzetten en of ze de prijzen omlaag kunnen en willen drukken.

Wat betreft soms grote verschillen in verbruik bij games was overigens op een zelfde 1800Mhz cap met UV. Op mijn kaart bestaat het geheugen nog uit 24 stuks van 1GB (MVDDC tot iets van 115W bij games). Dat was nog voor de 2GB modules die inmiddels wel allemaal op de GPU zijde van het PCB zitten. Wel een verbetering.

R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE


Acties:
  • 0 Henk 'm!

  • Ludewig
  • Registratie: Januari 2001
  • Niet online
@Werelds

Als AMD een probleem gehad had met MCM, waren ze allang overgestapt op plan B. Op dit moment zijn de chips voor Navi 31-33 al lang af en we hebben niks gehoord van een stap terug.

@OMD

Over het algemeen kun je elke generatie een tier omlaag gaan als je tevreden bent met de prestaties, of je kunt dezelfde tier meer limiteren.

When a man finds a conclusion agreeable, he accepts it without argument, but when he finds it disagreeable, he will bring against it all the forces of logic and reason


Acties:
  • +2 Henk 'm!

  • HugoBoss1985
  • Registratie: December 2006
  • Laatst online: 00:13
https://videocardz.com/ne...ower-connectors-confirmed

7900 confirmed; met maximaal 2x 8pin.
Pagina: 1 ... 68 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.