Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

Het zou wel heel triest zijn als de GA104 wint van Big Navi 8)7 8)7 En idd, AMD zou iets moeten laten doorschemeren nu ze weer na NV komt...

[ Voor 35% gewijzigd door edward2 op 31-08-2020 21:23 ]

Niet op voorraad.


Acties:
  • +3 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Oef AMD krijgt hier nog een aardige kluif aan:
3090: 36 shader TFLOPs, 69 RT TFLOPs, 285 tensor TFLOPs
3080: 30 shader TFLOPs, 58 RT TFLOPs, 238 tensor TFLOPs
3070: 20 shader TFLOPs, 40 RT TFLOPs, 163 Tensor TFLOPs
Major upgrades tov Turing. (was ook wel nodig om RT nuttig te maken)
Daarnaast veel grote nieuwe en oude games (Fortnight) die ondersteuning krijgen voor RTX en DLSS.

Dus nu is het hopen dat de RT tech die AMD heeft ook meteen werkt bij die games die nu RTX hebben of dat het simpel is om een patch uit te brengen zodat RDNA2 ook RT effecten kan renderen.

En ik hoop dat AMD nu ook een beter antwoord heeft op DLSS. nVidia begint het nu echt uit te nutten. En ze zouden zo met een versie 3.0 kunnen komen welke nog weer beter werkt.

Radeon Image Sharpning was een mooie eerste stap maar de resolutie upscaling kan nog beter. Je merkt duidelijk dat het niet native is als je bv 85% render resolution gebruikt.

En de prijzen van de 3070 en 3080 vallen mij ook mee @ 499 en 699 ik had vooral voor de 3080 meer verwacht. Dat geeft wel hoop dat de snellere AMD kaarten dus ook betaalbaarder zullen zijn. Ik kan niet wachten op de RDNA2 launch ben wel heel benieuwd hoe het speelveld er dan uit gaat zien. Maar de 3090 verslaan zie ik niet snel gebeuren. En nVidia zou nog een 3080 Ti of Super tussen de 3080 en 3090 in kunnen zetten al zitten die dan allemaal 10% uit elkaar.
Het gat tussen de 3070 en 3080 is nu ook extreem groot. Daar passen ook nog wel 1 of twee SKU's tussen.

Stiekem hoop ik wel dat de 80CU RDNA2 chip de 3080 aan kan. En dat hij ook qua features mee kan (Zie DLSS)
want ik vrees dat veel reviewers nu ook met DLSS gaan testen en dat levert een grote performance boost op voor nVidia.

Wel grappig trouwens dat het toch Samsung 8nm is geworden ^^ al die geruchten heen en weer en toch was het 8nm. Ben wel benieuwd welke die er voor de 3080 en 3090 gebruikt worden en of die van de 3090 niet toch anders is en op 7nm+ TSMC gemaakt is.
Voor de GA104 en lager is 8nm heel logisch.
edward2 schreef op maandag 31 augustus 2020 @ 21:22:
Het zou wel heel triest zijn als de GA104 wint van Big Navi 8)7 8)7 En idd, AMD zou iets moeten laten doorschemeren nu ze weer na NV komt...
Dat zie ik inderdaad echt niet gebeuren. Dat zou betekenen dat AMD het niet van de 2080 Ti kan winnen. Als dat niet eens lukt is het echt over en uit. Ik mag hopen dat ze daar toch wel minimaal 20-30% overheen gaan. Navi10 x2 zou al sneller moeten zijn dan dat. Ik mag hopen dat ze de architectuur wel dusdanig aangepakt hebben dat de performance per clock nog wat hoger is. Dus 20-50% sneller dan de 2080 Ti en dus in de buurt van de 3080 komen moet prima mogelijk zijn. Hopelijk maken ze die verwachtingen ook waar.

[ Voor 22% gewijzigd door Astennu op 01-09-2020 18:56 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • RobinNL
  • Registratie: December 2009
  • Nu online
Astennu schreef op dinsdag 1 september 2020 @ 18:50:
Oef AMD krijgt hier nog een aardige kluif aan:


[...]

Het gat tussen de 3070 en 3080 is nu ook extreem groot. Daar passen ook nog wel 1 of twee SKU's tussen.
Ik verwacht uiteindelijk ook nog wel iets tussen de 3080 en 3090, als Big Navi een klapper wordt.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
RobinNL schreef op dinsdag 1 september 2020 @ 19:03:
[...]


Ik verwacht uiteindelijk ook nog wel iets tussen de 3080 en 3090, als Big Navi een klapper wordt.
Ja ik ook wel al zit het dan wel heel dicht op elkaar zie ook dit verschil:
36 shader TFLOPs, 69 RT TFLOPs, 285 tensor TFLOPs
30 shader TFLOPs, 58 RT TFLOPs, 238 tensor TFLOPs
20 shader TFLOPs, 40 RT TFLOPs, 163 Tensor TFLOPs
Heel veel ruimte zit er niet +-10% maar goed dat is prima voor een 3080 Super of 3080 Ti. Denk de super beter past want die vorige Super kaarten waren ook +-8-12% sneller geloof ik.

Ik vind het verschil qua shader performance van de 3070 wel erg groot daar passen nog wel 2 SKU's tussen als het moet.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • RobinNL
  • Registratie: December 2009
  • Nu online
@Astennu Ja oke, het verschil tussen de 3070 en 3080 is wel een stuk groter.

Ik ben wel benieuwd... Nu Nvidia de nieuwe videokaarten heeft aangekondigd zijn mensen best wel gehyped. Als AMD op tijd wil zijn met het aankondigen van hun nieuwe videokaarten, moet het niet lang duren. Wanneer zouden we mogelijk een aankondiging van AMD kunnen verwachten? November lijkt me al te laat.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
RobinNL schreef op dinsdag 1 september 2020 @ 19:16:
@Astennu Ja oke, het verschil tussen de 3070 en 3080 is wel een stuk groter.

Ik ben wel benieuwd... Nu Nvidia de nieuwe videokaarten heeft aangekondigd zijn mensen best wel gehyped. Als AMD op tijd wil zijn met het aankondigen van hun nieuwe videokaarten, moet het niet lang duren. Wanneer zouden we mogelijk een aankondiging van AMD kunnen verwachten? November lijkt me al te laat.
Er waren geruchten voor Oktober.
AMD heeft nu even de tijd om te kijken hoe ze hun lineup willen indelen om dit te counteren. IPC zouden ze ook eind sept al kunnen aankondigen en dan Oktober launch?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 21:46

Apoca

Array Technology Industry

Ik moet zeggen dat de 3070 en de 3080 best prima geprijsd zijn voor de performance die ze blijkbaar gaan leveren voor respectievelijk 519 en 719 euro. Ik ben echt super benieuwd wat AMD daar tegenover gaat plaatsen straks :)

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • RobinNL
  • Registratie: December 2009
  • Nu online
@Astennu Ik denk dat een september aankondiging met een snelle lancering het beste zou zijn voor AMD als ze goed kunnen concurreren met de 3070 en 3080 (en misschien ietsjes hoger, al verwacht ik geen 3090 performance). In het andere topic zie je dat mensen klaar staan om een nieuwe videokaart te kopen. Het zou mooi zijn als AMD deze kopers kan overhalen naar hun kant. Goede concurrentie is alleen maar goed voor de consument.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


Acties:
  • +3 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 21:46

Apoca

Array Technology Industry

Afbeeldingslocatie: https://tweakers.net/i/kKL15yDYN4UGIdjf0qJ1BFuVn34=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/Cs8Wm6BqCTKNjKUTBKcHA2Zh.jpg?f=user_large

:P >:)

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • +2 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Als ik AMD was zou ik dan maar snel wat gaan leaken voordat iedereen nvidia leeggekocht heeft..... :o

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Help!!!! schreef op dinsdag 1 september 2020 @ 19:38:
[...]

Als ik AMD was zou ik dan maar snel wat gaan leaken voordat iedereen nvidia leeggekocht heeft..... :o
Dat denk ik dus ook. Iedereen denk yes koopje tov Turing kopen kopen kopen. Ze moeten wel weten waar ze op moeten wachten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
AMD moet nu wel heel goed uitkijken met wat ze zeggen, anders wordt het weer een domper voor hun.

Acties:
  • 0 Henk 'm!

  • Enchantress
  • Registratie: Mei 2016
  • Niet online
Astennu schreef op dinsdag 1 september 2020 @ 19:54:
[...]


Dat denk ik dus ook. Iedereen denk yes koopje tov Turing kopen kopen kopen. Ze moeten wel weten waar ze op moeten wachten.
Altijd wachten totdat alle bedrijven hun nieuwe kaarten gereleased hebben. Ik wacht wel tot AMD ook hun kaarten klaar hebben.

Voor hetzelfde geldt koop je een 3080 voor 720 euro en komt een maand later AMD met een 3080 presterende kaart voor 500 euro. (bij wijze van)

Acties:
  • 0 Henk 'm!

  • RobinNL
  • Registratie: December 2009
  • Nu online
Enchantress schreef op dinsdag 1 september 2020 @ 20:07:
[...]

Altijd wachten totdat alle bedrijven hun nieuwe kaarten gereleased hebben. Ik wacht wel tot AMD ook hun kaarten klaar hebben.
Dat is mijn idee ook. Ik wacht op benchmarks van Nvidia vs AMD. Dan wil ik pas een keuze maken.

Het zou ook mooi zijn als AMD Zen 3 rond dezelfde tijd lanceert als de videokaarten.

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik zie het juist positief in. GA102 is een op het eerste gezicht gigantische 10752CC chip. De RTX3080 is 8704CC. Dat is 81% van de volle chip. Die verkopen ze voor $699. Dit kan ik moeilijk anders uitleggen dan dat Nvidia bang is voor Navi 21.

Voor mijn verklaring van de gigantische Cuda Core toename, zie:
DaniëlWW2 in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"


Inmiddels is het denk ik wel duidelijk dat Navi 21 80CU's gaat zijn. Dus 5120 ALU's. Als GDDR6X exclusief blijkt te zijn voor Nvidia, dan verwacht ik 16GB HBM2E in twee stacks. Na deze aankondigingen is HBM2E denk ik ook waarschijnlijker geworden. Ik denk namelijk al een tijdje dat Nvidia en AMD veel meer van elkaars roadmaps en capaciteiten weten dan wij denken. Het gaat hier om te veel geld voor toeval. Elke stack van dat spul is maximaal 460GB/s waardoor je dus 920GB/s. Dat alleen is al fors meer dan de RTX3080 heeft.

Daarbovenop komt de node. De RTX3080 is 320W op Samsung 8nm met 760GB/s. Boost clock is 1710MHz. De 300W grens is dus gebroken en kan je vergeten. We weten dat de PS5 haar 36CU chip al 2,23GHz sustained kan. Ik zou echt niet verbaast zijn als Navi 21 ook 2GHz+ kan.

Met de inschatting dat in cherry picked RTX3080, circa 50% sneller is met tweemaal zoveel Cuda Cores als de RTX2080Ti, tja dat is niet buiten bereik. Immers is zelfs op 4K, de RTX2080Ti iets van 50% sneller dan de RX5700XT. Een verdubbeling van de RX5700XT is volgende de Navi 21 lekken het minimale doel en dat zou je al op cherry picked RTX3080 niveau brengen. De potentie om de RTX3080 te verslaan, bestaat zeker.

De RTX3090 is denk ik buiten bereik, maar die is eigenlijk ook uit de markt geprijsd door Nvidia zelf. Misschien gaat Navi 21 daar in de buurt van komen met een speculatieve MSI Lightning of Sapphire Toxic. De RTX3090 is immers 350W, verbruik is irrelevant.


De vraag is of AMD nu half september gaat teasen en eind september een paper launch doet. Dat zou ik namelijk doen als de kaarten klaar waren om er enkele tientallen rond te sturen aan reviewers. Ik verwacht ook dat AMD gaat proberen om RDNA2 en Zen 3 te koppelen aan elkaar.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Astennu schreef op dinsdag 1 september 2020 @ 18:50:
Oef AMD krijgt hier nog een aardige kluif aan:
Misschien, maar we weten niet hoe de huidige Navi 21 samples presteren. Als het tegenvalt, kan AMD de komende tijd gebruiken om de kloksnelheid nog wat omhoog te gooien. Da's het voordeel om niet als eerste een nieuwe line-up in de markt te zetten.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • Tk55
  • Registratie: April 2009
  • Niet online
RobinNL schreef op dinsdag 1 september 2020 @ 19:26:
@Astennu Ik denk dat een september aankondiging met een snelle lancering het beste zou zijn voor AMD als ze goed kunnen concurreren met de 3070 en 3080 (en misschien ietsjes hoger, al verwacht ik geen 3090 performance). In het andere topic zie je dat mensen klaar staan om een nieuwe videokaart te kopen. Het zou mooi zijn als AMD deze kopers kan overhalen naar hun kant. Goede concurrentie is alleen maar goed voor de consument.
Een 3090 alternatief is enkel voor het label "wij zijn de snelste". Wie koopt zo'n ding nou? :D Ik ben eigenlijk wel benieuwd hoeveel GPUs er eigenlijk in elk segment (low, mid, high-end) verkocht worden. Een 3070 voor meer dan 500 euro is natuurlijk behoorlijk aan de prijs. Zeker als je ziet dat de meest aangeraden CPU zo'n 170 euro kost.

Moet AMD hier dan zo voor vrezen? De afgelopen generatie zaten hun kaarten in de mid-range. Volgens mij worden juist in die mid-range een hoop kaarten verkocht, zij het met minder marge. Concurrentie is zeker beter, maar het betekent verre van het einde voor AMD.

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 08-10 23:23
DaniëlWW2 schreef op dinsdag 1 september 2020 @ 21:08:Ik denk namelijk al een tijdje dat Nvidia en AMD veel meer van elkaars roadmaps en capaciteiten weten dan wij denken.
Dit roep ik al jaren en iedere keer zegt men nee. Het is gewoonweg onmogelijk dat er niets uitlekt bij al die derde partijen. Als jij daar als Aziaat opeens een paar duizend toegeschoven krijgt ga je praten en de performance simuleren kunnen ze maar al te goed, zowel van hun eigen architectuur als de concurrentie.

[ Voor 10% gewijzigd door Paprika op 01-09-2020 21:27 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

DaniëlWW2 schreef op dinsdag 1 september 2020 @ 21:08:
Ik zie het juist positief in. GA102 is een op het eerste gezicht gigantische 10752CC chip. De RTX3080 is 8704CC. Dat is 81% van de volle chip. Die verkopen ze voor $699. Dit kan ik moeilijk anders uitleggen dan dat Nvidia bang is voor Navi 21.

Voor mijn verklaring van de gigantische Cuda Core toename, zie:
DaniëlWW2 in "[Algemeen] NVIDIA Nieuwsdiscussie Topic - Deel 56"


Inmiddels is het denk ik wel duidelijk dat Navi 21 80CU's gaat zijn. Dus 5120 ALU's. Als GDDR6X exclusief blijkt te zijn voor Nvidia, dan verwacht ik 16GB HBM2E in twee stacks. Na deze aankondigingen is HBM2E denk ik ook waarschijnlijker geworden. Ik denk namelijk al een tijdje dat Nvidia en AMD veel meer van elkaars roadmaps en capaciteiten weten dan wij denken. Het gaat hier om te veel geld voor toeval. Elke stack van dat spul is maximaal 460GB/s waardoor je dus 920GB/s. Dat alleen is al fors meer dan de RTX3080 heeft.

Daarbovenop komt de node. De RTX3080 is 320W op Samsung 8nm met 760GB/s. Boost clock is 1710MHz. De 300W grens is dus gebroken en kan je vergeten. We weten dat de PS5 haar 36CU chip al 2,23GHz sustained kan. Ik zou echt niet verbaast zijn als Navi 21 ook 2GHz+ kan.

Met de inschatting dat in cherry picked RTX3080, circa 50% sneller is met tweemaal zoveel Cuda Cores als de RTX2080Ti, tja dat is niet buiten bereik. Immers is zelfs op 4K, de RTX2080Ti iets van 50% sneller dan de RX5700XT. Een verdubbeling van de RX5700XT is volgende de Navi 21 lekken het minimale doel en dat zou je al op cherry picked RTX3080 niveau brengen. De potentie om de RTX3080 te verslaan, bestaat zeker.

De RTX3090 is denk ik buiten bereik, maar die is eigenlijk ook uit de markt geprijsd door Nvidia zelf. Misschien gaat Navi 21 daar in de buurt van komen met een speculatieve MSI Lightning of Sapphire Toxic. De RTX3090 is immers 350W, verbruik is irrelevant.


De vraag is of AMD nu half september gaat teasen en eind september een paper launch doet. Dat zou ik namelijk doen als de kaarten klaar waren om er enkele tientallen rond te sturen aan reviewers. Ik verwacht ook dat AMD gaat proberen om RDNA2 en Zen 3 te koppelen aan elkaar.
Als de Big Navi de 3080 evenaart dan heeft nVidia heeft in ieder geval nog wat ruimte om een 3080 Super uit te brengen.

Ben verder ook benieuwd naar verschil in die size tussen GA102 en Big Navi. nVidia is denk ik behoorlijk all out gegaan qua die-size voor de ga102. Dat zie ik AMD nog niet doen.

Je kunt nu denk ik wel stellen dat big Navi zowel qua performance (incl. RT) als featureset toch wel moet gaan matchen met de 3080 om echt een succes te worden. Lagere performance tegen een lagere prijs is toch niet echt een succes gebleken om echt met nvidia te concurreren.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • RobinNL
  • Registratie: December 2009
  • Nu online
Tk55 schreef op dinsdag 1 september 2020 @ 21:21:
[...]

Een 3090 alternatief is enkel voor het label "wij zijn de snelste". Wie koopt zo'n ding nou? :D
Meer mensen dan je misschien zou denken ;)

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op dinsdag 1 september 2020 @ 21:08:
Daarbovenop komt de node. De RTX3080 is 320W op Samsung 8nm met 760GB/s. Boost clock is 1710MHz. De 300W grens is dus gebroken en kan je vergeten. We weten dat de PS5 haar 36CU chip al 2,23GHz sustained kan. Ik zou echt niet verbaast zijn als Navi 21 ook 2GHz+ kan
Ik verwacht zelfs minimaal ps5 clocks. Zon console lijkt mij toch gebonden goedkopere koeling en omdat er miljoenen van over de toonbank gaan zullen de yields ook conservatiever gemaakt zijn door de clocks laag te houden.

Een high end kaart kan dus de clocks nog meer pushen want chips die het niet halen kunnen Ine en lager tier producten gestopt worden.

Tenzij Sony dus echt eigen werk heeft gedaan aan de ps5 chip wat betreft clocksnelheden.

[ Voor 5% gewijzigd door Verwijderd op 01-09-2020 21:39 ]


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op dinsdag 1 september 2020 @ 21:26:
[...]

Dit roep ik al jaren en iedere keer zegt men nee. Het is gewoonweg onmogelijk dat er niets uitlekt bij al die derde partijen. Als jij daar als Aziaat opeens een paar duizend toegeschoven krijgt ga je praten.
Ik geloof het ook niet. Ik vermoed zelfs dat de ingenieurs van Nvidia en AMD onderling ook wel praten met elkaar in de VS. Natuurlijk zullen ze dat proberen te stoppen vanuit senior management, maar die mensen zullen elkaar ook wel eens tegenkomen buiten het werk om, van baan wisselen etc. Verder als je zo iemand hoort, dan zijn het vaak types met een zekere passie. Die blijven niet stil als ze echt aan iets bijzonders werken. Zo verzamelen ze denk ik van elkaar ook wel een beeld. Verder hebben we gezien dat beide kampen eigenlijk zo lek als een mandje zijn. Wat er allemaal over Ampère is uitgelekt dat helemaal klopt. Voor RDNA2 is het iets lastiger, maar we hebben ook een ruw beeld en het zijn dezelfde leakers.

Als ik dan zulke dingen zie, tja. Ik denk niet dat dit van AIB's komt.




Ik zie de AIB's eigenlijk meer als de ultieme bevestiging. Het gaat altijd los zodra die zaken weten, maar ervoor lekt er meestal al heel wat.
Help!!!! schreef op dinsdag 1 september 2020 @ 21:29:
[...]

Als de Big Navi de 3080 evenaart dan nvidia heeft in ieder geval nog ruimte om een 3080 Super uit te brengen.

Ben verder ook benieuwd naar verschil in die size tussen GA102 en Big Navi. nVidia is denk ik behoorlijk all out gegaan qua die-size voor de ga102. Dat zie ik AMD nog niet doen.

Je kunt nu denk ik wel stellen dat big Navi zowel qua performance (incl. RT) als featureset toch wel moet gaan matchen met de 3080 om echt een succes te worden. Lagere performance tegen een lagere prijs is toch niet echt een succes gebleken om echt met nvidia te concurreren.
Ik ga er voorlopig vanuit dat RT minder is, maar laten we RT ook niet overdrijven. Turing RT was gewoon bagger met de meest minimale effecten en je framerate door de helft. Nu lijken we naar bijna een verdubbeling te kijken, maar de RTX3080 is waarschijnlijk weer 50% sneller dan de RTX2080Ti. Je kijkt dus nog steeds naar een forse prestatie impact. Het zal geen halvering meer zijn, maar 1/3 is goed mogelijk.

Verder kan AMD altijd nog inzetten op $649 of $599 als de RT dusdanig zwakker is maar de shaders zelf RTX3080 niveau. Dan heb je de keuze.
Verwijderd schreef op dinsdag 1 september 2020 @ 21:38:
[...]


Ik verwacht zelfs minimaal ps5 clocks. Zon console lijkt mij toch gebonden goedkopere koeling en omdat er miljoenen van over de toonbank gaan zullen de yields ook conservatiever gemaakt zijn door de clocks laag te houden.

Een high end kaart kan dus de clocks nog meer pushen want chips die het niet halen kunnen Ine en lager tier producten gestopt worden.
Dat ga ik niet zeggen omdat Navi 21 een zeer grote chip zal zijn. Je gaat een serieuze hitte concentratie krijgen en die gaat clock speeds beïnvloeden. Kijk alleen al hoe gevoelig de RX5700XT is hiervoor. Ik zou voorzichtig zijn qua clock speeds totdat we het weten. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Ik denk RT toch wel belangrijk wordt in de mindset van de koper. In ieder geval stuk meer dan ik voor deze launch verwacht had.

Bij Turing was het idd duidelijk echt niks meer dan een gimmick, een proof of concept. Nu is het toch wel een feature die mensen zullen willen gaan proberen en als meer volwaardig zien.

Niet dat ik graag hogere prijzen wil maar ik denk dat AMD om materieel marketshare te kunnen winnen echt qua performance gelijkwaardig zal moeten zijn aan in ieder geval de kaarten tm de 3080. En ook die prijzen moet gaan rekenen. Het 'net niet' scenario is gewoon killing voor ze.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op dinsdag 1 september 2020 @ 21:42:


Dat ga ik niet zeggen omdat Navi 21 een zeer grote chip zal zijn. Je gaat een serieuze hitte concentratie krijgen en die gaat clock speeds beïnvloeden. Kijk alleen al hoe gevoelig de RX5700XT is hiervoor. Ik zou voorzichtig zijn qua clock speeds totdat we het weten. :)
Dat zou kunnen inderdaad. AMD heeft wel al clockspeeds verbeteringen aangekondigd in de slides van rdna2 of ze hiermee aangeven dat het warmte/dichtheid probleem van de 5700 is opgelost is nog een grote vraag.

Wellicht dat AMD het opgelost heeft met architectuur verandering of dat de node verbeteringen genoeg zijn.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Help!!!! schreef op dinsdag 1 september 2020 @ 21:52:
^
Ik denk RT toch wel belangrijk wordt in de mindset van de koper. In ieder geval stuk meer dan ik voor deze launch verwacht had.

Bij Turing was het idd duidelijk echt niks meer dan een gimmick, een proof of concept. Nu is het toch wel een feature die mensen zullen willen gaan proberen en als meer volwaardig zien.

Niet dat ik graag hogere prijzen wil maar ik denk dat AMD om materieel marketshare te kunnen winnen echt qua performance gelijkwaardig zal moeten zijn aan in ieder geval de kaarten tm de 3080. En ook die prijzen moet gaan rekenen. Het 'net niet' scenario is gewoon killing voor ze.
Volgens de leaks heeft RDNA2 dan ook beduidend betere RT dan Turing. Ik verwacht voorlopig geen Ampere, maar ik sluit het ook niet helemaal uit. Verder zal het verschil in RT tussen de RTX3080 en RTX3070 behoorlijk zijn omdat het per SM is. GA104 is een veel kleinere chip en daar zal de RT waarschijnlijk nog steeds niet erg goed zijn. :)
Verwijderd schreef op dinsdag 1 september 2020 @ 22:02:
[...]


Dat zou kunnen inderdaad. AMD heeft wel al clockspeeds verbeteringen aangekondigd in de slides van rdna2 of ze hiermee aangeven dat het warmte/dichtheid probleem van de 5700 is opgelost is nog een grote vraag.

Wellicht dat AMD het opgelost heeft met architectuur verandering of dat de node verbeteringen genoeg zijn.
Er zit waarschijnlijk een node verbetering aan te komen. Van TSMC N7 naar waarschijnlijk N7P.
https://en.wikichip.org/wiki/7_nm_lithography_process#N7P

Het meeste zal alleen architectuur moeten zijn. Ik verwacht dat ze vrijwel alles van die 50% perf/watt, hoe dat ook gedefinieerd mag zijn, in snelheid stoppen. Als Navi 21 dan HBM2E gebruikt, tja dan win je waarschijnlijk al enkele tientallen watts over GDDR6, laat staan GDDR6X. Er is genoeg ruimte voor AMD om de RX5700XT te verdubbelen zo. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Ik verwacht eigenlijk wel HBM geheugen voor het topmodel en denk dat GDDR6X weer nVidia only is net als GDDR5X was.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Ik denk het eigenlijk ook wel dat het HBM2E gaat worden.


Wat ook komt is DirectStorage. Het viel te verwachten omdat de XSX het heeft en Nvidia lijkt het ook te ondersteunen met RTX IO. Voor AMD zijn de geruchten HBCC2.0 en dat gaat denk ik ook wel komen. DMA voor de PC lijkt ook een realiteit te worden.
https://devblogs.microsof...tstorage-is-coming-to-pc/

Ik vermoed wel dat je PCI-E 4.0 nodig gaat hebben. Niet dat het meteen gaat verschijnen, maar het zit er nu wel aan te komen.

[ Voor 7% gewijzigd door DaniëlWW2 op 01-09-2020 23:57 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op dinsdag 1 september 2020 @ 22:09:
[...]

Het meeste zal alleen architectuur moeten zijn. Ik verwacht dat ze vrijwel alles van die 50% perf/watt, hoe dat ook gedefinieerd mag zijn, in snelheid stoppen. Als Navi 21 dan HBM2E gebruikt, tja dan win je waarschijnlijk al enkele tientallen watts over GDDR6, laat staan GDDR6X. Er is genoeg ruimte voor AMD om de RX5700XT te verdubbelen zo. :)
Persoonlijk zie ik liever geen HBM, want het schijnt flink duurder te zijn. Dat maakt het voor AMD misschien wat lastiger om de videokaart goed te positioneren tegenover de concurrent (alhoewel AMD dan weer het voordeel van een kleinere die size heeft). Desalniettemin zou Navi 21 met GDDR6(X) geheugen alsnog goedkoper in de markt gezet kunnen worden.

Maar als GDDR6X exclusief voor Nvidia is, en AMD de bandbreedte nodig heeft, is er natuurlijk geen andere keuze dan HBM.

March of the Eagles


Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Enchantress schreef op dinsdag 1 september 2020 @ 20:07:
[...]

Altijd wachten totdat alle bedrijven hun nieuwe kaarten gereleased hebben. Ik wacht wel tot AMD ook hun kaarten klaar hebben.

Voor hetzelfde geldt koop je een 3080 voor 720 euro en komt een maand later AMD met een 3080 presterende kaart voor 500 euro. (bij wijze van)
Helaas denken veel mensen niet zo zeker als AMD nog niets aangekondigd heeft. Die gaan dan gewoon voor die nieuwe 3070 of 3080. Dus het is juist belangrijk dat AMD ook wat laat zien.
nVidia speelt het wel slim door met games als fortnite, Valorant, COD en Cyberpunk te promoten dan heb je toch een paar veel gespeelde te pakken waar ook veel jonge gamers interesse hebben en je mag raden wat die aan de ouders gaan vragen :)
XWB schreef op dinsdag 1 september 2020 @ 21:12:
[...]


Misschien, maar we weten niet hoe de huidige Navi 21 samples presteren. Als het tegenvalt, kan AMD de komende tijd gebruiken om de kloksnelheid nog wat omhoog te gooien. Da's het voordeel om niet als eerste een nieuwe line-up in de markt te zetten.
Nee klopt maar de bar is zoals verwacht hoog neer gelegd.
Gezien de prestaties van de 3080 tov de 2080 en 2080Ti heeft nVidia duidelijk zijn best gedaan.

Ik denk niet dat Navi21 de 3090 gaat verslaan. Ik hoop van wel maar die stap is wel erg groot tov RDNA1 maar wie weet verassen ze iedereen :)
Maar ook gewoon zaken als DLSS beginnen nu wel echt mee te helpen. Waar dat @ launch bij de RTX2000 kaarten nog niet was. Is het nu wel een feature die echt wat toevoegt en die ik zelf ook aan zou zetten als ik een kaart zou hebben die het kan. IQ is inderdaad zo goed als gelijk maar de FPS veel hoger.
Het is te hopen dat AMD daar straks ook een goed alternatief voor heeft wat game dev's ook gaan gebruiken. Hetzelfde geld voor AMD's RT implementatie werkt dat meteen met games of moeten er patches komen? Dat wordt nog even spannend en wel bepalend voor het succes. Waar RT 2 jaar terug niet echt een selling point was voor veel mensen is dat met Ampere wel anders.
Help!!!! schreef op dinsdag 1 september 2020 @ 21:52:
^
Ik denk RT toch wel belangrijk wordt in de mindset van de koper. In ieder geval stuk meer dan ik voor deze launch verwacht had.

Bij Turing was het idd duidelijk echt niks meer dan een gimmick, een proof of concept. Nu is het toch wel een feature die mensen zullen willen gaan proberen en als meer volwaardig zien.

Niet dat ik graag hogere prijzen wil maar ik denk dat AMD om materieel marketshare te kunnen winnen echt qua performance gelijkwaardig zal moeten zijn aan in ieder geval de kaarten tm de 3080. En ook die prijzen moet gaan rekenen. Het 'net niet' scenario is gewoon killing voor ze.
Dat denk ik ook. Zeker nu steeds meer games het ondersteunen. BV een fortnite is echt huge dat die nu ook support hebben. En als je dat bij Ampere aan kan zetten zonder een grote FPS drop heeft het ook in mijn ogen echt meerwaarde. De rede dat ik het geen meerwaarde vond hebben bij Turing waren de veel lagere prestaties als het aan stond en dat je je resolutie omlaag moet zetten. Als ik gewoon op mijn native resolutie kan spelen zonder een lagere framerate door DLSS 2.0 te gebruiken vind ik het helemaal prima. Maar toen Turing net uit was had je de slechte DLSS 1.0 implementatie en sowieso was de performance hit op die kaarten gigantisch want de RT cores en Tensor cores waren nog te zwak.

Dat lijkt nu allemaal opgelost. (was ook wel de verwachting) Als nVidia RTX echt van de grond wilde hebben moesten ze er nu ook vol op in gaan zetten en dat hebben ze duidelijk gedaan.
-The_Mask- schreef op dinsdag 1 september 2020 @ 22:15:
Ik verwacht eigenlijk wel HBM geheugen voor het topmodel en denk dat GDDR6X weer nVidia only is net als GDDR5X was.
Dat vrees ik dus ook :'( het probleem is een beetje dat GDDR6 niet snel genoeg is voor Big Navi dan krijg je weer memory bottelneks of ze moeten hele goede memory compressie hebben. Echter heeft nVidia dat al even.
een HBM2E model kan dat wel oplossen maar dan wordt het 699 price point wel erg lastig dan moet je wel beter scoren zodat je in het segment tussen de 3080 en 3090 kan gaan zitten. Of de 3090 evenaren maar dat zie ik dan weer niet 123 gebeuren.

Het snelste GDDR6 geheugen is 16Gbps dat is toch wel even wat anders dan de 19 die nVidia nu gebruikt dat scheelt je meteen 20%.
Met een 384 bit bus kan je dat wel gelijk trekken tegen een 320Bit bus maar dan moet je voor het top model wel iets snellers hebben gezien nVidia daar wel 384Bit heeft met 19gbps of zelfs sneller geheugen want er zijn samples met 21gbps gezien.

Of hele slimme compressie gebruiken maar daar zie ik ze nVidia ook niet 123 inhalen eerder evenaren.

[ Voor 5% gewijzigd door Astennu op 02-09-2020 00:27 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • Palindrome
  • Registratie: September 2020
  • Laatst online: 00:18
Astennu schreef op woensdag 2 september 2020 @ 00:24:
Ik denk niet dat Navi21 de 3090 gaat verslaan. Ik hoop van wel maar die stap is wel erg groot tov RDNA1 maar wie weet verassen ze iedereen
Ik verwacht dat ze op rasterization performance wel in de buurt gaan komen en in iedergeval competatief zijn met de 3080 en 3070 alleen heeft Nvidia letterlijk wat "tricks up its sleeve" namelijk AI/ML implementaties zoals DLLS evenals de RT implementatie waarvan ik toch wel verwacht dat Nvidia ook daarin gaat domineren, ook daar kunnen ze ML in leveragen.

Ik weet dat RDNA2 ook Raytracing gaat doen en het patent van AMD laat zien dat ze special units hebben geïntegreerd die gekoppeld zijn aan de texture processors maar of ze hiermee meteen op gelijke voet staan valt nog te bezien. Zelf concludeer ik uit de raytracing demo's van minecraft op de Xbox series X en de DRX demo van minecraft welke ook pathtracing doet dat XSX met zijn 54 CU's vergelijkbaar is met een RTX2060 wat betreft raytracing performance. De XSX haalde "variable north of 30 fps @ 1080P" en de rtx 2060 rond de 31 FPS @ 1080p.

https://www.tomshardware....minecraft-rtx-performance, https://www.eurogamer.net...th-the-minecraft-rtx-beta
https://images.hothardwar...ntent/minecraft-chart.png

[ Voor 3% gewijzigd door Palindrome op 02-09-2020 03:17 ]


Acties:
  • 0 Henk 'm!

  • geenwindows
  • Registratie: November 2015
  • Niet online
Ondanks de 3000 serie van Nvidia, heb ik mijn ogen nog steeds gericht op Big Navi, hopelijk heeft AMD dan wel die bloedje irritante "Reset Bug" opgelost. Ook als Big Navi minder presteert dan is die reset bug probleem mijn grootste keuze bepaler...

Fan van: Unraid, ProxMox, Pi-hole, PlexMediaServer, OPNsense. Meer een gluurder dan een reaguurder.


Acties:
  • 0 Henk 'm!

  • JeroenNietDoen
  • Registratie: Januari 2001
  • Laatst online: 09-10 18:12
geenwindows schreef op woensdag 2 september 2020 @ 07:01:
Ondanks de 3000 serie van Nvidia, heb ik mijn ogen nog steeds gericht op Big Navi, hopelijk heeft AMD dan wel die bloedje irritante "Reset Bug" opgelost. Ook als Big Navi minder presteert dan is die reset bug probleem mijn grootste keuze bepaler...
Waarom als ik vragen mag?

Bedoel, als beide kaarten in hetzelfde prijssegment zitten, en Big Navi minder presteert, waarom kies je dan toch voor de minder presterende?

Acties:
  • 0 Henk 'm!
Bijna iedereen die een weloverwegen keuze over het kopen van een product maakt gaat voor prijs/prestatie en prijs/kwaliteit. Niet voor welke fabrikant het snelste product heeft en dan een product van kopen. Dat zegt immers niks over het product wat jij overweegt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
geenwindows schreef op woensdag 2 september 2020 @ 07:01:
Ondanks de 3000 serie van Nvidia, heb ik mijn ogen nog steeds gericht op Big Navi, hopelijk heeft AMD dan wel die bloedje irritante "Reset Bug" opgelost. Ook als Big Navi minder presteert dan is die reset bug probleem mijn grootste keuze bepaler...
Welke reset bug bedoel je? Ik heb zelf een 5700 XT maar ben er niet mee bekend.
Bedoel je dat wattman reset?
JeroenNietDoen schreef op woensdag 2 september 2020 @ 08:48:
[...]

Waarom als ik vragen mag?

Bedoel, als beide kaarten in hetzelfde prijssegment zitten, en Big Navi minder presteert, waarom kies je dan toch voor de minder presterende?
Denk je echt dat AMD een kaart uit gaat brengen die trager is en minder goed presteert? Dan verkopen ze amper wat. nVidia wint het nog steeds als het gaat om naam en trekt op die manier de kopers naar zich toe. Zelfs als AMD maar iets goedkoper is verkoopt nVidia meer. Kortom AMD moet wel scherp prijzen willen ze kopers over halen.

Ik zie het echt niet gebeuren dat RDNA2 kaarten duurder worden dan nVidia kaarten en minder presteren. Dan kan AMD net zo goed niets uit brengen.
Palindrome schreef op woensdag 2 september 2020 @ 03:13:
[...]


Ik verwacht dat ze op rasterization performance wel in de buurt gaan komen en in iedergeval competatief zijn met de 3080 en 3070 alleen heeft Nvidia letterlijk wat "tricks up its sleeve" namelijk AI/ML implementaties zoals DLLS evenals de RT implementatie waarvan ik toch wel verwacht dat Nvidia ook daarin gaat domineren, ook daar kunnen ze ML in leveragen.

Ik weet dat RDNA2 ook Raytracing gaat doen en het patent van AMD laat zien dat ze special units hebben geïntegreerd die gekoppeld zijn aan de texture processors maar of ze hiermee meteen op gelijke voet staan valt nog te bezien. Zelf concludeer ik uit de raytracing demo's van minecraft op de Xbox series X en de DRX demo van minecraft welke ook pathtracing doet dat XSX met zijn 54 CU's vergelijkbaar is met een RTX2060 wat betreft raytracing performance. De XSX haalde "variable north of 30 fps @ 1080P" en de rtx 2060 rond de 31 FPS @ 1080p.

https://www.tomshardware....minecraft-rtx-performance, https://www.eurogamer.net...th-the-minecraft-rtx-beta
https://images.hothardwar...ntent/minecraft-chart.png
Als dat zo zou zijn is de RT performance van de Xbox waardeloos. Dus ik geloof daar eerlijk gezegd niet in. Met RT prestaties van een 2060 zou de performance hit gigantisch zijn en heb je hetzelfde als bij Turing een gemmick.
Dus ik ga er nog steeds van uit dat AMD met iets beters gaat komen. Al is het maar voor bepaalde effecten die sneller werken zonder grote hit.

Path tracing is a different beast. Ik kan mij voorstellen dat AMD daar nu nog geen focus op heeft. Ampere kan dat gezien de nieuwe Marble demo best wel snel doen. Maar de RT hardware is ook veel krachtiger geworden dan in Turing. Ik zie dat de 2080

34 RT-Tflops heeft volgens de slides van nVidia. Ik zal zo even een nieuw compleet lijstje maken. Maar de RT performance is bijna 2x dat van Turing. En wellicht zijn de RT units ook slimmer geworden zodat ze meer kunnen doen met minder.

[ Voor 68% gewijzigd door Astennu op 02-09-2020 09:47 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09-10 18:43
Ik denk eigenlijk wel dat AMD relatief snel nu met een overtuigende aankondiging c.q. wat overtuigend materiaal moet leaken, een paar dagen voor de daadwerkelijke 3000 serie van Nvidia zou mooi zijn denk ik.

Anders ga je denk ik toch echt veel potentiële kopers mislopen.

Ik hoop dat AMD dit keer dan ook het volledige plaatje goed gaat invullen en niet alleen op rasterization performance in de buurt gaat komen, maar ook de raytracing en andere AI funtionaliteit voor elkaar gaat hebbeben, ik zie dat namelijk steeds meer een selling point gaan worden.

En ook op software vlak moeten ze er imho direct staan, dus geen driver issues die het nieuws bij de techtubers gaan domineren, daar hadden echt veel te veel klanten problemen mee bij eerste generatie navi producten. Maar denk ook bijvoorbeeld aan die webcam / streamer demo van Nvidia. Kleine stukjes software als dat kunnen klanten toch net over de streep trekken en ook op dat vlak heb ik het idee dat Nvidia beter aan de weg timmert dan AMD.

Ik denk zelfs dat het mogelijk kan zijn dat als je echt stappen wil maken in market share dat je gewoon minimaal 20% beter moet zijn (mogelijk op alle vlakken) dan nVidia op hetzelfde prijspunt, net zoals je pas zag op de cpu markt dat in het DiY segment AMD markt aandeel pas echt omhoog knalde bij Zen 2.

[ Voor 25% gewijzigd door Dennism op 02-09-2020 10:11 ]


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 08-10 23:23
Dennism schreef op woensdag 2 september 2020 @ 10:07:
Ik hoop dat AMD dit keer dan ook het volledige plaatje goed gaat invullen en niet alleen op rasterization performance in de buurt gaat komen, maar ook de raytracing en andere AI funtionaliteit voor elkaar gaat hebben, ik zie dat namelijk steeds meer een selling point gaan worden.
Er zijn inderdaad mensen die er niets aan vinden (en dat mag), maar stel AMD brengt een kaart uit met RTX 3080 performance in Doom voor dezelfde prijs, dan zou ik Nvidia kiezen, want de DLSS en RT performance komt daar nog eens bovenop.

Inmiddels kun je de featureset toch niet meer negeren als je het mij vraagt.

[ Voor 5% gewijzigd door Paprika op 02-09-2020 10:11 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09-10 18:43
Paprika schreef op woensdag 2 september 2020 @ 10:11:
[...]

Er zijn inderdaad mensen die er niets aan vinden (en dat mag), maar stel AMD brengt een kaart uit met RTX 3080 performance in Doom voor dezelfde prijs, dan zou ik Nvidia kiezen, want de DLSS en RT performance komt daar nog eens bovenop.

Inmiddels kun je de featureset toch niet meer negeren als je het mij vraagt.
Volledig mee eens.

Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Paprika schreef op woensdag 2 september 2020 @ 10:11:
[...]

Er zijn inderdaad mensen die er niets aan vinden (en dat mag), maar stel AMD brengt een kaart uit met RTX 3080 performance in Doom voor dezelfde prijs, dan zou ik Nvidia kiezen, want de DLSS en RT performance komt daar nog eens bovenop.

Inmiddels kun je de featureset toch niet meer negeren als je het mij vraagt.
Daar ben ik het ook mee eens. Als AMD wel RT heeft maar de andere zaken niet kunnen ze net als met RDNA1 wel lager gaan zitten maar is 50 euro lager nu wel genoeg? ik denk het niet meer.
DLSS is wel echt een ding daar moeten ze wel iets mee. Steeds meer games ondersteunen het en de prestatie winst is gigantisch zonder dat de IQ omlaag gaat.En er zijn geruchten dat nVidia DLSS 3.0 al bijna klaar heeft.

De Xbox en PS5 gaan volgens mij ook van upscaling gebruik maken dus ik hoop dat RDNA2 al hardware aan boord heeft om zo iets als DLSS snel genoeg te kunnen doen.
Als ze daar mee kunnen concurreren is 50 euro midner voor iets betere prestaties maar iets minder AI features denk ik wel prima. Maar RT en Upscaling moet er dan wel in zitten.

Ik heb trouwens een nieuw lijstje gemaakt van de nieuwe en oude nVidia GPU's om een vollediger beeld te maken. De 2070 S heb ik moeten berekenen. Zal niet helemaal kloppen en volgens mij heeft nVidia het over de 2080 S in hun slides maar als ik die terug reken met de waardes die we van de 2080 Ti, 2080 en 2070 wijken het aantal Tflops voor RT en Tensor een beetje af maar dit geeft wel een aardig idee. Misschien dat het er 5% naast zit maar veel meer zal het niet zijn:
3090: 36 shader TFLOPs, 69 RT TFLOPs, 285 tensor TFLOPs
2080 Ti: 13 shader TFLOPs, 39 RT TFLOPs, 114 tensor TFLOPs
3080: 30 shader TFLOPs, 58 RT TFLOPs, 238 tensor TFLOPs
2080 S: 11 shader TFLOPs, 34 RT TFLOPs, 89 tensor TFLOPs
3070: 20 shader TFLOPs, 40 RT TFLOPs, 163 Tensor TFLOPs
2070 S: 9 shader TFLOPs, 26.6 RT TFLOPs, 67 Tensor TFLOP*
Je ziet dat nVidia vooral ingezet heeft op Tensor ops en de RT prestaties wel beter zijn maar niet 2x qua pure tflops. Nu zegt dat niets. Die units kunnen efficienter en slimmer zijn waardoor ze toch meer kunnen dan die van Turing maar dit geeft wel een aardige indicatie. Maar het is duidelijk dat nVidia zwaar in zet op Compute. Net als die dubbele FP32 shaders waardoor je daar ook veel meer throughput hebt dan voorheen. En dat zie je ook duidelijk terug in de FP32 tflops. Dat is ook meer dan 2x.

[ Voor 35% gewijzigd door Astennu op 02-09-2020 10:22 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +2 Henk 'm!

  • Tk55
  • Registratie: April 2009
  • Niet online
Ben ik de enige die vindt dat een exclusieve techniek als DLSS echt heel slecht is voor concurrentie? AMD kan hier haast onmogelijk mee concurreren. Zelfs al hadden ze een alternatief, dan nog moet de techniek worden ingebouwd in game engines.

Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Tk55 schreef op woensdag 2 september 2020 @ 10:24:
dan nog moet de techniek worden ingebouwd in game engines.
Tijd om ome Sweeney uit te nodigen voor een gesprek! :)

March of the Eagles


Acties:
  • +2 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Dennism schreef op woensdag 2 september 2020 @ 10:07:

Ik hoop dat AMD dit keer dan ook het volledige plaatje goed gaat invullen en niet alleen op rasterization performance in de buurt gaat komen, maar ook de raytracing en andere AI funtionaliteit voor elkaar gaat hebbeben, ik zie dat namelijk steeds meer een selling point gaan worden.
Ik hoop vooral om eens een consistente line-up te zien van mid-range tot high-end. In de tijd van Tonga werden steeds verschillende GCN revisies door elkaar gebruikt. En met Polaris / Vega worden als het ware twee GCN generaties naast elkaar gebruikt. Tijd om deze puinhoop een keer achterwege te laten en gewoon één complete RDNA2 line-up te hebben.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op woensdag 2 september 2020 @ 00:12:
[...]


Persoonlijk zie ik liever geen HBM, want het schijnt flink duurder te zijn. Dat maakt het voor AMD misschien wat lastiger om de videokaart goed te positioneren tegenover de concurrent (alhoewel AMD dan weer het voordeel van een kleinere die size heeft). Desalniettemin zou Navi 21 met GDDR6(X) geheugen alsnog goedkoper in de markt gezet kunnen worden.

Maar als GDDR6X exclusief voor Nvidia is, en AMD de bandbreedte nodig heeft, is er natuurlijk geen andere keuze dan HBM.
En? :P
Ten eerste was HBM2 in 2017 zo duur omdat het nieuw was en de vraag groot. Dat is zeer waarschijnlijk ook allang veranderd. Ik denk ook niet dat AMD later in de levenscyclus van Vega 10 nog verlies heeft gemaakt. Idem voor Vega 20.

Maar ik dacht ik doe eens een snelle poging om te achterhalen wat het nu zou kosten. Zo ongeveer de eerste link. AMD zit wederom helemaal in HBM ontwikkeling, ook voor HBM2E. Maar kosten in 2019 toen DRAM prijzen nog hoger waren was circa $2100 per wafer bij Samsung. Inmiddels zijn de geheugenprijzen wederom aan het zakken. Zie: https://semiengineering.c...-stands-for-evolutionary/

Maar HBM2 chips zijn 7,75mm bij 11,87mm. Gooi ik dat in een wafer calculator met zelfs slechte yields dan lijk je alsnog naar 400 chips per wafer te kijken. Je hebt er waarschijnlijk acht nodig, waardoor je circa 50 Navi 21's zou kunnen voorzien van geheugen. Neem de $2100 gedeeld door 50 en je zit op ongeveer $42 per GPU. Komt er nog een interposer bij en waarschijnlijk moet iedereen zijn marges hebben. Zeg dat het AMD uiteindelijk $100 kost wat waarschijnlijk te veel is omdat de geheugenprijzen weer aan het zakken zijn en yields waarschijnlijk ook beter zijn. Ik denk dat AMD het kan betalen. ;)

Afbeeldingslocatie: https://tweakers.net/i/RgtRG9ywLkqQIewH6jt__3ZbKQg=/800x/filters:strip_exif()/f/image/2QCBxguaaJ3mBlV3OSduooRZ.png?f=fotoalbum_large

Maar dit waren Samsung prijzen. Nvidia is volgens Anandtech wat dichter op Samsung en SK Hynix met AMD. Is ook goed, want Hynix HBM2E is dus sneller.
https://www.anandtech.com...ry-now-in-mass-production


Ik heb dus veel liever dat AMD iets van 50W van het totaalverbruik gaat halen. Dat scheelt ook weer in PCB kosten, kosten van de koeling etc. Oh en geen verkapte straalkachel in je systeem.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +3 Henk 'm!

  • geenwindows
  • Registratie: November 2015
  • Niet online
JeroenNietDoen schreef op woensdag 2 september 2020 @ 08:48:
[...]

Waarom als ik vragen mag?

Bedoel, als beide kaarten in hetzelfde prijssegment zitten, en Big Navi minder presteert, waarom kies je dan toch voor de minder presterende?
Ik heb nog steeds een haat naar Nvidia door dat GPP programma, ze zijn nogal moeilijk als het op virtualisatie (mijn desktop is een VM) gaat met de Geforce series (oa Error 43) en Linux ook nog wel eens een dingetje kan (met dat laatste is AMD wat actiever met OpenSource drivers)
Uiteraard spilt prijs/kwaliteit, prijs/prestatie ook een rol.
Astennu schreef op woensdag 2 september 2020 @ 09:39:
[...]
Welke reset bug bedoel je? Ik heb zelf een 5700 XT maar ben er niet mee bekend.
Bedoel je dat wattman reset?
[...]
De Reset Bug waar je vooral last van krijgt als je Virtualisatie gebruikt, VM herstart betekend dat de GPU "uit" gaat (hoewel ik naar de energiemeter kijk betwijfel ik dat) VM kan crasht dan, de enige oplossing die er is is de gehele machine herstarten. Uiteraard ben ik me ervan bewust dat er een "Patch" beschikbaar is maar die werkt niet in alle situaties...
Als ik level1tech mag geloven heeft de Navi (wat de 5700XT is) er ook last van:
https://forum.level1techs...reset-kernel-patch/147547

Fan van: Unraid, ProxMox, Pi-hole, PlexMediaServer, OPNsense. Meer een gluurder dan een reaguurder.


Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Tk55 schreef op woensdag 2 september 2020 @ 10:24:
Ben ik de enige die vindt dat een exclusieve techniek als DLSS echt heel slecht is voor concurrentie? AMD kan hier haast onmogelijk mee concurreren. Zelfs al hadden ze een alternatief, dan nog moet de techniek worden ingebouwd in game engines.
Hoeft helemaal niet. Je hebt ook slimme technieken zoals Radeon Image Shapening die helemaal niet ingebouwd hoeven te worden en altijd werken.
Dus het ligt er maar net aan hoe AMD het gaat opzetten.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
geenwindows schreef op woensdag 2 september 2020 @ 10:41:
[...]


Ik heb nog steeds een haat naar Nvidia door dat GPP programma, ze zijn nogal moeilijk als het op virtualisatie (mijn desktop is een VM) gaat met de Geforce series (oa Error 43) en Linux ook nog wel eens een dingetje kan (met dat laatste is AMD wat actiever met OpenSource drivers)
Uiteraard spilt prijs/kwaliteit, prijs/prestatie ook een rol.
Dat heb ik ook nog steeds en daarom ga ik ook geen Ampere GPU kopen. Ik vind het mooie tech maar zo'n bedrijf wil ik niet supporten. Daarnaast zal wat AMD uit gaat brengen voor mij snel genoeg zijn. 3090 perstaties heb ik niet nodig. En ik wil er vooral niet dat soort bedragen voor betalen dat gaat mij te ver.
[...]


De Reset Bug waar je vooral last van krijgt als je Virtualisatie gebruikt, VM herstart betekend dat de GPU "uit" gaat (hoewel ik naar de energiemeter kijk betwijfel ik dat) VM kan crasht dan, de enige oplossing die er is is de gehele machine herstarten. Uiteraard ben ik me ervan bewust dat er een "Patch" beschikbaar is maar die werkt niet in alle situaties...
Als ik level1tech mag geloven heeft de Navi (wat de 5700XT is) er ook last van:
https://forum.level1techs...reset-kernel-patch/147547
Ah oke ik doe niet zo veel met VM dus ik zou dat inderdaad niet weten. Ik denk niet dat dit iets is waar AMD zwaar op in zet want er zijn maar heel weinig mensen die kaarten daar specifiek voor gebruiken. De meeste kopers gamen op de kaarten dus daar zal de primaire focus wel liggen.

Maar wie weet fixen ze het wel.
Ik heb overigens wel dingen met Virtual box gedaan daar heb ik nooit issues met AMD kaarten gehad. Maar ik gebruikte die VM's niet om in te gamen of zo.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • JeroenNietDoen
  • Registratie: Januari 2001
  • Laatst online: 09-10 18:12
Astennu schreef op woensdag 2 september 2020 @ 09:39:
[...]
Denk je echt dat AMD een kaart uit gaat brengen die trager is en minder goed presteert? Dan verkopen ze amper wat. nVidia wint het nog steeds als het gaat om naam en trekt op die manier de kopers naar zich toe. Zelfs als AMD maar iets goedkoper is verkoopt nVidia meer. Kortom AMD moet wel scherp prijzen willen ze kopers over halen.

Ik zie het echt niet gebeuren dat RDNA2 kaarten duurder worden dan nVidia kaarten en minder presteren. Dan kan AMD net zo goed niets uit brengen.
Maar, zeg ik dat ergens dan :?

Ik vraag enkel naar zijn beweegreden om ook bij mindere prestaties hoe dan ook voor big Navi te gaan, en of dat dan ook geldt wanneer er grote verschillen zijn en doe een voorbeeld geven. Concreet, ik vraag naar zijn reden om onvoorwaardelijk, op die bug na dan ;) , voor een fabrikant te kiezen.

[ Voor 6% gewijzigd door JeroenNietDoen op 02-09-2020 11:44 ]


Acties:
  • +2 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Tk55 schreef op woensdag 2 september 2020 @ 10:24:
Ben ik de enige die vindt dat een exclusieve techniek als DLSS echt heel slecht is voor concurrentie? AMD kan hier haast onmogelijk mee concurreren. Zelfs al hadden ze een alternatief, dan nog moet de techniek worden ingebouwd in game engines.
Ik ga nog een stap verder want ik vind DLSS helemaal niet zo geweldig. DLSS is in theorie mooi, maar niet kan verhullen wat het eigenlijk is. Het is een manier om lage kwaliteit resoluties op te schalen omdat de hardware niet in staat is het op native resolutie te draaien. Het resultaat zal nooit zo goed zijn als native resolutie. Het komt misschien in de buurt, maar het gaat niet gelijkwaardig zijn. Het is aardig voor de miserabele Turing kaarten, maar Ampere lijkt een heel stuk sneller te zijn. Dat maakt DLSS juist minder zinvol. Als de game een fatsoenlijke optimalisatie heeft en de textures niet in een grote waas zijn veranderd door TAA, dan heb je DLSS niet nodig. Als het in een grote TAA waas is veranderd, dan heb je juist FidelityFX of RIS nodig. Als je videokaart gewoon snel genoeg is, dan heb je DLSS ook niet nodig. Als je een niet competitieve game speelt en gewoon wil genieten van de grafische effecten, dan heb je DLSS niet nodig. DLSS komt pas om de hoek kijken als je niet een gewenste framerate haalt en dan moet die game ook DLSS ondersteunen.

En daar kom je bij de lijst van aangekondigde DLSS games. Die is ook niet bijzonder. Het zijn behoorlijk wat titels waar je van denkt, uh wat is dat?
https://www.rockpapershot...ng-and-dlss-games-so-far/

Ik heb veel liever gewoon echte shaderprestaties zodat ik niet hoef te hopen dat de game die ik wil spelen, toevallig DLSS heeft en ook moet hopen dat die game wel een goede implementatie heeft. Zoals ik al aangeef, is de lijst ook niet bevredigend want de meeste games kende ik niet eens. De enige titel die er meteen uitspringt is Cyberpunk 2077. Het probleem is dat juist een game waar je waarschijnlijk wel de native resolutie wil hebben. Zelfs als DLSS daar geweldig is, zet je waarschijnlijk ook RT aan en ga je waarschijnlijk de framerate winst van DLSS zien verdampen want RT.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 23-09 21:36

edward2

Schieten op de beesten

DLSS heeft hoogstens zin (voor mij iig) i.c.m. met RTX IMHO, dan hou je het nog een beetje speelbaar, anders gewoon native res. Maar het kan natuurlijk ook een goed compromis zijn voor langzamere GPU's, die het net niet trekken op native (4K).

Niet op voorraad.


Acties:
  • +2 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
DaniëlWW2 schreef op woensdag 2 september 2020 @ 11:57:
[...]


Ik ga nog een stap verder want ik vind DLSS helemaal niet zo geweldig. DLSS is in theorie mooi, maar niet kan verhullen wat het eigenlijk is. Het is een manier om lage kwaliteit resoluties op te schalen omdat de hardware niet in staat is het op native resolutie te draaien. Het resultaat zal nooit zo goed zijn als native resolutie. Het komt misschien in de buurt, maar het gaat niet gelijkwaardig zijn. Het is aardig voor de miserabele Turing kaarten, maar Ampere lijkt een heel stuk sneller te zijn. Dat maakt DLSS juist minder zinvol. Als de game een fatsoenlijke optimalisatie heeft en de textures niet in een grote waas zijn veranderd door TAA, dan heb je DLSS niet nodig. Als het in een grote TAA waas is veranderd, dan heb je juist FidelityFX of RIS nodig. Als je videokaart gewoon snel genoeg is, dan heb je DLSS ook niet nodig. Als je een niet competitieve game speelt en gewoon wil genieten van de grafische effecten, dan heb je DLSS niet nodig. DLSS komt pas om de hoek kijken als je niet een gewenste framerate haalt en dan moet die game ook DLSS ondersteunen.

En daar kom je bij de lijst van aangekondigde DLSS games. Die is ook niet bijzonder. Het zijn behoorlijk wat titels waar je van denkt, uh wat is dat?
https://www.rockpapershot...ng-and-dlss-games-so-far/

Ik heb veel liever gewoon echte shaderprestaties zodat ik niet hoef te hopen dat de game die ik wil spelen, toevallig DLSS heeft en ook moet hopen dat die game wel een goede implementatie heeft. Zoals ik al aangeef, is de lijst ook niet bevredigend want de meeste games kende ik niet eens. De enige titel die er meteen uitspringt is Cyberpunk 2077. Het probleem is dat juist een game waar je waarschijnlijk wel de native resolutie wil hebben. Zelfs als DLSS daar geweldig is, zet je waarschijnlijk ook RT aan en ga je waarschijnlijk de framerate winst van DLSS zien verdampen want RT.
Als je 95% van de kwaliteit kan halen met 60-70% van de rekenkracht is dat in mijn ogen wel interessant. Het is vergelijkbaar met sommige effecten die ik nu uit moet zetten omdat ik de FPS anders te laag vind. Daardoor heb je ook niet maximale beeldkwaliteit.
Dan heb ik liever alles vol uit qua effecten en dan 95% van de resolutie en scherpte maar wel de hoge FPS dan dat ik top resolutie heb maar bijna alle effecten uit moet zetten om diezelfde framerate te halen.

Het grote probleem van DLSS is de ondersteuning die echt in het spel ingebakken moet worden. Maar als AMD iets kan maken wat dat niet nodig heeft en wel in de buurt kan komen ben ik helemaal voor.

Ik zie ook eigenlijk niet in waarom het spel het moet ondersteuenen. Als je echt slimme upscaling doet zou de hardware + driver dat zelf moeten kunnen regelen lijkt mij. Misschien is het wat meer werk maar lijtk mij niet onmogelijk?

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • dewfuz
  • Registratie: Februari 2002
  • Laatst online: 09-10 14:08
Meh.. ik legde hier de RESET bug uit, maar dat had meneer geenwindows zelf al gedaan.. excuus }:O

[ Voor 94% gewijzigd door dewfuz op 02-09-2020 12:27 ]


Acties:
  • +2 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 21:46

Apoca

Array Technology Industry

Buiten dat AMD natuurlijk met de RDNA 2 komt wat mogelijk impact heeft op de prijsstelling van Nv, denk ik ook dat we de komst van de nieuwe next gen consoles niet moeten uitvlakken. Ik denk dat die de prijs van de nieuwe generatie Nv kaarten ook wel aardig omlaag hebben gedrukt.

Veel mensen maken toch keuzes in of een nieuwe console of misschien een upgrade van de PC/GPU. Nu heeft AMD hier financieel misschien ietsjes minder last van gezien ze leverancier voor Sony en MS zijn , maar voor GPU marketshare in de PC range is dit ook voor hun een lastige plek dit najaar. Ik denk dat we ook bij AMD wel eens mooie prijzen zouden kunnen zien voor de nieuwe next gen GPU's nu ik dit zo opschrijf :)

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Apoca schreef op woensdag 2 september 2020 @ 12:30:
Buiten dat AMD natuurlijk met de RDNA 2 komt wat mogelijk impact heeft op de prijsstelling van Nv, denk ik ook dat we de komst van de nieuwe next gen consoles niet moeten uitvlakken. Ik denk dat die de prijs van de nieuwe generatie Nv kaarten ook wel aardig omlaag hebben gedrukt.

Veel mensen maken toch keuzes in of een nieuwe console of misschien een upgrade van de PC/GPU. Nu heeft AMD hier financieel misschien ietsjes minder last van gezien ze leverancier voor Sony en MS zijn , maar voor GPU marketshare in de PC range is dit ook voor hun een lastige plek dit najaar. Ik denk dat we ook bij AMD wel eens mooie prijzen zouden kunnen zien voor de nieuwe next gen GPU's nu ik dit zo opschrijf :)
Dat zal zeker een rol spelen. En nog steeds krijg je bij nVidia voor de prijs van een console niet iets wat heel veel sneller gaat zijn. Mogelijk zelfs vergelijkbaar presteert gezien de specs van beide consoles zullen die ook rondom de 2080 Ti zitten qua prestaties.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 08-10 23:23
Apoca schreef op woensdag 2 september 2020 @ 12:30:
Buiten dat AMD natuurlijk met de RDNA 2 komt wat mogelijk impact heeft op de prijsstelling van Nv, denk ik ook dat we de komst van de nieuwe next gen consoles niet moeten uitvlakken. Ik denk dat die de prijs van de nieuwe generatie Nv kaarten ook wel aardig omlaag hebben gedrukt.
De consoles zijn een heel belangrijke speler. Dit is ook waarom Fortnite RTX al zo vroeg in de announcement naar voren kwam. Als het ze lukt de jeugd aan Fortnite op de pc te krijgen dan stijgt hun marketshare aanzienlijk.

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Paprika schreef op woensdag 2 september 2020 @ 12:43:
[...]

De consoles zijn een heel belangrijke speler. Dit is ook waarom Fortnite RTX al zo vroeg in de announcement naar voren kwam. Als het ze lukt de jeugd aan Fortnite op de pc te krijgen dan stijgt hun marketshare aanzienlijk.
Al denk ik dat Fortnite op de consoles straks ook RT gaat krijgen. Maar dat is in Nov pas dus het kan zijn dat een aantal gamers dan al op de nVidia bandwagon gesprongen zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Astennu schreef op dinsdag 1 september 2020 @ 19:10:
[...]


Ja ik ook wel al zit het dan wel heel dicht op elkaar zie ook dit verschil:


[...]


Heel veel ruimte zit er niet +-10% maar goed dat is prima voor een 3080 Super of 3080 Ti. Denk de super beter past want die vorige Super kaarten waren ook +-8-12% sneller geloof ik.

Ik vind het verschil qua shader performance van de 3070 wel erg groot daar passen nog wel 2 SKU's tussen als het moet.
Staar je niet blind op die TFlops, ik heb het idee dat Turing een heel stuk efficienter gebruik maakt van zijn geadverteerde TFLops dan Ampere.

De RTX 2080 heeft 10.07 TFLOPS en de RTX 3080 29.77 TFLOPS. De RTX 3090 is gemiddeld maar 70% sneller met haast 3x het aantal TFLOPS (uitgaande van de resultaten van Digital Foundry). Dus dit is een gevalletje marketing of een gigantisch inefficiente architectuur of de kaart heeft op 4k een behoorlijke bottleneck die je op lagere resoluties misschien niet hebt?

Toen ik die geadverteerde TFLOPS zag in de presentatie had ik even een wauw reactie; tot je dan de cijfers van Digital Foundry ziet en had ik een lauwe "is dit alles?" reactie. Laat niet weg dat 70% meer erg netjes is en dat dus ook niet hetgene is waar ik over val. Alleen de TFLOPS/Performance verhouding valt heel erg tegen.

offtopic:
Van wauw naar lauw :+.

Acties:
  • +1 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Sp3ci3s8472 schreef op woensdag 2 september 2020 @ 12:59:
[...]


Staar je niet blind op die TFlops, ik heb het idee dat Turing een heel stuk efficienter gebruik maakt van zijn geadverteerde TFLops dan Ampere.

De RTX 2080 heeft 10.07 TFLOPS en de RTX 3080 29.77 TFLOPS. De RTX 3090 is gemiddeld maar 70% sneller met haast 3x het aantal TFLOPS (uitgaande van de resultaten van Digital Foundry). Dus dit is een gevalletje marketing of een gigantisch inefficiente architectuur of de kaart heeft op 4k een behoorlijke bottleneck die je op lagere resoluties misschien niet hebt?

Toen ik die geadverteerde TFLOPS zag in de presentatie had ik even een wauw reactie; tot je dan de cijfers van Digital Foundry ziet en had ik een lauwe "is dit alles?" reactie. Laat niet weg dat 70% meer erg netjes is en dat dus ook niet hetgene is waar ik over val. Alleen de TFLOPS/Performance verhouding valt heel erg tegen.

offtopic:
Van wauw naar lauw :+.
Dat doe ik ook niet?
Als je mijn posts op de FP ziet schrijf ik juist dat we die winst qua TFLOPS van 2,7x tov Turing echt niet terug gaan zien in games.

Maar ik bedoel meer als je de Ampere kaarten onderling vergelijkt is er tussen de 3080 en de 3090 in weinig ruimte. Tussen de 3070 en 3080 zit een groter gat qua prestaties.

Ik quote ook even mijn FP posts:
Mja Tflops zeggen erg weinig als je twee verschillende architecturen met elkaar vergelijkt. Dat is altijd al zo geweest. In de tijd van Fiji en Vega had AMD ook veel hogere Tflops met compute maar dat zie je niet terug in games.
Als je nu kijkt naar nVidia 2080 Ti vs 3090 met 13 vs 36 tflops dan heb je het over ongeveer 2,7x zo veel tflops.
Denk maar niet dat als de 2080 Ti 60 FPS haalt de 3090 ineens 162 FPS gaat halen. Als het 70-80% hoger is mogen we denk ik al blij zijn.

Veel meer dingen zijn van belang als je die rekenkracht wilt kunnen benutten.
Bij AMD zijn de Tflops van Navi10 (RDNA1) lager dan die van Vega 20. Maar toch is Navi 10 sneller in games.

Ik denk dat het hier vergelijkbaar zal zijn. Ja de prestaties gaan veel beter zijn maar ze zullen niet 1:1 de lijn volgen die je ziet met de % toename in het aantal tflops.

Net als dat de 12tflops van de Xbox Series X niet te vergelijken zijn met Navi 10 overclocked die dan ook 12 kan halen. Dan denk ik dat de Series X door de nieuwere architectuur toch betere game prestaties neer gaat zetten. En dat zullen we met RDNA2 op de desktop straks ook gaan zien.

Tflops vergelijken is nuttiger voor compute maar ook daar kan bepaalde software veel meer uit architectuur X halen dan architectuur Y.
Het is net als Auto's met PK's vergelijken zonder rekening te houden met gewicht,stroomlijn,aandrijflijn en banden.
En nog een stukje over dat mensen helemaal lijp gingen over 120 watt Ampere is net zo snel als de 2080 Ti wat nog al scheef is en niet klopt:
Dat is niet wat Jensen heeft gezegd de letterlijke quite was:
[...]
Zie ook: YouTube: WATCH: Nvidia reveals ALL its latest graphics cards (full live prese...
En daar zie je een graph die 1,9X performance per watt laat zien als je inderdaad de niet zo efficiënte 2080 Super pakt en die vergelijkt met een Ampere GPU die op zijn sweetspot draait en dan 130 watt verbruikt.
Elke chip die op een laag voltage draait heeft veel hogere performance per watt verhoudingen.

AMD komt op die manier ook aan de claim dat RDNA 50% betere performance per watt heeft dan Vega en RDNA2 weer 50% tov RDNA1. En dat is niet zo raar als je dan de RDNA or Turing chip pakt die high performance tunned is vergelijkt met een next gen chip die voor die zelfde prestaties rond de sweetspot kan zitten qua clocks en voltages.

Weet even terug naar de grafiek van nVidia zelf.
Daar zie je dat Turing 60 FPS zou doen met 240 watt
En ampere diezelfde 60 FPS doet met 130 watt. Als je dan kijkt naar de prestaties van ampere bij 240 watt is dat ineens 90FPS dat is geen 2x meer maar ineens maar 50% meer ipv 100%.
En daar zie je dus dat ampere niet meer op zijn sweetspot zit. Voor 110 FPS is vervolgens 330 watt nodig. Nog steeds geen 100% sneller maar verbruik is van 130 naar 330 watt gegaan. En dat is dus precies wat ik bedoel. (2x performance is waarschijnlijk met RT en DLSS in specifieke titels waar turing het relatief gezien te zwaar heeft)

Turing op 120 watt haalt ook 45 FPS veel efficienter dan de 60 FPS met 240 watt.

Veel nieuws sites zijn gewoon lui en kijken niet zo goed naar de slides en nemen gewoon de woorden van jensen deels over waardoor het allemaal super mooi klinkt. Maar je moet even wat beter kijken en wat meer analyse doen om het echte verhaal te zien. Dat geld ook voor AMD en Intel.

De 3070 krijgt waarschijnlijk GDDR6 en niet GDDR6X dus dat kan kloppen. GDDR6 is snel genoeg voor die kaart.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-10 17:56
Sp3ci3s8472 schreef op woensdag 2 september 2020 @ 12:59:
De RTX 2080 heeft 10.07 TFLOPS en de RTX 3080 29.77 TFLOPS. De RTX 3090 is gemiddeld maar 70% sneller met haast 3x het aantal TFLOPS (uitgaande van de resultaten van Digital Foundry). Dus dit is een gevalletje marketing of een gigantisch inefficiente architectuur of de kaart heeft op 4k een behoorlijke bottleneck die je op lagere resoluties misschien niet hebt?

Toen ik die geadverteerde TFLOPS zag in de presentatie had ik even een wauw reactie; tot je dan de cijfers van Digital Foundry ziet en had ik een lauwe "is dit alles?" reactie. Laat niet weg dat 70% meer erg netjes is en dat dus ook niet hetgene is waar ik over val. Alleen de TFLOPS/Performance verhouding valt heel erg tegen.
Nvidia's marketing-fluff machine aan het werk. Er klopt iets niet aan die core counts (en dus) TF cijfers. Als je de FP64 performance als basis neemt, zijn er nog steeds 4 FP64 units per SM. Om dan aan de overige core counts te komen zou al het andere in een SM verdubbeld moeten zijn. Dat geeft een behoorlijke onbalans en lijkt me ook moeilijker te schedulen. FP64 performance is _exact_ gelijk aan de vorige generatie en FP32 en FP16 zijn _exact_ het dubbele van wat dezelfde verhoudingen gegeven zouden hebben.

Die verdubbelingen zouden op papier 180% meer rekenkracht geven en er komt nu maximaal 90% uit. Zie je al waar ik naar toe ga? Ik ben er nog niet achter (moet alle cijfertjes eens in Excel gooien :P), maar ik vermoed dat als de tech slides eindelijk uit komen dat blijkt dat er meer general purpose ALU's zijn of iets dergelijks. Ik zie in elk geval niet in hoe ze daadwerkelijk FP32/INT32 én FP16 exact verdubbeld zouden hebben per SM en er slechts de helft uit halen.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
@Astennu
Erover heen gelezen, probleem als je alles wat er de laatste tijd gepost is wil inhalen.
Werelds schreef op woensdag 2 september 2020 @ 13:28:
[...]

Nvidia's marketing-fluff machine aan het werk. Er klopt iets niet aan die core counts (en dus) TF cijfers. Als je de FP64 performance als basis neemt, zijn er nog steeds 4 FP64 units per SM. Om dan aan de overige core counts te komen zou al het andere in een SM verdubbeld moeten zijn. Dat geeft een behoorlijke onbalans en lijkt me ook moeilijker te schedulen. FP64 performance is _exact_ gelijk aan de vorige generatie en FP32 en FP16 zijn _exact_ het dubbele van wat dezelfde verhoudingen gegeven zouden hebben.

Die verdubbelingen zouden op papier 180% meer rekenkracht geven en er komt nu maximaal 90% uit. Zie je al waar ik naar toe ga? Ik ben er nog niet achter (moet alle cijfertjes eens in Excel gooien :P), maar ik vermoed dat als de tech slides eindelijk uit komen dat blijkt dat er meer general purpose ALU's zijn of iets dergelijks. Ik zie in elk geval niet in hoe ze daadwerkelijk FP32/INT32 én FP16 exact verdubbeld zouden hebben per SM en er slechts de helft uit halen.
Intel HT, eerste generatie. Op papier meer threads maar geen performance verbetering. :+

Als ze het daadwerkelijk hebben verdubbeld, dan zit een van de twee shader cores dus niks uit te vreten? Dan is het eleganter als je een implementatie gebruikt zoals RDNA2 dat die RT dingen kan doen?

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Werelds schreef op woensdag 2 september 2020 @ 13:28:
[...]

Nvidia's marketing-fluff machine aan het werk. Er klopt iets niet aan die core counts (en dus) TF cijfers. Als je de FP64 performance als basis neemt, zijn er nog steeds 4 FP64 units per SM. Om dan aan de overige core counts te komen zou al het andere in een SM verdubbeld moeten zijn. Dat geeft een behoorlijke onbalans en lijkt me ook moeilijker te schedulen. FP64 performance is _exact_ gelijk aan de vorige generatie en FP32 en FP16 zijn _exact_ het dubbele van wat dezelfde verhoudingen gegeven zouden hebben.

Die verdubbelingen zouden op papier 180% meer rekenkracht geven en er komt nu maximaal 90% uit. Zie je al waar ik naar toe ga? Ik ben er nog niet achter (moet alle cijfertjes eens in Excel gooien :P), maar ik vermoed dat als de tech slides eindelijk uit komen dat blijkt dat er meer general purpose ALU's zijn of iets dergelijks. Ik zie in elk geval niet in hoe ze daadwerkelijk FP32/INT32 én FP16 exact verdubbeld zouden hebben per SM en er slechts de helft uit halen.
Wat ik er van begrepen heb is dat Ampere nu twee shader berekeningen per clock per shader. waar dat bij Turing en Pascal 1x was. Of in ieder geval voor FP32. FP64 was bij nVidia toch een lose unit?

Hier hebben ze het er over: YouTube: WATCH: Nvidia reveals ALL its latest graphics cards (full live prese...
Maar ze leggen het niet precies uit hoe ze dat gedaan hebben. Zal @ launch bij anandtech wel duidelijk gaat worden mits nVidia die info deelt.
Sp3ci3s8472 schreef op woensdag 2 september 2020 @ 13:33:

Intel HT, eerste generatie. Op papier meer threads maar geen performance verbetering. :+

Als ze het daadwerkelijk hebben verdubbeld, dan zit een van de twee shader cores dus niks uit te vreten? Dan is het eleganter als je een implementatie gebruikt zoals RDNA2 dat die RT dingen kan doen?
Ik denk dat het meer voor Compute bedoelt is en dat bij Games een deel inderdaad niets taat te doen. Maar dat ze bij compute workloads wel alles kunnen benutten.
In dat opzicht gaat nVidia weer meer terug richting wat AMD met Hawaii en Vega deed en ze zelf in het verleden ook meer gedaan hebben.

Waar AMD dat weer wat meer aan het opsplitsen is. Al heb je tegenwoordig bij games ook steeds vaker vraag naar FP16 en int4/8 bewerkingen. Dat zal in de toekomst alleen maar meer worden.

[ Voor 21% gewijzigd door Astennu op 02-09-2020 13:46 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Anand heeft zijn preview life gezet maar wordt ook daar niet heel veel wijzer hoe het precies met de shaders zit:

NVIDIA Announces the GeForce RTX 30 Series: Ampere For Gaming, Starting With RTX 3080 & RTX 3090

[ Voor 36% gewijzigd door Help!!!! op 02-09-2020 13:59 ]

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Help!!!! schreef op woensdag 2 september 2020 @ 13:57:
Anand heeft zijn preview life gezet maar wordt ook daar niet heel veel wijzer hoe het precies met de shaders zit:

NVIDIA Announces the GeForce RTX 30 Series: Ampere For Gaming, Starting With RTX 3080 & RTX 3090
Die had ik gister ook al gezien. Maar helaas niet heel veel extra info tov de presentatie (maar dat was opzich te verwachten anders had nVidia zelf ook wel meer verteld)
Last but certainly not least, we have the matter of the shader cores. This is the area that's the most immediately important to gaming performance, and also the area where NVIDIA has said the least today. We know that the new RTX 30 series cards pack an incredible number of FP32 CUDA cores, and that it comes thanks to what NVIDIA is labeling as "2x FP32" in their SM configuration. As a result, even the second-tier RTX 3080 offers 29.8 TFLOPs of FP32 shader performance, more than double the last-gen RTX 2080 Ti. To put it succinctly, there is an incredible number of ALUs within these GPUs, and frankly a lot more than I would have expected given the transistor count.

Shading performance is not everything, of course, which is why NVIDIA's own performance claims for these cards isn't nearly as high as the gains in shading performance alone. But certainly shaders are a bottleneck much of the time, given the embarrassingly parallel nature of computer graphics. Which is why throwing more hardware (in this case, more CUDA cores) at the problem is such an effective strategy.

The big question at this point is how these additional CUDA cores are organized, and what it means for the execution model within an SM. We're admittedly getting into more minute technical details here, but how easily Ampere can fill those additional cores is going to be a critical factor in how well it can extra all those teraFLOPs of performance. Is this driven by additional IPC extraction within a warp of threads? Running further warps? Etc.
Meer dan dit is helaas nog niet bekend over de nieuwe shader core. Eigenlijk gewoon wat nVidia ook al zei. Het wordt wachten op een architecture deepdive.
Maar het lijkt er nu in ieder geval al op dat niet al die FP32 power gebruikt kan worden anders had je veel meer dan 70-80% performance winst gezien aangezien er 270% meer FP32 compute power in Ampere zit.

Leuk voor het datacenter :)

[ Voor 6% gewijzigd door Astennu op 02-09-2020 14:04 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op woensdag 2 september 2020 @ 10:34:
[...]

Maar HBM2 chips zijn 7,75mm bij 11,87mm. Gooi ik dat in een wafer calculator met zelfs slechte yields dan lijk je alsnog naar 400 chips per wafer te kijken. Je hebt er waarschijnlijk acht nodig, waardoor je circa 50 Navi 21's zou kunnen voorzien van geheugen. Neem de $2100 gedeeld door 50 en je zit op ongeveer $42 per GPU. Komt er nog een interposer bij en waarschijnlijk moet iedereen zijn marges hebben. Zeg dat het AMD uiteindelijk $100 kost wat waarschijnlijk te veel is omdat de geheugenprijzen weer aan het zakken zijn en yields waarschijnlijk ook beter zijn. Ik denk dat AMD het kan betalen. ;)
AMD kon de eerste HBM ook betalen, dat was mijn punt niet ;) Het ging mij om de relatieve kosten ten opzichte van GDDR6(X). Die laatste is goedkoper te produceren, waardoor een (hypothetische) Navi 21 met GDDR6 goedkoper in de markt gezet kan worden dan een uitvoering met HBM2.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

XWB schreef op woensdag 2 september 2020 @ 14:44:
[...]


AMD kon de eerste HBM ook betalen, dat was mijn punt niet ;) Het ging mij om de relatieve kosten ten opzichte van GDDR6(X). Die laatste is goedkoper te produceren, waardoor een (hypothetische) Navi 21 met GDDR6 goedkoper in de markt gezet kan worden dan een uitvoering met HBM2.
Dat weten we dus helemaal niet. GDDR6X is gloednieuw en als het Nvidia exclusief is, tenminste voor een periode, dan zal Nvidia er ook voor moeten betalen. Verder is het probleem er een van totale kosten. Die Ampere FE koelers werden door Igorslab geschat op meer dan $150 en het probleem zou met name GDDR6X koeling zijn. Daarnaast heb je nog extra VRM's nodig en een dikker PCB voor signaal integriteit. Onder de streep zou HBM2E helemaal niet zo veel duurder kunnen zijn voor de hele videokaart. Zelfs als dat wel zo is, dan heeft HBM2E waarschijnlijk alsnog enige technische voordelen, met name efficiëntie. Ik denk dat het dus niet een enorm probleem gaat zijn. Navi 21 gaat gewoon niet goedkoop worden want de betrouwbare leakers waren er gisteren heel snel bij om erop te wijzen dat Navi 21 niet onderschat moet worden. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-10 17:56
@Sp3ci3s8472 @Astennu 2 ops per cycle zou dubbele rekenkracht verklaren (en eventueel waarom er nu maximaal de helft uit komt als dat nog niet in de driver zit), maar niet het geclaimde aantal ALU's of het feit dat FP16 exact even hard mee stijgt. Wachten op een deep-dive :p

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 02-10 14:03
Werelds schreef op woensdag 2 september 2020 @ 16:03:
@Sp3ci3s8472 @Astennu 2 ops per cycle zou dubbele rekenkracht verklaren (en eventueel waarom er nu maximaal de helft uit komt als dat nog niet in de driver zit), maar niet het geclaimde aantal ALU's of het feit dat FP16 exact even hard mee stijgt. Wachten op een deep-dive :p
Mja dan zouden ze de boel wel heel erg sandbaggen daar geloof ik ook weer niet helemaal in. Ik geloof wel dat er nog wel meer uit te halen is dan wat we nu zien. Maar dat zal voor RDNA2 tot op zekere hoogte ook wel gaan gelden.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +3 Henk 'm!

  • CMT
  • Registratie: Januari 2003
  • Nu online
DaniëlWW2 schreef op woensdag 2 september 2020 @ 14:49:
[...]
Navi 21 gaat gewoon niet goedkoop worden want de betrouwbare leakers waren er gisteren heel snel bij om erop te wijzen dat Navi 21 niet onderschat moet worden. :)
Dat sterke vermoeden heb ik ook, het is niet voor niets dat Nvidia de 3xxx reeks véél ampere geeft.
Het is eigenlijk van het zotte te noemen.
De 1080TI en 2080TI hadden een budget van 250-260W en dat was al redelijk extreem te noemen.
De 3080 doet daar met 320W ca. 25% vrolijk bovenop 8)7 !
En dat bij een overstap naar een veel kleiner procedé.

Ik vind het zo jammer dat het gros van de mensen daar helemaal niet naar kijkt.
Ook de demo waarbij de performance/watt wordt vergeleken is zo scheef als maar wat.
Het meest inefficiënte punt van de Turing kaart wordt vergeleken met het meest efficiënte punt van de Ampere kaart (en zeer waarschijnlijk alleen met raytracing).
Ik hoop van harte dat Tweakers.net en andere review sites door deze bullshit heen prikken.

Mijn vrees is wel dat hierdoor AMD ook genoodzaakt is om met big Navi alles uit de kast / pc-voeding te trekken. Ik hoop dat ze in ieder geval twee kaarten presenteren, waarbij één ook gericht is op efficiëntie.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Nou dat punt is wel gemaakt hoor door sommigen O-) :P

Dat is natuurlijk beetje het nadeel van zo'n volledig door nvidia gestuurde announcement. Dit gaat pas echt goed onderzocht kunnen worden met reviews door meerdere outlets.

Ik ben daar dus ook heel benieuwd hoe het zit en waar het in zit. Er wordt bijv. ook naar het geheugen gewezen.

Aan de andere kant een 3090 heeft behoorlijk meer cuda cores e.d. en meer dan twee keer zoveel geheugen en dan lijkt een sprong omhoog van 30W (3090) nog best beperkt.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-10 17:56
Astennu schreef op woensdag 2 september 2020 @ 16:52:
Mja dan zouden ze de boel wel heel erg sandbaggen daar geloof ik ook weer niet helemaal in. Ik geloof wel dat er nog wel meer uit te halen is dan wat we nu zien. Maar dat zal voor RDNA2 tot op zekere hoogte ook wel gaan gelden.
Ik geloof niet dat het sandbaggen is, ik geloof dat het marketing fluff is. Ik geloof niet dat je ooit 30 TF uit die chip geperst krijgt.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Astennu schreef op woensdag 2 september 2020 @ 12:22:
[...]


Als je 95% van de kwaliteit kan halen met 60-70% van de rekenkracht is dat in mijn ogen wel interessant. Het is vergelijkbaar met sommige effecten die ik nu uit moet zetten omdat ik de FPS anders te laag vind. Daardoor heb je ook niet maximale beeldkwaliteit.
Dan heb ik liever alles vol uit qua effecten en dan 95% van de resolutie en scherpte maar wel de hoge FPS dan dat ik top resolutie heb maar bijna alle effecten uit moet zetten om diezelfde framerate te halen.

Het grote probleem van DLSS is de ondersteuning die echt in het spel ingebakken moet worden. Maar als AMD iets kan maken wat dat niet nodig heeft en wel in de buurt kan komen ben ik helemaal voor.

Ik zie ook eigenlijk niet in waarom het spel het moet ondersteuenen. Als je echt slimme upscaling doet zou de hardware + driver dat zelf moeten kunnen regelen lijkt mij. Misschien is het wat meer werk maar lijtk mij niet onmogelijk?
Als het universeel was en zonder nadelen, dan stond ik er minder negatief tegenover. Dat is het alleen niet, verre van. Het is zeer selectief qua ondersteunde games, veel van die games zeggen of doen me niks en in de games waar het me meer zou interesseren, is het er niet. Omdat het ook per game geïmplementeerd moet worden en dit niet veranderd lijkt te zijn, gaat het ook niet universeel worden. Er zijn simpelweg te veel games. Nee, ik heb liever echte shader prestaties i.p.v. Tensor Cores voor dit soort zaken in mijn videokaarten. ;)
CMT schreef op woensdag 2 september 2020 @ 17:20:
[...]

Dat sterke vermoeden heb ik ook, het is niet voor niets dat Nvidia de 3xxx reeks véél ampere geeft.
Het is eigenlijk van het zotte te noemen.
De 1080TI en 2080TI hadden een budget van 250-260W en dat was al redelijk extreem te noemen.
De 3080 doet daar met 320W ca. 25% vrolijk bovenop 8)7 !
En dat bij een overstap naar een veel kleiner procedé.

Ik vind het zo jammer dat het gros van de mensen daar helemaal niet naar kijkt.
Ook de demo waarbij de performance/watt wordt vergeleken is zo scheef als maar wat.
Het meest inefficiënte punt van de Turing kaart wordt vergeleken met het meest efficiënte punt van de Ampere kaart (en zeer waarschijnlijk alleen met raytracing).
Ik hoop van harte dat Tweakers.net en andere review sites door deze bullshit heen prikken.

Mijn vrees is wel dat hierdoor AMD ook genoodzaakt is om met big Navi alles uit de kast / pc-voeding te trekken. Ik hoop dat ze in ieder geval twee kaarten presenteren, waarbij één ook gericht is op efficiëntie.
Het gaat uiteindelijk om perf/watt. De RTX3080 gaat een heethoofd worden, maar is wel een snel heethoofd. Ik betwijfel alleen of het veel impact gaat hebben op Navi 21. Van wat je nu bij elkaar kan schrapen is de RTX3080 misschien 50% sneller dan de RTX2080Ti in een paar titels die Nvidia heeft cherry picked voor Digital Foundry. Die publicatie heeft de laatste tijd een beetje een reputatie opgebouwd van pro Nvidia. Ze hebben echt niet alleen hun een RTX3080 gestuurd voor zo'n exclusieve demonstratie. Als ik daar dus 70 a 80% zie, dan denk ik alvast 60% sneller dan de RTX2080. Nog steeds fors, maar iets minder dramatisch.

Vertaal dat eens naar wat AMD moet doen. Zelfs in het cherry picked scenario moet AMD de RX5700XT verdubbelen en dan matchen ze al. Dat is het. AMD heeft er simpelweg de opties voor. Ze hebben:
-40CU's naar 80CU's
-448GB/s naar waarschijnlijk 920GB/s
-RDNA1 naar RDNA2
-50% perf/watt
-Van TSMC N7 naar waarschijnlijk N7P

Ze hebben zoveel mogelijkheden voor verbetering. Die verdubbeling aan ALU's zit er zeer waarschijnlijk aan te komen, ze kunnen waarschijnlijk ook op een verdubbeling van geheugenbandbreedte rekenen, zitten toch al op een betere node waar ze waarschijnlijk nog een stapje gaan maken en dan is er nog de architectuur waar ze zaken kunnen verbeteren. Een paar honderd megahertz aan clock speed verhoging zit ook al in de PS5.

Ondertussen heeft Nvidia de xx80Ti zowat met pensioen gestuurd. Dat was sinds Kepler het snelste dat je realistisch kon krijgen voor gaming, zeer sterk merk, and its gone. De RTX3090 is wederom een forse stap qua kosten tot het punt dat die eigenlijk compleet uit de markt is geprijsd, door Nvidia zelf. Er lijken er toch al erg weinig te gaan komen en de doelgroep zijn de mensen die ongeacht de prijs er eentje moeten kopen. De rest gaat die negeren. Ook is er opeens een belachelijk TFOPS getal waar hoe meer ik er ook over denk, hoe verwarrender het is.

Ik denk eigenlijk niet dat AMD echt naar de 300W zou hoeven om de RTX3080 te verslaan, tenzij we allemaal iets heel erg missen met de RTX3080 of omdat AMD het echt spectaculair verpest. Het punt is denk ik eerder dat AMD het wel zal doen, omdat ze dit nu eenmaal wel vaker doen en om de RTX3080 echt te verslaan zie ik het ze ook wel doen. Immers als je tussen de RTX3080 en RTX3090 gaat zitten, dan kan je $999 vragen. Zetten ze een cut down 72CU Navi 21 tegenover de RTX3080.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09-10 18:43
AMD zal zeker met iets komen dat de concurrentie aan kan met de 3080, daar twijfel ik eigenlijk niet heel erg over. Ik vraag me alleen af of AMD niet met iets veel beters dan dat moet komen om echt stappen te maken en het algemeen aanwezige Nvidia mindshare te breken en dan bedoel ik niet alleen een concurrerende shader performance, maar echt een product dat zich kan meten qua features op zowel hard als software gebied en een betere performance levert 'accross the board' of wanneer dat niet mogelijk is aantrekkelijk genoeg geprijsd.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op woensdag 2 september 2020 @ 19:23:
AMD zal zeker met iets komen dat de concurrentie aan kan met de 3080, daar twijfel ik eigenlijk niet heel erg over. Ik vraag me alleen af of AMD niet met iets veel beters dan dat moet komen om echt stappen te maken en het algemeen aanwezige Nvidia mindshare te breken en dan bedoel ik niet alleen een concurrerende shader performance, maar echt een product dat zich kan meten qua features op zowel hard als software gebied en een betere performance levert 'accross the board' of wanneer dat niet mogelijk is aantrekkelijk genoeg geprijsd.
Dat moeten ze ook. Maar de leaks geven vooralsnog aan dat ook RDNA2 beduidend betere RT zou hebben dan Turing. Qua andere features, tja daar moet AMD denk ik lekker doen wat ze zelf het beste lijkt, wat ze zelf het beste kunnen en niet wat Nvidia heeft bedacht wat nu weer gekopieerd moet worden. Dat gaat ook niet gebeuren omdat AMD simpelweg niet geloofd in gesloten standaarden. Ik zie dan ook helemaal geen "Radeon DLSS" verschijnen. Het is gesloten, game specifiek en ik plaats nu eigenlijk al vraagtekens bij de toekomst van DLSS. Nvidia heeft nu zo vaak dit soort dingen geprobeerd en beloofd altijd de hemel, maar het is elke keer mislukt omdat het altijd Nvidia exclusief moet blijven en de interesse simpelweg verdwijnt.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op woensdag 2 september 2020 @ 19:42:
[...]


Dat moeten ze ook. Maar de leaks geven vooralsnog aan dat ook RDNA2 beduidend betere RT zou hebben dan Turing. Qua andere features, tja daar moet AMD denk ik lekker doen wat ze zelf het beste lijkt, wat ze zelf het beste kunnen en niet wat Nvidia heeft bedacht wat nu weer gekopieerd moet worden. Dat gaat ook niet gebeuren omdat AMD simpelweg niet geloofd in gesloten standaarden. Ik zie dan ook helemaal geen "Radeon DLSS" verschijnen. Het is gesloten, game specifiek en ik plaats nu eigenlijk al vraagtekens bij de toekomst van DLSS. Nvidia heeft nu zo vaak dit soort dingen geprobeerd en beloofd altijd de hemel, maar het is elke keer mislukt omdat het altijd Nvidia exclusief moet blijven en de interesse simpelweg verdwijnt.
DLSS gaat absoluut niet weg, het is gewoon de beste manier van upscalen. Ik zie niet in hoe die kwaliteit ooit gehaald gaat worden zonder neural network. Het enige wat ik zie gebeuren is dat in nieuwere game engines gebouwd gaat worden waardoor elke gpu het getrainde neural network kan draaien. Alleen AMD loopt nogal wat achter als het op AI aankomt. NVIDIA heeft daar gewoon veel te veel ervaring mee ondertussen. Als je met AI werkt, dan werk je met NVIDIA.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09-10 18:43
Dat zou natuurlijk mooi zijn, maar ook iets dat je minimaal mag verwachten. RDNA2's RT moet imho gewoon op het niveau van Ampere liggen (zowel qua performance als support), misschien zelfs hoger. Zoals je zelf al aangeeft heeft AMD in principe alle tools om een beter product neer te zetten, laat ze hopelijk minimaal gelijkwaardig zijn (m.u.v. het Halo product mogelijkerwijs).

AMD moet uiteraard zeker kijken naar de eigen sterktes en daar de features op baseren. Ik bedoel echter meer dat je niet een situatie krijgt waarbij AMD bijvoorbeeld een kaart neerzet gelijk aan de 3080 qua performance en in een zelfde prijsklasse. Maar dat dan alsnog Nvidia veel beter verkoopt juist omdat ze wel DLSS, Die webcam applicatie en andere software foeftjes hebben.

Maar kijk ook bijv. naar een game als Cyberpunk, die vrijwel zeker heel wat kaarten gaat verkopen. Daar moet je gewoon als AMD zijne zorgen dat je kaarten op tijd zijn maar ook dat ze 'toe to toe' kunnen met Nvidia in die game.

Maar ook bijvoorbeeld, meer persoonlijk en lang niet voor iedereen belangrijk, World of Warcraft krijgt ook RT support. Als bijvoorbeeld een AMD daar achterblijft is de kans toch groot dat ik bijvoorbeeld dan voor Nvidia kies, puur omdat dit een game is die ik veel speel en graag in de beste kwaliteit wil draaien (ook al is het een cartoony game en totaal niet realistisch).

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Dennism schreef op woensdag 2 september 2020 @ 19:52:
AMD moet uiteraard zeker kijken naar de eigen sterktes en daar de features op baseren. Ik bedoel echter meer dat je niet een situatie krijgt waarbij AMD bijvoorbeeld een kaart neerzet gelijk aan de 3080 qua performance en in een zelfde prijsklasse. Maar dat dan alsnog Nvidia veel beter verkoopt juist omdat ze wel DLSS, Die webcam applicatie en andere software foeftjes hebben.
Alhoewel ik het met je eens ben denk ik dat als ze dit al zouden redden weliswaar zonder DLSS en de overige software apps en andere foefjes maar wellicht wel met minder stroomverbruik en hitte en met vergelijkbare diesize, dat dat al een enorme prestatie zou zijn.

Rome is niet op één dag gebouwd. Als ze bovenstaande klaar spelen dan zijn ze van ver gekomen en is AMD behoorlijk goed terug in de race. Zelfs als ze niet superveel verkopen omdat iedereen nu nog nvidia wil.

Zoals ik al eerder ergens in deze topics schreef denk ik wel dat AMD het zich met de komst van Ampere niet echt kan veroorloven om achter te blijven in RT maar mogelijk ook in DLSS achtige zaken. Zeker nu RT echt bruikbaar lijkt te worden. Zolang DLSS game specifiek en closed blijft ben ik over DLSS minder bezorgd. RT gaat nu echt een rol spelen in de mindset van kopers denk ik.

Lisa blijft gewoon rustig en gestaag doorbouwen aan RDNA net zoals bij Zen.

Het is toch logisch dat ze intern dezelfde strategie hebben gevolgd als ze bij Intel hebben gedaan wat erg succesvol is geweest. O.a. hard en lang nadenken over nvidia roadmap en dat proberen te matchen / overtreffen. (Natuurlijk hebben ze wel wat geluk gehad met de enorme intel foundry problemen).

nVidia aan de andere kant probeert met overname ARM haar toekomst veilig te stellen en hoopt een apu / arm cpu + gpu approach te kunnen gaan maken en zo een volwaardige x86 tegenhanger te worden en liever zelfs overbodig te maken. Even erg simpel gezegd.

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • Reveal!
  • Registratie: November 1999
  • Laatst online: 09-10 15:29
Als je dit artikel leest, dan lees je toch eigenlijk ook dat AMD met een upscaling techniek komt die gelijk voor alle games werkt?

https://www.forbes.com/si...k-brand-new/#1cb545333a13

Vraag me alleen af wat Sony dan gepatenteerd heeft.

Acties:
  • 0 Henk 'm!

  • Palindrome
  • Registratie: September 2020
  • Laatst online: 00:18
DaniëlWW2 schreef op woensdag 2 september 2020 @ 18:55:

Vertaal dat eens naar wat AMD moet doen. Zelfs in het cherry picked scenario moet AMD de RX5700XT verdubbelen en dan matchen ze al. Dat is het. AMD heeft er simpelweg de opties voor. Ze hebben:
-40CU's naar 80CU's
-448GB/s naar waarschijnlijk 920GB/s
-RDNA1 naar RDNA2
-50% perf/watt
-Van TSMC N7 naar waarschijnlijk N7P
Vergeet ook niet de clocksnleheid verbetering, als ze al 2,2ghz kunnen pushen op RDNA2 in een console dan belooft dat wat.

Acties:
  • +1 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op woensdag 2 september 2020 @ 14:49:
[...]


Dat weten we dus helemaal niet. GDDR6X is gloednieuw en als het Nvidia exclusief is, tenminste voor een periode, dan zal Nvidia er ook voor moeten betalen. Verder is het probleem er een van totale kosten. Die Ampere FE koelers werden door Igorslab geschat op meer dan $150 en het probleem zou met name GDDR6X koeling zijn. Daarnaast heb je nog extra VRM's nodig en een dikker PCB voor signaal integriteit. Onder de streep zou HBM2E helemaal niet zo veel duurder kunnen zijn voor de hele videokaart. Zelfs als dat wel zo is, dan heeft HBM2E waarschijnlijk alsnog enige technische voordelen, met name efficiëntie. Ik denk dat het dus niet een enorm probleem gaat zijn. Navi 21 gaat gewoon niet goedkoop worden want de betrouwbare leakers waren er gisteren heel snel bij om erop te wijzen dat Navi 21 niet onderschat moet worden. :)
Dat efficiëntie argument zie ik wel vaker voorbij komen maar Fury en Vega hebben nooit zoden aan de dijk gezet, ondanks dat deze videokaarten met HBM uitgerust zijn. Ik denk dat HBM erg nuttig kan zijn voor bijvoorbeeld een APU, maar een high-end videokaart loopt wellicht eerder tegen andere bottlenecks aan dan de efficiëntie tussen GDDR6 en HMB2.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Palindrome schreef op woensdag 2 september 2020 @ 21:37:
[...]


Vergeet ook niet de clocksnleheid verbetering, als ze al 2,2ghz kunnen pushen op RDNA2 in een console dan belooft dat wat.
Dat zegt helemaal niet zoveel, want met dubbel zoveel CU's zal de kloksnelheid juist omlaag moeten.

March of the Eagles


Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Verwijderd schreef op woensdag 2 september 2020 @ 19:52:
[...]

DLSS gaat absoluut niet weg, het is gewoon de beste manier van upscalen. Ik zie niet in hoe die kwaliteit ooit gehaald gaat worden zonder neural network. Het enige wat ik zie gebeuren is dat in nieuwere game engines gebouwd gaat worden waardoor elke gpu het getrainde neural network kan draaien. Alleen AMD loopt nogal wat achter als het op AI aankomt. NVIDIA heeft daar gewoon veel te veel ervaring mee ondertussen. Als je met AI werkt, dan werk je met NVIDIA.
Dit klinkt mij heel erg als PhysX is de toekomst van GPU based physics. Was een decennium lang een gimmick totdat het in 2018 eindelijk open source is gemaakt. Of natuurlijk GameWorks dat gelukkig een stille dood gestorven lijkt te zijn. Je kon gewoon een lijst pakken van totale trainwreck games op de PC die totaal niet draaide en die naast de lijst met GameWorks titels leggen. Opvallend vaak waren het dezelfde games. :z

Nu heb je DLSS wat heel leuk is, als de game het überhaupt ondersteunt, totdat je een videokaart hebt die gewoon native de gewenste resolutie kan draaien met een acceptabele framerate. En toen kwam er opeens een lijn met videokaarten die waarschijnlijk ruim 60% sneller zijn dan de voorgaande generatie en waarschijnlijk vrijwel alles gewoon native kan draaien. Waarom heb ik dan precies DLSS nodig in een paar games? Wat is er beter aan dan native resolutie dat voor elke game werkt?

Er zijn ook zeker nieuwe game engines gebouwd de afgelopen tijd. Dat is alleen niet gebeurd omdat Nvidia met DLSS kwam. Nee, dat is gebeurd omdat er nieuwe consoles aan zitten te komen. Consoles die draaien op RDNA2. Dat is namelijk de realiteit in de gaming industrie. Het zijn Sony en al helemaal Microsoft die grotendeels bepalen wat voor software features standaard worden. Die kozen wederom voor AMD hardware met als resultaat dat RDNA2 de standaard gaat zijn de komende jaren. Immers zijn de meeste games gewoon geport van console.
Dennism schreef op woensdag 2 september 2020 @ 19:52:
Dat zou natuurlijk mooi zijn, maar ook iets dat je minimaal mag verwachten. RDNA2's RT moet imho gewoon op het niveau van Ampere liggen (zowel qua performance als support), misschien zelfs hoger. Zoals je zelf al aangeeft heeft AMD in principe alle tools om een beter product neer te zetten, laat ze hopelijk minimaal gelijkwaardig zijn (m.u.v. het Halo product mogelijkerwijs).

AMD moet uiteraard zeker kijken naar de eigen sterktes en daar de features op baseren. Ik bedoel echter meer dat je niet een situatie krijgt waarbij AMD bijvoorbeeld een kaart neerzet gelijk aan de 3080 qua performance en in een zelfde prijsklasse. Maar dat dan alsnog Nvidia veel beter verkoopt juist omdat ze wel DLSS, Die webcam applicatie en andere software foeftjes hebben.

Maar kijk ook bijv. naar een game als Cyberpunk, die vrijwel zeker heel wat kaarten gaat verkopen. Daar moet je gewoon als AMD zijne zorgen dat je kaarten op tijd zijn maar ook dat ze 'toe to toe' kunnen met Nvidia in die game.

Maar ook bijvoorbeeld, meer persoonlijk en lang niet voor iedereen belangrijk, World of Warcraft krijgt ook RT support. Als bijvoorbeeld een AMD daar achterblijft is de kans toch groot dat ik bijvoorbeeld dan voor Nvidia kies, puur omdat dit een game is die ik veel speel en graag in de beste kwaliteit wil draaien (ook al is het een cartoony game en totaal niet realistisch).
Ik ben dan eigenlijk ook niet heel erg onder de indruk van Ampere RT. Quake II RTX was niet eens 100% sneller dan de RTX2080. Dat is dan een volledig pathtraced game, geen shaders. Een purere benchmark ga je waarschijnlijk niet vinden. Maar reken de implicaties door. Turing RTX betekende in de regel een halvering van je framerate. Nu lijkt het erop dat er RT is die in staat is om je frame rate bij te houden, als je een Turing had. Je hebt alleen een Ampere die veel sneller is. Ik verwacht nog steeds dat je zo een kwart van je framerate zal verliezen.

Komt nog eens bij dat zowel de RTX3070 als RTX3080 niet de volle chips zijn en RT op een per SM basis plaatsvind en op een per clock basis. Het helpt simpelweg niet als een flink aantal SM's zijn uitgeschakeld en de clock speed verbetering over Turing ook niet veel is. Ik heb laatst nog uitgetypt wat het zeer waarschijnlijk is, maar dat lijkt compleet ondergesneeuwd te zijn. DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 144"

Maar het lijkt erop dat RDNA2 heel veel rays kan casten, ook meer dan Ampere. Als ik zie dat Nvidia 2x ray/triangle intersection claimt en de Titan RTX 11G/sec aan ray triangle intersections kan doen, tja dan denk ik dat zelfs een kleinere Navi 2x hier makkelijk overheen zal gaan. Immers zou de XSX met 52CU's al 95G/sec ray-triangle calculations doen met een relatief lage clockspeed van 1825MHz. Een 80CU Navi 21 op 1825MHz doet dan al 146G/sec en @2000MHz zit je op 160G/sec. Een RTX3080 zal met 2x ten opzichte van Turing, rond de 16G/sec zitten. Het probleem is alleen dat ik bijvoorbeeld al geen idee heb hoe ik de RTX denoising moet inschatten.

Maar de formule voor RDNA2, afgeleid van de XSX haar GPU zou als volgt moeten zijn:
RT is per CU en voor triangles is het 1G/sec x 1825MHz x 52. Dat is dus 94,9G/sec voor de hele chip. Maal vier is dan 379,6G/sec. Zo kom je er dus achter dat het 4G/sec is per CU voor BVH. Je kan ook 379,6G/sec : 52CU en dan gedeeld door 4 doen. Zo kom je op 1825MHz. Of 379,6G/sec : 52CU : 1,825GHz = 4G/sec.
Je rekent immers Gigarays per seconde voor de hele chip om naar Gigarays per clock, per CU.
Omdat het dus maximaal 1G/sec is per CU per clock cycle, is het rekenen vrij makkelijk. :P


Ik ben opzettelijk zeer voorzichtig met uitspraken over RT. Ik sluit alleen helemaal niks uit. ;)
XWB schreef op woensdag 2 september 2020 @ 21:43:
[...]


Dat efficiëntie argument zie ik wel vaker voorbij komen maar Fury en Vega hebben nooit zoden aan de dijk gezet, ondanks dat deze videokaarten met HBM uitgerust zijn. Ik denk dat HBM erg nuttig kan zijn voor bijvoorbeeld een APU, maar een high-end videokaart loopt wellicht eerder tegen andere bottlenecks aan dan de efficiëntie tussen GDDR6 en HMB2.
HBM heeft Fiji en Vega anders aardig gered van nog veel slechter zijn en nog meer te verbruiken. :P
Het gaat ook niet om GB/s hier. Het gaat om verbruik wat simpelweg veel lager is met HBM2(E). Dat kan je gebruiken voor een goedkoper PCB of koeloplossing of hogere clock speeds van de GPU zonder dat je de TBP te hoog maakt. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Palindrome
  • Registratie: September 2020
  • Laatst online: 00:18
XWB schreef op woensdag 2 september 2020 @ 21:43:
[...]


Dat zegt helemaal niet zoveel, want met dubbel zoveel CU's zal de kloksnelheid juist omlaag moeten.
Zou kunnen maar lijkt mij nog geen bewezen feit toch ? Bij Nvidia kaarten liepen de full chip of bijna full chip kaarten ook gewoon op de hoge clock snelheden, zo uit mijn hoofd had de RTX 2080 super zelfs de hoogste base clock. Met de custom modellen zitten er ook niet echt grote verschillen tussen max boost clocks tussen de rtx2080ti en een rtx2070 terwijl daar kwa transitor aantallen nogal verschil in zit.

reviews: Vijftien Turing-kaarten - Custom kaarten van fabrikanten getest

[ Voor 31% gewijzigd door Palindrome op 02-09-2020 22:00 ]


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op woensdag 2 september 2020 @ 21:50:
[...]


Dit klinkt mij heel erg als PhysX is de toekomst van GPU based physics. Was een decennium lang een gimmick totdat het in 2018 eindelijk open source is gemaakt. Of natuurlijk GameWorks dat gelukkig een stille dood gestorven lijkt te zijn. Je kon gewoon een lijst pakken van totale trainwreck games op de PC die totaal niet draaide en die naast de lijst met GameWorks titels leggen. Opvallend vaak waren het dezelfde games. :z
NVIDIA is dé speler in AI processing en dat is het al jaren. AMD heeft wel wat dingen geprobeerd, maar ze lopen enorm achter (als je ooit zelf eens wat met machine learning en neural nets hebt geprobeerd weet je waar ik het over heb). Misschien dat MSFT met wat nieuws gaat komen in DirectX? Tot die tijd is het NVIDIA die hier de kar trekt met innovatie.
Nu heb je DLSS wat heel leuk is, als de game het überhaupt ondersteunt, totdat je een videokaart hebt die gewoon native de gewenste resolutie kan draaien met een acceptabele framerate.
Dat is een ouderwetse manier van denken. DLSS is vergelijkbaar met native qua detail, en soms zelfs beter. Dus ja, misschien kan je in de toekomst dezelfde kwaliteit halen omdat je meer compute hebt. Maar ik kies dan liever voor DLSS en die extra compute inzetten voor andere elementen die de grafische kwaliteit wel verbeteren. Zoals full scene ray tracing bijvoorbeeld.
En toen kwam er opeens een lijn met videokaarten die waarschijnlijk ruim 60% sneller zijn dan de voorgaande generatie en waarschijnlijk vrijwel alles gewoon native kan draaien. Waarom heb ik dan precies DLSS nodig in een paar games? Wat is er beter aan dan native resolutie dat voor elke game werkt?

Er zijn ook zeker nieuwe game engines gebouwd de afgelopen tijd. Dat is alleen niet gebeurd omdat Nvidia met DLSS kwam. Nee, dat is gebeurd omdat er nieuwe consoles aan zitten te komen. Consoles die draaien op RDNA2. Dat is namelijk de realiteit in de gaming industrie. Het zijn Sony en al helemaal Microsoft die grotendeels bepalen wat voor software features standaard worden. Die kozen wederom voor AMD hardware met als resultaat dat RDNA2 de standaard gaat zijn de komende jaren. Immers zijn de meeste games gewoon geport van console.
Zoals ik hierboven al zei is dat een ouderwetse manier van denken. Dit is hoe de situatie nu is (even wat fictieve framerates om mijn punt duidelijk te maken):

4K op 60 fps of 4K DLSS met 100 FPS met dezelfde hoeveelheid detail. Ik kies optie 2.

Snellere gpu? Dan krijgen we dit:

4K op 100 fps of 4K DLSS met 100 FPS en full scene ray tracing + een berg andere grafische verbeteringen.

Wederom kies ik hier voor optie 2.

Geen DLSS ondersteuning? Dan hebben we vergelijkbare prestaties met AMD, aangezien ik AMD niet zo snel NVIDIA voorbij zie streven. Alhoewel ik hoop van wel, want dat maakt het tenminste interessant. Ondanks dat alles is de techniek achter DLSS de toekomst, en of dat nou in de vorm van proprietary NVIDIA tech is of een open source variant doet er niet toe. Alles 100% native renderen is simpelweg verleden tijd.

[ Voor 4% gewijzigd door Verwijderd op 02-09-2020 22:25 ]


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09-10 18:43
@DaniëlWW2

Ik vraag me wel nog steeds af of die meeteenheden van AMD en Nvidia wel 1 op 1 te vergelijken zijn qua RT.
Ergens heb ik het gevoel dat die 11 Gigaray/Sec niet 1 op 1 te vergelijken is met die 95G/sec Tri peak van de Xbox X, en ook de enige paar bronnen die ik kan vinden, waaronder het altijd betrouwbare wccftech, zeggen dat het 2 niet te vergelijken metrics zijn.

Zie bijv:
According to the slide, the console can reach a peak of 380 Giga ray-box per second and 95 Giga ray-triangle per second. However, the slide clearly mentions that these are custom units and as such, we cannot really compare them to anything, such as NVIDIA's Turing 10 Giga rays per second.
En dan hebben we nu voor de RTX 3000 series weer een andere metric, namelijk RT flops, waar een 3080 er 58 van zou hebben en de 2080 waarmee vergeleken leek te worden in de slide dan 34, immers zou volgens de slide een 3080 1.7x de RT performance hebben van een 2080.

Ergens zou het bij dit soort zaken wel makkelijk zijn als er gewoon duidelijke metrics zouden zijn die alle betrokken partijen zouden volgen.

Maar op basis hiervan vraag ik me wel af of er al zaken echt duidelijk gezegd kunnen worden over de RDNA2 RT performance in vergelijking met die van Nvidia enkel op basis van de Xbox cijfers.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op woensdag 2 september 2020 @ 22:26:
@DaniëlWW2

Ik vraag me wel nog steeds af of die meeteenheden van AMD en Nvidia wel 1 op 1 te vergelijken zijn qua RT.
Ergens heb ik het gevoel dat die 11 Gigaray/Sec niet 1 op 1 te vergelijken is met die 95G/sec Tri peak van de Xbox X, en ook de enige paar bronnen die ik kan vinden, waaronder het altijd betrouwbare wccftech, zeggen dat het 2 niet te vergelijken metrics zijn.

Zie bijv:


[...]


En dan hebben we nu voor de RTX 3000 series weer een andere metric, namelijk RT flops, waar een 3080 er 58 van zou hebben en de 2080 waarmee vergeleken leek te worden in de slide dan 34, immers zou volgens de slide een 3080 1.7x de RT performance hebben van een 2080.

Ergens zou het bij dit soort zaken wel makkelijk zijn als er gewoon duidelijke metrics zouden zijn die alle betrokken partijen zouden volgen.

Maar op basis hiervan vraag ik me wel af of er al zaken echt duidelijk gezegd kunnen worden over de RDNA2 RT performance in vergelijking met die van Nvidia enkel op basis van de Xbox cijfers.
Je kan het ook niet direct vergelijken, dat zeg ik ook. :P
Je kan alleen wel vergelijken hoeveel gigarays beide architecturen kunnen produceren en daar lijkt RDNA2 een gigantische voorsprong te gaan hebben. Nvidia probeert alleen helemaal niet zoveel rays te casten. Nee, Nvidia komt met net genoeg rays en vult de rest in met AI denoising. Daarom is het afwachten hoe de verhoudingen precies komen te liggen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 09-10 18:43
Maar hoeveel Gigaray/sec zou die Xbox dan kunnen casten volgens het Gigaray metric dat Nvidia gebruikt, want het is nu juist wat ik begrijp dat die 95G/sec zou niet hetzelfde metric zijn als de 11G/sec van Nvidia waardoor je daar eigenlijk niets uit zou kunnen afleiden want het zou niet vergelijkbaar zijn.

Tenzij die 11G/sec en 95G/sec wel hetzelfde metric zouden zijn, dan kun je er uiteraard wel conclusies aan verbinden.

Mijn vraag is dus eigenlijk, waar kan ik de appels met appels vergelijking zien tussen Turing en de Xbox waaruit de verschillen blijken.

Acties:
  • 0 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Dennism schreef op woensdag 2 september 2020 @ 23:06:
Maar hoeveel Gigaray/sec zou die Xbox dan kunnen casten volgens het Gigaray metric dat Nvidia gebruikt, want het is nu juist wat ik begrijp dat die 95G/sec zou niet hetzelfde metric zijn als de 11G/sec van Nvidia waardoor je daar eigenlijk niets uit zou kunnen afleiden want het zou niet vergelijkbaar zijn.

Tenzij die 11G/sec en 95G/sec wel hetzelfde metric zouden zijn, dan kun je er uiteraard wel conclusies aan verbinden.

Mijn vraag is dus eigenlijk, waar kan ik de appels met appels vergelijking zien tussen Turing en de Xbox waaruit de verschillen blijken.
Nee, die Gigarays zijn wel vergelijkbaar. Immers is dat een waarde die aangeeft hoeveel rays er worden gecast per seconde. Het gaat erom dat Nvidia met een minimaal aantal rays, een beeld construeert met een algoritme. Nvidia RT is grotendeels denoised en heel weinig rays. Ik heb alleen geen flauw idee hoeveel rays Nvidia uitspaart met denoising.

AMD lijkt daarentegen gewoon brute forse rays te gaan casten en lijkt het zeer elegant in RDNA2 te hebben ingebouwd binnen de TMU's. Dat patent dat ik linkte is het denk ik namelijk. Van Mark Cerny met de PS5 presentatie weten we dat RDNA2 een "Intersection Engine" heeft en hij beschrijft eigenlijk precies dat patent in de PS5 presentatie. Verder was Mark Cerny eigenlijk al verrassend positief over wat de 36CU PS5 GPU kan. Die zou dan moeten pieken op 1Gigaray x 36CU x 2230MHz = 80,28G/sec.

Zie:

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 08-10 23:23
Alleen kan de GPU dan niets anders dan dat, toch?

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Paprika schreef op woensdag 2 september 2020 @ 23:46:
Alleen kan de GPU dan niets anders dan dat, toch?
Nee, het zou grotendeels parallel zijn aan shaders. Het patent heeft aan dat RT bounce checks gedaan wordt door een aparte rekeneenheid die in de TMU zit. Er zullen ALU's gebruikt worden om die Intersection Engine van instructies te voorzien, maar van wat ik heb begrepen, haal je meestal toch geen 32 thread/clk waves, waardoor er ALU's onbenut zullen zijn. Het is eigenlijk best een ingenieuze aanpak omdat het waarschijnlijk zeer transistor efficiënt zou zijn.

Het grootste probleem is waarschijnlijk dat dit zo enorm geheugenintensief is en dat zei Cerny ook. Maar ik zou niet verbaast zijn als RDNA2 flink meer cache in de CU's gaat krijgen ter compensatie. De trend is toch al jaren om steeds meer cache toe te voegen. :)

edit: Eigenlijk doet dit hetzelfde als Turing, maar lijkt AMD het veel krachtiger en transistor efficiënter weten te maken omdat ze geen aparte RT core hebben. Dat lijken ze allemaal ingebouwd te hebben in de TMU.
Afbeeldingslocatie: https://developer.nvidia.com/blog/wp-content/uploads/2018/09/image20-1.jpg

[ Voor 16% gewijzigd door DaniëlWW2 op 03-09-2020 00:22 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 22:40
Paprika schreef op woensdag 2 september 2020 @ 23:46:
Alleen kan de GPU dan niets anders dan dat, toch?
Correct jij noemt precies hetgeen waar een aantal mensen hier nu omheen aan het dansen zijn. Zoals het nu op tafel ligt bij Amd kies je voor of Raytracing of voor klassiek in het gebruik van toegewezen kernen op de gpu. Het is 'of' en niet 'en'. Nvidia kan 'en' en doet dat via fixed function hardware.
Deze keuze van AMD is niet omdat het deftiger is, maar omdat het bittere noodzaak voor ze is om ook enige vorm van RT te kunnen bieden binnen hun design keuzes die al jaren geleden zijn gemaakt. Je kunt het vergelijken met de Nvidia implementatie van dx12 op Kepler. Ja het werkt, maar sneller werd het niet :P

De kans dat Amd hardware sneller gaat zijn in RT effecten in games lijkt daarmee kansloos tot ze binnen hun hardware een fatsoenlijke implementatie hiervan hebben opgenomen zonder resources weg te halen die voor andere functies dienen.

En om nog even DLSS aan te kaarten waar een aantal mensen menen het als irrelevant te kunnen bestempelen. Ook dit is hardwarematig opgenomen en neemt kostbare ruimte in beslag. Nu het toch goed lijkt te kunnen werken, is het slechts een kwestie van tijd tot dit goed tot zijn recht komt in grote titels. Dit zou in potentie een grote impact kunnen hebben op hoe renderen nu werkt. Lever je een heel klein beetje detail in, maar gaat de prestatie met 30% omhoog, dan weet ik wel wat iedereen gaat kiezen, ook developers. Dit gaat Nvidia 100% zeker blijven pushen en kan grote gevolgen hebben voor de markt.

Edit
Er zullen ALU's gebruikt worden om die Intersection Engine van instructies te voorzien, maar van wat ik heb begrepen, haal je meestal toch geen 32 thread/clk waves, waardoor er ALU's onbenut zullen zijn.
Dit is een erg ambitieuze claim. Alles wat je toevoegs kost resources en snoep je ergens anders weg. Dit is altijd al zo geweest.

[ Voor 10% gewijzigd door sjekneck op 03-09-2020 00:57 ]


  • bluebear
  • Registratie: Februari 2009
  • Laatst online: 04-04-2023
sjekneck schreef op donderdag 3 september 2020 @ 00:44:
[...]

Correct jij noemt precies hetgeen waar een aantal mensen hier nu omheen aan het dansen zijn. Zoals het nu op tafel ligt bij Amd kies je voor of Raytracing of voor klassiek in het gebruik van toegewezen kernen op de gpu. Het is 'of' en niet 'en'. Nvidia kan 'en' en doet dat via fixed function hardware.
Nee, het zou grotendeels parallel zijn aan shaders.
kijk ff hierboven..

Het is juist EN ipv of.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Verwijderd schreef op woensdag 2 september 2020 @ 22:23:
[...]

NVIDIA is dé speler in AI processing en dat is het al jaren. AMD heeft wel wat dingen geprobeerd, maar ze lopen enorm achter (als je ooit zelf eens wat met machine learning en neural nets hebt geprobeerd weet je waar ik het over heb). Misschien dat MSFT met wat nieuws gaat komen in DirectX? Tot die tijd is het NVIDIA die hier de kar trekt met innovatie.

[...]


Dat is een ouderwetse manier van denken. DLSS is vergelijkbaar met native qua detail, en soms zelfs beter. Dus ja, misschien kan je in de toekomst dezelfde kwaliteit halen omdat je meer compute hebt. Maar ik kies dan liever voor DLSS en die extra compute inzetten voor andere elementen die de grafische kwaliteit wel verbeteren. Zoals full scene ray tracing bijvoorbeeld.

[...]

Zoals ik hierboven al zei is dat een ouderwetse manier van denken. Dit is hoe de situatie nu is (even wat fictieve framerates om mijn punt duidelijk te maken):

4K op 60 fps of 4K DLSS met 100 FPS met dezelfde hoeveelheid detail. Ik kies optie 2.

Snellere gpu? Dan krijgen we dit:

4K op 100 fps of 4K DLSS met 100 FPS en full scene ray tracing + een berg andere grafische verbeteringen.

Wederom kies ik hier voor optie 2.

Geen DLSS ondersteuning? Dan hebben we vergelijkbare prestaties met AMD, aangezien ik AMD niet zo snel NVIDIA voorbij zie streven. Alhoewel ik hoop van wel, want dat maakt het tenminste interessant. Ondanks dat alles is de techniek achter DLSS de toekomst, en of dat nou in de vorm van proprietary NVIDIA tech is of een open source variant doet er niet toe. Alles 100% native renderen is simpelweg verleden tijd.
DLSS is een mooie optie als je echt niet anders kan, maar upscaling met een CAS filter komt gewoon heel close en heeft minder last van rare artifacts. Nog steeds is native op bepaalde effecten zoals bloom beter. Het werkt vooral goed op de lagere resoluties lijkt het, ik ben nog niet onder de indruk van de gesimuleerde 8k beelden (sowieso is 8k een vrij nutteloze exercitie), geef mij maar super sampling of VSR op 4k.
DLSS 2.0 is gelukkig wel een stuk beter dan het mislukte DLSS 1.0. Bij Control kan DLSS op de shaders dus het hele Tensor Core gedeelte is niet eens nodig.
Nvidia tells us that DLSS 2.0 is the version that will be used in all DLSS-enabled games going forward; the shader core version, DLSS 1.9, was a one-off and will only be used for Control. But we think it’s still important to talk about what Nvidia has done in Control, both to see how DLSS has evolved and also to see what is possible with a shader core image processing algorithm, so let’s dive into it.
https://www.techspot.com/article/1992-nvidia-dlss-2020/

Ik denk dat DLSS een leuke toevoeging is maar erg subjectief. Voor mij is het niet iets wat mij doet overhalen om een Nvidia kaart te halen. Ik denk dat de grootste toegevoegde waarde is dat je het met een druk op de knop kan aanzetten en niet hoeft te spelen met upscaling en CAS.

  • Sissors
  • Registratie: Mei 2005
  • Niet online
bluebear schreef op donderdag 3 september 2020 @ 01:49:
[...]


Nee, het zou grotendeels parallel zijn aan shaders.
kijk ff hierboven..

Het is juist EN ipv of.
Ik ga eerlijk zijn, en toegeven dat ik me nooit echt erin verdiept hebt. Maar logisch gezien ga ik dat gewoon heel onwaarschijnlijk noemen. Dan zou AMD even richting de 10 keer de ray tracing prestaties van een 2080Ti zetten in een PS5, compleet parallel aan zijn normale berekeningen. Dat lijkt me echt gewoon een onrealistisch getal, en vooral wishful thinking te zijn. Het lijkt mij waarschijnlijker dat of die hele chip niks anders aan het doen kan zijn als hij zoveel ray tracing moet doen, of dat die getallen niet vergelijkbaar zijn.

(Sowieso zit je natuurlijk met thermische limieten).

Verwijderd

Sp3ci3s8472 schreef op donderdag 3 september 2020 @ 02:06:
[...]


DLSS is een mooie optie als je echt niet anders kan, maar upscaling met een CAS filter komt gewoon heel close en heeft minder last van rare artifacts.
Heb je bewijs voor deze stelling?

  • GekkeR
  • Registratie: April 2000
  • Laatst online: 08:39

GekkeR

key = key

Zijn er anderen die er heilig van zijn overtuigd dat AMD met een "nieuw" crossfire gaat komen volgende maand?
Ik ben in ieder geval niet de enige die dit denkt:
https://www.quora.com/Can...using-the-infinity-fabric

Dan slaan ze 2 vliegen in 1 klap.
Intel is nog verder useless geworden en de 3090 kan je dan ook voorbij vliegen met 1200~ euro. (wel 500watt maar goed, dat is die 3090 ook al wel)

[ pctje te zien hier ] - Miauw


  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

bluebear schreef op donderdag 3 september 2020 @ 01:49:
[...]


Nee, het zou grotendeels parallel zijn aan shaders.
kijk ff hierboven..

Het is juist EN ipv of.
Nee, dat weten we nog helemaal niet. Wat daarboven staat is puur speculatie van DanielWW2.

De waarheid zal denk ik in het midden liggen. Ik verwacht zeker niet dat Big Navi die twee zaken parallel kan doen, maar AMD zal vast wel een paar truukjes ingebouwd hebben om de load wat te verlagen voor de shaders, op het moment dat ray tracing ingeschakeld wordt.

Ik denk ook niet dat Nvidia voor niks een groot gedeelte van hun chip budget spendeert aan fixed-function hardware voor ray tracing + denoising. Het maakt het voor nvidia toch weer lastiger om betere rasterization performance te behalen met nieuwe generaties. Een deel van hun chip, wat ze had kunnen gebruiken voor bijvoorbeeld extra shaders, is nu bezet door de RT en Tensor cores. Zoiets doe je niet als je het raytrace gedeelte ook gemakkelijk via de shaders had kunnen doen,

Ik denk dat de ray tracing performance van big navi op het niveau van turing zal zitten, misschien zelfs iets lager nog.

Hetgeen wat we van de PS5 en de nieuwe xbox games hebben gezien lijkt me daar ook een aanwijzing voor. Als RDNA2 zo goed in raytracing is, dan hadden we daar denk ik ook meer van teruggezien in de getoonde games voor die consoles.
Ik vond juist dat er maar bar weinig raytracing getoond werd (of ik heb iets gemist :P ).

Acties:
  • +1 Henk 'm!

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

In plaats van alweer te proberen om mensen te overtuigen die blijkbaar niks anders kunnen doen dan nee zeggen als ik iets probeer te onderbouwen, ga ik een aantal hier maar uitdagen om dit te verklaren. Ik wacht wel. :z

Afbeeldingslocatie: https://tweakers.net/camo/5bcbaa5db296970668de84ddd00b79241bf32348/?url=https%3A%2F%2Fcdn.videocardz.com%2F1%2F2020%2F08%2FXbox-Series-X-Slide22.jpg

Afbeeldingslocatie: https://tweakers.net/i/kDgdnPda1iyl2_zP6g-MMzWAqG0=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/tpBRjlHRVE3PU3naxqjWbNDY.jpg?f=user_large

Afbeeldingslocatie: https://tweakers.net/i/RN4icuEi-Grx5CatuCorkDMS3F4=/full-fit-in/4920x3264/filters:max_bytes(3145728):no_upscale():strip_icc():fill(white):strip_exif()/f/image/XGdajKjBUM8BAHziVc6EELRe.jpg?f=user_large

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Sissors
  • Registratie: Mei 2005
  • Niet online
DaniëlWW2 schreef op donderdag 3 september 2020 @ 09:57:
In plaats van alweer te proberen om mensen te overtuigen die blijkbaar niks anders kunnen doen dan nee zeggen als ik iets probeer te onderbouwen, ga ik een aantal hier maar uitdagen om dit te verklaren. Ik wacht wel. :z

[Afbeelding]
Een "minor area cost for 3x-10x acceleration". Een Xbox series X heeft vergelijkbare hoeveelheid tflops als een 1080Ti, die volgens Nvidia 1.1GRay/s kan doen. En dan zou een Xbox met 3-10x versneller 95GRay/s aankomen? Natuurlijk zit er wel wat onzekerheid in mijn ruwe berekening, maar dit kan gewoon niet, het gat is te groot. Of die getallen zijn totaal niet vergelijkbaar tussen AMD en Nvidia, of die hele chip is niks anders aan het doen dan ray tracing. Gezien ze zeggen dat shaders wat anders tegelijk kan doen, ga ik voor de eerste optie, de getallen zijn niet vergelijkbaar. Denken dat een nieuwe Xbox / RDNA2 even met 10x de ray tracing performance van een 2080TI aan komt is wat mij betreft wishful thinking.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-10 17:56
De cijfers zijn niet vergelijkbaar tussen Nvidia en AMD. Beide brengen het op een manier die er volgens hen gunstig uit ziet.

De implementaties verschillen niet zo heel veel van elkaar, maar genoeg om ze niet rechtstreeks met elkaar te kunnen vergelijken. Het is tijd voor een onafhankelijke benchmark die specifiek zoekt naar enkele (nog te definiëren) eenheden om dit alles mee te meten.

  • Tyranium
  • Registratie: December 2003
  • Niet online

Tyranium

Ero-sennin

DaniëlWW2 schreef op donderdag 3 september 2020 @ 09:57:
In plaats van alweer te proberen om mensen te overtuigen die blijkbaar niks anders kunnen doen dan nee zeggen als ik iets probeer te onderbouwen, ga ik een aantal hier maar uitdagen om dit te verklaren. Ik wacht wel. :z

[Afbeelding]

[Afbeelding]

[Afbeelding]

[YouTube: The Road to PS5]
Wat ik hieruit opmaak is dat een gedeelte van de raytrace berekening door de intersection engine gedaan kan worden, dus een gedeelte loopt parallel. Maar dit betekent toch nog niet dat RDNA2 het complete raytracing gedeelte parallel kan doen met de overige bewerkingen?

Begrijp me niet verkeerd hoor. Ik hoop dat AMD ons allermaal verrast en ze fantastische raytracing performance gaan bieden. Dat zou alleen maar goed zijn voor concurrentie en hopelijk raytracing nog toegankelijker maken in meer titels. Maar vooralsnog denk ik dat het wishful thinking is.

Misschien dat dit een aanwijzing is voor de raytracing performance van RDNA2:

YouTube: Minecraft DXR on Xbox Series X: Next-Gen Ray Tracing Analysis!

Minecraft DXR draaiende op een Xbox series X. Vanaf 4:20 ongeveer gaat het over de performance.
Volgens die persoon draaide het op 1080p met een fps tussen 30 en 60.

Als je dat dan vergelijkt met Minecraft RTX:

Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/aiDmHpqAA4CFHWRnizTUoJ-1920-80.png

De performance is dus vergelijkbaar met een RTX2060S / RTX2070.

Ik weet, dit is een erg ruwe vergelijking, Minecraft DXR is ook nog niet af en er zullen vast nog wel allerlei optimalisaties plaatsvinden. Maar als RDNA2 zo'n fantastische raytracing performance kan neerzetten, dan had ik in minecraft DXR wel wat meer verwacht dan 30-60 fps op 1080p.

  • DaniëlWW2
  • Registratie: November 2009
  • Niet online

DaniëlWW2

Moderator General Chat

Dyslectic history cynic

Tyranium schreef op donderdag 3 september 2020 @ 10:41:
[...]


Wat ik hieruit opmaak is dat een gedeelte van de raytrace berekening door de intersection engine gedaan kan worden, dus een gedeelte loopt parallel. Maar dit betekent toch nog niet dat RDNA2 het complete raytracing gedeelte parallel kan doen met de overige bewerkingen?
Dat doen ze dus wel omdat er geen goed alternatief is. Het gaat hybrid RT worden omdat volledige RT, tja dat is Quake II RTX. Het gaat letterlijk nog decennia duren voordat dit kan met betere grafische kwaliteit dan Quake II.

Of het nu Turing, Ampere of RDNA2 is, je zal moeten werken met BVH. Eerst moet je 3D objecten gaan renderen in shaders en vervolgens kan je er pas rays op loslaten terwijl je de shaders andere zaken laat berekenen. Je doet eigenlijk dus dit.



Je stuurt een fors aantal ray en laat deze een ray triangle check doen. Dus je vraagt deze rays, een 3D object raken. Alles dat negatief uitkomt, gooi je weg. Voor alles dat positief terugkomt, ga je over op ray box checks. Het doel is namelijk om het 3D object te mappen in steeds kleinere BVH boxes totdat je afdoende boxes hebt voor global illumination, shadows of reflections. Dan stop je en render je die. Volgens het patent kan RDNA2 maximaal 24 BVH's per ray creëren. Dit dus, maar dan duizenden keren per seconde.


Het enige dat je nu echt kan zeggen en het enige dat ik dan ook zeg, is dat RDNA2 waarschijnlijk een veelvoud aan rays moet casten ten opzichte van Turing of Ampere. Immers lijkt er geen sprake te zijn van uitgebreide denoising door ALU's in RDNA2 haar oplossing. Als je net zoveel rays cast als een Ampere of helemaal Turing zonder denoising, tja dan heb je een RT slideshow. Ga je makkelijk van tientallen frames naar een of twee zodra je iets van RT aanzet. Dat is niet acceptabel.

Ik maak ook geen illusies hoe RDNA2 ontwikkeld is. De geruchten gaan al jaren rond dat het in opdracht van Sony en Microsoft is ontwikkeld en dat klopt waarschijnlijk ook. Een moderne GPU ontwikkelen duurt al snel vier jaar en RDNA is een nieuwe architectuur wat het extra lastig zal maken. Ik schat in dat RDNA1 zo rond 2014 of 2015 begonnen zal zijn toen duidelijk werd dat GCN absoluut niet op kon tegen Maxwell. Op dat moment was AMD alleen druk bezig met Zen voltooid te krijgen zodat ze niet failliet zouden gaan. GPU ontwikkeling was allang grotendeels defunded en dat zag je met Polaris en Vega al. Ze voegde wat zaken toe aan GCN, maar dat was het ook. Het grootste wat ze toevoegde waren de nieuwe ALU's in Vega, die ook in RDNA zitten. Dat was echt geen toeval.

Ik denk zo dat en Microsoft en Sony een aardig zak met geld op tafel hebben gelegd om RDNA2 te ontwikkelen en AMD uit de eerste resultaten, RDNA1 heeft ontwikkeld. Voor Sony en Microsoft die als klanten naar AMD optraden en waarschijnlijk de R&D hebben moeten voorschieten, zal het niet acceptabel zijn geweest als ze om RT capaciteiten vroegen en iets kregen waar je nauwelijks een shaduw mee kan ray tracen en alsnog gigantische framedrops krijgt. Als AMD daarmee was komen aanzetten, dan zouden hebben dat ze bij AMD maar terug naar de tekentafel moesten gaan.

Dat is voor mij de logica waarom RDNA2 zoveel rays zou casten. Er lijkt niet gekozen te zijn voor een aanpak met relatief weinig rays en veel post processing met algoritmen zoals Nvidia doet.

Ik zeg ook bewust niks over performance omdat ik het niet weet. AMD en Nvidia gebruiken op een globaal niveau hetzelfde systeem om RT rays te casten, maar dat is het ook wel. Na het casten van rays doen ze beiden zeer waarschijnlijk iets anders.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 03-10 13:26
Verwijderd schreef op donderdag 3 september 2020 @ 08:50:
[...]

Heb je bewijs voor deze stelling?
Gezien het grotendeels subjectief is niet echt, het is mijn mening dat het heel goed lijkt te werken op dingen zoals haar, maar dat het op bepaalde textures en oppervlakten gewoon rare dingen laat zien. Wel een analyse van DLSS 1.0 nog wat niet heel erg relevant is. Wat ik nu vooral zie met DLSS 2.0 is dat er een CAS filter overheen zit.


DLSS 2.0 lijkt het wel te winnen ten opzichte van performance als je het tegenover upscaling zet bijv (1440p -> 1800p), qua detail is het dan hetzelfde. Helaas is dit op NVidia hardware dus je kan niet zien wat het op AMD hardware doet met CAS erbij.

[ Voor 30% gewijzigd door Sp3ci3s8472 op 03-09-2020 13:24 ]

Pagina: 1 ... 7 ... 106 Laatste

Let op:
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.