Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Verwijderd
Snap ik, stap zou wel ineens heel groot worden terwijl ik nog redelijk game op mijn kaart met maar effectief 3,5gb gram-The_Mask- schreef op dinsdag 25 februari 2020 @ 17:56:
[...]
Zoals ik al aangaf, als het dan toch beschikbaar komt, dan is het nog onlogisch.Ergens rond de helft van de genoemde geheugenbandbreedte is een logisch aantal voor een gaming exemplaar met zulke specs.
Maargoed wie weet vergt de raytracing implementatie van AMD wel veel geheugen ?
Met die specs? reken maar € 1500,- dan kan het waarschijnlijk niet heel erg tegenvallenDaniëlWW2 schreef op maandag 24 februari 2020 @ 19:27:
[...]
Dit zou het moeten zijn. Een 40CU Navi 10 is al sneller dan een RX Vega 64. Een 80CU Navi met ruim viermaal de geheugenbandbreedte zou 2x van een Navi 10 moeten kunnen doen, ook met lagere clock speeds. Geheugenbrandbreedte schaalt niet lineair maar exponentieel, maar 2TB/s+ zou dat moeten oplossen. De prijs, tja reken maar op €1000. Dan kan het waarschijnlijk eerder meevallen dan tegenvallen.
Maar goed, als die dan fatsoenlijk de opkomende LG 38GN950 kan aansturen...... dan ben ik daarna weer een tijdje arm
10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem
Maar als het Assassin's Creed Odyssey runt op een strakke 4k60 wordt het een gevalletje:

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Geef daar dan ook even een linkje naar.Verwijderd schreef op woensdag 26 februari 2020 @ 10:42:
Bericht is inmiddels ontkracht door SK hynix
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Hardware-accelerated GPU scheduling: It allows the video card to directly manage its video memory[49], which in turn significantly improves the performance of the minimum and average FPS, and thereby reducing latency. It works regardless of the API used for games and applications such as DirectX/Vulkan/OpenGL.
Wikipedia: Windows Display Driver Model
https://www.jonpeddie.com/store/market-watch-quarterly1
En een deep dive in Navi. Alles van dat het is geproduceerd op N7P (performance node), bedrading, waar de winsten zijn behaald etc.
https://fuse.wikichip.org...nd-the-rdna-architecture/
edit:

[ Voor 11% gewijzigd door DaniëlWW2 op 29-02-2020 17:29 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik hoop morgenochtend nieuws te zien.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Ik ben allang voorbereid op nog meer teleurstelling en wachten.Blaat schreef op donderdag 5 maart 2020 @ 09:19:
Vanavond 22:00 tot Vrijdag 03:00 onze tijd is het financial analyst day voor AMD. Het idee waart rond dat ze dan meer bekend maken over RDNA 2.
Ik hoop morgenochtend nieuws te zien.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Je kunt iets prijsgeven over de architectuur zonder dat dat betekent dat er binnenkort een videokaart te koop is gebaseerd op die architectuur.Olaf van der Spek schreef op donderdag 5 maart 2020 @ 19:22:
Korter dan een jaar na Navi 1 verwacht ik niet, dus voor je het weet is het september - december.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Das mooi, dan kunnen we lagere prijzen van Nvidia verwachten i.c.m. een nieuwe architectuur en procede. Belooft een mooi jaar te wordenDaniëlWW2 schreef op donderdag 27 februari 2020 @ 20:08:
En in Q4/2019 heeft AMD maar liefst 22,6% meer geleverd dan in Q3 waar Nvidia 1,9% verloor. Meer mensen hebben nu een AMD GPU dan een Nvidia.

Dat is dus precies het probleem waardoor AMD tijden geen gpus verkocht. Mensen kopen dan lekker Nvidia want die moet in de prijs omlaag. Zelfs in de tijd van de HD5870 en Nvidia met Fermi bleven ze Nvidia kopen.
Ik hoop dat AMD net zoals ze dat met de andere Navi kaarten hebben gedaan dat ze ze gewoon voor een goede prijs verkopen en er goed winst op kunnen maken, dus gewoon dicht tegen de prijs van de Nvidia kaarten aan.
Ik heb momenteel een GTX1080. De voorlaatste Nvidia kaart was een TNT2 Ultra. Alles daartussen was Radeon/AMD. Ik bouw elke 36 maanden een nieuw systeem dus reken maar uit hoeveel Radeon kaarten dat dan zijn. Ik ben na de R9 serie overgestapt eigenlijk puur omdat ik het beu was dat er de laatste generaties altijd wel kleine dingetjes aan de hand waren.Sp3ci3s8472 schreef op donderdag 5 maart 2020 @ 23:34:
![]()
Dat is dus precies het probleem waardoor AMD tijden geen gpus verkocht. Mensen kopen dan lekker Nvidia want die moet in de prijs omlaag. Zelfs in de tijd van de HD5870 en Nvidia met Fermi bleven ze Nvidia kopen.
Ik hoop dat AMD net zoals ze dat met de andere Navi kaarten hebben gedaan dat ze ze gewoon voor een goede prijs verkopen en er goed winst op kunnen maken, dus gewoon dicht tegen de prijs van de Nvidia kaarten aan.
Vind ik dat Nvidia te duur is in verhouding? Hun hogere segment zeker wel. AMD heeft een betere prijs/performance. Maar goed, voor mij is er meer dan dat om een type of merk te kopen. Voor mij speelt geld ook minder een rol. Sowieso ben ik niet merktrouw. Ik besef dat er concurrentie moet zijn om de markt scherp te houden, maar welke bedrijven dat dan zijn kan mij weinig boeien. Een bedrijf heeft ook niet het beste met mij voor, enkel met hun winstoogmerk. Ik koop wat voor mij het beste is, niet omdat ik bedrijf <insert kleur> lief vind.
Dus ja, voor mij en eigenlijk iedereen die geen specifieke fanboy is, is het belangrijk dat AMD een goed product neerzet. Zodat er concurrentie is, de prijs meer in verhouding staat, en bovenal, dat er dus keuze is voor jou als consument om te kiezen wat het beste is.
Juist voor fanboys is het belangrijk, anders wordt hun favoriete merk duurder en duurder..JeroenNietDoen schreef op vrijdag 6 maart 2020 @ 07:04:
Dus ja, voor mij en eigenlijk iedereen die geen specifieke fanboy is, is het belangrijk dat AMD een goed product neerzet.
Het is wel te verwachten dat met RDNA2 AMD nu eerst voor de grote snelle kaarten gaat, omdat ze daarin nu nog niet mee kunnen komen met nVidia. Ikzelf vind, zoals bekend, vooral interessant hoeveel performance je uit 75W kunt persen, maar met de beloofde 50% betere performance per watt gaat AMD nu dus eerst voor de high-end.
Ikzelf laat mijn oog toch vallen op de verguisde 5500 XT om mijn RX460 te vervangen met het vakantiegeld van 2020, alternatief wordt wachten tot ver in 2021 voor mid-end Navi 2X.
Maar de echte winst gaat denk ik in de high end zitten. AMD die op een financial analyst day komt vertellen dat ze 50% perf/watt brengt, nou dat gaat gebeuren. Het hele punt voor AMD van dit soort dagen zijn deze aankondigingen, en die ook altijd leveren. Ga er maar vanuit dat AMD voor 225W een GPU kan leveren die de RTX2080Ti gaat matchen, zo niet verslaan. Dat zal waarschijnlijk dan niet eens de grootste chip zijn.
/i/2003439096.jpeg?f=imagegallery)
/i/2003439100.jpeg?f=imagegallery)
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat mag ik hopen jaDaniëlWW2 schreef op vrijdag 6 maart 2020 @ 11:04:
Maar de echte winst gaat denk ik in de high end zitten. AMD die op een financial analyst day komt vertellen dat je 50% perf/watt brengt, nou dat gaat gebeuren. Het hele punt voor AMD van dit soort dagen zijn deze aankondigingen, en die ook altijd leveren. Ga er maar vanuit dat AMD voor 225W een GPU kan leveren die de RTX2080Ti gaat matchen, zo niet verslaan.
Uh ja, die schatting van mij was aan de hand van een 1200mv draaiende RX5700XT. Dat is dus bewust worse case scenario waar geen rekening gehouden is met bijvoorbeeld:Sissors schreef op vrijdag 6 maart 2020 @ 11:37:
[...]
Dat mag ik hopen ja. Gezien RTX2080TI een TDP van 250W heeft, is het nou niet een extreem indrukwekkende prestatie wanneer AMD 2-2.5 jaar later op een veel moderner proces een vergelijkbare rekenkracht voor 225W kan neerzetten. En natuurlijk dan kunnen we het nog hebben over board TDP vs puur GPU TDP, maar overall mag ik wel hopen dat AMD dat kan qua perf/watt.
-Betere clockspeed/voltage optimalisatie omdat het gewenste prestatieniveau makkelijker te behalen is.
-Potentieel grotere efficiëntiewinst met grotere, complexere en hoger geclockte chips die potentieel meer baat hebben aan betere logic.
-Het gebruik van HBM2(E) of 16Gbps GDDR6 met een 256 bit bus i.p.v een 384 bit bus.
-Veel betere schaling met juist wel een 384 bit bus en 16gbps GDDR6 waardoor je minder CU's nodig hebt voor een gewenst prestatieniveau.
-Überhaupt veel efficiënter met geheugenbandbreedte dan RDNA1 waardoor je met minder weg kan komen voor je gewenste prestatieniveau. Niet naar VRAM gaan, maar bij cache blijven is namelijk altijd efficiënter.
Het is niet zo simpel als RDNA1/Navi 10 even 50% groter maken, iets betere node en hallo RTX2080Ti. Dat was waarschijnlijk mogelijk met een 250W ish RDNA 1 met HBM2 en iets lagere clockspeeds dan een RX5700XT, maar daar is niet voor gekozen. Dit probeer ik nu al bijna een jaar duidelijk te maken. Er zullen serieuze stappen in architectuur gezet moeten worden voordat je dit bereikt. Daarom is de 12nm vs. 7nm discussie ook volstrekt zinloos. Volgende generatie is beiden op 7nm en dat wisten we allang. Het was en is nog steeds de vraag welke van de twee kampen de beste architectuur kan neerzetten op een 7nm node. Hebben we het nog niet gehad over de drie opties, TSMC N7 (DUV), N7+ (EUV) en Samsung (EUV) die allemaal nog mogelijk zijn. Nee, schrijf N7 ook nog niet af. EUV machines hebben een reticle limit die rond de 500mm2 zit.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
15-20% sneller dan de 2080ti. Ik verwacht, i.t.t. @DaniëlWW2 , dat dit hun zwaarste chip zal zijn. Eigenlijk zeggen ze dit zelf al met het stukje over “4K gaming”, highend. Ze lopen tegen limieten aan.
Geen blowers meer.




https://www.reddit.com/r/...ce=share&utm_medium=web2x
https://www.reddit.com/r/...ce=share&utm_medium=web2x

[ Voor 18% gewijzigd door DaniëlWW2 op 06-03-2020 12:35 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
[ Voor 16% gewijzigd door Maulwurfje op 06-03-2020 15:16 ]
Ze laten expliciet de 7nm+ vallen omdat het verwarring kan veroorzaken met TSMC N7+, de EUV node. Dat is nodig omdat N7P ook bestaat. Dat is een DUV performance node.
https://www.anandtech.com...roducts-euv-not-specified
AMD zegt niet welke ze gebruiken, maar op deze manier vermoed ik N7P. Dat is logischer dan N7+ wat waarschijnlijk een meer low power node is. Ik denk dat we ons allemaal de laatste keer nog kunnen herinneren toen AMD een high end GPU liet produceren op een low power node. Low power was die niet, bizar veel lekstroom wel.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verder zal Big Navi het ook moeten opnemen tegen Nvidia's aanstaande 3000-serie, dus de vergelijking met RTX 2080 Ti kan zomaar in één klap achterhaald zijn.Sissors schreef op vrijdag 6 maart 2020 @ 11:37:
[...]
Dat mag ik hopen ja. Gezien RTX2080TI een TDP van 250W heeft, is het nou niet een extreem indrukwekkende prestatie wanneer AMD 2-2.5 jaar later op een veel moderner proces een vergelijkbare rekenkracht voor 225W kan neerzetten. En natuurlijk dan kunnen we het nog hebben over board TDP vs puur GPU TDP, maar overall mag ik wel hopen dat AMD dat kan qua perf/watt.
Ja, en de prijs van die 3000 serie zal dan weer 1op1 in verhouding staan met de performance die Big Navi gaat leveren, dus hoe dan ook een interessant jaar....XWB schreef op vrijdag 6 maart 2020 @ 20:36:
Verder zal Big Navi het ook moeten opnemen tegen Nvidia's aanstaande 3000-serie, dus de vergelijking met RTX 2080 Ti kan zomaar in één klap achterhaald zijn.
10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem
Mijn phanteks evolv shift kast is het hier niet geheel mee eens
B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW
Ben erg benieuwd wat de PS5 gaat doen, ik hoop dat Sony qua RT hardware in de buurt blijft zodat we geen wildgroei aan implementaties krijgen.
Is er nog iemand die eraan twijfelt dat AMD een gigantische stap gaat zetten met RDNA 2 of?
Die 50% perf/watt hebben ze al toegezegd, maar ik denk dat de meest hier meer zitten te kijken naar de performance en minder de watt. Dit zijn console chips en als ik het goed had begrepen is er een foto opgedoken die aangeeft dat de voeding van de Xbox series X beperkt zou zijn tot 305W. Dat is voor de hele console. Nou, tik iets van 70W eraf voor de Zen 2 8c/16t met 3,6GHz all core, nog wat voor de SSD en andere componenten en je zou zomaar rond of onder de 200W kunnen zitten voor de GPU. Dat is dan met een grotere bus en een prestatieniveau dat waarschijnlijk aardig richting de RTX2080Ti gaat. Formaat van puur de GPU zou ook wel eens sub 300mm2 kunnen zijn. Wederom niet erg spannend qua formaat. Dus kom maar op met die 80CU's.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Hier een vergelijking:

Dit is meer ter info van de nieuwe graphics chip die AMD erin gestopt heeft, was zich waarschijnlijk ook als desktop kaart zal verwezelijken. Maar ik zie dat DanielWW2 deze al genoemd heeft.
[ Voor 31% gewijzigd door bluebear op 18-03-2020 23:35 ]
* NitroX infinity zit op een 75W kaart te wachten.DaniëlWW2 schreef op woensdag 18 maart 2020 @ 18:52:
..maar ik denk dat de meest hier meer zitten te kijken naar de performance en minder de watt...
Ik hoop nou toch stiekem wel op beter dan 5500XT prestaties in 75W.
Graphene; a material that can do everything, except leave the lab. - Asianometry
Twijfel niet, maar dat hangt er volgens mij vooral vanaf vanuit welk perspectief je dit bekijkt.DaniëlWW2 schreef op woensdag 18 maart 2020 @ 18:52:
Is er nog iemand die eraan twijfelt dat AMD een gigantische stap gaat zetten met RDNA 2 of?
Als AMD naar 2080TI performance gaat met Big Navi dan geef ik je volledig gelijk als je zegtDaniëlWW2 schreef op woensdag 18 maart 2020 @ 18:52:
en een prestatieniveau dat waarschijnlijk aardig richting de RTX2080Ti gaat.
Het is helemaal prima dat AMD's komende generatie GPU op een prestatieniveau van 2080TI lopen. Het betekent dat er waarschijnlijk een betaalbaar alternatief is voor de 2080TI. Wel pas in Q4. Voor kopers die trouw aan team red hangen is dit natuurlijk heel goed nieuws.DaniëlWW2 schreef op woensdag 18 maart 2020 @ 18:52:
Is er nog iemand die eraan twijfelt dat AMD een gigantische stap gaat t.o.v. de huidige generatie gaat zetten met RDNA 2 of?
Echter, voor mensen die niet aan een kleurtje hangen en gewoon de beste performance willen is er wel al snel een redenatie van "die 2080TI, leuk dat je daarmee vergelijkt, maar die kaart is wel al een paar jaar op de markt". Nvidia zit ook niet stil en die blijven natuurlijk niet op hun 2080TI performance zitten met Ampere. En het is aannemelijk dat nu AMD aangesloten blijft Nvidia een scherpere pricing zal toepassen. We gaan echt geen 3080TI van €1500,- zien.
Hetgeen wat ik me afvraag echter: De Xbox gaat dus de trager geklokte, maar grotere versie hebben. Dus dan doe ik de aanname dat die al de grootste stap van minder verbruik door lagere kloksnelheid heeft gemaakt (immers is verbruik een dingetje bij die consoles). Als ze met een 80 CU kaart niet meer het verbruik veel lager kunnen krijgen per CU als tov de Xbox, dan zit je alsnog op 300W+.DaniëlWW2 schreef op woensdag 18 maart 2020 @ 18:52:
Dus nu hebben we een RDNA 2 met 52CU's die op 1,825GHz draait. Dat met een 320 bit bus en onderdeel van een APU waar de CPU ongeveer neer zal komen op een 3700X, allen voor 360mm2. Daarnaast een tweede RDNA 2 met 36CU's en een gezonde 2,3GHz. Dat is een mid range chip, kleiner dan Navi 10, maar waarschijnlijk wel sneller. Waarschijnlijk zit je voor een dergelijke GPU rond de 200mm2.
Is er nog iemand die eraan twijfelt dat AMD een gigantische stap gaat zetten met RDNA 2 of?![]()
Die 50% perf/watt hebben ze al toegezegd, maar ik denk dat de meest hier meer zitten te kijken naar de performance en minder de watt. Dit zijn console chips en als ik het goed had begrepen is er een foto opgedoken die aangeeft dat de voeding van de Xbox series X beperkt zou zijn tot 305W. Dat is voor de hele console. Nou, tik iets van 70W eraf voor de Zen 2 8c/16t met 3,6GHz all core, nog wat voor de SSD en andere componenten en je zou zomaar rond of onder de 200W kunnen zitten voor de GPU. Dat is dan met een grotere bus en een prestatieniveau dat waarschijnlijk aardig richting de RTX2080Ti gaat. Formaat van puur de GPU zou ook wel eens sub 300mm2 kunnen zijn. Wederom niet erg spannend qua formaat. Dus kom maar op met die 80CU's.
Een RTX 2070 Super presteert ook ongeveer als een GTX 1080 Ti en een RX 5700 XT als een Radeon VII. Toch verkopen de RTX 2070 Super en RX 5700 XT prima. De markt voor het aller snelste is niet zo groot, de marge daarentegen wel natuurlijk.JeroenNietDoen schreef op donderdag 19 maart 2020 @ 08:21:
[...]
Echter, voor mensen die niet aan een kleurtje hangen en gewoon de beste performance willen is er wel al snel een redenatie van "die 2080TI, leuk dat je daarmee vergelijkt, maar die kaart is wel al een paar jaar op de markt".
Hoe weet je het verbruik van de GPU en het videogeheugen van de toekomstige Xbox?Sissors schreef op donderdag 19 maart 2020 @ 08:28:
[...]
Hetgeen wat ik me afvraag echter: De Xbox gaat dus de trager geklokte, maar grotere versie hebben. Dus dan doe ik de aanname dat die al de grootste stap van minder verbruik door lagere kloksnelheid heeft gemaakt (immers is verbruik een dingetje bij die consoles). Als ze met een 80 CU kaart niet meer het verbruik veel lager kunnen krijgen per CU als tov de Xbox, dan zit je alsnog op 300W+.
AMD heeft aangeven dat RDNA2 met de tweede generatie 7nm zorgt voor een performance/watt verbetering van 50% ten opzichte van RDNA op de eerste generatie 7nm. Daarmee kan AMD 30% meer prestaties halen als een RTX 2080 Ti met hetzelfde verbruik. Als je de RX5700 XT als basis pakt.
De vraag is echter of AMD hier ook voor kiest. Een meer logische keuze voor AMD is om zoveel mogelijk prestaties te halen uit zo weinig mogelijk silicon. En dat doe je door de klokfrequentie zo ver als mogelijk op te voeren. Dit gaat echter weer te koste van de performance per watt.
Ik zou er niet van uit gaan dat je zo'n kaart dit jaar gaat zien. De focus zal toch eerst liggen op de producten met meer marge. Misschien krijgen we over twee jaar wel SoC's met zulke prestaties. De techniek is er, zie de nieuwe Xbox en PS5. Maar ook eerder al natuurlijk met Kaby Lake G, met een losse AMD chip en HBM.NitroX infinity schreef op woensdag 18 maart 2020 @ 23:45:
[...]
* NitroX infinity zit op een 75W kaart te wachten.
Ik hoop nou toch stiekem wel op beter dan 5500XT prestaties in 75W.
Je begint met de aanname dat men er voor kiest de voeding voor 100% te belasten. Hierdoor is de berekening erachter al niks meer waard. Naast dat daar alleen maar aannames in staan. En je houdt geen rekening met SmartShift, waardoor de videochip alleen ook het volledige power budget voor zichzelf mag opeisen.DaniëlWW2 schreef op woensdag 18 maart 2020 @ 18:52:
Is er nog iemand die eraan twijfelt dat AMD een gigantische stap gaat zetten met RDNA 2 of?![]()
Die 50% perf/watt hebben ze al toegezegd, maar ik denk dat de meest hier meer zitten te kijken naar de performance en minder de watt. Dit zijn console chips en als ik het goed had begrepen is er een foto opgedoken die aangeeft dat de voeding van de Xbox series X beperkt zou zijn tot 305W. Dat is voor de hele console. Nou, tik iets van 70W eraf voor de Zen 2 8c/16t met 3,6GHz all core, nog wat voor de SSD en andere componenten en je zou zomaar rond of onder de 200W kunnen zitten voor de GPU. Dat is dan met een grotere bus en een prestatieniveau dat waarschijnlijk aardig richting de RTX2080Ti gaat. Formaat van puur de GPU zou ook wel eens sub 300mm2 kunnen zijn. Wederom niet erg spannend qua formaat. Dus kom maar op met die 80CU's.
[ Voor 36% gewijzigd door -The_Mask- op 19-03-2020 09:53 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
We hebben alleen geen idee hoeveel de GPU werkelijk verbruikt. Het is custom een APU met een 8c/16t Zen 2 CPU, custom IF, een primaire 320bit GDDR6 bus met 10GB, een extra 192bit GDDR6 bus met 6GB en waarschijnlijk nog wat dingetjes waar Microsoft en AMD je niks over gaan vertellen. Het is een nauwelijks te vergelijken product, buiten dat we enige extrapolaties kunnen maken over prestaties en verbruik. Dat zit dan allemaal binnen de 300W, waarschijnlijk ruim binnen de 300W. Niet alleen vanwege de PSU, maar ook omdat het te koelen moet zijn. Zeker een dingetje voor 7nm chips. Ik ben zeer bewust aan de veilige kant gaan zitten met mijn inschattingen.Sissors schreef op donderdag 19 maart 2020 @ 08:28:
[...]
Hetgeen wat ik me afvraag echter: De Xbox gaat dus de trager geklokte, maar grotere versie hebben. Dus dan doe ik de aanname dat die al de grootste stap van minder verbruik door lagere kloksnelheid heeft gemaakt (immers is verbruik een dingetje bij die consoles). Als ze met een 80 CU kaart niet meer het verbruik veel lager kunnen krijgen per CU als tov de Xbox, dan zit je alsnog op 300W+.
Oh en wat is er precies mis met een 80CU RDNA2 die 300W verbruikt? Ik bedoel, als zoiets de Titan RTX met 50% verslaat, wie hoor je dan precies klagen? De mensen die nu klagen dat menig RTX2080Ti richting of over de 300W gaat? Zelfs als de onvermijdelijke RTX3080Ti iets sneller is, tja dan zal AMD waarschijnlijk flink onder die prijs gaan zitten. Zit genoeg marge op echt high end om dat te kunnen. Zelfs met 16GB aan HBM2E kan AMD het waarschijnlijk doen. Willen ze natuurlijk niet, maar het kan als het moet. Voor de doelgroep van zulke videokaarten is verbruik ook een non issue.
Kijk, deze is nou interessant. Jon Peddie heeft natuurlijk heel wat inzichtelijke zaken te vertellen over de GPU markt. Zeer zeker de moeite waard.

Maar er is nog meer. Op Github was gestolen data van Navi 10, Navi 21 en Arden (XBOX APU) source code gelekt. AMD is not amused, maar de vraag voor ons is natuurlijk wat daar uit te halen is. De bestanden zouden allang offline zijn gehaald en ik zou ze niet zomaar downloaden want je weet maar nooit wat er extra tussen kan zitten. Vraag me alleen wel af wat er precies in zal zitten qua hardware features. RDNA2 is behalve 50% perf/watt natuurlijk ook ray tracing.
https://www.amd.com/en/corporate/data-update
https://www.tomshardware....stolen-100-million-ransom
En als laatste natuurlijk wat PR praat over hoe Microsoft en AMD zo goed hebben samengewerkt voor DX12 Ultimate en DXR 1.1.
https://community.amd.com...2-and-directx-12-ultimate
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
RDNA2 doet het goed. Ben benieuwd wat een grotere desktop kaart kan
Digital Foundry heeft een diepere analyse gemaakt:
En het komt er nog steeds eigenlijk op neer dat ik de klok wel heb horen luiden maar nog niet weet waar de klepel hangt.
Microsoft en AMD hebben voor de nextgen een paar technieken ontwikkelt. Primative mesh shading. variable rate shading, sampler feedback van wat ik begrijp lijkt het allemaal in deze UE5 demo toegepast te zijn.
Hoe is het mogelijk dat Epic instaat is om gigantische hoeveelheden (miljarden) polygonen zo efficiënt om te zetten naar een frame met alsnog gigantisch veel (miljoenen) polygonen. Is primative mesh shading niet de achterliggende techniek om geometrie op een andere manier te berekenen? En ook om uiteindelijk heel efficiënt via culling alleen de polygonen te shaden die je ziet. En na primative mesh shading komt variable refresh shading om de hoek kijken om de hele frame zo efficient mogelijk te shaden?
Worden voor rasterisation alle drawcalls door de GPU of de CPU gedaan? Ondanks dat de consoles een flinke upgrade hebben gekregen in CPU-kracht lijkt mij een frame met miljoenen drawcalls ineens weer heel zwaar.
Epic gebruikt daarnaast ook 8K textures. Microsoft heeft voor DX12U (wat dus niet op de PS5 loopt) Sampler Feedback ontwikkelt. Hierbij wordt veel efficiënter omgegaan met midmap van textures; waardoor de GPU sneller weet welke midmap van de texture te gebruiken.
Zoals je ziet veel vragen aan de hand van deze demo. Als iemand mij kan vertellen hoe alle genoemde technieken hand in hand gaan please do. En ook al begrijp ik er nog weinig van, het ziet er wel prachtig uit
Dit is ook de grote reden dat AMD ooit met Mantle is begonnen (wat uiteindelijk de grondlegger van Vulkan is), ze werden namelijk gelimiteerd door het aantal draw calls dat kon worden gemaakt in sommige spellen in DX11. Waar AMD de drawcalls singlethreaded heel efficient kon klaarzetten deed Nvidia dat in hun driver al multithreaded (hoewel minder efficient, maar meer cores loste dit op).
Miljoenen draw calls kan dus tegenwoordig met de low level API's.
Mesh Shading is iets wat Nvidia al met Turing heeft, zie ook:
Hoe de techniek precies werkt weet ik niet, daarvoor moet ik me inlezen. Het lijkt in ieder geval een aantal dingen die eerst op de cpu werden gedaan nu op de gpu te doen.
Verwijderd
volgens EPIC:Maulwurfje schreef op donderdag 14 mei 2020 @ 22:13:
De demo die Epic ons gisteren heeft laten zien, heeft mij helemaal opgewonden met vragen achtergelaten. Ik heb vandaag diep de rabbithole ingegaan en probeer een beeld te krijgen van wat we nu allemaal zien. Want miljarden polygonen efficiënt omzetten tot REYES beeld (Render everything your eyes sees); wat ongeveer uit neer komt op polygon per pixel.
Zoals je ziet veel vragen aan de hand van deze demo. Als iemand mij kan vertellen hoe alle genoemde technieken hand in hand gaan please do. En ook al begrijp ik er nog weinig van, het ziet er wel prachtig uit
Dus ik denk dankzij de hogere I/O er meer hoog kwaliteit data kan worden gepresenteerd die gewoonweg minder bewerking/processing nodig heeft ? waardoor Rasterization de bottleneck wordt welke dus word opgelost door shaders in te zetten als software rasterization ipv van hardware rasterizers. Primitive en mesh shader haken in op dat versimpelen en repurpose van shader naar software rasterizers.The vast majority of triangles are software rasterised using hyper-optimised compute shaders specifically designed for the advantages we can exploit," explains Brian Karis. "As a result, we've been able to leave hardware rasterizer in the dust at this specific task. Software rasterization is a core component of Nanite that allows it to achieve what it does. We can't beat hardware rasterizer in all cases though so we'll use hardware when we've determined it's the faster path. On PlayStation 5 we use primitive shaders for that path which is considerably faster than using the old pipeline we had before with vertex shaders."
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
Ikzelf heb het wachten op een (desktop) Navi die draait op minder dan 75 Watt opgegeven, het duurt mij te lang. Ik heb met mijn vakantiegeld, ondanks de slechte ontvangst ervan hier op Tweakers en elders op het internet, een 5500 XT 8 GB gekocht.
Het is voor het eerst in mijn leven dat ik een videokaart heb met een aparte voedingskabel. Aanvankelijk wou mijn systeem niet booten na het inbouwen. Opzoekend wat de piepjes van de BIOS-speaker betekenen, bleek de VGA niet gevonden. Ik was de voedingskabel vergeten! Ik heb nog nooit een voedingskabel aangesloten bij het inbouwen van een videokaart, dus daar had ik niet aan gedacht
Ik had mijn ogen op een Sapphire Pulse vanwege de goede reviews en de dubbele BIOS, waarmee je kunt switchen naar lager vermogen, maar na onderzoek naar het duurzaamheidsbeleid van de verschillende AIB partners gekozen voor een Gigabyte kaart, want die hebben het beste beleid en rapporteren het meest uit- gebreid daarover: https://www.gigabyte.com/CSR.
Ik haal nu op 1080p veel meer fps op de hoogste settings dan echt nodig is in de meeste spellen, dus van de zomer maar eens de energie vinden om me te verdiepen in undervolting.
[ Voor 5% gewijzigd door FairPCsPlease op 25-05-2020 11:19 ]
In die tweede video van Digital Foundry wordt ook nog het interessante punt gemaakt dat de nieuw geïntroduceerde technieken als Lumen en Nanite ook een goed alternatief vormen voor de raytracing technologie, maar dan zonder de negatieve performance impact (geen terugval in FPS) van die laatste.
Daar geef ik je gelijk in, maar dan wel in oudere demo's. Wat nu anders is is dat de pipeline om content in een game te krijgen veel makkelijker is en ze zich veel minder zorgen hoeven te maken over polycounts en het hele LOD process. Het maken van normal maps, parallax oclusion maps en het optimaliseren van een mesh hoeft hiermee niet meer.XWB schreef op zondag 24 mei 2020 @ 20:40:
Echter, in de praktijk komen games nooit in de buurt van dit soort demo's.
Hier door hebben modelers weer meer tijd over voor het maken van andere content.
Zodra de nieuwe consoles een tijd uit zijn zal je zien dat de kwaliteit van de games een stuk toeneemd. Dat zag je ook met de oudere geraties van consoles.
De sprong gaat deze keer groter worden dan we in heel erg lange tijd hebben gezien.Sp3ci3s8472 schreef op maandag 25 mei 2020 @ 00:47:
Zodra de nieuwe consoles een tijd uit zijn zal je zien dat de kwaliteit van de games een stuk toeneemd. Dat zag je ook met de oudere geraties van consoles.
Ik heb hem hier niet genoemd zien worden, maar Mark Cerny's presentatie over de PS5 is heerlijk om naar te kijken/luisteren. Hij is wat mij betreft echt één van de grootheden in de industrie en zijn presentaties zijn geweldig. En wat hij, z'n teams en AMD met de PS5 doen is fascinerend.
YouTube: The Road to PS5
Er zit een hoop verborgen goud in deze presentatie. Ik ben er sowieso al vrij zeker van dat Sony het gevecht al gewonnen heeft*. Belangrijker voor dit topic is echter de manier waarop ze met AMD samen werken en wat er precies in die GPU zit.
Als je een beetje tussen de regels door...luistert, dan valt op dat AMD en Sony bijzonder nauw samen lijken te werken. Er zijn een paar open deuren (primitive shaders komen terug
Als ik het een beetje goed inschat, dan is RDNA2 geen puur AMD product, Sony heeft daar volgens mij meer invloed op gehad dan velen wellicht denken. Ze lijken heel erg op de balans gefocust te hebben, vandaar het lagere aantal CU's. Waar ik verder op hoop is dat enkele van de andere dingen ook beschikbaar komen voor PC's in één of andere vorm. Data rechtstreeks van een speciale (hoppa, marketing kans jongens: plak er maar een "gaming" stikker op) m.2 SSD over PCI-e 4 naar je GPU laden? Yes please. Een degelijke audio chip? Jammie. Stop het maar in de chipsets AMD, m'n 1700X kan het vast wel verdragen als ik hem vervang
* de concurrent mag dan wel anderhalve teraflop meer hebben, dat zegt niet veel. Het is lastiger om ze allemaal aan te spreken; en door de lagere kloksnelheid is de doorvoer elders (geo, rasterizer) ook lager. Het geheugen is ook niet evenredig op dezelfde snelheid aanspreekbaar. De I/O setup op de PS5 is ook een groot voordeel en de audio setup is voor PSVR2 bijzonder waardevol.
Daar ben ik wel benieuwd naar, aangezien de nieuwe Xbox basically dezelfde hardware krijgt.Werelds schreef op zaterdag 30 mei 2020 @ 16:28:
[...]
Er zit een hoop verborgen goud in deze presentatie. Ik ben er sowieso al vrij zeker van dat Sony het gevecht al gewonnen heeft*.
Zie m'n voetnootXWB schreef op zaterdag 30 mei 2020 @ 16:32:
[...]
Daar ben ik wel benieuwd naar, aangezien de nieuwe Xbox basically dezelfde hardware krijgt.
Daarnaast zijn Sony's first-party studio's uitzonderlijk capabel. MS heeft niets nieuws aangekondigd, dus dat lijkt bij Gears, Halo en Forza te blijven. Fans van die games zullen bij Xbox blijven, maar tenzij ze nog iets in petto hebben, hebben ze niets om gamers van de andere kant over te halen.
Hetzelfde geldt voor de hardware: Sony heeft laten zien hoe ze een hele hoop dingen streamlinen en wat er aan unieke mogelijkheden beschikbaar is. MS heeft (nog) niets laten zien dat echt uniek is. Is het ding snel? Zeker. Zal alles er een stuk beter uit gaan zien? Vast wel. Maar Sony lijkt vooralsnog wederom de beste hand te hebben.
Goed filmpje. Hij legt het allemaal helder uit op een manier dat ook een leek het begrijpt.Werelds schreef op zaterdag 30 mei 2020 @ 16:28:
[...]
De sprong gaat deze keer groter worden dan we in heel erg lange tijd hebben gezien.
Ik heb hem hier niet genoemd zien worden, maar Mark Cerny's presentatie over de PS5 is heerlijk om naar te kijken/luisteren. Hij is wat mij betreft echt één van de grootheden in de industrie en zijn presentaties zijn geweldig. En wat hij, z'n teams en AMD met de PS5 doen is fascinerend.
YouTube: The Road to PS5
Er zit een hoop verborgen goud in deze presentatie. Ik ben er sowieso al vrij zeker van dat Sony het gevecht al gewonnen heeft*. Belangrijker voor dit topic is echter de manier waarop ze met AMD samen werken en wat er precies in die GPU zit.
Als je een beetje tussen de regels door...luistert, dan valt op dat AMD en Sony bijzonder nauw samen lijken te werken. Er zijn een paar open deuren (primitive shaders komen terug), maar er zijn ook wat subtielere dingen: het hele I/O verhaal, de cache scrubbers, de audio. De techniek in de PS5 is op alle vlakken beter dan welke PC dan ook, behalve dan qua rauwe CPU core count. Dat doet er echter minder toe doordat alles zo nauw samen hangt. De PS4 was een solide product waar AMD liet zien dat ze de console bouwers konden geven wat ze wilden. Sony lijkt dat opgepikt te hebben en zich vol overgave in de samenwerking gestort te hebben. Ondanks het feit dat het weer een "PC" GPU architectuur met een "PC" CPU is, heeft de PS5 meer gemeen met de PS3 dan met de PS4.
Als ik het een beetje goed inschat, dan is RDNA2 geen puur AMD product, Sony heeft daar volgens mij meer invloed op gehad dan velen wellicht denken. Ze lijken heel erg op de balans gefocust te hebben, vandaar het lagere aantal CU's. Waar ik verder op hoop is dat enkele van de andere dingen ook beschikbaar komen voor PC's in één of andere vorm. Data rechtstreeks van een speciale (hoppa, marketing kans jongens: plak er maar een "gaming" stikker op) m.2 SSD over PCI-e 4 naar je GPU laden? Yes please. Een degelijke audio chip? Jammie. Stop het maar in de chipsets AMD, m'n 1700X kan het vast wel verdragen als ik hem vervang
* de concurrent mag dan wel anderhalve teraflop meer hebben, dat zegt niet veel. Het is lastiger om ze allemaal aan te spreken; en door de lagere kloksnelheid is de doorvoer elders (geo, rasterizer) ook lager. Het geheugen is ook niet evenredig op dezelfde snelheid aanspreekbaar. De I/O setup op de PS5 is ook een groot voordeel en de audio setup is voor PSVR2 bijzonder waardevol.
Op papier ziet de nieuwe PS5 console er echt uit als een hele grote stap vooruit. Vooral ook het audio verhaal spreekt me aan. Hopelijk gaan we daar ook wat van terugzien op de PC.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Dat zou heel goed kunnen, bij GCN is dat destijds immers ook zo gegaan.Werelds schreef op zaterdag 30 mei 2020 @ 16:28:
[...]
Als ik het een beetje goed inschat, dan is RDNA2 geen puur AMD product, Sony heeft daar volgens mij meer invloed op gehad dan velen wellicht denken.
Yep, zijn talks zijn altijd prettig om naar te luisteren. Hij praat heel rustig, duidelijk en het is een technische man, dus er zit maar zelden marketing onzin inHelp!!!! schreef op zaterdag 30 mei 2020 @ 19:26:
[...]
Goed filmpje. Hij legt het allemaal helder uit op een manier dat ook een leek het begrijpt.
Op papier ziet de nieuwe PS5 console er echt uit als een hele grote stap vooruit. Vooral ook het audio verhaal spreekt me aan. Hopelijk gaan we daar ook wat van terugzien op de PC.
De I/O zie ik echt wel een markt voor. Audio wil ik heel graag wijd verspreid zien, maar helaas is dat juist het aspect waar ik vrees dat de meeste mensen geen interesse zullen tonen. Audio in de meeste games is waardeloos en CMSS-3D met 5.1+ input is nog steeds de beste oplossing in de meeste gevallen.
Nee, dat was anders. De PS4 is in principe gewoon GCN 1.1 (Bonaire), maar dan met wat console-specifieke toevoegingen. Een DMA bus (want enkele geheugen pool), de L2 cache kan tegelijkertijd graphics en async compute data bevatten (minder invalidation en dus minder performance impact) en een bredere frontend. Niets van dat alles heeft zich terug vertaald naar desktop GPU'sTrygve schreef op zaterdag 30 mei 2020 @ 20:38:
Dat zou heel goed kunnen, bij GCN is dat destijds immers ook zo gegaan.
Enkel als men er (DX11 MT) expliciet gebruik van maakt. En dat doet vrijwel niemand.Sp3ci3s8472 schreef op donderdag 14 mei 2020 @ 22:57:
DX11 gaf een hele kleine verbetering dacht ik
Mesh Shading komt neer op AMD's primitive shaders + tessellation, met rechtstreekse output naar de rasterizer. Het is die laatste stap waar de winst wordt geboekt, want wat het voor de rest doet kan nu ook al met compute shaders (zal morgen even zoeken, er is ergens een demo die precies dit doet). Ga je echter meer pixels pushen (MSAA en/of gewoon echt hogere resoluties), dan worden de compute shaders traag omdat die alles telkens in het geheugen moeten stoppen. Het belangrijkste is dat er slim en snel culling gedaan wordt.Mesh Shading is iets wat Nvidia al met Turing heeft, zie ook:
[YouTube: Asteroids Mesh Shaders Demo]
Hoe de techniek precies werkt weet ik niet, daarvoor moet ik me inlezen. Het lijkt in ieder geval een aantal dingen die eerst op de cpu werden gedaan nu op de gpu te doen.
Het is een beetje een stap terug naar vroeger (pakweg 20 jaar geleden), toen veel pipelines rechtstreeks naar de rasterizer liepen. Met alle andere soorten shaders die we door de unified shaders stouwen werkt dat niet, maar voor de toepassingen van mesh/primitive shaders juist wel. Je stopt er een klein beetje in en er kan een hele hoop uit komen. Daar hoef je verder niets mee te doen, dus het kan rechtstreeks naar de rasterizer.
Krijg een beetje John Carmack vibe van hemHelp!!!! schreef op zaterdag 30 mei 2020 @ 19:26:
[...]
Goed filmpje. Hij legt het allemaal helder uit op een manier dat ook een leek het begrijpt.
Op papier ziet de nieuwe PS5 console er echt uit als een hele grote stap vooruit. Vooral ook het audio verhaal spreekt me aan. Hopelijk gaan we daar ook wat van terugzien op de PC.
Die heeft ook leuke talks, met name als ze gaan over game engines en VR.
Ja echt een verademing eens een keer niet dat snelle gehypte flashy gedoe. Lekker rustig en duidelijk.Werelds schreef op zaterdag 30 mei 2020 @ 23:16:
[...]
Yep, zijn talks zijn altijd prettig om naar te luisteren. Hij praat heel rustig, duidelijk en het is een technische man, dus er zit maar zelden marketing onzin in
Die I/O dat gaat sowieso wel komen lijkt me. Op de PC zal het allemaal misschien wat langer duren vanwege legacy, vooralsnog beperkte installed base en ontbreken speciale I/O logic.De I/O zie ik echt wel een markt voor. Audio wil ik heel graag wijd verspreid zien, maar helaas is dat juist het aspect waar ik vrees dat de meeste mensen geen interesse zullen tonen. Audio in de meeste games is waardeloos en CMSS-3D met 5.1+ input is nog steeds de beste oplossing in de meeste gevallen.
De speciale I/O chip vd PS5 hoeveel die space zou dat kosten en zou dat wellicht niet ook verwerkt (kunnen) gaan worden door AMD in de ZEN desktop I/O chiplet
Zou toch geniaal zijn: Console level I/O integratie icm PCI-e4 op de desktop. Beginnend bij Zen3 please
Qua audio is het misschien wel goed dat ze dit via de console gaan doen. Als men daar eenmaal gewend is en begrijpt hoe belangrijk goede audio is zal er op de PC misschien toch ook meer aandacht voor komen.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Nouja, dat hangt er imho ongeveer 100% vanaf of deze rumour waarheid word:Werelds schreef op zaterdag 30 mei 2020 @ 17:13:
[...]
Zie m'n voetnoot
Daarnaast zijn Sony's first-party studio's uitzonderlijk capabel. MS heeft niets nieuws aangekondigd, dus dat lijkt bij Gears, Halo en Forza te blijven. Fans van die games zullen bij Xbox blijven, maar tenzij ze nog iets in petto hebben, hebben ze niets om gamers van de andere kant over te halen.
Hetzelfde geldt voor de hardware: Sony heeft laten zien hoe ze een hele hoop dingen streamlinen en wat er aan unieke mogelijkheden beschikbaar is. MS heeft (nog) niets laten zien dat echt uniek is. Is het ding snel? Zeker. Zal alles er een stuk beter uit gaan zien? Vast wel. Maar Sony lijkt vooralsnog wederom de beste hand te hebben.
https://www.ccn.com/xbox-...c-gaming-to-your-console/
Als (en dat is een hele grote ALS) ik op wat voor een manier dan ook mijn PC-library op de XSX kan spelen, dan denk ik dat de XSX bijvoorbaat al gewonnen heeft.
Dat zou namelijk betekenen dat je voor €500,- - €700,- een dijk van een PC die ook nog goed gestyled is en met top hardware onder je TV kan hebben staan.... Als je met die "Windows Mode" ook nog andere windows applicaties kan draaien, dan kan Sony helemaal inpakken (imho).....
Als ik Elite:Dangerous/Star Citizen/The Witcher 3 etc met mijn bestaande PC accounts kan spelen op de XSX dan staat er bij mij iig op launch date een XSX in de huiskamer (met een nieuwe LG 55CX6LA om het maximale eruit te halen), de Xbox Elite series 2 controller heb ik al (voor de PC), dus dat is mooi meegenomen.
10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem
Klopt inderdaad, Cerny is wel nog een stukje rustiger (en georganiseerderSp3ci3s8472 schreef op zondag 31 mei 2020 @ 01:21:
Krijg een beetje John Carmack vibe van hem.
Die heeft ook leuke talks, met name als ze gaan over game engines en VR.
We zullen het zien. Het hangt denk ik helemaal af van of er patenten achter zitten, en zoja, bij wie die liggen. Het zou me niets verbazen als er gewoon een cross-licensing deal ligt tussen AMD en Sony. Of AMD dat dan in de chiplet zou bakken weet ik niet. Ik zie (zoals ik al zei) flinke marketing mogelijkheden via andere wegen.Help!!!! schreef op zondag 31 mei 2020 @ 08:32:
Die I/O dat gaat sowieso wel komen lijkt me. Op de PC zal het allemaal misschien wat langer duren vanwege legacy, vooralsnog beperkte installed base en ontbreken speciale I/O logic.
De speciale I/O chip vd PS5 hoeveel die space zou dat kosten en zou dat wellicht niet ook verwerkt (kunnen) gaan worden door AMD in de ZEN desktop I/O chipletMaar misschien liggen de rechten ook wel (deels?) bij Sony.
Zou toch geniaal zijn: Console level I/O integratie icm PCI-e4 op de desktop. Beginnend bij Zen3
Qua audio is het misschien wel goed dat ze dit via de console gaan doen. Als men daar eenmaal gewend is en begrijpt hoe belangrijk goede audio is zal er op de PC misschien toch ook meer aandacht voor komen.
Audio moet AMD gewoon als chip bakken en aan moederborden fabrikanten aanbieden, samen met wat vereisten voor de output (degelijke amps). Ga de strijd maar aan met Realtek, Dolby en dergelijke.
Die had ik nog niet gezien, maar als dat klopt dan is dat Microsoft's troef. Ik denk echter niet dat dat dan een negatieve invloed op Sony heeft, maar juist op de verkoopcijfers van PC hardware.zion schreef op zondag 31 mei 2020 @ 10:20:
Nouja, dat hangt er imho ongeveer 100% vanaf of deze rumour waarheid word:
https://www.ccn.com/xbox-...c-gaming-to-your-console/
Als (en dat is een hele grote ALS) ik op wat voor een manier dan ook mijn PC-library op de XSX kan spelen, dan denk ik dat de XSX bijvoorbaat al gewonnen heeft.
Dat zou namelijk betekenen dat je voor €500,- - €700,- een dijk van een PC die ook nog goed gestyled is en met top hardware onder je TV kan hebben staan.... Als je met die "Windows Mode" ook nog andere windows applicaties kan draaien, dan kan Sony helemaal inpakken (imho).....
Als ik Elite:Dangerous/Star Citizen/The Witcher 3 etc met mijn bestaande PC accounts kan spelen op de XSX dan staat er bij mij iig op launch date een XSX in de huiskamer (met een nieuwe LG 55CX6LA om het maximale eruit te halen), de Xbox Elite series 2 controller heb ik al (voor de PC), dus dat is mooi meegenomen.
Dat is dan ook het enige dat de XSX voor haar lijkt te pleiten. Het zou een prachtig platform zijn voor veel PC gamers en het vernietigd Nvidia haar mainstream markt voor een aantal jaar, maar het is dan niet echt een console meer. Het is een voordelige PC vervanger waar je geen toegang hebt tot de games die Playstation heeft. Daar zitten alleen pareltjes tussen die ik graag zelf zou willen spelen. Ik zie Microsoft alleen wel hun eigen Windows Store pushen en dat is het. Steam zie ik niet zo snel beschikbaar komen. Een heel andere kwestie is comptabiliteit van veel games met specifiek een XSX.zion schreef op zondag 31 mei 2020 @ 10:20:
[...]
Nouja, dat hangt er imho ongeveer 100% vanaf of deze rumour waarheid word:
https://www.ccn.com/xbox-...c-gaming-to-your-console/
Als (en dat is een hele grote ALS) ik op wat voor een manier dan ook mijn PC-library op de XSX kan spelen, dan denk ik dat de XSX bijvoorbaat al gewonnen heeft.
Dat zou namelijk betekenen dat je voor €500,- - €700,- een dijk van een PC die ook nog goed gestyled is en met top hardware onder je TV kan hebben staan.... Als je met die "Windows Mode" ook nog andere windows applicaties kan draaien, dan kan Sony helemaal inpakken (imho).....
Als ik Elite:Dangerous/Star Citizen/The Witcher 3 etc met mijn bestaande PC accounts kan spelen op de XSX dan staat er bij mij iig op launch date een XSX in de huiskamer (met een nieuwe LG 55CX6LA om het maximale eruit te halen), de Xbox Elite series 2 controller heb ik al (voor de PC), dus dat is mooi meegenomen.
De GPU zou om een "RDNA 1,5" gaan. Vooral erg groot en efficiënter dan RDNA 1. Maar de geruchten dat Sony heel erg diep in de ontwikkeling van RDNA zit, zijn al oud. Ook is wel duidelijk dat Sony meer gedaan lijkt te hebben met hun GPU dan Microsoft.
Moet ik ook maar eens gaan kijken. De laatste tijd ben ik echt met veel te veel bezig en deze staat ook al weken op de alarmerend lange lijst.Werelds schreef op zaterdag 30 mei 2020 @ 16:28:
[...]
De sprong gaat deze keer groter worden dan we in heel erg lange tijd hebben gezien.
Ik heb hem hier niet genoemd zien worden, maar Mark Cerny's presentatie over de PS5 is heerlijk om naar te kijken/luisteren. Hij is wat mij betreft echt één van de grootheden in de industrie en zijn presentaties zijn geweldig. En wat hij, z'n teams en AMD met de PS5 doen is fascinerend.
YouTube: The Road to PS5
Er zit een hoop verborgen goud in deze presentatie. Ik ben er sowieso al vrij zeker van dat Sony het gevecht al gewonnen heeft*. Belangrijker voor dit topic is echter de manier waarop ze met AMD samen werken en wat er precies in die GPU zit.
Als je een beetje tussen de regels door...luistert, dan valt op dat AMD en Sony bijzonder nauw samen lijken te werken. Er zijn een paar open deuren (primitive shaders komen terug), maar er zijn ook wat subtielere dingen: het hele I/O verhaal, de cache scrubbers, de audio. De techniek in de PS5 is op alle vlakken beter dan welke PC dan ook, behalve dan qua rauwe CPU core count. Dat doet er echter minder toe doordat alles zo nauw samen hangt. De PS4 was een solide product waar AMD liet zien dat ze de console bouwers konden geven wat ze wilden. Sony lijkt dat opgepikt te hebben en zich vol overgave in de samenwerking gestort te hebben. Ondanks het feit dat het weer een "PC" GPU architectuur met een "PC" CPU is, heeft de PS5 meer gemeen met de PS3 dan met de PS4.
Als ik het een beetje goed inschat, dan is RDNA2 geen puur AMD product, Sony heeft daar volgens mij meer invloed op gehad dan velen wellicht denken. Ze lijken heel erg op de balans gefocust te hebben, vandaar het lagere aantal CU's. Waar ik verder op hoop is dat enkele van de andere dingen ook beschikbaar komen voor PC's in één of andere vorm. Data rechtstreeks van een speciale (hoppa, marketing kans jongens: plak er maar een "gaming" stikker op) m.2 SSD over PCI-e 4 naar je GPU laden? Yes please. Een degelijke audio chip? Jammie. Stop het maar in de chipsets AMD, m'n 1700X kan het vast wel verdragen als ik hem vervang
* de concurrent mag dan wel anderhalve teraflop meer hebben, dat zegt niet veel. Het is lastiger om ze allemaal aan te spreken; en door de lagere kloksnelheid is de doorvoer elders (geo, rasterizer) ook lager. Het geheugen is ook niet evenredig op dezelfde snelheid aanspreekbaar. De I/O setup op de PS5 is ook een groot voordeel en de audio setup is voor PSVR2 bijzonder waardevol.

Maar aangezien de RDNA + Sony geruchten al uit 2018 stammen en de financiële positie van AMD de jaren ervoor en het leiderschap van Lisa Su die ook betrokken was bij de Cell CPU in de PS3, vermoed ik eigenlijk dat RDNA2 wel eens een samenwerkingsproject kan zijn geweest en RDNA 1 meer een "prototype" om zaken te testen en drivers te ontwikkelen. Dat laatste, echt AMD, gewoon een 120mm tank projectiel door je voet.
Ergens denk ik namelijk dat AdoredTV gewoon de correcte informatie heeft gekregen over Navi 10, 12 en 14. Nu is Navi 12 een geval MIA, terwijl dat juist de 40CU versie zou zijn. Ik vermoed dat Navi 10 oorspronkelijk de 56CU versie was en AMD inderdaad tegen clock speed problemen is aangelopen en die heeft geannuleerd. Dat kon ook omdat Turing zo'n miserabele standaard heeft neergezet. De mainstream Navi 12 overclocken en nu Navi 10 noemen, was voldoende.
Ik vraag me alleen toch af hoe snel die SSD van de PS5, volledig aangesproken zal worden. Ze zullen meer moeten doen dan zeer hoge resolutie textures inladen. Audio zou al een deel kunnen verklaren. Een SSD op de GPU zie ik ook wel gebeuren. Misschien niet voor RDNA2, maar RDNA3 misschien al wel. Ik denkt toch dat AMD haar gehele platform complementair zal maken voor PC gaming en niet meer de som van de onderdelen samenstellen die toevallig goed werken. Een Zen 2/3 etc met een serieuze 4.0 NVME en een RDNA2/3 die de extra bandbreedte van 4.0 kan benutten, speciale audiochip en de B en X chipsets optimaliseren voor gaming I/O vereisten. Dat zou wel eens de motivering achter B550 kunnen zijn en waarom ze die splitsing door wenste te voeren. Het was ze ook gelukt als de marketing afdeling niet de boel had gesaboteerd. Kwam er gisteren ook nog "Warhol" op de radar, wat een tweede generatie Zen 3 op 7nm zou zijn. Het zou goed kunnen dat AM4 dus blijft voor 2021. Tja, zonder de marketing types die werkelijk alles moeten verprutsen daar, had je AM4+ kunnen introduceren met de 500 series als het ultieme gaming platform...
Ik ben me eigenlijk al maanden aan het voorbereiden op de realisatie dat het goed zou kunnen dat je RDNA3 niet goed gaat halen met maar een RX5700XT. Beetje dramatisch, ik weet het, maar ik ben ook niet onder de indruk van Navi 10 en ik denk dat zwakker dan een console in je PC, simpelweg geen goede basis is voor langdurig gebruik. Overclockte mainstream chip en meer is het niet. Het was dat ik mijn blower Vega had gesloopt met een te heet geworden HBM2 chip. De spreekwoordelijke druppel was die 50% perf/watt die RDNA2 gaat brengen. Dan weet je het eigenlijk al. Over de hele stack verwachte ik enige DXR ondersteuning, serieuze verbeteringen in clockspeed en waarschijnlijk snellere GDDR6 alsmede een verbetering in efficiënt gebruik van de beschikbare GB/s. Daar lijkt RDNA1 namelijk nog een beetje op GCN. Beter, maar de RX5700XT loopt al beetje tegen een muur aan met "maar" 448GB/s.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik raad je aan de video eens te bekijken en dan je eigen opmerking te lezenDaniëlWW2 schreef op zondag 31 mei 2020 @ 14:38:
Ik vraag me alleen toch af hoe snel die SSD van de PS5, volledig aangesproken zal worden. Ze zullen meer moeten doen dan zeer hoge resolutie textures inladen. Audio zou al een deel kunnen verklaren. Een SSD op de GPU zie ik ook wel gebeuren
Het gaat ook niet enkel om de SSD. Vergeet niet dat ook primitive/mesh shaders een ding worden, waarbij je minder aan LOD hoeft te sleutelen en de output rechtstreeks naar de rasterizer gaat. Textures zijn het slechtste voorbeeld, het gaat om poly's. Ik denk niet dat het lang duurt eer devs die 5,5 GB/s (of 8-9 met compressie) vrij aardig vol kunnen stouwen
Ik weet het, ik ga het zo proberen, maar ik ben echt met te veel dingen bezig de laatste tijd.Werelds schreef op zondag 31 mei 2020 @ 14:44:
[...]
Ik raad je aan de video eens te bekijken en dan je eigen opmerking te lezen
Het gaat ook niet enkel om de SSD. Vergeet niet dat ook primitive/mesh shaders een ding worden, waarbij je minder aan LOD hoeft te sleutelen en de output rechtstreeks naar de rasterizer gaat. Textures zijn het slechtste voorbeeld, het gaat om poly's. Ik denk niet dat het lang duurt eer devs die 5,5 GB/s (of 8-9 met compressie) vrij aardig vol kunnen stouwen
Behalve de politieke discussies hier want mod, zelf bijhouden voor de kennisbasis, eigen interesses die behoorlijk breed lopen, dan ook nog eens GPU's en CPU's`, verkapte mantelzorg voor mijn moeder, de kansloze missie om ooit een baan op mijn niveau te gaan vinden want ik moest zo nodig geschiedenis studeren en oh, probeer ook een voorstel voor een proefschrift te schrijven wat stroef gaat en zeer complex begint te worden. Give me a pass please.
[ Voor 4% gewijzigd door DaniëlWW2 op 31-05-2020 15:16 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Het zijn ook niet alleen textures maar zoals Werelds al zegt minder aan LODs hoeven sleutelen is erg interessant. Als je miljoenen vertices hebt dan kost dat ook veel schijfruimte.DaniëlWW2 schreef op zondag 31 mei 2020 @ 14:51:
[...]
Ik weet het, ik ga het zo proberen, maar ik ben echt met te veel dingen bezig de laatste tijd.![]()
Behalve de politieke discussies hier want mod, zelf bijhouden voor de kennisbasis, eigen interesses die behoorlijk breed lopen, dan ook nog eens GPU's en CPU's`, verkapte mantelzorg voor mijn moeder, de kansloze missie om ooit een baan op mijn niveau te gaan vinden want ik moest zo nodig geschiedenis studeren en oh, probeer ook een voorstel voor een proefschrift te schrijven wat stroef gaat en zeer complex begint te worden. Give me a pass please.![]()
Ik heb eindelijk maar eens wat tijd gemaakt en gekeken. Wauw AMD en Sony.Sp3ci3s8472 schreef op zondag 31 mei 2020 @ 17:00:
[...]
Het zijn ook niet alleen textures maar zoals Werelds al zegt minder aan LODs hoeven sleutelen is erg interessant. Als je miljoenen vertices hebt dan kost dat ook veel schijfruimte.

Alleen de I/O al met meerdere gespecialiseerde processoren om die SSD te voeden, cache gebruik te optimaliseren etc. De CPU cores zijn los voor gaming en system OS, cache gaat veel minder een bottleneck opwerpen en dat scheelt natuurlijk weer heel wat geheugenbandbreedte op de GPU. Aan de CPU kant zal RAM minder snel nodig zijn vanwege de extreem snelle SSD.
:strip_exif()/f/image/DfFHpt2hP45LTkmTxBKYpKbr.jpg?f=fotoalbum_large)
Ik wil dit.
No way dat AMD dit allemaal voor Sony heeft ontwikkeld en het allemaal Sony exclusief gaat blijven over de tijdspanne van een console generatie. Het zal niet allemaal meteen op PC gaming komen, maar het gaat komen. Dit is een potentiële knock out blow in PC gaming als die coprosessoren gezamenlijk echt iets van tien Zen 2 cores schelen en zulke SSD's ondersteunen die zeer hoge resolutie textures, audio, ray tracing, laadtijden, gamewerelden die we nu voor onmogelijk achten, opeens is het er.
Bouw het AM5 socket hierom met zo'n I/O chip die PCI-E 5.0 SSD's combineert met coprocessoren op een I/O die. Of ga RDNA2/3 GPU's uitrusten met zo'n I/O chip en een 4.0 SSD waarmee je het meeste van de PS5 waarschijnlijk al reproduceert.
Ook goed om te horen hoe AMD nu ray tracing gaat doen, want dit zou hetzelfde moeten zijn als in de PS5.
Er zit dedicated hardware in elke CU die de intersection engine heet. Deze berekent de kruisingspunten van rays met primitives. De informatie komt uit cache en terwijl de rest van de ALU's de geometrie berekeningen doet, checkt deze IE de light bounces. Uiteraard zeer geheugenintensief waardoor al se suggestie viel om het te combineren met logic i.p.v geometrie.
Qua ray tracing zou iets van een miljoen rays afdoende zijn voor spectaculaire audio. Iets meer zou global illumination doen. Enkele honderden miljoenen is nodig voor schaduwen of zeker reflections. Kennelijk is er al een interne demo die dat kan met weinig impact. Dit lijkt dus geen zwakke RT te zijn aangezien de PS5 GPU, 36CU's heeft met elk een IE. De befaamde Big Navi zou dus wat moeten kunnen.
Ze lijken dus een dedicated unit ervoor te hebben i.p.v een relatief zwakke RT unit en heel wat denoising met tensorcores, wat vervolgens ten koste gaat van geometrie, namelijk FP16. Verder lijkt Turing niet in staat te zijn om alle geometrie te blijven berekenen op volle snelheid als RT word gebruikt. Dat zou voor RDNA2 hopelijk minder zijn omdat een RDNA CU, veel meer typen berekeningen kan uitvoeren en je waarschijnlijk handig gebruik kan maken van de wave que om eerst geometrie waves te berekenen en dan physics en RT voor de frame.
AMD Smartshift zit dus ook in de PS5 om die 2,23GHz te halen op de GPU.
3D Audio dan onder Tempest. Tja, is dit niet een nieuwe implementatie van de TrueAudio technologie wat al op Haiwaii zat? Dat was nog een ASIC waar vrijwel niks mee is gedaan. TrueAudio next was CU based en nu gaan we weer terug naar TrueAudio? Daar wordt een beetje op gehint omdat het zou draaien op een ASIC die gebaseerd is op een AMD CU.
Alles bij elkaar lijkt Sony perfect te begrijpen wat developers en gamers willen, wat ze nodig hebben en hebben ze met AMD al die stappen afgewerkt. Indrukwekkend gaat die PS5 zeker worden.
En nu weer terug naar (onnodig) complexe theorievorming over het militair-industrieelcomplex.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
[Twitter: https://twitter.com/KOMACHI_ENSAKA/status/1267537045318033409]
Het is alleen de vraag of dit echt is of nep of toch niet...
https://i.imgur.com/Q9p4dqy.jpg
edit: Nee, zou een user made samenvatting van gelekte onderdelen uit code zijn.
Als ik het goed interpreteer dan is dit een "shader engine", hoewel dat waarschijnlijk ook gaat veranderen. AMD zou floating points en integer op deze manier gaan splitsen in aparte pijplijnen. Zo blijft er weinig niks meer over van RDNA1, laat staan GCN.
[ Voor 9% gewijzigd door DaniëlWW2 op 02-06-2020 20:53 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Tech demo's van Humus, dat is even een trip down memory lane zeg! Tof om te zien dat hij nog steeds demo's maakt!Werelds schreef op maandag 1 juni 2020 @ 09:14:
Was het bijna vergeten @Sp3ci3s8472 maar dit is de demo waar ik het over had: http://www.humus.name/index.php?page=3D&ID=93
Ik vind de slide er erg nep uitzien, maar ik kan het fout hebben.DaniëlWW2 schreef op dinsdag 2 juni 2020 @ 13:56:
Dus de laatste dagen duikt "Sienna Cichlid" opeens op.
[Twitter]
Het is alleen de vraag of dit echt is of nep of toch niet...
[Afbeelding]
Als ik het goed interpreteer dan is dit een "shader engine", hoewel dat waarschijnlijk ook gaat veranderen. AMD zou floating points en integer op deze manier gaan splitsen in aparte pijplijnen. Zo blijft er weinig niks meer over van RDNA1, laat staan GCN.
Het is misschien niet zozeer nep, maar ook niet van AMD nee. Zie edit.Sp3ci3s8472 schreef op dinsdag 2 juni 2020 @ 19:55:
[...]
Ik vind de slide er erg nep uitzien, maar ik kan het fout hebben.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
http://www.radgametools.com/oodle.htmDaniëlWW2 schreef op zondag 31 mei 2020 @ 19:09:
[...]
Het zal niet allemaal meteen op PC gaming komen, maar het gaat komen.
Niet realistisch om te verwachten dat iedereen deze software gaat kopen voor z'n pc. Overigens zullen die gasten wel flink hebben gecashed in deze deal.
Verder gaat DMA op een open systeem niet werken. Er is nu al genoeg drama over DMA (zie ook Thunderbolt, Firewire, ...).
[ Voor 14% gewijzigd door Paprika op 02-06-2020 23:46 ]

Volgens mij was dit pcb een test vehicle voor de PS5/XBOX, zodoende dat de ssd direct kon aangesproken worden door de gpu en dus een veel grotere band breedte naar de ssd kan gelegd worden zonder eerst langs de cpu te passeren.
Klinkt dit aannemelijk of eerder #mooshit
@DaniëlWW2 euhm tja
[ Voor 3% gewijzigd door Damic op 03-06-2020 21:11 ]
Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag
-Big Navi komt als eerste RDNA2 en komt voor de consoles.
-Het is een halo product voor enthusiasts.
-RDNA2 is een volledige stack van mainstream tot halo.
https://www.pcgamer.com/amd-big-navi-first-rdna-product/
Kraken is game developer niveau. Ze gebruiken het kennelijk voor games op consoles die werken met beperkte ruimte en de nadelen van een HDD. Ik zie niet in waarom je dit als individu zou moeten kopen? Ze gaan dit niet gebruiken als dat zou moeten.Paprika schreef op dinsdag 2 juni 2020 @ 23:42:
[...]
http://www.radgametools.com/oodle.htm
Niet realistisch om te verwachten dat iedereen deze software gaat kopen voor z'n pc. Overigens zullen die gasten wel flink hebben gecashed in deze deal.
Dit ga ik scharen onder de noemer van:Verder gaat DMA op een open systeem niet werken. Er is nu al genoeg drama over DMA (zie ook Thunderbolt, Firewire, ...).
AMD gaat:
-Nooit meer competitief worden in CPU land.
-Ryzen gaat nooit een succes worden.
-Gaat nooit inlopen op Nvidia.
Een DMA zou op de GPU zitten. AMD heeft toch echt al eens een GPU (Vega) uitgebracht met een NVME erop en aan zoiets zou ik hier ook denken. Het ging denk ik zeker niet voor niks over de verbinding tussen de GPU en de PS5 NVME en het ontlasten van RAM en de CPU voor andere taken.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Bedoel je dat Sony RDNA 1,5 heeft ipv van RDNA2 ? of dat XSX juist RDNA 1.5 heeft ?DaniëlWW2 schreef op zondag 31 mei 2020 @ 14:38:
De GPU zou om een "RDNA 1,5" gaan. Vooral erg groot en efficiënter dan RDNA 1. Maar de geruchten dat Sony heel erg diep in de ontwikkeling van RDNA zit, zijn al oud. Ook is wel duidelijk dat Sony meer gedaan lijkt te hebben met hun GPU dan Microsoft.
Moet ik ook maar eens gaan kijken. De laatste tijd ben ik echt met veel te veel bezig en deze staat ook al weken op de alarmerend lange lijst.![]()
Maar aangezien de RDNA + Sony geruchten al uit 2018 stammen en de financiële positie van AMD de jaren ervoor en het leiderschap van Lisa Su die ook betrokken was bij de Cell CPU in de PS3, vermoed ik eigenlijk dat RDNA2 wel eens een samenwerkingsproject kan zijn geweest en RDNA 1 meer een "prototype" om zaken te testen en drivers te ontwikkelen. Dat laatste, echt AMD, gewoon een 120mm tank projectiel door je voet.
Ik heb er al eens eerder in proberen te duiken, Toen kwam ik niet verder dan dat Ariel/Oberon de codename is voor de PS5 GPU en dat deze als code GFX10.00 heeft en RDNA2 zou juist beginnen met GFX 20.00 of GFX10.20. maargoed daar komt dus die hele RDNA1.5 gerucht ook vandaan.
Het is alleen koffiedik kijken wat dat betreft, en men houd 0.0 rekening met het idee van test chips en prototypes.
dan heb je nog wat vage kreten zoals "\RDNA2 based"/ "custom RDNA" etc.
Cerny zei al in de presentatie dat RDNA2 vooral heel "maluable" is wat betreft feature set. Nou gebruikt Sony geen dirextX dus zal die Dx12 feature set voor hen minder interessant zijn en vervangen ze die liever met custom hardware voor hun eigen "Sony featureset".
Stond ook duidelijk RDNA2 CU's op de slide.
Dan heb je nog wat dingen zoals dat er op de officiële AMD website eerst alleen een vermelding was van de XSX bij de RDNA2 info.
Is inmiddels veranderd en nu staat er gewoon duidelijk
Voor mij is het nu wel gewoon duidelijk dat in basis beide consoles gewoon RDNA2 hebben maar dat er wel wat custom verschillen daar nog weer boven op zitten."RDNA 2 architecture is the foundation for next-generation PC gaming graphics, the highly anticipated PlayStation 5 and Xbox Series X consoles."
Zaken zoals mesh en primitive shaders zijn wat mij betreft 1 pot nat. Mesh shaders heeft nog een optionele Amplification shader die de assembly stage vervangt en die uiteindelijk tessellation ook vervangt, dat maakt alleen dat het makkelijker is Mesh shaders aan te sturen. Als de Ps5 RDNA2 smaak nog steeds de "oude" primitve shaders heeft en er niks aan is veranderd in vergelijking met Vega/RDNA1 dan zal het wellicht aleen wat extra aansturing vanuit de API nodig hebben om hetzelfde resultaat te krijgen..
Wie weet heeft Sony een eigen "amplification shader" geimplementeerd. (Nvidia noemt het Hull shader dacht ik).
VRS maakt gebruik van geometry engines als ik mij niet vergis dus met voldoende zichtbaarheid vanuit de Sony API op de GE zouden ze ook zoiets kunnen doen.
Uiteindelijk is het gewoon een definitie kwestie over wat "full RDNA2" nou eigenlijk is, is het RDNA2 met alle DX12 features of is het alleen de CU performance/power verbeteringen ?.
Dx12 is wat mij betreft geen heilig graal. Als een custom API of Vulkan hetzelfde uit de hardware kan halen dan zeggen die DX12 feature namen en definities niet zoveel meer.
Het is wat dat betreft ook wel een bijzonder wereldje. Je hebt een hardware maker die een product ontwerpt met bepaalde features en drivers en dan heb je ook nog weer API ontwikkelaars zoals microsoft die zelf features ontwikkelen die vaak een hardware implementatie nodig hebben.
Wie legt dan aan wie de features op en bepaald waar de focus ligt ?
Hebben ze dat "zelf doen" niet al geprobeerd met die custom API path voor primitive shaders ten tijde van Vega ? en Mantle daarvoor.
Maar er was een tijdje geleden langsgekomen dat Microsoft een minder geavanceerde GPU zou hebben. Als ik er nog eens over nadenk dan is het misschien niet zozeer dat het geen RDNA2 is, maar eerder dat Sony veel meer data aan die 36CU's kan voeden en op die manier geavanceerder is.
API zou niks uit moeten maken. Het is allemaal hardware scheduled en welke API het is maakt niet uit. Sony haar API zal ontwikkeld zijn rond de scheduler van hun RDNA2 oplossing. Primitive shaders zou ook niks uit moeten maken of het nog exact zoals in Vega is. Het is zeer waarschijnlijk iets waar toch voor geprogrammeerd moet worden voor optimaal gebruik. Dat lijkt ook altijd de intentie te zijn geweest.
Als laatste denk ik dat AMD gewoon naar wensten opereert heeft. Zowel Sony als Microsoft zullen een RDNA2 bouwpakket hebben gekregen en mogen vragen en kiezen wat ze extra wenste te hebben. Sony lijkt echt in te hebben gezet op maximaliseren van console specifieke optimalisaties. Microsoft lijkt eerder de kant van gaming PC vervanger op te zijn gegaan. De grote winnaar is alleen AMD omdat die waarschijnlijk een aanzienlijk deel van de RDNA2 R&D al hebben terugverdiend voordat er ook maar een chip in de handen van de consument is.
Dus toch. Een aantal maanden geleden suggereerde Coreteks dat een RDNA1 GPU een HBM2 controller had. Nou raadsel denk ik opgelost, Navi 10 heeft er eentje. Wederom is het exclusief voor Apple net zoals de volledige Navi 14 GPU die misschien net iets minder slecht is dan de versies die we krijgen.

https://ir.amd.com/news-r...-gpu-brings-desktop-class
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Waar zou dan die HBM2 geheugencontroller zitten? Een Navi 10 versie met HBM2 geheugencontroller en zonder GDDR6 geheugencontroller is nog nergens uitgesloten.DaniëlWW2 schreef op maandag 15 juni 2020 @ 17:13:
Dus toch. Een aantal maanden geleden suggereerde Coreteks dat een RDNA1 GPU een HBM2 controller had. Nou raadsel denk ik opgelost, Navi 10 heeft er eentje. Wederom is het exclusief voor Apple net zoals de volledige Navi 14 GPU die misschien net iets minder slecht is dan de versies die we krijgen.![]()
https://ir.amd.com/news-r...-gpu-brings-desktop-class
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/RUtypyrmAeCiEKGyCgkzk0xr.jpg?f=user_large)
https://www.sashleycat.com/diagram-navi-10
Edit: de meegeleverde afbeelding van AMD laat een duidelijk andere die zien dan Navi 10. Daarmee is het raadsel dus idd opgelost, het is een andere GPU.
/f/image/xjlEFJM7zLhDbesgkaDv8TWI.png?f=fotoalbum_large)
I/O zit hier onderop.
Gele blokken zijn dubbele CU's, dus 128 streamprocessors. Je ziet er 20 van, daarmee zit je dus ook op 40 CU's.
En volledig rechts en links, in het midden, in het groen de HBM2 geheugencontrollers.
Deze Navi GPU is iets meer rechthoekig, terwijl Navi 10 meer vierkant is. Zo op het oog zou ik ook zeggen dat deze kleiner is en dan vooral qua breedte, de lengte lijkt niet veel verschil in te zitten. Tenzij er natuurlijk een ander productieproces gebruikt wordt waardoor de transistors dichter op elkaar komen.
[ Voor 41% gewijzigd door -The_Mask- op 15-06-2020 21:57 ]
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
https://videocardz.com/ne...nstinct-mi100-accelerator
:strip_exif()/f/image/WYAQw9v1XHCBiZbQsMuWPeAX.jpg?f=fotoalbum_large)
Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i
Komt grotendeels omdat alle mensen die NV kopen die prijzen dogen en AMD soms vrij weinig te bieden had. AMD doet dus nu gewoon rustig mee, waarom zouden ze een videokaart verkopen met vergelijkbare performance voor de helft vd prijs (gegeven dat ze die zo meteen hebben).choogen schreef op zondag 21 juni 2020 @ 11:18:
Nieuwe video van techtuber Coretex over AMD's nieuwe generatie GPU's met o.a. het prijsniveau voor Big Navi dat hij verwacht (en dat niet mals gaat zijn):
[YouTube: A REVOLUTION in graphics #2]
Helpt natuurlijk ook niet dat een boel van die NV mensen het als een status symbool zien en het maar al te leuk vinden om te verkondigen dat ze het wel kunnen betalen...
Het speelt natuurlijk ook mee dat wanneer AMD lage prijzen heeft en daarmee NV prijzen omlaag haalt, mensen hierop wachten en uiteindelijk toch NV kopen ipv AMD. Dus zelfs al zou AMD lagere prijzen hanteren, gaat dat niet gepaart met meer verkoop. Wat dat betreft is het logisch dat AMD dan ook leuk met de prijzen omhoog gaat.Sp3ci3s8472 schreef op zondag 21 juni 2020 @ 14:13:
[...]
Komt grotendeels omdat alle mensen die NV kopen die prijzen dogen en AMD soms vrij weinig te bieden had. AMD doet dus nu gewoon rustig mee, waarom zouden ze een videokaart verkopen met vergelijkbare performance voor de helft vd prijs (gegeven dat ze die zo meteen hebben).
Helpt natuurlijk ook niet dat een boel van die NV mensen het als een status symbool zien en het maar al te leuk vinden om te verkondigen dat ze het wel kunnen betalen...
Wat dat betreft kunnen gamers niemand anders de schuld geven dan zichzelf.
[ Voor 76% gewijzigd door br00ky op 25-06-2020 12:53 ]
Ja. Zie https://gathering.tweakers.net/forum/list_messages/2000704BlackBarryNL schreef op donderdag 25 juni 2020 @ 01:37:
Iemand bekend met dit probleem? https://www.reddit.com/r/...750_mhz_vram_clock_speed/
Heb een fix gevonden maar werkt bij mij niet helaas![]()
AMD Ryzen 7 3700x - Sapphire Nitro + RX5700XT - Samsung Odyssey Neo G7 32" | Samsung 65QN93B | Denon AVR-X1700H DAB | Monitor Audio Silver RX6 | BK XXLS 400 FF | PS5 Pro
De SSG was toch een wat duidelijker teken dat ze aan het knutselen waren met dat soort technologie?Damic schreef op woensdag 3 juni 2020 @ 21:08:
Heb een beetje hier en daar gelezen en weten jullie nog dat ik bij de Vega FE op de PCB een connector kon solderen voor een bepaald slot.
[Afbeelding]
Volgens mij was dit pcb een test vehicle voor de PS5/XBOX, zodoende dat de ssd direct kon aangesproken worden door de gpu en dus een veel grotere band breedte naar de ssd kan gelegd worden zonder eerst langs de cpu te passeren.
Klinkt dit aannemelijk of eerder #mooshit
@DaniëlWW2 euhm tja
https://www.amd.com/en/pr...l-graphics/radeon-pro-ssg
B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW
Nee, AMD scheduled draw calls hardwarematig. Dat zijn alleen instructies die de CPU moet berekenen en dan pas aan de GPU doorgeeft. Dat was heel erg lang beperkt tot een CPU core. Met DX12 is dat eindelijk vervallen. Dit is de volgende stap, namelijk de CPU grotendeels uit het proces elimineren.enchion schreef op zondag 28 juni 2020 @ 01:33:
https://www.overclock3d.n...mance_-_tested_with_rtx/1
Doet AMD dit niet al sinds lange tijd zelf ?
Zie:
https://devblogs.microsof...celerated-gpu-scheduling/
Het gaat met name zeer interessant worden voor het Radeon kamp omdat het nog steeds niet duidelijk is of Nvidia wel volwaardige hardware scheduling heeft op hun videokaarten. Bij AMD is daar geen twijfel over. Helaas lijkt het vooralsnog alleen voor Navi 10. Met name Vega 10 en Vega 20 zouden hier ook wel eens baad bij kunnen hebben, maar of die het gaan krijgen is onduidelijk. Ook gaat het waarschijnlijk meer impact hebben met iets langzamere CPU's.
Voor heel veel games gaat het bijna of helemaal niks uitmaken, maar voor games zoals RDR2 zou het wel eens een verschil kunnen opleveren. Immers is dat een van de weinige games die echt videokaarten op haar knieën weet te krijgen en een game die exclusief draait op low level API's met zowel DX12 als Vulkan. ANNO 1800 zou ook wel eens beter kunnen gaan draaien omdat die game zo extreem CPU bottlenecked lijkt. COD MW zou ook wel eens kunnen profiteren.
De verregaande implicaties zijn alleen voor RDNA2. Dit komt bovenop DX12 Ultimate en Microsoft die haar API gelijk wil trekken met de XSX. Het is allemaal moeilijk te beschouwen als toeval dat ze hier mee bezig zijn. Maar daarvoor moeten we denk ik nog even wachten. Het is ook wachten op Anandtech die er dieper in zou gaan duiken.
https://www.anandtech.com...re-gpu-scheduling-support
[ Voor 7% gewijzigd door DaniëlWW2 op 01-07-2020 23:33 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
"De chip zou 427 vierkante millimeter groot zijn. Dat is zelfs kleiner dan de TU104 in de RTX 2070, die een formaat heeft van 445 vierkante millimeter. Tegelijkertijd moet hij volgens de bron 40% tot 50% sneller zijn dan de RTX 2080 Ti. Dat betekent dat de chip ook uitstekend moet presteren per vierkante millimeter, net als de relatief kleine Navi 10-chip. Waarschijnlijk zal AMD met meerdere gpu's op basis van deze chip komen, om zoveel mogelijk chips te kunnen gebruiken."
"Eén model zou 72 compute units hebben, goed voor 4608 streaming processors. Navi 10 biedt plaats aan 40 compute units. De Youtuber claimt dat de geheugenbus een busbreedte van 384-bit heeft, maar we weten niets over een geheugencapaciteit of -snelheid. Wel zal het gaan om gddr6-geheugen en niet om hbm2, precies zoals de verwachting momenteel is. De gameklok zou op een flinke 2,05 GHz liggen, en de (minder haalbare) boost op 2,15 GHz. Dat is iets hoger dan de 1905 MHz van de RX 5700 XT."
"De hoge kloksnelheden komen wel met een compromis met betrekking tot stroomverbruik, Big Navi zou namelijk tussen de 285 watt en 310 watt nodig hebben. Opvallend genoeg zegt de Youtuber de informatie te hebben gekregen van een bron van binnen Nvidia, het gaat dus om het prestatieniveau dat de concurrent denkt te kunnen behalen met de grotere Navi-producten."

AMD Ryzen 9 5900X • Gigabyte X570 Aorus PRO • G.Skill Ripjaws V F4-3600C16D-32GVKC • AMD Radeon RX 6900 XT • Samsung 850 EVO 1TB • Intel 660p 2TB • Corsair Obsidian 500D RGB SE • Corsair RM750x
[Twitter: https://twitter.com/KOMACHI_ENSAKA/status/1283124912522014720]
Ja, de RTG gaat kennelijk voor vissen i.p.v sterren. Een interessante keuze.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ik vind een zeer logische keus tbh. Voor AMD heeft een halo product nooit gezorgd voor meer verkopen, dus waarom veel geld spenderen om dat te halen. Een goede spreiding + qua prijs onder de concurrent zitten levert ze meer geld op.DaniëlWW2 schreef op woensdag 15 juli 2020 @ 11:36:
Ja, de RTG gaat kennelijk voor vissen i.p.v sterren. Een interessante keuze.
Waar haal je precies vandaan dat ik beweer dat Navi 21 geen halo product is?bluebear schreef op woensdag 15 juli 2020 @ 22:44:
[...]
Ik vind een zeer logische keus tbh. Voor AMD heeft een halo product nooit gezorgd voor meer verkopen, dus waarom veel geld spenderen om dat te halen. Een goede spreiding + qua prijs onder de concurrent zitten levert ze meer geld op.
Die chip is high end en dat is allang bevestigd door Lisa Su zelf. Verder zitten de winstmarges juist op dit soort producten. Ik ga er vooralsnog vanuit dat Navi 21 rond de 500mm2 zit op een 7nm EUV node van TSMC. Dat is de redicle limit. Een grotere consumenten GPU met meer transistoren is niet echt realistisch. Dan ga je al aardig richting halo status.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
waar haal je vandaan dat ik beweer dat jij beweert dat Navi 21 geen halo product is?DaniëlWW2 schreef op woensdag 15 juli 2020 @ 23:05:
[...]
Waar haal je precies vandaan dat ik beweer dat Navi 21 geen halo product is?
Die chip is high end en dat is allang bevestigd door Lisa Su zelf. Verder zitten de winstmarges juist op dit soort producten. Ik ga er vooralsnog vanuit dat Navi 21 rond de 500mm2 zit op een 7nm EUV node van TSMC. Dat is de redicle limit. Een grotere consumenten GPU met meer transistoren is niet echt realistisch. Dan ga je al aardig richting halo status.
Ik reageer enkel op het comment dat ze gaan niet gaan voor de sterren.
Het is gewoon een feit dat zelfs wanneer AMD een beter product heeft, veel mensen wachten tot nVidia hun prijzen laat zakken in reactie en dan een nVidia kaart kopen.
De winstmarges mogen dan groter zijn op de high-end kaarten, maar qua overall winst reken je op volume, en dat zit op de midden-moot.
Als je het over miscommunicatie hebtbluebear schreef op woensdag 15 juli 2020 @ 23:58:
Ik reageer enkel op het comment dat ze gaan niet gaan voor de sterren.



@DaniëlWW2 had het over de naamgeving. Flounder (bot) en Sienna Cichlid (cichlide)
hahaha that makes sense.Werelds schreef op donderdag 16 juli 2020 @ 09:09:
[...]
Als je het over miscommunicatie hebt![]()
![]()
![]()
@DaniëlWW2 had het over de naamgeving. Flounder (bot) en Sienna Cichlid (cichlide)
Ik zat te denken aan "shoot for the stars" mbt de videokaarten die AMD zal releasen

https://www.notebookcheck...resentation.483288.0.html
Ja, road maps zijn weer geüpdatet en inderdaad komt volgend jaar al RDNA3. Ze lijken dus naar een jaarlijkse cyclus over te gaan schakelen. Mooie tijden voor de GPU markt zitten eraan te komen. Dit lijkt me wel een aardige intentieverklaring vanuit AMD, pnrecies hetzelfde als ze deden met Zen.
Ook CDNA2 komt volgend jaar al. Daarbij blijf ik me nog steeds afvragen of het nu echt nog steeds GCN is, of toch iets nieuws.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Deel van RDNA3 is natuurlijk ook gebruik in de consoles.
Je ziet hetzelfde met Zen4 die zie je voor servers wel in 2021 maar over Zen4 voor desktops wordt nog niets gezegd.
Kan natuurlijk ook komen door de overgang naar AM5 dat ze nog even aan het aftasten zijn of ze die op AM4 en AM5 of een van beide gaan uitbrengen?
AMD heeft in ieder geval een zeer sterke lineup.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Cool, heb je een idee wat voor deel? Welk deel van RDNA 3 ze hebben opgenomen?Astennu schreef op woensdag 29 juli 2020 @ 12:23:
Deel van RDNA3 is natuurlijk ook gebruik in de consoles.
Las laatst ook al dat blijkbaar de PS5 een combinatie van RDNA 1 en 2 is, en de XSX veel meer RDNA2 bevat. Zal even kijken of ik een linkje terug kan vinden, was ergens op Twitter in de discussie over Samples Feedback Sampling
Dat waren geruchten over volgens mij de geometry engine van de PS5 dat deze nog geavanceerder is dan wat er in RDNA2 zit. En dat zou AMD dan weer bij RDNA3 kunnen gebruiken.SpankmasterC schreef op woensdag 29 juli 2020 @ 15:22:
[...]
Cool, heb je een idee wat voor deel? Welk deel van RDNA 3 ze hebben opgenomen?
Las laatst ook al dat blijkbaar de PS5 een combinatie van RDNA 1 en 2 is, en de XSX veel meer RDNA2 bevat. Zal even kijken of ik een linkje terug kan vinden, was ergens op Twitter in de discussie over Samples Feedback Sampling
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ik denk het niet. Het lijkt een vrij standaard RDNA2 te zijn gezien die presentatie, inclusief de ray tracing. Het is denk ik ook minder nodig dan eerdere generaties om echt specifieke dingen te vragen. RDNA is simpelweg meer grafisch gefocust, maar kan ook heel wat meer daarbuiten. Ik denk dat de verschillen eerder in die SSD zullen zitten. Daar blijft nog steeds open staan wanneer en welke hoedanigheid AMD dat naar PC gaat brengen.Astennu schreef op woensdag 29 juli 2020 @ 15:49:
[...]
Dat waren geruchten over volgens mij de geometry engine van de PS5 dat deze nog geavanceerder is dan wat er in RDNA2 zit. En dat zou AMD dan weer bij RDNA3 kunnen gebruiken.
Dat weet ik dus niet zo zeker. Een GPU ontwikkelen duurt vier jaar, als het tegenwoordig niet nog langer is geworden. We weten dat na de voltooiing van Zen 1, er personeel naar de RTG is verschoven. Dat was waarschijnlijk afdoende om RDNA1 volledig te ontwikkelen, maar de impact volgt waarschijnlijk nu pas met RDNA2. Om dan meteen RDNA3 aan te kondigen, straalt een paar dingen uit.Astennu schreef op woensdag 29 juli 2020 @ 12:23:
Voor RDNA inderdaad voor nu wel. Kan me voorstellen dat RDNA4 misschien pas 2023 weer komt.
Deel van RDNA3 is natuurlijk ook gebruik in de consoles.
Je ziet hetzelfde met Zen4 die zie je voor servers wel in 2021 maar over Zen4 voor desktops wordt nog niets gezegd.
Kan natuurlijk ook komen door de overgang naar AM5 dat ze nog even aan het aftasten zijn of ze die op AM4 en AM5 of een van beide gaan uitbrengen?
AMD heeft in ieder geval een zeer sterke lineup.
Ten eerste vertrouwen in het product. Immers is het marketingtechnisch niet erg handig om het volgende product al aan te kondigen. Je zal enig vertrouwen moeten hebben in RDNA2 als je RDNA3 aan durft te kondigen via road maps. Tweede zijn die road maps zelf. Dit is precies hetzelfde als met Zen. Ruim van te voren aankondigen wat je van plan bent en uitvoeren. Zo bouw je een vertrouwensrelatie op met OEM's en daar zit heel wat omzet. Derde is dat het RDNA3 is en niet RDNA2+. Ik denk dat het wel wat meer zal zijn dan RDNA2 even porten naar TSMC 5nm en misschien wat transistoren erbij. Nee, ik denk dat ze ook op architecturaal niveau doorgaan.
Immers is RDNA1 de eerste iteratie van RDNA. Ergens doet het me heel erg aan Zen 1 denken en dat heb ik al een jaar. Geen beste launch met een te lange periode met problemen, niet bijzonder efficiënt, maar de prestaties zijn redelijk in orde voor het hogere middensegment. Er is geen RDNA1+, dus nu gaan we naar RDNA2. Als dat een beetje op Zen 2 lijkt, tja.
RDNA3 is dan de derde generatie van jaarlijkse iteraties. Waarom zou je dan stoppen? Dit is waarschijnlijk het punt waar het echt aan gaat slaan. Het is namelijk maar de vraag of Nvidia dit verwachte. Met een ontwerpcyclus van vier jaar, kan Nvidia waarschijnlijk niet reageren voor 2023 met jaarlijkse iteraties. Zo kan je Nvidia er dus eruit ontwikkelen. Precies wat AMD nu met Intel heeft gedaan.
Qua CPU's waren er ook niet zoveel verwachtingen. Uiteindelijk heeft AMD daar wel viermaal "tick tock" gedaan. Elke keer echt een verbeterde architectuur en een nieuwe node. Nu was Zen+ ietwat matig, maar Zen 2 was dat zeer zeker niet. Zen 3 lijkt ook niet mild te zijn. Dat is denk ik juist het punt. Als AMD een nummer gebruikt, dan willen ze er ook iets mee zeggen. De plusjes bewaren ze voor als het niet zoveel is.
Dan nog Zen 4. Tja vrijwel zeker op AM5 met DDR5 en PCI-E 5.0. Flinke investering in het platform en DDR5 zal in het begin duur zijn. Serverklanten zal dat waarschijnlijk minder kunnen schelen. Lijkt me logisch dat je het AM5 platform dan even afhoud. Immers zit denk ik niemand ook te wachten op een herhaling van AM4 in 2017.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
De PS4 Pro had ook Polaris tech aan boord waar de desktop dat nog niet had.
En ik zie het niet als iets wat onmogelijk is dat Sony specifieke aanpassingen wilde aan de Geometry engine van RDNA2 die AMD heeft gedaan maar dat die aanpassingen dusdanig waren dat ze die niet zelf ook mee genomen hebben voor hun eigen RDNA2 chip maar wel besloten hebben die te gaan gebruiken in RDNA3. Dit is speculatie van mijn kant. Ik zeg ook niet dat ik zeker weet dat de PS5 tech gebruikt die we ook in RDNA3 gaan zien.
Maar ik sluit het ook niet helemaal uit. tijd zal het wel gaan leren. Het is in ieder geval positief dat AMD RDNA3 er al zo snel achteraan laat komen. Nu is het wel de vraag of RDNA3 ook weer high end zal zijn of dat dat low en MID wordt en RDNA4 dan wellicht net als RDNA2 mid tot high?
Ze hebben het wel over Top to bottem met RDNA2 maar ze zeggen vervolgens Halo to mid range and consoles en APU's. Dus ze kunnen ook bedoelen dat je het overal ziet. Of ze bedoelen dat een eventuele 6500XT midrange is en alles trager dan dat gedekt wordt door de APU's. Al noem ik zelf een RTX 2060 / RX5700 eerder mid range maar dat is misschien niet doe AMD en nVidia het zien.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Klopt, in de video van Moore's Law is Dead (rond 9:30).Astennu schreef op woensdag 29 juli 2020 @ 15:49:
[...]
Dat waren geruchten over volgens mij de geometry engine van de PS5 dat deze nog geavanceerder is dan wat er in RDNA2 zit. En dat zou AMD dan weer bij RDNA3 kunnen gebruiken.
Ben ik het niet mee eens, als je de presentatie van Mark Cerny bekijkt vanaf 25 minuten, hier geeft hij duidelijk aan dat sommige features alleen voor Sony zijn en sommige indien handig voor zowel AMD als Sony die ook in RDNA2 terugkomen. Wellicht heb je in een gedeelte gelijk omdat het inderdaad een standaard RDNA2 chip is, maar dat komt alleen omdat ze er samen aan hebben gewerkt. Volgens mij is juist de XBox plain RDNA2 met de minste custom features:DaniëlWW2 schreef op woensdag 29 juli 2020 @ 17:16:
[...]
Ik denk het niet. Het lijkt een vrij standaard RDNA2 te zijn gezien die presentatie, inclusief de ray tracing. Het is denk ik ook minder nodig dan eerdere generaties om echt specifieke dingen te vragen. RDNA is simpelweg meer grafisch gefocust, maar kan ook heel wat meer daarbuiten. Ik denk dat de verschillen eerder in die SSD zullen zitten. Daar blijft nog steeds open staan wanneer en welke hoedanigheid AMD dat naar PC gaat brengen.
[ Voor 55% gewijzigd door Sp3ci3s8472 op 29-07-2020 21:43 . Reden: PS5 presentatie ]
https://adoredtv.com/excl...presentation-slides-leak/
FP32 king maar in de rest niet sneller dan GA100 van wat ik begrijp. Maar goed betekend niet dat het een slechte kaart is. Ben benieuwd naar de uiteindelijke specs.
[ Voor 26% gewijzigd door Astennu op 30-07-2020 17:45 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.