Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
[Twitter: https://twitter.com/AdoredTV/status/1312208859096735744]
[Twitter: https://twitter.com/HardwareUnboxed/status/1312385403417104384]
Dat lijkt me nu echt niets, van die gerebrande reference kaarten waren in het verleden ook niet echt een succes. Tel daarbij op dat het gelekte AMD design er nu ook niet echt mooi uitziet (imho). Nee, doe mij maar AIB eigen designs dag 1, of ze moeten een design hebben dat zich met de 3000 series FE kan meten qua design, maar dat betwijfel ik echt.sunsmountain schreef op zaterdag 3 oktober 2020 @ 20:41:
Ze verwachten dat AIB board partners "er alleen maar een stickertje op hoeven te plakken" wat zou verklaren waarom board partners nog steeds niks weten.
[ Voor 33% gewijzigd door Dennism op 03-10-2020 21:35 ]
Maar dat zou (wederom) betekenen dat we initieel geen AIB custom cards gaan zien? Dat zou wel eeuwig jammer zijn namelijk.sunsmountain schreef op zaterdag 3 oktober 2020 @ 20:41:
Ze verwachten dat AIB board partners "er alleen maar een stickertje op hoeven te plakken" wat zou verklaren waarom board partners nog steeds niks weten.
En dat is dus waarom ik niet op de "YT choo choo hype train" stap...Dennism schreef op zaterdag 3 oktober 2020 @ 21:31:
Ik weet niet wat het is met die youtubers, maar ook bij "not an apple fan", hoewel soms vermakelijk vraag ik me toch echt af hoe betrouwbaar die is. Ik zou zeker dat soort content niet direct als leidraad nemen als ik eerlijk moet zijn. Vraag me trouwens wel af wat er met de youtubers aan de hand is, "not an apple fan" ging van de week best wel los op Jayz2cents (zonder aanwijsbare reden in het filmpje dat ik keek), nu gaat Jim schijnbaar weer los op HWU.
[Twitter]
[Twitter]
Ik heb allang schattingen in mijn hoofd gemaakt van wat Navi 21 kan bereiken, en met betere informatie zoals die data mine worden die schattingen eigenlijk alleen maar positiever, maar ik wacht gewoon rustig af wat ze er nu precies eruit gaan en kunnen halen. Ik heb mijn kennis de afgelopen twee maanden ook aardig opgepoetst, zie al die te lange reacties, en inmiddels zie ik ook meteen wanneer een claim twijfelachtig of totale onzin is. Zie scepsis MILD.
Maar wat een treurige opsomming van "argumenten" is dit zeg. Australian Steve is zo ongeveer de laatste die ik hiervan zou beschuldigen. Eigenlijk alleen American Steve nog minder, maar die deed dit dan ook voor de RTX3090K claims.
— ╲⎝⧹DennyPhantom⧸⎠╱ (@DennyPhantom15) 3 oktober 2020
Maar Australian Steve is echt geen Nvidia shill nadat hij letterlijk duizenden dollars uitgaf om zelf weet ik hoeveel RX5700(XT) en RX5600XT videokaarten te testen. Dat was eerder AMD shilling dan Nvidia. Ik heb ook net de conclusie van de RTX3080 weer eens gekeken en ik merk eigenlijk niks op dat maar op Nvidia shilling lijkt.
Overigens heeft Adored de afgelopen jaren zo vaak geclaimd dat AMD, Nvidia nooit zou verslaan. Dat is dan weer goed nieuws denk ik.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ja en als 1 van de handvol zijn main test systeem veranderd naar een AMD rig voor de nieuwe gpu launches ten koste van de 10900k.DaniëlWW2 schreef op zaterdag 3 oktober 2020 @ 23:15:
Maar Australian Steve is echt geen Nvidia shill nadat hij letterlijk duizenden dollars uitgaf om zelf weet ik hoeveel RX5700(XT) en RX5600XT videokaarten te testen. Dat was eerder AMD shilling dan Nvidia. Ik heb ook net de conclusie van de RTX3080 weer eens gekeken en ik merk eigenlijk niks op dat maar op Nvidia shilling lijkt.
Overigens heeft Adored de afgelopen jaren zo vaak geclaimd dat AMD, Nvidia nooit zou verslaan. Dat is dan weer goed nieuws denk ik.![]()
Mijn mening van adored en mores law is ondertussen wel duidelijk hoop ik. Van mij mogen die stoppen en burgers gaan flippen bij de mac al hoef ik die ook niet.
Ze dragen alleen maar bij aan een enorm giftige sfeer in de tech wereld en creëren een hoop hype waar niemand beter van word.
Ik heb ze beide dan ook geblocked want om 1 of andere reden bleef Youtube denken dat ik ze wel wou zien omdat ik andere echte reviewers die wel met feiten werken bekeek.
Zo heel spannend is die sprong niet. De vraag is of ze het gebakken zouden kunnen krijgen en dan op dezelfde kloksnelheden het verbruik onder controle te houden. Vergeet niet dat Navi 10 slechts 251mm^2 "groot" is. Ampère 628mm^2. Dichtheid van beide is vergelijkbaar.ZenTex schreef op zaterdag 3 oktober 2020 @ 13:59:
(daar reken ik sowieso niet op, zo'n sprong van 5700XT prestaties naar 3090 in 1 jaar tijd?)
En dat heeft hij gewoon getest dat het nauwelijks iets uitmaakt. Verder zit het er aardig aan te komen dat iedereen komende maand naar AM4 gaat overstappen voor toekomstige videokaart benchmarks...computerjunky schreef op zaterdag 3 oktober 2020 @ 23:26:
[...]
Ja en als 1 van de handvol zijn main test systeem veranderd naar een AMD rig voor de nieuwe gpu launches ten koste van de 10900k.
En dan zie je die data mine die doodleuk suggereert dat ze er 300MHz extra eruit halen, 25W extra verbruik en de chip effectief verdubbelen ten opzichte van Navi 10. Ook maar even DX12 Ultimate ondersteund erbij gedaan inclusief een hardware based RT oplossing. AMD zal ook zeker niet de specificaties van DX12U hebben afgesproken met Microsoft of zo.Werelds schreef op zaterdag 3 oktober 2020 @ 23:28:
[...]
Zo heel spannend is die sprong niet. De vraag is of ze het gebakken zouden kunnen krijgen en dan op dezelfde kloksnelheden het verbruik onder controle te houden. Vergeet niet dat Navi 10 slechts 251mm^2 "groot" is. Ampère 628mm^2. Dichtheid van beide is vergelijkbaar.
Serieus, die Navi 21 gaat behoorlijk presteren of er gaan heel erg vervelende gesprekken gevoerd worden met de leiding van de RTG. Die chip is te groot en RDNA is geen verouderde en half kreupele architectuur zoals Vega. Ik begin me eigenlijk ook steeds meer af te vragen of ze met Vega niet bewust bepaalde zaken voor RDNA hebben getest. Specifiek het loslaten van Compute Engines die een deel van het beeld toegewezen kregen, de meer capabele ALU's, wat eerste aanpassing aan cache die flink doorgezet lijken te zijn in RDNA1 en meer aandacht voor scheduling van shaders en compute om context switching tegen te gaan.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
En omdat de technologie erg overeenkomt met de consoles, console "ports" (die dus eigenlijk geen ports zijn) makkelijk uit te wisselen zijn met de desktop en een stuk beter lopen op AMD hardware, en dat ze daar de "slag" gaan slaan. (andere kant op ook)
Zowiezo zou MS-XBOX dat erg fijn vinden.
Verder denk ik ook niet dat AMD erg veel goedkoper gaat worden, misschien 100-200 tov de 3090 maar verder misschien maar 25-50 euro goedkoper per nVidia equivalent.
How do you save a random generator ?
Naarmate ik meer post en lees hier op het tweakers forum, word ik kritischer en kritischer ten aanzien van de YouTubers. Wat hebben ze nou echt voorspeld wat we niet wisten? Bijna niets. Het lijkt kennelijk meer voor vermaak te zijn, en dat is ook logisch gegeven het algoritme. Waar komen de echte, geloofwaardige leaks dan vandaan?computerjunky schreef op zaterdag 3 oktober 2020 @ 23:26:
[...]
Ja en als 1 van de handvol zijn main test systeem veranderd naar een AMD rig voor de nieuwe gpu launches ten koste van de 10900k.
Mijn mening van adored en mores law is ondertussen wel duidelijk hoop ik. Van mij mogen die stoppen en burgers gaan flippen bij de mac al hoef ik die ook niet.
Ze dragen alleen maar bij aan een enorm giftige sfeer in de tech wereld en creëren een hoop hype waar niemand beter van word.
Ik heb ze beide dan ook geblocked want om 1 of andere reden bleef Youtube denken dat ik ze wel wou zien omdat ik andere echte reviewers die wel met feiten werken bekeek.
Ingenieurs, onder anonieme twitter of ChipHell forum accounts. En dan nog is het afwachten, met alle misinformatie. Ik ben gestopt met voorspellen tot 28 Okt, ik maak mezelf alleen maar gek. Zelfs als ze alleen maar die 50% performance/Watt zouden halen, verder niets, zou al fantastisch zijn. Maar toch teleurgesteld raken. Omdat wij onszelf gek maken. Veel te lange RDNA posts @DaniëlWW2 check. @Dennism met terechte twijfel. @computerjunky met meer ervaring over beide merken. @Astennu vasthouden aan wat hij weet dat praktisch kan en werkt qua blower koerlers. En dan ik met m'n spreadsheets.
Voelt bijna als groeptherapie
"Hallo sunsmountain"

kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Coreteks stelt niet teleur:Mars Warrior schreef op zaterdag 3 oktober 2020 @ 21:11:
[...]
TLDR; Een filmpje van een koe die aan de gekke koeienziekte lijdt
YouTube: [EXCLUSIVE] Meet "BIG NAVI" - ( die shot!! )
Die shot Navi21. 29mm x 18,5mm thicc boy. 563,5 mm2 zal de package zijn.
Dames en heren, een klein R290X momentje.
En nog steeds slag om de arm, 2080 Ti + 15% is nog steeds mogelijk, als bandwidth limited. Yeah right *cough* 128MB L2 *cough*!
[ Voor 17% gewijzigd door sunsmountain op 04-10-2020 00:52 ]
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Dit ziet er inderdaad erg veelbelovend uit. Als inderdaad AMD een 2080 Ti +15% kaart op de markt zet met deze die size dan hebben ze gewoon gefaald.sunsmountain schreef op zondag 4 oktober 2020 @ 00:42:
[...]
Coreteks stelt niet teleur:
YouTube: [EXCLUSIVE] Meet "BIG NAVI" - ( die shot!! )
Die shot Navi21. 29mm x 18,5mm thicc boy. 563,5 mm2 zal de package zijn.
Dames en heren, een klein R290X momentje.
En nog steeds slag om de arm, 2080 Ti + 15% is nog steeds mogelijk, als bandwidth limited. Yeah right *cough* 128MB L2 *cough*!
Hopelijk lekken er wat slides vóór de 28ste
Moet het filmpje nog kijken maar de foto's van Navi 10 en 21 naast elkaar.... Dammm it's big O_O.sunsmountain schreef op zondag 4 oktober 2020 @ 00:42:
[...]
Coreteks stelt niet teleur:
YouTube: [EXCLUSIVE] Meet "BIG NAVI" - ( die shot!! )
Die shot Navi21. 29mm x 18,5mm thicc boy. 563,5 mm2 zal de package zijn.
Dames en heren, een klein R290X momentje.
En nog steeds slag om de arm, 2080 Ti + 15% is nog steeds mogelijk, als bandwidth limited. Yeah right *cough* 128MB L2 *cough*!
Dan worden die geruchten van de 128mb cache steeds geloofwaardiger want voor alleen 80 RDNA2 CUs heb je niet zo veel nodig. Dit aanzienlijk groter dan 2x Navi 10.
Maar idd 2080Ti + 15% met zon grote chip zou echt een giga fail zijn. Ik geloof daar echt niet in. Zelfs RDNA1 doet het dan in verhouding beter.
Navi21 zou N7+ zijn welke 20% meer density heeft. En dan een meer dan 2x zo grote die.
Om een idee te geven Navi10 heeft 10,3 miljard transistors @251mm2.
Als dat dan opschaalt naar 536mm2 heb je 21,995 miljard. Als je dan nog die 20% pakt ga je al naar 26,38 miljard. Dus al halen ze die 20% winst niet maar Bv 10% heb je het nog steeds meer dan 130% meer transistors dan Navi10.
Nogmaals voor alleen de verdubbeling van het aantal CU's is zo veel echt niet nodig. En ik gok ook niet voor die ipc gain.
Een deel zal natuurlijk wel op gaan aan RT.
Ik kan niet wachten op de daadwerkelijk architectuur drilldown.
Edit:
Ik zie net dat coreteks die transistor berekeningen ook heeft gedaan ^^
En hij komt ook tot dezelfde conclusie dat als ze met zo'n die maar 15% sneller zijn als de 2080 Ti er iets goed mis gegaan is.
Het zou mij niet verbazen als de Navi XL die 2080 Ti +15% is en de XT en XTX daar nog een en twee scheppen boven op doen.
[ Voor 41% gewijzigd door Astennu op 04-10-2020 02:58 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Desalniettemin denk/hoop ik dat het heel erg goed gaat werken.
De alternatieve om de geheugenbandbreedte toe te laten nemen zijn te simpel om vervolgens te gaan liggen hannesen met duur on-die geheugen (cache). Om er vervolgens achter te komen dat een andere opties: een dikke geheugenbus en/of GDDR6X of HBM beter was geweest. Wafers zijn in verhouding nog nooit zo duur geweest en nu gaan we geheugen erbij bakken? In de toekomst zullen de wafer prijzen in verhouding alleen maar toe nemen.
Maar wie weet, misschien is hiervoor voornamelijk gekozen omwille van de consolebouwers. Die kunnen heel mooi de beperkte hoeveelheid geheugen met bizarre bandbreedte en toegangstijden "optimaal benutten". Niet voor niks had Microsoft met de Xbox 360, 10MB eDRAM en met de Xbox One (Scorpio) 32MB eSRAM.
En dit is niet embedded, maar on-die. C.q. cache geheugen. Dus dramatisch veel sneller en duurder en dan blijkbaar tot 128MB. Cache!!! Niet embedded RAM...
Ze zullen er hopelijk goed over nagedacht hebben. Ik ben benieuwd wat de maximale geheugenbandbreedte is. Meer dan 1TB/s moet makkelijk lukken.
[ Voor 7% gewijzigd door madmaxnl op 04-10-2020 06:59 ]
En omdat die externe meningen altijd iets te groot zijn, doe ik even 28x18=504mm2. Schok.sunsmountain schreef op zondag 4 oktober 2020 @ 00:42:
[...]
Coreteks stelt niet teleur:
YouTube: [EXCLUSIVE] Meet "BIG NAVI" - ( die shot!! )
Die shot Navi21. 29mm x 18,5mm thicc boy. 563,5 mm2 zal de package zijn.
Maar die kan echt zijn, zeker omdat Navi 21 niet echt vierkant meer kan zijn omdat die met 4SE/8SA zo breed zal worden. Probleem is dat AMD bewust onzin aan het verspreiden is en werkelijk niemand lijkt te vertellen hoe goed de top chip is.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Daarnaast cache logic is minder complex dan compute logic en kan ook stuk denser zijn dan andere logic. Dan is de reden voor uitwijken van nV naar samsung zo gek niet mogelijk werdt het te duur. Of te druk bij TSMC.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Ja, wafers worden alleen maar duurder, maar kosten per transistor gaan omlaag. En terwijl memory controllers even groot blijven doordat je die fysiek moet koppelen aan L3 chips en bedrading/paadjes buiten de GPU, geldt dat niet voor L2 cache.madmaxnl schreef op zondag 4 oktober 2020 @ 06:49:
Ik kan die grote hoeveelheid cache nog maar moeilijk rijmen met AMD zijn expertise met HBM. GDDR6X was blijkbaar ook geen oplossing gezien het stroomverbruik en prijs die in verhouding slechter worden t.o.v. GDDR6.
Desalniettemin denk/hoop ik dat het heel erg goed gaat werken.
De alternatieve om de geheugenbandbreedte toe te laten nemen zijn te simpel om vervolgens te gaan liggen hannesen met duur on-die geheugen (cache). Om er vervolgens achter te komen dat een andere opties: een dikke geheugenbus en/of GDDR6X of HBM beter was geweest. Wafers zijn in verhouding nog nooit zo duur geweest en nu gaan we geheugen erbij bakken? In de toekomst zullen de wafer prijzen in verhouding alleen maar toe nemen.
Maar wie weet, misschien is hiervoor voornamelijk gekozen omwille van de consolebouwers. Die kunnen heel mooi de beperkte hoeveelheid geheugen met bizarre bandbreedte en toegangstijden "optimaal benutten". Niet voor niks had Microsoft met de Xbox 360, 10MB eDRAM en met de Xbox One (Scorpio) 32MB eSRAM.
En dit is niet embedded, maar on-die. C.q. cache geheugen. Dus dramatisch veel sneller en duurder en dan blijkbaar tot 128MB. Cache!!! Niet embedded RAM...
Ze zullen er hopelijk goed over nagedacht hebben. Ik ben benieuwd wat de maximale geheugenbandbreedte is. Meer dan 1TB/s moet makkelijk lukken.
L2 cache is op 7nm inmiddels zo gekrompen dat een kantelpunt bereikt lijkt te zijn. Het zou ook een goede verklaring zijn van het veel lagere stroomverbruik.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Confirmed:
— CyberPunkCat (@CyberCatPunk) 4 oktober 2020
Navi21 --- Sienna Cichlid
Compute --- GFX10 (gfx1030)
80CUs/5120 shaders/320 TMUs /96 ROPs
~20TF (FP32)
CFO Devinder Kumar has confirmed Hardware-Level RT
'will use ~ 20CUs from the 80CU pool for HWRT'
Not Confirmed:
- Exact Memory Configurations
- Peak Core Clock
Very interesting if true, only 1/4 of the CUs will handle texture shader (w/ ray data) pass-through to new TMUs & bvh/triangle intersection output feedback. This leaves the other 3/4 to actually carry on with graphics. I covered RDNA 2 RT in my earlier vid, this should be good! https://t.co/s6qjojR3ge
— NerdTech (@nerdtechgasm) 4 oktober 2020
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
Dat is interessant, maar ook verwarrend. Het zou beter zijn deze 25% scheiding op shader niveau te doen. Ik ga ervan uit dat AMD nog steeds 64 shaders per CU heeft. Dan zouden dan 16 shaders extra functies hebben voor RT. Ik kan niet zeggen wat optimale route is voor het bandbreedte grbruik van L0-L1-L2.
[ Voor 7% gewijzigd door Amazigh_N_Ariff op 04-10-2020 16:23 ]
4870 (baseline)
5870 +63% $ 380
6970 +24% $ 369
7970 +42% $ 549
7970 ghz + 6% $ 499
R9 290x +30% $ 550
R9 390x + 9% $ 430
R9 Fury X +23% $ 650
Vega 64 +22% $ 500
Radeon VII +23% $ 700
5700XT - 6% $ 400
Als de nieuwe high end kaart net zo goed wil zijn als de 2080ti, dan moet de kaart een 51% vooruitgang boeken op de 5700XT. Voor 2080ti +15%, is een vooruitgang van 75% nodig. Voor 3080 prestaties, een vooruitgang van 100%. Zo'n soort sprong in prestaties heeft AMD sinds de 5870 (uit 2009!) niet meer laten zien.
Ik kan de vele leaks moeilijk op waarde schatten, maar betwijfel gelet op het voorgaande wel hoe realistisch het is om te verwachten dat de nieuwe kaarten in de buurt gaan komen van de 3080.
Verwijderd
[ Voor 59% gewijzigd door Verwijderd op 04-10-2020 17:22 ]
Het suggereert namelijk dat Navi 21, drie Shader Engines heeft die normale shaders doen, en een Shader Engine die een andere TMU heeft die ook RT kan en haar ROPS mist. Dat slaat eigenlijk nergens op. Niet alleen neem je dan de moeite om hardware based RT in de TMU in te bouwen om vervolgens maar een kwart van de CU's hiermee uit te rusten, maar ook maak je zo effectief een kwart van de GPU nutteloos zonder RT workloads. Ook creëer je op deze manier twee aparte Shader Array's en zie ik niet in hoe je dit wil vertalen naar Navi 22 als je een dedicated RT Shader Engine hebt. Immers heeft Navi 22 maar twee Shader Engines waarvan een dan RT only moet zijn. Verder zou Navi 22 dan 32 ROPS hebben terwijl die data mine 64 ROPS zegt zoals je zou verwachten.
Laatste bezwaar dat ik zo snel kan bedenken is dat dit zou vragen om heel wat dataverkeer binnen de GPU. Immers moet je namelijk al gerenderde objecten uit L2 cache gaan halen, deze naar een andere array L1 cache laden en dan RT toepassen. Dat is omslachtig.
Ik denk eerder dat dit een software read out kan zijn van de GPU waar een Shader Engine in RT mode staat. Als AMD het tot dat niveau kan aansturen, tja dan staan die ROPS ook uit en dat zou de 96ROPS verklaren. Het is ook veel logischer vanuit het perspectief van RDNA.
RDNA is heel erg top down georganiseerd. Ik heb het voor mezelf een tijdje terug het eens uitgetekend in paint. RDNA1 haar scheduling bestaat uit centrale Command processor en twee scheduler, de graphics command processor en ACE die respectievelijk shaders en compute waves samenstellen en via de Shader Engine en Shader Array naar een CU sturen. Hiervoor hebben Engine, Array en CU hun eigen registers en schedulers om deze waves in op te slaan en door te sturen.
/f/image/UWcyNPg287cyG5ZDlGHlJUhm.png?f=fotoalbum_large)
Zoals je ziet is dit zeer hiërarchisch georganiseerd. GCN was ook zo, maar tot Vega was GCN heel erg star. GCN hakte letterlijk je beeldscherm in evenredige stukken wat toen nog compute engines heette, deden zowel shaders als compute. Dat werkte niet goed, dus verdween dit met Vega. RDNA heeft hier nog eens een veel betere cache hiërarchie overheen gelegd, heeft CU's herontworpen, backend beter in balans gebracht etc. Ook heeft RDNA een functie die de distributie van shaders stillegt om de compute queue voorrang te geven.
Het mooie hiervan is dat centraal opgelegd kan worden wat voor berekeningen een CU krijgt en het ook een hele serie kunnen zijn van een type. Stel je hebt 80% FP waves en 20% INT waves klaarstaan voor een array. Sheduler stuurt de waves naar een array waarvan twee CU's naar INT mode switchen en de andere acht in FP mode staan. En afwerken die waves zonder dat een CU constant moet wisselen tussen FP en INT en in de tussenliggende tijd stil komt te liggen.
Dit is het grote voordeel van RDNA, vanuit een centraal punt dicteren wat een CU moet doen. Dit in tegenstelling tot Turing/Ampere waar FP, INT en RT op een laag niveau zijn georganiseerd in SM's en scheduling een balanceer act moet uitvoeren tussen FP en INT instructies om de ALU's in bedrijf te houden. Dat is ook de zwakte van Ampere omdat er daar opeens gekozen moet worden tussen maximaal 16x FP32 + 16x INT32 of maximaal 32x FP32. Die wissel is ook niet gratis omdat de ALU's van workload moeten wisselen en dat kost minstens een clock cycle. Hoeveel weet ik eigenlijk niet en zou ik moeten opzoeken. Treden er bij hybrid RT ook nog eens cache conflicten op in SM's. Als het perfect werkt dan is Turing en zeker Ampere echt heel erg snel. Er zullen games zijn waar Ampere bijna onverslaanbaar zal zijn voor RDNA2. Doom Eternal is een sterke kandidaat. Als RDNA2 daar sneller is, wel that would be a problem.
De vraag is wat de meer "gemiddelde" game gaat doen.
Oh en waarom staat er nu weer een "RT command processor" vraag je? Nou omdat ik steeds meer begin te vermoeden is dat er een derde scheduler toegevoegd gaat worden die specifiek RT instructies gaat organiseren in waves. Dat is een hypothese van mij, ik kan het zomaar helemaal verkeerd hebben, maar ik heb dat vermoeden. Het past namelijk in hoe RDNA functioneert om dit apart te zetten. Immers gebeurd de RT in de TMU en zal dat niet gezamenlijk met shaders gaan. De CU zal dus geconfigureerd moeten worden voor shaders of RT. De vraag is ook of RT gecombineerd kan worden met compute in dezelfde clock cycles, in dezelfde CU. Dat is er alleen eentje voor de RDNA2 whitepaper. Die wil ik onderhand eigenlijk meer hebben dan de videokaarten zelf.
Maar ik denk dat ik nu genoeg heb getypt want ik voel me eigenlijk al twee dagen echt geweldig. De hoofdpijn komt weer opzetten.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
AMD moet ook grond terug winnen op GPU gebied. Dus ze zullen zeker wel competieve prijzen uit brengen.Edmin schreef op zondag 4 oktober 2020 @ 17:25:
Bovendien, als er een 3080 equivalent uit rolt, zal de prijs daar ook naar zijn. Dat zou overigens voor het eerst in lange tijd zijn dat AMD meedoet in het hogere segment. Laten we het hopen.
Nou nee ik zou de chip size grote in acht nemen en dan kan je optioneel procedé met TDP en klok. De prijs is meer samen spel van performance positie tov van producten van de concurrent. Plus verstorende innovaties zoals HBM wat duurder maakt kwa kosten. En de mining gekte ofschoon dit meer winkels opdreef zal het ook wel iets invloed op MSRP AMD volgt bigchip beleid lange tijd niet meer sinds vele jaren verlies draaien. Het gaat hier om een grof gezien dubbel size chip op iets verbeterde procedé met gen 2 architectuur. De 40 naar 80 CU is al vergroting van rauwe bruto performance factor 2x dus 100% verbetering.Ballondier schreef op zondag 4 oktober 2020 @ 17:03:
Omdat ik daar nieuwsgierig naar was, heb ik opgezocht hoeveel vooruitgang AMD per generatie met haar kaarten heeft geboekt. De cijfers hieronder zijn afkomstig van de verschillende techspot reviews van de verschillende kaarten. Het percentage is de performance vergeleken met de kaart van de vorige generatie en de prijs is de MSRP.
4870 (baseline)
5870 +63% $ 380
6970 +24% $ 369
7970 +42% $ 549
7970 ghz + 6% $ 499
R9 290x +30% $ 550
R9 390x + 9% $ 430
R9 Fury X +23% $ 650
Vega 64 +22% $ 500
Radeon VII +23% $ 700
5700XT - 6% $ 400
Als de nieuwe high end kaart net zo goed wil zijn als de 2080ti, dan moet de kaart een 51% vooruitgang boeken op de 5700XT. Voor 2080ti +15%, is een vooruitgang van 75% nodig. Voor 3080 prestaties, een vooruitgang van 100%. Zo'n soort sprong in prestaties heeft AMD sinds de 5870 (uit 2009!) niet meer laten zien.
Ik kan de vele leaks moeilijk op waarde schatten, maar betwijfel gelet op het voorgaande wel hoe realistisch het is om te verwachten dat de nieuwe kaarten in de buurt gaan komen van de 3080.
Om het als High-end te classificeren is gewoon de die size tov alle andere high-end GPU bij nV is dat GA102 is het kwa grote iets in die richting dan is het ook high-end. Maar is verschil relatief klein dan mikken ze misschien deze keer toch ook wel voor de kroon. En is het stuk kleiner maar veel groter dan midrange chips dan is het toch high-end alleen niet ontwikkeld specifiek om de kroon te pakken.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
[ Voor 99% gewijzigd door SG op 04-10-2020 18:46 . Reden: dubbel ]
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Main: Ryzen 5950x | Gigabyte X570 Aorus Elite | Corsair LPX 3600 32Gb (@3800-16) | AMD RX 6800 || 6450 WP | Ratio IO6 | Model S | Megane E-Tech
De reeks Vega 64 - Radeon VII - 5700XT is allesbehalve een soepele en logische progressie als je kijkt naar de technische verhoudingen van de kaarten zelf en niet puur "is dit de snelste kaart die AMD op ieder moment te bieden had", dus dat is al een teken dat dit weinig steek houdt. Je moet architectuur met architectuur vergelijken en wat daarmee gebouwd kan worden, niet van kaart tot kaart gaan. Anders zou je op basis van het bovenstaande kunnen denken dat Navi slechter is dan Vega, en dat is toch zeker niet het geval.Ballondier schreef op zondag 4 oktober 2020 @ 17:03:
Vega 64 +22% $ 500
Radeon VII +23% $ 700
5700XT - 6% $ 400
[ Voor 3% gewijzigd door MneoreJ op 04-10-2020 19:25 ]
Dat raakt kant noch wal. Niet "dat slaat kant noch wal". Wel "dat slaat als een tang op een varken".
Je komt dan misschien ergens tussen 3080 en 3090 uit, met een ruime marge die (nog)niet te bepalen is.
Tot zover mijn academische onderbouwing
[ Voor 11% gewijzigd door edward2 op 04-10-2020 19:46 ]
Niet op voorraad.
Verder realiseerde ik me dat het vandaag tien jaar geleden is dat CJ ons ontvallen is.

😊jgj82 schreef op zondag 4 oktober 2020 @ 19:37:
Verder realiseerde ik me dat het vandaag tien jaar geleden is dat CJ ons ontvallen is.Wat zou hij van de hedendaagse GPU's gevonden/geweten hebben....
Main: Ryzen 5950x | Gigabyte X570 Aorus Elite | Corsair LPX 3600 32Gb (@3800-16) | AMD RX 6800 || 6450 WP | Ratio IO6 | Model S | Megane E-Tech
Competitief, natuurlijk. Maar tot op heden is wedijveren in de lagere prijssegmenten het enige dat haalbaar was voor AMD. Als er nu een 3080/3090 killer uit de AMD stal komt, zal die echt niet goedkoop zijnPsyonara schreef op zondag 4 oktober 2020 @ 18:11:
[...]
AMD moet ook grond terug winnen op GPU gebied. Dus ze zullen zeker wel competieve prijzen uit brengen.
Ja ongelooflijk, wat vliegt de tijd.....jgj82 schreef op zondag 4 oktober 2020 @ 19:37:
Verder realiseerde ik me dat het vandaag tien jaar geleden is dat CJ ons ontvallen is.Wat zou hij van de hedendaagse GPU's gevonden/geweten hebben....

De Vega VII is 1:1 dieshrink van vorige pro chip. Dus niet bigchip maar iets dat kwa chip size stuk kleiner is dan concurrent in dezelfde procede aanbied. Tov concurrent subhigh-end en 5700XT kleine midrange.MneoreJ schreef op zondag 4 oktober 2020 @ 19:23:
[...]
De reeks Vega 64 - Radeon VII - 5700XT is allesbehalve een soepele en logische progressie als je kijkt naar de technische verhoudingen van de kaarten zelf en niet puur "is dit de snelste kaart die AMD op ieder moment te bieden had", dus dat is al een teken dat dit weinig steek houdt. Je moet architectuur met architectuur vergelijken en wat daarmee gebouwd kan worden, niet van kaart tot kaart gaan. Anders zou je op basis van het bovenstaande kunnen denken dat Navi slechter is dan Vega, en dat is toch zeker niet het geval.De Radeon VII was de laatste keer dat AMD voor high end geschoten heeft, en die poging is redelijk jammerlijk mislukt. De 5700XT is de geslaagdere poging weer mee te doen bij wat nu (nog net) het middensegment is. Als Big Navi de barrière voor de high end weet te slechten zullen ze zeker een nieuwe poging doen. Zo niet dan zal het inderdaad bij een bescheidenere relatieve winst op de 5700XT blijven.
Als je generaties high-end vergelijkt krijg je altijd te maken met dieshrink en architectuur.
Dan is merk dat afgelopen jaren geen big highend chip bood sowieso lastig de vooruitgang te vergelijken. En is grofweg interpolatie van chip size .
Waarbij de concurrent beleid altijd al voor de kroon ging en dus maximum bigchip strategie toepast.
Waarbij AMDTI al vele jaren dat beleid sinds R600 heeft laten varen en dus voor commercieel rendement en dus maximaal voor sub bigchip ging omdat prestige kroon meer kosten mee brengt en meer marketing doel heeft en daarop kan afschrijven.
Je zou nV gemiddelde bigchip 600mm2 kunnen pakken en elke AMD gen extrapoleren naar nV kroon beleid en groffe schatting waar AMD fictieve kroon pogingen zou kunnen vallen. En AMD architectuur vooruitgang. Gezien ATI/AMD voor GPU foundry meestal gemeenschappelijk hebben is procede een constante. Op deze gen na.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Hij zal voor altijd de ATi en Crossfire badges bezitten en heeft na al die jaren nog altijd de derde plek op AMD Radeon en de 7e plek voor de badge videokaarten. Normaal heb ik niets met het karmasysteem, maar het laat in dit geval wel zien hoe waardevol zijn bijdragen waren als je na al die jaren nog altijd een dergelijke positie bezit.jgj82 schreef op zondag 4 oktober 2020 @ 19:37:
Verder realiseerde ik me dat het vandaag tien jaar geleden is dat CJ ons ontvallen is.Wat zou hij van de hedendaagse GPU's gevonden/geweten hebben....
Zijn technische kennis van videokaarten is echt wel een gemis. Ik mis zijn posts.Paprika schreef op maandag 5 oktober 2020 @ 11:29:
[...]
Hij zal voor altijd de ATi en Crossfire badges bezitten en heeft na al die jaren nog altijd de derde plek op AMD Radeon en de 7e plek voor de badge videokaarten. Normaal heb ik niets met het karmasysteem, maar het laat in dit geval wel zien hoe waardevol zijn bijdragen waren als je na al die jaren nog altijd een dergelijke positie bezit.
AMD INFINITY CACHEhttps://t.co/SLGJVY9m6t
— 188号 (@momomo_us) 5 oktober 2020
♾
edit:
Big Navi 256-bit + Infinity Cache? 🤔 https://t.co/DBhaEKCQvm
— VideoCardz.com (@VideoCardz) 5 oktober 2020
:no_upscale():strip_icc():fill(white):strip_exif()/f/image/2X1vTG7pDjMr4nSlqfHWUhU1.jpg?f=user_large)
https://videocardz.com/ne...-cache-coming-to-big-navi
[ Voor 71% gewijzigd door Xadeon op 05-10-2020 15:40 ]
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
Uh, choo choo?
https://trademarks.justia...md-infinity-90222772.htmlIntegrated circuits, namely, graphics, video and multimedia integrated circuits; integrated circuit chip sets; cards containing integrated circuits; integrated circuit chips; semiconductor devices; semiconductor chips; semiconductors; chipsets; computer hardware; microprocessors; microprocessor subsystems comprised of one or more microprocessors, central processing unit (CPU), CPU cores, and downloadable and recorded software for operating the foregoing; computer hardware subsystems comprised of microprocessor subsystems; microprocessor modules; system-on-chip (SOC) processors; system-on-chip (SoC) architecture for use with central processing units (CPU) and graphics processing units (GPU), namely, SoC architecture that connects die-to-die, chip-to-chip, and socket-to-socket, used across different microprocessors to enable increased computing performance; network-on-chip, namely, technology that provides interfaces across microprocessor CPU and GPU cores, memory, hubs and data fabric to enable microprocessor communications and increase computing performance and efficiency; microprocessor communication fabric, namely, data communication interconnect architecture responsible for collecting data, and command control interconnect architecture responsible for data sensor telemetry; graphics processors; video graphics processors; graphics processing unit (GPU); GPU cores; graphics cards; video cards; video display cards; video capture cards; accelerated data processors; accelerated video processors; multimedia accelerator boards; computer accelerator board; graphics accelerators; video graphics accelerator; graphics processor subsystem, namely, microprocessor subsystems comprised of one or more microprocessors, graphics processing units (GPUs), GPU cores, and downloadable and recorded software for operating the foregoing; supercomputers; computer servers; network servers; computer workstations, namely, computers designed for advanced technical or scientific applications and high performance computing applications; digital media streaming devices; solid state drives; computer memory devices, namely, volatile memory devices; dynamic random-access memory (DRAM); dynamic random access memory (DRAM) controllers; downloadable and recorded software for operating all of the foregoing; computer memories; memory boards; memory cards for video game machines; memory expansion cards; memory expansion modules; memory for data processing apparatus; memory for use with computers; memory modules; memory, microprocessor communication memory
Maar ze lijken ook voor te sorteren op MCM GPU's.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
En geen HBM..
You can all stop speculating. No HBM for Navi2X, all three of them, says AquariusZi.https://t.co/zJiVXem8ry
— RetiredEngineer® (@chiakokhua) 5 oktober 2020
Gigabyte Aorus X570 Master / AMD Ryzen 9 5900X / G.Skill Trident Z 4000@3800 32GB / PowerColor Red Devil Radeon RX 7900 XTX 24GB | Tesla M3 LR '21
Kunnen we die ook afvinken ja. Stupid amount of L2 cache it is.Xadeon schreef op maandag 5 oktober 2020 @ 15:58:
@DaniëlWW2 Geen idee, maar er zijn steeds meer mensen(leakers) die erop hinten. Niet duidelijk of het betrekking heeft op de komende gen. GPU's of pas de volgende, enfin.
En geen HBM..
[Twitter]
Maar als TSMC specifiek voor SRAM weinig problemen blijkt te hebben met defecten, tja dan kan dit ook wel eens een kostenbesparende maatregel blijken te zijn. Daarnaast heb je de efficiëntiewinst, simpeler PCB en koeloplossing en mijn sterke vermoeden dat dit gaat helpen met hybrid RT.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Kunnen de koeien weer een 30 minuten video gaan vullenDaniëlWW2 schreef op maandag 5 oktober 2020 @ 16:05:
[...]
Kunnen we die ook afvinken ja. Stupid amount of L2 cache it is.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Hèhè, eindelijk, ze zijn ook zover. Dankzij deze tweets:Xadeon schreef op maandag 5 oktober 2020 @ 15:58:
@DaniëlWW2 Geen idee, maar er zijn steeds meer mensen(leakers) die erop hinten. Niet duidelijk of het betrekking heeft op de komende gen. GPU's of pas de volgende, enfin.
En geen HBM..
[Twitter]
https://twitter.com/JirayD/status/1308042333015990278
https://twitter.com/nerdtechgasm/status/1306917807880200193
met het kosten argument (goedkoper), performance per Watt (minder Watt), het L2 cache verhaal klopte te goed om niet waar te zijn. Wel apart dat 7nm een kantelpunt oproept, omdat de memory controllers (32-bit, 8 stuks) niet kleiner kunnen worden (fysieke constraints), maar cache geheugen wèl.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Ik kan het ook helemaal fout hebben
[ Voor 24% gewijzigd door Sp3ci3s8472 op 05-10-2020 20:05 ]
YouTube: [PACT 2020] Analyzing and Leveraging Shared L1 Caches in GPUs
Yep. Dit is de presentatie van het onderzoek waar ik eerder de pdf al van linkte. Daar stond ook in dat het op het PACT gepresenteerd zou worden begin oktober!Amazigh_N_Ariff schreef op maandag 5 oktober 2020 @ 20:34:
Gevonden op reddit. Het is relevant voor het infinity cache verhaal van AMD.
YouTube: [PACT 2020] Analyzing and Leveraging Shared L1 Caches in GPUs
Wel leuk gedaan van ze.
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Als ik de uitleg lees is infinity cache twee belangrijke punten en het gaat om de L1 caches.
Conventioneel zijn ze private en met infinity cache kunnen ze private of shared zijn.
Waarbij ten 2de data duplication wordt gemeden. Dus 1 L1 cache is voorziener van uniek shared data wat andere unit kunnen gebruiken en waar niet meer nodig andere hun cache die data niet bewaard.
Het managen van infinity cache is dan ook iets complex wat ook de architectuur bepaald.
Nu is het dus de vraag is grote L2/L3 cache of zijn de CU elk met flinke sloot L1 cache dat bij elkaar 128MB neem aan dat er toch ook een L2 is want 80CU en 128MB match niet zo. Tenzij L1 2 delig is of er toch cache hiarchie is .
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Ik hoop dat je nog steeds alle GPGPU functies kan blijven gebruiken op toekomstige RDNA kaarten. Het zou jammer zijn als hobbyisten straks worden uitgesloten van experimenteren met dat soort dingen.Sp3ci3s8472 schreef op maandag 5 oktober 2020 @ 20:04:
Ik denk ook dat een reden dat ze nu RDNA en CDNA hebben dat ze iets meer fixed function hardware kunnen gebruiken omdat ze minder flexibel met compute hoeven te zijn. Dat zit nu in CDNA;
Ik kan het ook helemaal fout hebben. Mijn ervaring vanuit de programmeer hoek is des te minder flexibel je hoeft te zijn en des te minder hergebruik des te sneller je iets kan maken.
© ocf81 1981-infinity
Live the dream! | Politiek Incorrecte Klootzak uitgerust met The Drive to Survive
Bestrijd de plaag die woke heet! | Servitisatie plaveit de weg naar slavernij. Kies je eigen weg!
Ik denk ook dat we maar van een klein deel van het hele systeem hebben gehoord. De meeste render outputs zullen namelijk naar L1 gaan en dan snel doorgeschoven worden naar L2 in RDNA1. Dit veranderd denk ik niet heel erg radicaal, maar als je L2 zo enorm gaat vergroten met als doel informatie terughalen naar L1 voor extra verwerking, tja dan heb je waarschijnlijk ook meer L1 nodig. Dat is denk ik ook het niveau waar de informatie voor hybrid RT opgeslagen zal worden. Als die L1 caches ook nog eens minder privaat worden, dan kan je hier waarschijnlijk alleen maar mee winnen. Maar het kan goed omdat dit steeds meer Zen achtig begint te klinken. We weten dat een aantal mensen van de Zen ontwikkeling naar de RTG zijn overgeplaatst en dit zou het jaar moeten zijn dat hun invloed gaat verschijnen in een product.SG schreef op dinsdag 6 oktober 2020 @ 07:34:
Blijkbaar is infinity cache toch wat complexer dan een grote L2 shared buffer er tussen in.
Als ik de uitleg lees is infinity cache twee belangrijke punten en het gaat om de L1 caches.
Conventioneel zijn ze private en met infinity cache kunnen ze private of shared zijn.
Waarbij ten 2de data duplication wordt gemeden. Dus 1 L1 cache is voorziener van uniek shared data wat andere unit kunnen gebruiken en waar niet meer nodig andere hun cache die data niet bewaard.
Het managen van infinity cache is dan ook iets complex wat ook de architectuur bepaald.
Nu is het dus de vraag is grote L2/L3 cache of zijn de CU elk met flinke sloot L1 cache dat bij elkaar 128MB neem aan dat er toch ook een L2 is want 80CU en 128MB match niet zo. Tenzij L1 2 delig is of er toch cache hiarchie is .

:strip_exif()/f/image/hfAbqBc3WqUVGrtdUf4bF5xT.jpg?f=fotoalbum_large)
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Die CyberPunkCat snapt niet helemaal hoe hybrid ray tracing werkt. Dat is niet een vaste pool van 20 CU's, dat verschilt per frame, welke CU's aan ray tracing werken, welke niet. Ik denk dat hij de toelichting van CFO Devinder Kumar verkeerd begrepen heeft.Xadeon schreef op zondag 4 oktober 2020 @ 15:56:
CFO Devinder Kumar has confirmed Hardware-Level RT
'will use ~ 20CUs from the 80CU pool for HWRT'
— CyberPunkCat
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Ja natuurlijk moet er geoptimaliseerd worden voor het geheugengebruik. Ik verwacht alleen niet dat dit door de gamestudio gebeurt. Er wordt gewoon aan de kaart gevraagd om iets te doen, en hoe de kaart dat precies doet, wordt bepaald door de driver software. Of er in de toekomst optimalisaties mogelijk zijn aan de buitenkant, is daarmee ook de vraag.Dennism schreef op dinsdag 6 oktober 2020 @ 10:24:
Wat ik me eigenlijk wel afvraag, gaat dit ook weer iets zijn waarvoor geoptimaliseerd moet gaan worden
Deels. Het gelinkte hardware gedeelte in L1 L2 caches is niet backwards compatible, maar als softwarematig data in de L2 cache kan worden ge-voorsorteerd of ge-orderd (bepaalde volgorde van data elementen), dan kunnen L1 caches ook op oudere RDNA / GCN architecturen makkelijker gevuld worden / minder cache miss.*Dennism schreef op dinsdag 6 oktober 2020 @ 10:24:
Wat ik me eigenlijk wel afvraag, gaat dit ook weer iets zijn waarvoor geoptimaliseerd moet gaan worden (waardoor misschien de initiële benchmarks tegen kunnen vallen) of gaat dit iets zijn dat direct "across the board" zeer goed moet gaan presteren, ongeacht de engine. Waardoor dus ook oudere titels, mogelijk, flink kunnen profiteren?
De manier waarop de cache misses afnemen: L1 caches gaan data checken "bij de buren", dat gaat veel sneller dan check via L2 en vaker goed omdat de L1 cache data een bepaalde "ordering" volgorde gaat krijgen. De L2 cache is op haar beurt groter en kan makkelijker alle L1 caches vullen en bijvullen.
Superinteressant die caching.
*dit komt doordat als een L1 een cache miss, hij niet blind aan elke L2 gaat vragen om data voor een cache hit, maar de dichtsbijzijnde L2. Dat proces kan geoptimaliseerd worden, softwarematig, backwards compatible.
[ Voor 9% gewijzigd door sunsmountain op 06-10-2020 11:08 ]
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Geen vaste pool, maar waarschijnlijk bedoelt hij dat er maximaal 20 CU's ingezet kunnen worden voor ray tracing.sunsmountain schreef op dinsdag 6 oktober 2020 @ 11:02:
[...]
Die CyberPunkCat snapt niet helemaal hoe hybrid ray tracing werkt. Dat is niet een vaste pool van 20 CU's, dat verschilt per frame, welke CU's aan ray tracing werken, welke niet. Ik denk dat hij de toelichting van CFO Devinder Kumar verkeerd begrepen heeft.
En ook dat lijkt me niet kloppen met de hybrid ray tracing techniek. Er kunnen 80 van de 80 CU's worden ingezet op de ray tracing, of 0 van de 80. Er is niets in het patent wat dit beperkt tot 20. De 20 is vermoedelijk slechts een voorbeeld gebruikt door de CFO.XWB schreef op dinsdag 6 oktober 2020 @ 11:08:
[...]
Geen vaste pool, maar waarschijnlijk bedoelt hij dat er maximaal 20 CU's ingezet kunnen worden voor ray tracing.
Yup, die CyberPunkCat is volledig fake, stoppen met aandacht geven.
[ Voor 6% gewijzigd door sunsmountain op 06-10-2020 11:32 ]
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Ik vind dit een hele rare actie van Jim.Dennism schreef op zaterdag 3 oktober 2020 @ 21:31:
Ik weet niet wat het is met die youtubers, maar ook bij "not an apple fan", hoewel soms vermakelijk vraag ik me toch echt af hoe betrouwbaar die is. Ik zou zeker dat soort content niet direct als leidraad nemen als ik eerlijk moet zijn. Vraag me trouwens wel af wat er met de youtubers aan de hand is, "not an apple fan" ging van de week best wel los op Jayz2cents (zonder aanwijsbare reden in het filmpje dat ik keek), nu gaat Jim schijnbaar weer los op HWU.
[Twitter]
[Twitter]
[...]
Dat lijkt me nu echt niets, van die gerebrande reference kaarten waren in het verleden ook niet echt een succes. Tel daarbij op dat het gelekte AMD design er nu ook niet echt mooi uitziet (imho). Nee, doe mij maar AIB eigen designs dag 1, of ze moeten een design hebben dat zich met de 3000 series FE kan meten qua design, maar dat betwijfel ik echt.
Steve en Tim doen het erg netjes met hun reviews. En ze hebben zeker hun vraagtekens bij de 3080 en 3090 gezet dus snap niet zo goed waar die opmerking van Jim op slaat.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dit lijkt mij ook eerder. Maar voor een goede FPS is misschien 60 - 20 verdeling aanbevolen?sunsmountain schreef op dinsdag 6 oktober 2020 @ 11:09:
[...]
En ook dat lijkt me niet kloppen met de hybrid ray tracing techniek. Er kunnen 80 van de 80 CU's worden ingezet op de ray tracing, of 0 van de 80. Er is niets in het patent wat dit beperkt tot 20. De 20 is vermoedelijk slechts een voorbeeld gebruikt door de CFO.
Yup, die CyberPunkCat is volledig fake, stoppen met aandacht geven.
Ik denk dat als jij een pure RT scene wilt renderen je vast alles in kan zetten. Als dat niet zo zou zijn is dat wel een rare keuze.
Ik zou de dev's gewoon de keuze geven om te kiezen waar ze behoefte aan hebben.
Of het moet heel veel die space schelen door niet alle SM's van een RT unit te voorzien.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dat is gelukkig al weer bijgelegd volgens Twitter, dus die zijn weer 'vriendjes'Astennu schreef op dinsdag 6 oktober 2020 @ 13:28:
[...]
Ik vind dit een hele rare actie van Jim.
Steve en Tim doen het erg netjes met hun reviews. En ze hebben zeker hun vraagtekens bij de 3080 en 3090 gezet dus snap niet zo goed waar die opmerking van Jim op slaat.
Zullen ook wel druk bezig zijn met Zen3 reviews neem ik aan, of zou dat nog te vroeg zijn?
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Eens met dat het niet normaal is voor Jim. Maar hij voelde zich aangevallen door een recente hardware unboxed Q&A waarbij HU vraagtekens had gezet bij de kritiekvideo's van Jim (Samsung worst choice ever, Ampere 2nd to worst performance / value / power generation ever). Zij hadden dat niet zo bedoeld, en Jim heeft op discord ook al z'n excuses aangeboden. Temperamentvol Schots bloed, zullen we maar zeggenAstennu schreef op dinsdag 6 oktober 2020 @ 13:31:
[...]
Dit lijkt mij ook eerder. Maar voor een goede FPS is misschien 60 - 20 verdeling aanbevolen?
Ik denk dat als jij een pure RT scene wilt renderen je vast alles in kan zetten. Als dat niet zo zou zijn is dat wel een rare keuze.
Ik zou de dev's gewoon de keuze geven om te kiezen waar ze behoefte aan hebben.
Of het moet heel veel die space schelen door niet alle SM's van een RT unit te voorzien.
Qua het inzetten van CU's voor ray tracing, dat is afhankelijk van het aantal lichtbronnen in de scene, sommige frames hebben heel veel licht / reflecties, andere nauwelijks. 80-0 zal niet waarschijnlijk zijn voor een frame, maar 60-20 en 20-60 kan allebei prima. Het hele idee is schaalbaarheid en hybride, dus flexibel. More power to the devs
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Ah ja dat verklaart iets.sunsmountain schreef op dinsdag 6 oktober 2020 @ 14:22:
[...]
Eens met dat het niet normaal is voor Jim. Maar hij voelde zich aangevallen door een recente hardware unboxed Q&A waarbij HU vraagtekens had gezet bij de kritiekvideo's van Jim (Samsung worst choice ever, Ampere 2nd to worst performance / value / power generation ever). Zij hadden dat niet zo bedoeld, en Jim heeft op discord ook al z'n excuses aangeboden. Temperamentvol Schots bloed, zullen we maar zeggen
Maar goed iedereen heeft wel recht op zijn eigen mening. Maar ik vind HWU zeker niet nVidia biased of zo. Ik vind ze beide kanten op kritisch.
Misschien zat dat in de 2e Q&A video van afgelopen maand die ik nog niet gekeken had. Zal het eens opzoeken.
Maar je kan dan beter even persoonlijk contact opnemen ipv het zo via twitter te spelen. Dat valt me toch wel een beetje tegen.
Zou kunnen maar misschien een klein beetje vroeg afhankelijk van wanneer de launch is. Ik verwacht de 8e alleen een press release met een launch 1-2 weken later.Mars Warrior schreef op dinsdag 6 oktober 2020 @ 14:10:
[...]
Dat is gelukkig al weer bijgelegd volgens Twitter, dus die zijn weer 'vriendjes'![]()
Zullen ook wel druk bezig zijn met Zen3 reviews neem ik aan, of zou dat nog te vroeg zijn?
[ Voor 19% gewijzigd door Astennu op 06-10-2020 15:58 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Grote kans dat ze die cpu's nog niet eens hebben, de verwachting is dat donderdag alleen de aankondiging komt, met verkrijgbaarheid (en w.s. dus ook de reviews) eind oktober, mogelijk rond de GPU aankondiging.Mars Warrior schreef op dinsdag 6 oktober 2020 @ 14:10:
[...]
Dat is gelukkig al weer bijgelegd volgens Twitter, dus die zijn weer 'vriendjes'![]()
Zullen ook wel druk bezig zijn met Zen3 reviews neem ik aan, of zou dat nog te vroeg zijn?
Niet normaal weet ik niet, Jim heeft er wel een handje van zo te reageren. Volgens mij was er ten tijde van de Coffee Lake lanch ook een video van Jim, over uit mijn hoofd de i5-8400 (maar zou ook een andere geweest kunnen zijn), waar ook het een en ander over was aan te merken (wat HWU dan ook deed) wat Jim ook niet echt beviel.sunsmountain schreef op dinsdag 6 oktober 2020 @ 14:22:
[...]
Eens met dat het niet normaal is voor Jim. Maar hij voelde zich aangevallen door een recente hardware unboxed Q&A waarbij HU vraagtekens had gezet bij de kritiekvideo's van Jim (Samsung worst choice ever, Ampere 2nd to worst performance / value / power generation ever). Zij hadden dat niet zo bedoeld, en Jim heeft op discord ook al z'n excuses aangeboden. Temperamentvol Schots bloed, zullen we maar zeggen
Ja dat bedoel ik inderdaad.Dennism schreef op dinsdag 6 oktober 2020 @ 16:09:
[...]
Grote kans dat ze die cpu's nog niet eens hebben, de verwachting is dat donderdag alleen de aankondiging komt, met verkrijgbaarheid (en w.s. dus ook de reviews) eind oktober, mogelijk rond de GPU aankondiging.
Maar als ze de 8e laten weten dat de echt launch met reviews bv 1 week later is zullen ze de CPU's wel hebben of snel krijgen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Het kan in ieder geval niet te dicht op elkaar zitten. AMD wil natuurlijk wel dat de reviewers uitgebreid tijd krijgen om een goede en uitgebreide review te doen van hun nieuwe kindjesAstennu schreef op dinsdag 6 oktober 2020 @ 16:12:
[...]
Ja dat bedoel ik inderdaad.
Maar als ze de 8e laten weten dat de echt launch met reviews bv 1 week later is zullen ze de CPU's wel hebben of snel krijgen.
Overmorgen weten we in ieder geval de 1ste stap. En wie weet wordt er nog wat over de GPU's verteld.
Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Misschien dat mijn geheugen me heel erg in de steek laat, maar voor zover ik me herinner staat AMD juist niet erg bekend om de ruime embargo tijden. Ik meen me te herinneren, ik dacht dat het Vega? was, waarbij reviewers in het weekend moeten reviewen omdat de samples op zaterdag kwamen en maandan morgen oid het embargo verliep.Mars Warrior schreef op dinsdag 6 oktober 2020 @ 16:46:
[...]
Het kan in ieder geval niet te dicht op elkaar zitten. AMD wil natuurlijk wel dat de reviewers uitgebreid tijd krijgen om een goede en uitgebreide review te doen van hun nieuwe kindjes
Van wat we van de AIB board partner geruchten weten, of het nou Sapphire Tier 1 is of Gigabyte Asus MSI Tier 2, nog geen enkele van hen heeft een BOM gekregen, Bill of Materials. De manier waarop Big Navi geheim gehouden is 0,0 niks nada delen met board partners.Dutchy007 schreef op zaterdag 3 oktober 2020 @ 21:32:
[...]
Maar dat zou (wederom) betekenen dat we initieel geen AIB custom cards gaan zien? Dat zou wel eeuwig jammer zijn namelijk.
En terecht, want die lekken toch alles. Het is een beetje bewijs uit het ongerijmde, maar we hadden al veel meer lekken gehad dan de informatie tot nu toe (OpenGL/compute drivers, iMac/MacBook power play frequenties, patenten over hybrid raytracing van 2019 en adaptive caching van 2020).
Het is dus vrijwel onmogelijk dat board partners met eigen designs komen bij deze lancering in zo het nu lijkt November van de RX 6000 series. Mij stellen stickertjes ook teleur, vooral het gebrek aan mooie OC modellen, maar stickertjes worden het.
Kleine troost: een top RX6900XTX Liquid model. Ben benieuwd hoe AMD Marketing het dit keer gaat aanpakken.... natuurlijk niet, dat wordt weer een clown fiesta (Jebaited). nVidia marketing gaat breed uitmeten dat er weinig AMD keuze zal zijn en AMD marketing zal 16GB blijven noemen terwijl het voor de meeste games nu niet zoveel uitmaakt. Maar àls Big Navi echt een "nVidia killer" is, dan maakt het niet uit: voor de enthusiasts tellen de benchmarks, voor Jan met de pet telt de 16 GB
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Ja klopt maar daar hebben veel reviewers ook over geklaagd en AMD heeft dat met Zen2 wel beter geregeld. GPU's waren een ander verhaal. Ik verwacht dat Zen3 ook weer een relatief soepele launch wordt.Dennism schreef op dinsdag 6 oktober 2020 @ 18:27:
[...]
Misschien dat mijn geheugen me heel erg in de steek laat, maar voor zover ik me herinner staat AMD juist niet erg bekend om de ruime embargo tijden. Ik meen me te herinneren, ik dacht dat het Vega? was, waarbij reviewers in het weekend moeten reviewen omdat de samples op zaterdag kwamen en maandan morgen oid het embargo verliep.
RDNA2 zal beter zijn dan RDNA1 maar of het net zo soepel zal gaan als de CPU launches.... we gaan het zien
De VII launch was trouwens ook alles behalve smooth.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Met alles wat we tot nu weten van het nieuwe speelgoed van AMD zal het misschien aan het eind van de Zen3 aankondiging iets in de trend zijn van; "We are also thrilled to be able to announce our new Radeon lineup at the end of this month. Until then" The end.Mars Warrior schreef op dinsdag 6 oktober 2020 @ 16:46:
[...]
Het kan in ieder geval niet te dicht op elkaar zitten. AMD wil natuurlijk wel dat de reviewers uitgebreid tijd krijgen om een goede en uitgebreide review te doen van hun nieuwe kindjes![]()
Overmorgen weten we in ieder geval de 1ste stap. En wie weet wordt er nog wat over de GPU's verteld.
R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE
Inderdaad de CPU's verdienen ook de aandacht. Zou dan niet de Sportlight weer verplaatsen naar iets anders.M-spec schreef op dinsdag 6 oktober 2020 @ 19:05:
[...]
Met alles wat we tot nu weten van het nieuwe speelgoed van AMD zal het misschien aan het eind van de Zen3 aankondiging iets in de trend zijn van; "We are also thrilled to be able to announce our new Radeon lineup at the end of this month. Until then" The end.
Die krijgen 3 weken later hun eigen podium.
Voor mijn gevoel krijgen we morgen de aankondiging van Zen3. Reviews + verkoop voor de 28e nog en dan daar na het prodium helemaal voor RDNA2.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ze denken in ieder geval genoeg te presenteren te hebben voor RDNA2, los van en net zo goed voor Zen3, en ik denk in beide gevallen terecht.Astennu schreef op woensdag 7 oktober 2020 @ 11:50:
[...]
Inderdaad de CPU's verdienen ook de aandacht. Zou dan niet de Sportlight weer verplaatsen naar iets anders.
Die krijgen 3 weken later hun eigen podium.
Voor mijn gevoel krijgen we morgen de aankondiging van Zen3. Reviews + verkoop voor de 28e nog en dan daar na het prodium helemaal voor RDNA2.
Redenen om eerst met Zen3 te komen is 1) dat heeft minder polijst werk nodig 2) vooral voor gamers die nu upgraden (zoals ik) gaan daar op wachten omdat je dan ook in single-core game performance de beste CPU hebt.
Redenen om RDNA2 uit te stellen 1) drivers 2) tweaking waar ze in September nog aanpassingen aan deden n.a.v. Ampere TDP, clocks + koeling 3) polijsten van software features zoals image sharpening, upscaling, het adrenalin control center, etc.
En misschien 4) een keer goede AMD marketing te doen (maar hier reken ik niet op, en 3) eigenlijk ook niet).
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
En een beetje voorraad aanleggen.sunsmountain schreef op woensdag 7 oktober 2020 @ 13:03:
[...]
Redenen om RDNA2 uit te stellen 1) drivers 2) tweaking waar ze in September nog aanpassingen aan deden n.a.v. Ampere TDP, clocks + koeling 3) polijsten van software features zoals image sharpening, upscaling, het adrenalin control center, etc.
En misschien 4) een keer goede AMD marketing te doen (maar hier reken ik niet op, en 3) eigenlijk ook niet).
persoonlijk denk ik niet dat het daar om te doen is, driver issues zou wel een hele goede reden zijn, want dit moet de gamechanger worden, dus willen ze écht niet weer een driver/compatibiliteit issue hebben.....
10-08-1999 - 10-08-2022, 23 jaar zion @ Tweakers.net
systeem
[Twitter: https://twitter.com/VideoCardz/status/1313609282940801035]
TLDR:
— VideoCardz.com (@VideoCardz) 6 oktober 2020
Navi21 XTX 16GB (AMD exclusive?)
Navi21 XT 16GB (AIB - faster than 3070)
Navi21 XL 16GB (unknown)
Navi21 XE ?GB (2021) https://t.co/VZ1Pdm9IQH
Waarop een ander weer komt met:
Because this was a while ago and prior to a lot of things... personally I look at it like this
— Avery (@Avery78) 7 oktober 2020
? = ~150W = 2080S +5-10% perf.
? = ~225W = 2080Ti ~+15% perf.
? = ~275W = 2080Ti. ~+40% perf.
That makes a little more sense to me if N21 is cut down
I would translate it to:
— 3DCenter.org (@3DCenter_org) 7 oktober 2020
N22 = ~150W = 2080S +5-10% perf.
N21 Salvage = ~225W = 2080Ti ~+15% perf.
N21 = ~275W = 2080Ti. ~+40% perf.
That would give you a performance difference of +55% between N22 and N21, which looks more likely on double CUs. https://t.co/TMLzxLcxDd
It appears so. But reminder this would before they would even fully know amperes capability. Rumors of double FP32 etc wouldn’t have been out long at this time. Also - been advised to temper N21 expectations overall.
— Avery (@Avery78) 7 oktober 2020
Wie zal wie nu aan het "jebaiten" zijn
Die 2080Ti + 15% die daar in beide tweets voorkomen was Coreteks geloof ik ook al over bezig.
Die 275W Navi zit dan qua performance tussen de 3070 en 3080 in, net zoals het TDP.
Als die tweets kloppen natuurlijk
Dat is altijd een goed idee, dan kan het nooit tegenvallenbeen advised to temper N21 expectations overall
Wel grappig als we 'weten' dat er voorlopig geen AIB kaarten komen omdat AMD niks vrijgeeft, maar dat ze klaarblijkelijk al wel de performance kennenDennism schreef op woensdag 7 oktober 2020 @ 14:33:
Videocardz.com strooit ook nog even met wat geruchten, uiteraard met een pak zout tot je nemen.
Wie zal wie nu aan het "jebaiten" zijn
Die 2080Ti + 15% die daar in beide tweets voorkomen was Coreteks geloof ik ook al over bezig.

Material 3 Thema's voor HA | Swiss Army Knife custom card voor HA | AmoebeLabs
Volgens mij is het verhaal dat er voorlopig geen custom AIB kaarten komen, maar dat de partners wel referentiekaarten met eigen sticker gaan verkopen. Natuurlijk kennen ze dan de performance.Mars Warrior schreef op woensdag 7 oktober 2020 @ 14:51:
[...]
Wel grappig als we 'weten' dat er voorlopig geen AIB kaarten komen omdat AMD niks vrijgeeft, maar dat ze klaarblijkelijk al wel de performance kennen
Een andere goede rede kan ook zijn dat Zen3 waarschijnlijk de snelste gaming CPU is. En dat ze die dan mogelijk ook kunnen gebruiken voor RDNA2 reviews.sunsmountain schreef op woensdag 7 oktober 2020 @ 13:03:
[...]
Ze denken in ieder geval genoeg te presenteren te hebben voor RDNA2, los van en net zo goed voor Zen3, en ik denk in beide gevallen terecht.
Redenen om eerst met Zen3 te komen is 1) dat heeft minder polijst werk nodig 2) vooral voor gamers die nu upgraden (zoals ik) gaan daar op wachten omdat je dan ook in single-core game performance de beste CPU hebt.
Redenen om RDNA2 uit te stellen 1) drivers 2) tweaking waar ze in September nog aanpassingen aan deden n.a.v. Ampere TDP, clocks + koeling 3) polijsten van software features zoals image sharpening, upscaling, het adrenalin control center, etc.
En misschien 4) een keer goede AMD marketing te doen (maar hier reken ik niet op, en 3) eigenlijk ook niet).
Aan de andere kant hebben grotere sites vaak verschillende review platforms voor CPU's en GPU's en wisselen ze de CPU van het GPU review platform niet zo maar je moet dan alle kaarten opnieuw testen.
Voor de Ampere launch hebben sommige al een switch gedaan naar een 3950X voor PCI-E 4.0. Als ze er dan straks een 5900X in stoppen moeten ze eerst alle GPU's opnieuw testen en daar hebben ze dan mogelijk te weinig tijd voor.
Maar who knows zullen er toch sites zijn die de switch maken? ligt er denk ik ook aan hoe lang ze de 5900X mogen houden / hoe snel ze er zelf een kunnen krijgen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Ook Coreteks heeft al aangegeven dat hij het best ziet gebeuren dat die 2080Ti + 15% niet klopt en ze sneller zijn. Maar dat is wat zijn source zei.Dennism schreef op woensdag 7 oktober 2020 @ 14:33:
Videocardz.com strooit ook nog even met wat geruchten, uiteraard met een pak zout tot je nemen.
[Twitter]
[Twitter]
Waarop een ander weer komt met:
[Twitter]
[Twitter]
[Twitter]
Wie zal wie nu aan het "jebaiten" zijn
Die 2080Ti + 15% die daar in beide tweets voorkomen was Coreteks geloof ik ook al over bezig.
Gezien de die size die hij heeft laten zien zou 2080Ti +15% een gigantische fail zijn en echt super super slecht. Dan is er echt iets mis met de chip als je met zo'n die size op N7P zulke slechte prestaties haalt.
Gezien de leaks van de laatste tijd zou het mij niets verbazen als ze zelfs een gooi naar de 3090 gaan doen qua prestaties.
Ik gok nog steeds op 3080 prestaties minimaal voor de top SKU maar begin voorzichtig ook te geloven dat 3090 prestaties wellicht ook niet te ver gegrepen zijn gezien de die size van de GPU en de gelekte informatie over de architectuur.
En ja dat kan natuurlijk voor teleurstelling gaan zorgen. Maar ik zie het wel
3080 prestaties zou wat mij betreft al helemaal prima zijn @ 275watt. Wordt het meer alleen maar mooi.
Ik ga er van uit dat AMD veel mis informatie aan het verspreiden is ze willen natuurlijk niet dat nVidia meer weet om de eventuele 3060(Ti), 3070(Ti) en 3080 Ti specs al aan te passen. Zeker voor die 3070 die er binnenkort aan komt.
Ze weten inmiddels ook wel hoe al die info elke keer gelekt wordt en tot nu toe houden ze het heel goed vol om alle info onzeker te houden. Het kan echt nog alle kanten op gaan.
Het zou mij ook niet verbazen als nVidia nog met een of andere "fine wine" driver komt voor Ampere die de CUDA Core utilization verbeterd waardoor de prestaties nog een 5-10% omhoog gaan als een soort van RDNA2 counter.
[ Voor 20% gewijzigd door Astennu op 07-10-2020 15:02 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Nee juist niet. Waarschijnlijk maar Sapphire dan alle kaarten. En mogen ze alleen de stikkers er op pakken. Ja je hebt de kaart dan misschien maar waarschijnlijk niet de drivers dus weet je nog niets over de prestaties.XWB schreef op woensdag 7 oktober 2020 @ 14:52:
[...]
Volgens mij is het verhaal dat er voorlopig geen custom AIB kaarten komen, maar dat de partners wel referentiekaarten met eigen sticker gaan verkopen. Natuurlijk kennen ze dan de performance.
Tegenwoordig moet je die downloaden dus best een kans dat andere AIB's de kaarten helemaal niet kunnen testen en dat AMD die drivers pas last minute online zet.
De vraag is dus of mensen Bij Sapphire wel toegang tot drivers hebben. Al kan het zo maar zijn dat die crippled zijn en niet de daadwerkelijke prestaties laten zien maar genoeg zijn om bv de coolers te testen en wel te zorgen dat de chip zijn max stroomverbruik haalt zodat je dat stuk van de kaarten kan testen.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
YouTube: PS5 Teardown: An up-close and personal look at the console hardware
Ik moet zeggen dat ik de cooling indrukwekkend vind. Mooi blower design en hele mooie heatsinks en backplates daar is duidelijk goed over na gedacht.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Dat is emAstennu schreef op woensdag 7 oktober 2020 @ 15:16:
Deels offtopic maar deels on ze hebben een teardown van de PS5 laten zien en dan kan je zien hoe groot de chip is:
YouTube: PS5 Teardown: An up-close and personal look at the console hardware
Ik moet zeggen dat ik de cooling indrukwekkend vind. Mooi blower design en hele mooie heatsinks en backplates daar is duidelijk goed over na gedacht.
/f/image/vCpPDaqZeXvykQXCpHPrpYpI.png?f=fotoalbum_large)
Waar blijven dan de leaks dan?XWB schreef op woensdag 7 oktober 2020 @ 14:52:
Volgens mij is het verhaal dat er voorlopig geen custom AIB kaarten komen, maar dat de partners wel referentiekaarten met eigen sticker gaan verkopen. Natuurlijk kennen ze dan de performance.
Ik denk dat er nog bijna niemand iets heeft....

to linux or not ,that's my quest... | 5800X | 32GB 3800C15 | X570-Pro | 980 1TB | 7900XTX | PVoutput | Fiets
Dus, ziet iemand de L2 cache of?
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
AIBsDennism schreef op woensdag 7 oktober 2020 @ 14:33:
Videocardz.com strooit ook nog even met wat geruchten, uiteraard met een pak zout tot je nemen.
NVIDIA jebaited AMD.
- Big Navi perf target was GA104.
- NVIDIA upgraded 3080 to GA102
- AMD now targets 3070
- NVIDIA announced Ampere at lower than expected price
- AMD announced Oct 28 event
- NVIDIA postponed the launch to Oct 29
Just what we gathered this week from AIBs🙃
— VideoCardz.com (@VideoCardz)
6 oktober 2020
TLDR:
Navi21 XTX 16GB (AMD exclusive?)
Navi21 XT 16GB (AIB - faster than 3070)
Navi21 XL 16GB (unknown)
Navi21 XE ?GB (2021) https://t.co/VZ1Pdm9IQH
— VideoCardz.com (@VideoCardz)
6 oktober 2020
Waarop een ander weer komt met:
Because this was a while ago and prior to a lot of things... personally I look at it like this
? = ~150W = 2080S +5-10% perf.
? = ~225W = 2080Ti ~+15% perf.
? = ~275W = 2080Ti. ~+40% perf.
That makes a little more sense to me if N21 is cut down
— Avery (@Avery78)
7 oktober 2020
I would translate it to:
N22 = ~150W = 2080S +5-10% perf.
N21 Salvage = ~225W = 2080Ti ~+15% perf.
N21 = ~275W = 2080Ti. ~+40% perf.
That would give you a performance difference of +55% between N22 and N21, which looks more likely on double CUs. https://t.co/TMLzxLcxDd
— 3DCenter.org (@3DCenter_org)
7 oktober 2020
It appears so. But reminder this would before they would even fully know amperes capability. Rumors of double FP32 etc wouldn’t have been out long at this time. Also - been advised to temper N21 expectations overall.
Wie zal wie nu aan het "jebaiten" zijn
Die 2080Ti + 15% die daar in beide tweets voorkomen was Coreteks geloof ik ook al over bezig.

Dit is correct aangenomen de rogame SKUs. De performance niet:
Deze performance, aangenomen de +50% performance/Watt, is wel correct:Navi21 XTX 16GB
Navi21 XT 16GB
Navi21 XL 16GB
Waarbij de TDP van N22 XT nog wel iets hoger zal liggen, 150W is denk ik de salvage part N22 XL. N22 XT zal iets van 200W TDP zijn en 2080S+25% of ruwweg hetzelfde als de 2080Ti (ja echt) maar lager dan de RTX3080 en ook minder kosten.N22 = ~150W = 2080S +5-10% perf.
N21 Salvage = ~225W = 2080Ti ~+15% perf.
N21 = ~275W = 2080Ti. ~+40% perf.
Let wel, 2080Ti +40% is meer dan de RTX3080:
https://www.techpowerup.c...080-gaming-x-trio/32.html
RTX3080/RTX2080Ti
100%/72% = +38,8%
Dus N21 verslaat de RTX3080, nipt. Nou dan gaat een overclockte N21 versie ook gehakt maken van de RTX3090, want we weten dat er veel meer overclock ruimte is gegeven het verschil in clock snelheden tussen N21 en N22 (2,2 GHz en 2,5 GHz). Misschien dat de XTX versie dat al bij launch doet.
Qua capaciteit, zal TSMC denk ik niet teleurstellen. Voorraadje aanleggen is zeker ook een argument.
Als laatste, dit bericht van nVidia vind ik mooi:
https://videocardz.com/ne...rtages-to-last-until-2021
"nVidia: Onze Founder Edition 3080 3090 hebben een veel te dure koeler, daardoor gaan we het aanbod lekker laag houden. We dumpen het aanbod probleem straks bij de AIB partners als Big Navi is aangekondigd, door ze van voldoende onderdelen te voorzien, nu dat de gelikte 3080 3090 reviews binnen zijn. So long suckers!"
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Zo zout heb ik ze nog niet gezienDennism schreef op woensdag 7 oktober 2020 @ 14:33:
Videocardz.com strooit ook nog even met wat geruchten, uiteraard met een pak zout tot je nemen.
[Twitter]
[Twitter]
Waarop een ander weer komt met:
[Twitter]
[Twitter]
[Twitter]
Wie zal wie nu aan het "jebaiten" zijn
Die 2080Ti + 15% die daar in beide tweets voorkomen was Coreteks geloof ik ook al over bezig.
Ik kan gewoon niet geloven dat AMD denkt dat Nvidia maar 2080Ti +15% zou hebben en daar Navi 2 daaromheen heeft gebouwd.
De 3080 was oorspronkelijk een GA104 chip, het is niet onbedenkelijk dat AMD daarop ingezet heeft.Sp3ci3s8472 schreef op woensdag 7 oktober 2020 @ 16:30:
[...]
Zo zout heb ik ze nog niet gezien.
Ik kan gewoon niet geloven dat AMD denkt dat Nvidia maar 2080Ti +15% zou hebben en daar Navi 2 daaromheen heeft gebouwd.
Mja dan moet je ook niet over Halo Product spreken als je weer alleen maar met een X070 wil gaan concurreren dan zit je gewoon in de midrange heeft niets met high end of Halo te maken.XWB schreef op woensdag 7 oktober 2020 @ 16:31:
[...]
De 3080 was oorspronkelijk een GA104 chip, het is niet onbedenkelijk dat AMD daarop ingezet heeft.
Als je het over een Halo product hebt (wat Lisa Letterlijk gezegd heeft moet je toch wel er voor gaan om de 3080 te verslaan en eventueel in de buurt te komen van de 3080 Ti.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Maar dat staat helemaal los van het feit dat als je competetie een kaart heeft die zo snel is als een 2080Ti je maar verwacht dat ze met 15% extra komen met een nieuwe architectuur. Dat zou de kleinste sprong tot nu toe zijn geweest; zeker gezien het vrijwel zeker was dat Nvidia op Samsung 8nm of TSMC 7nm zou gaan zitten en niet op de 12nm van Turing.XWB schreef op woensdag 7 oktober 2020 @ 16:31:
[...]
De 3080 was oorspronkelijk een GA104 chip, het is niet onbedenkelijk dat AMD daarop ingezet heeft.
Ik zou minimaal 30% verwachten bij een nieuwe highend kaart. Je blind staren op type nummers is gewoon iets wat je niet mag doen als AMD zijnde.
Die halo claims dateren alweer van maanden geleden, toen was de 3080 nog een GA104 chip. Vanuit dat perspectief heeft AMD altijd de 3080 in het vizier gehad, alleen was het toen nog een andere chip en heeft Nvidia iedereen verrast door de GA102 last minute door te schuiven naar de 3080.Astennu schreef op woensdag 7 oktober 2020 @ 16:39:
[...]
Als je het over een Halo product hebt (wat Lisa Letterlijk gezegd heeft moet je toch wel er voor gaan om de 3080 te verslaan en eventueel in de buurt te komen van de 3080 Ti.
[ Voor 3% gewijzigd door XWB op 07-10-2020 16:46 ]
Wat natuurlijk inderdaad best kan. Alleen vraag ik me af op welk vlak AMD dan hoopt te concurreren? Als ze de 3070 halen en het is zowat nek aan nek dan kiezen de meeste voor nVidia gezien de driver-historie. Zo net boven de 3070 of tussen de 3070 en 3080 in is niemandsland. Voor een kleine extra som haal je dan de beter presterende 3080?XWB schreef op woensdag 7 oktober 2020 @ 16:45:
[...]
Die halo claims dateren alweer van maanden geleden, toen was de 3080 nog een GA104 chip. Vanuit dat perspectief heeft AMD altijd de 3080 in het vizier gehad, alleen was het toen nog een andere chip en heeft Nvidia iedereen verrast door de GA102 last minute door te schuiven naar de 3080.
Ik doel erop dat ze nu niet weer moeten aankomen met een mid-range product. Mensen die mid-range willen, kiezen nVidia. Als je dat wil ontkrachten dan moet je dringend de Steam hardware stats bekijken:
https://store.steampowere...e-Survey-Welcome-to-Steam
Het valt alleen helemaal uit elkaar als je naar Navi 22 kijkt. 40CU's @2,5GHz zou neerkomen op 600MHz extra over de RX5700XT, ruim 30% dus. Dan nog de cache structuur die meer data op een lokaal niveau beschikbaar zou moeten maken zodat de GPU niet met datatekorten komt te zitten met zulke clock speeds. Je kijkt met een vergelijkbare, en dus geen verbeterde occupency van de CU's, al naar RTX2080S niveau of beter door die clock speeds. Immers zal je Navi 22 als 1440p chip moeten zien en daar was de RX5700XT ongeveer 20% langzamer dan de RTX2080S.XWB schreef op woensdag 7 oktober 2020 @ 16:31:
[...]
De 3080 was oorspronkelijk een GA104 chip, het is niet onbedenkelijk dat AMD daarop ingezet heeft.
Ik reken bewust al maanden niet op welke verbetering in architectuur dan ook en zelfs dan zie je al dat het goed mogelijk is voor Navi 22 om de RTX2080S te verslaan. Met verbeteringen in CU occupency ten opzichte van RDNA1, tja ruim RTX2080S en dan benader je de RTX2080Ti al. Vervolgens is Navi 21 tweemaal zo groot als Navi 22 en de volle GA102 is zelfs niet tweemaal zo groot als de volle GA104, laat staan de behoorlijk uitgeklede RTX3080. Ik verwacht voor Navi 21 niet dezelfde sprong in clock speeds of net zulke goede occupency als Navi 22 omdat dit altijd een probleem is met de grootste chips van beide kampen, juist door datatekorten, maar zelfs dan nog. Als laatste heb je de meest betrouwbare leakers die steeds hebben gezegd dat GA104 het moet opnemen tegen Navi 22 en GA102 tegen Navi 21.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Tja eerlijk gezegd ben ik tot nu toe niet echt onder de indruk van de 3080 en 3090. De claims in de presentatie van nVidia waren mooier dan in de reviews. Dus ja ze gebruiken een GA102 maar ook Samsung 8nm ipv de verwachte TSMC N7 of N7P.XWB schreef op woensdag 7 oktober 2020 @ 16:45:
[...]
Die halo claims dateren alweer van maanden geleden, toen was de 3080 nog een GA104 chip. Vanuit dat perspectief heeft AMD altijd de 3080 in het vizier gehad, alleen was het toen nog een andere chip en heeft Nvidia iedereen verrast door de GA102 last minute door te schuiven naar de 3080.
De 3080 is ook aardig cut down dus wellicht had AMD de prestaties 10% lager geschat misschien ook gelijk of zelfs hoger. Hard to say.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Het ligt wel in de lijn der verwachting dat nVidia de GA104 zou proberen te verkopen als een 3080, maar de +performance/Watt van RTX3080 en RTX3090 stelt zodanig teleur (+0-20% performance / Watt), dat het mij zou verbazen als AMD daar niet zwaar overheen gaat met de door AMD beweerde +50% performance / Watt.XWB schreef op woensdag 7 oktober 2020 @ 16:45:
[...]
Die halo claims dateren alweer van maanden geleden, toen was de 3080 nog een GA104 chip. Vanuit dat perspectief heeft AMD altijd de 3080 in het vizier gehad, alleen was het toen nog een andere chip en heeft Nvidia iedereen verrast door de GA102 last minute door te schuiven naar de 3080.
AIBs worden gewoon om de tuin geleid. Ze hebben geen echte info en denken daardoor dat nVidia aan het winnen is.
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
Maar 3070 / 3080 niveau (>= 2080 Ti) zou ik niet mid-range durven noemen. Die prestaties halen zou dus voldoende moeten zijn.Flying schreef op woensdag 7 oktober 2020 @ 16:55:
[...]
Ik doel erop dat ze nu niet weer moeten aankomen met een mid-range product. Mensen die mid-range willen, kiezen nVidia. Als je dat wil ontkrachten dan moet je dringend de Steam hardware stats bekijken:
https://store.steampowere...e-Survey-Welcome-to-Steam
Die mid-range markt waar de 1060 / 1660 / 2060 zit, is wel een veel grotere afzetmarkt. Daar valt voor AMD nog veel marktaandeel te halen, het lijkt mij dan ook belangrijk om een goed product voor die markt te hebben. Dat is met Polaris nooit gelukt, maar met Navi 23 zijn er nieuwe kansen.
Er zijn gewoon zoveel verschillende geruchten dat niemand het nog weet. Enerzijds zijn er zogenaamde claims van board partners dat Navi 21 ergens tussen de 3070 en 3080 zweeft, en anderzijds zijn er mensen die de performance proberen in te schatten op basis van die size en aantal CU's. En het loopt allemaal flink uiteenAstennu schreef op woensdag 7 oktober 2020 @ 14:58:
[...]
Ook Coreteks heeft al aangegeven dat hij het best ziet gebeuren dat die 2080Ti + 15% niet klopt en ze sneller zijn. Maar dat is wat zijn source zei.
Gezien de die size die hij heeft laten zien zou 2080Ti +15% een gigantische fail zijn en echt super super slecht. Dan is er echt iets mis met de chip als je met zo'n die size op N7P zulke slechte prestaties haalt.
Gezien de leaks van de laatste tijd zou het mij niets verbazen als ze zelfs een gooi naar de 3090 gaan doen qua prestaties.
Ik gok nog steeds op 3080 prestaties minimaal voor de top SKU maar begin voorzichtig ook te geloven dat 3090 prestaties wellicht ook niet te ver gegrepen zijn gezien de die size van de GPU en de gelekte informatie over de architectuur.
Er is best wel een verschil tussen 3070 (2080 Ti) en 3080 (2080Ti+40%). Als AMD wil "compete in the high-end", ben ik het met @XWB eens. 3080/3090 = de nieuwe high-end, of AMD dat nou target of niet.XWB schreef op woensdag 7 oktober 2020 @ 17:17:
[...]
Maar 3070 / 3080 niveau (>= 2080 Ti) zou ik niet mid-range durven noemen. Die prestaties halen zou dus voldoende moeten zijn.
Die mid-range markt waar de 1060 / 1660 / 2060 zit, is wel een veel grotere afzetmarkt. Daar valt voor AMD nog veel marktaandeel te halen, het lijkt mij dan ook belangrijk om een goed product voor die markt te hebben. Dat is met Polaris nooit gelukt, maar met Navi 23 zijn er nieuwe kansen.
AMD concurreert nu al op de 1060 / 1660 / 2060, RX 580 etc. verslaan ze, het probleem is juist dat ze de halo niet hebben. Waardoor inferieure performance / prijs kaarten van nVidia toch beter verkopen (in Steam surveys, e.d.).
kleine muisjes hebben grote wensjes: Beschuit Met Gestampte Mensjes
[ Voor 3% gewijzigd door M-spec op 07-10-2020 18:27 ]
R7 5800X3D | RTX 3090 | C6H X370 | Evolv customloop | PV: 8500Wp ; 24x LG Neon2 ; SMA STP 8.0 | Daikin EHVX 6kW | custom smart grid + EVSE
AMD Heeft aangegeven weer in de high end markt mee te willen doen. Imo is dat de 2070/3070 niet dat is toch echt 2080/2080Ti/3080 en hoger.sunsmountain schreef op woensdag 7 oktober 2020 @ 18:23:
[...]
Er is best wel een verschil tussen 3070 (2080 Ti) en 3080 (2080Ti+40%). Als AMD wil "compete in the high-end", ben ik het met @XWB eens. 3080/3090 = de nieuwe high-end, of AMD dat nou target of niet.
AMD concurreert nu al op de 1060 / 1660 / 2060, RX 580 etc. verslaan ze, het probleem is juist dat ze de halo niet hebben. Waardoor inferieure performance / prijs kaarten van nVidia toch beter verkopen (in Steam surveys, e.d.).
1650 is wat mij betreft low end en 1660 zit daar net wat boven
2060 en 2070 zitten in de midrange
2080 en 2080 Ti is high end
Titan is Enthousiast
Je zou kunnen zeggen dat de 2080 Ti daar ook zit dan zou 2070 ook high end zijn.
Echter haalde AMD die performance al met Vega en Navi 10
Dus return to the high end is dan toch echt concurreren met de x080 serie en hoger van nVidia.
Dus ik ga nog steeds voor minimaal +-3080 prestaties voor de top SKU.
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Die 3070 zit qua prestaties tussen de 2080 en 2080 Ti...Astennu schreef op woensdag 7 oktober 2020 @ 20:09:
[...]
AMD Heeft aangegeven weer in de high end markt mee te willen doen. Imo is dat de 2070/3070 niet dat is toch echt 2080/2080Ti/3080 en hoger.
Ik bedoel de segmenten.XWB schreef op woensdag 7 oktober 2020 @ 20:15:
[...]
Die 3070 zit qua prestaties tussen de 2080 en 2080 Ti...
Voor nVidia is
alles onder 50 low
50/60 mid
70/80 zou je kunnen zeggen high
80 Ti / 90 / Titan Enthousiast.
AMD kon prima mee komen met de 1070/1080
en de 2070 en 2070 Super
En ze hebben de laatste keer gezegd dat ze weer in het hogere segment willen mee doen dus 80 / 80 Ti en hoger. Dus dat is dan het design goal en niet een 3070 imo. Dan mik je veel te laag. Dan mik je op een eventuele 3080 Ti.
[ Voor 10% gewijzigd door Astennu op 07-10-2020 23:00 ]
LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....
Let op, dit topic is bedoeld om nieuws te bediscussiëren. Hieronder valt dus niet het praten over aankoopadvies, voedingen, levertijden e.d. Daar zijn eigen topics en subfora voor.