Acties:
  • +1 Henk 'm!

  • Duesenberg J
  • Registratie: April 2006
  • Laatst online: 09:35
Verwijderd schreef op maandag 27 mei 2019 @ 05:59:
[...]

Benchmark was 83 vs 95 voor resp. de 2070 en de 5070. En dit is nog een early stage version.
Nou ja, early stage... Als de kaart in juli al te koop is kan het haast niet anders dan dat dit erg dicht zit op wat je dan kan kopen.

Acties:
  • +1 Henk 'm!

Verwijderd

Duesenberg J schreef op maandag 27 mei 2019 @ 06:08:
[...]

Nou ja, early stage... Als de kaart in juli al te koop is kan het haast niet anders dan dat dit erg dicht zit op wat je dan kan kopen.
Ik denk dat het meer de drivers zijn. En AMD heeft ondertussen wel de reputatie dat ze nog een jaar na release nodig hebben om het meeste uit de nieuwe kaart te halen.

Acties:
  • 0 Henk 'm!

  • Duesenberg J
  • Registratie: April 2006
  • Laatst online: 09:35
Verwijderd schreef op maandag 27 mei 2019 @ 06:11:
[...]
Ik denk dat het meer de drivers zijn. En AMD heeft ondertussen wel de reputatie dat ze nog een jaar na release nodig hebben om het meeste uit de nieuwe kaart te halen.
Dat denk ik ook, dat ze voor release nog drivers willen verbeteren. Gezien Lisa Su nadruk legde op het woord 'preview'.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19-09 15:00

XanderDrake

Build the future!

Duesenberg J schreef op maandag 27 mei 2019 @ 04:50:
Computex keynote:
Navi = RX5000 series, RDNA architecture met nieuw CU design, dus niet GCN
1.25x perf per clock (tov vega?)
>=1.5 perf per Watt (tov vega?)
Details komen op 10 juni, beschikbaar in juli

Benchmark tov RTX2070, weet niet precies welke game game was Strange Brigade en kon fps niet lezen maar zag er vergelijkbaar uit.
Strange Brigade vind ik maar een vreemde (no pun intended) keuze voor deze vergelijking.
Is dit de RX480 launch voor deze generatie?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!
Het is geen GCN 6. *O* *O* *O*
Mijn vermoeden van maanden geleden dat het wat nieuws was, is correct. :D

Het enige dat hier telt is dat het geen GCN is. Eindelijk is de splitsing bij de RTG tussen een datacenter architectuur, Vega en een gaming architectuur in Navi. Waarschijnlijk klopt het dan ook dat Navi meer dan vier shader engines heeft en die stomme geometrie bottleneck is weg.

RDNA it is. Verschrikkelijke naam, maar zo lang het beter is dan GCN.
-Nieuwe CU ontwerp voor gaming.
-Efficiënter en meer instructies per clock. IPC voor GPU's is een beetje een vreemde term waardoor ik uitga van meer primitives per clock, a.k.a GCN haar gigantische bottleneck.
-Nieuwe cache hiërarchie voor betere efficiëntie, lagere latency's en minder geheugenbrandbreedte.
-Nieuwe grafische engine met hogere clockspeeds en betere perf/clock, primtives dus.
-Geen HBM2, GDDR6 dus.
-De chip is klein, ze willen het graag klein bij AND. Ik ook graag want goedkoper. :Y
-Release (7) juli.

[ Voor 6% gewijzigd door DaniëlWW2 op 02-06-2019 00:41 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sissors
  • Registratie: Mei 2005
  • Niet online
Verwijderd schreef op maandag 27 mei 2019 @ 06:11:
[...]
Ik denk dat het meer de drivers zijn. En AMD heeft ondertussen wel de reputatie dat ze nog een jaar na release nodig hebben om het meeste uit de nieuwe kaart te halen.
Aan de éne kant niet te ontkennen, aan de andere kant ook niet echt positief. En laten we wel wezen, ze hebben niet Strange Brigade uitgekozen omdat die de defacto standaard is voor benchmarking. Dus het zal wel één van degene zijn die beter presteert voor AMD, danwel waar Nvidia ook geen enkele driver optimalisatie tijd in heeft gestoken.

Dan is de vraag wat de efficientie gaat worden. Natuurlijk blijft het gokken met alleen paar marketing uitspraken van AMD, maar ik neem aan dat het vergelijken wordt met een Vega64, immers je wil niet keihard liegen, maar wel een grote sprong kunnen maken. Echter als ik dan de RTX2070 Tweakers review erbij haal (we zitten immers rond dat niveau), dan verbruikt een Vega64 70% meer * voor een 10% minder prestaties.

Oftewel een 1.5x betere performance per Watt is een stap in de goede richting, maar ik betwijfel of ze Nvidia ermee verslaan, ondanks dat het 7nm vs 12nm is.

* Voordat iemand over undervolten begint: AMD vergelijkt uiteraard met een stock Vega dan. Of je Navi veel kan undervolten is de vraag. Aan ene kant kan je zeggen dat het mooi is als dat mogelijk is, en je dan nog een stuk zuiniger uit komt, aan de andere kant betekent het dat ze weer hun zaakjes niet op orde hebben.

Acties:
  • 0 Henk 'm!

  • Tricolores
  • Registratie: Februari 2017
  • Laatst online: 20-09 13:30
Hmmmm.... Hoe zou de RX5000 reeks zich dan verhouden tot de VEGA56 en VEGA64?

Ryzen 7 9800X3D - Gigabyte X870E AORUS ELITE WIFI7 - G.Skill Flare X5 F5-6000 (32GB) - Sapphire Nitro+ RX9070XT


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Sissors schreef op maandag 27 mei 2019 @ 08:36:
[...]

Aan de éne kant niet te ontkennen, aan de andere kant ook niet echt positief. En laten we wel wezen, ze hebben niet Strange Brigade uitgekozen omdat die de defacto standaard is voor benchmarking. Dus het zal wel één van degene zijn die beter presteert voor AMD, danwel waar Nvidia ook geen enkele driver optimalisatie tijd in heeft gestoken.

Dan is de vraag wat de efficientie gaat worden. Natuurlijk blijft het gokken met alleen paar marketing uitspraken van AMD, maar ik neem aan dat het vergelijken wordt met een Vega64, immers je wil niet keihard liegen, maar wel een grote sprong kunnen maken. Echter als ik dan de RTX2070 Tweakers review erbij haal (we zitten immers rond dat niveau), dan verbruikt een Vega64 70% meer * voor een 10% minder prestaties.

Oftewel een 1.5x betere performance per Watt is een stap in de goede richting, maar ik betwijfel of ze Nvidia ermee verslaan, ondanks dat het 7nm vs 12nm is.

* Voordat iemand over undervolten begint: AMD vergelijkt uiteraard met een stock Vega dan. Of je Navi veel kan undervolten is de vraag. Aan ene kant kan je zeggen dat het mooi is als dat mogelijk is, en je dan nog een stuk zuiniger uit komt, aan de andere kant betekent het dat ze weer hun zaakjes niet op orde hebben.
Ik ga er niet vanuit dat ze nVidia gaan verslaan of matchen maar wel mooie stap in de goede richting.

Mijn zorg is meer dat ik las dat Lisa zie dat dit de architectuur voor het komende decennium is.

Dan mogen we hopen dat er wel wat rek in zit.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 14:22

vectormatic

Warlock of the doorlock

Tricolores schreef op maandag 27 mei 2019 @ 08:36:
Hmmmm.... Hoe zou de RX5000 reeks zich dan verhouden tot de VEGA56 en VEGA64?
Even wat natte vinger werk, een 2070 is ruwweg gelijk aan een 1080 en een V64, dus deze 5700 valt ruwweg in dezelfde zone, waarschijnlijk single digit percentages sneller dan V64, maar dan theoretisch op 200w TDP ipv 300w.

Ben zelf vooral benieuwd naar de prijs, en wanneer de lagere navi chips komen, hoewel 1.5x de perf/watt me een tikje tegenvalt, had gehoopt op een RX570-equivalent onder de 75w, maar zelfs een 470 zou op 80w uitkomen als je zo schaalt. Either way, 1.5x de performance van mijn RX560d betekent wel een rock solid 60 FPS in DooM voor maar 45w, das dan wel weer lekker. (als ze die kaart maken)

Ben ik trouwens de enige die bij RX5000 (en RX5700) heel erg moet denken aan de FX5000 serie van nvidia destijds? Niet zon heel gelukkige keuze wat mij betreft, ik weet niet of ik mijn weerzin opzij kan zetten om een RX5500/RX5600 te kopen :P

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!
vectormatic schreef op maandag 27 mei 2019 @ 08:48:
[...]


Even wat natte vinger werk, een 2070 is ruwweg gelijk aan een 1080 en een V64, dus deze 5700 valt ruwweg in dezelfde zone, waarschijnlijk single digit percentages sneller dan V64, maar dan theoretisch op 200w TDP ipv 300w.

Ben zelf vooral benieuwd naar de prijs, en wanneer de lagere navi chips komen, hoewel 1.5x de perf/watt me een tikje tegenvalt, had gehoopt op een RX570-equivalent onder de 75w, maar zelfs een 470 zou op 80w uitkomen als je zo schaalt. Either way, 1.5x de performance van mijn RX560d betekent wel een rock solid 60 FPS in DooM voor maar 45w, das dan wel weer lekker. (als ze die kaart maken)

Ben ik trouwens de enige die bij RX5000 (en RX5700) heel erg moet denken aan de FX5000 serie van nvidia destijds? Niet zon heel gelukkige keuze wat mij betreft, ik weet niet of ik mijn weerzin opzij kan zetten om een RX5500/RX5600 te kopen :P
Een RTX2070 is wel wat sneller dan een GTX1080. Een Vega 64 is all over the place tussen die twee of langzamer dan beiden. De vergelijking zegt dus weinig. Verder halen Vega 64's in principe niet eens een dergelijke TDP. Maximale powerlimiet op een Vega 64 met het turboprofiel is 253W. Standaardprofiel is 220W en dat is wat de meeste mensen zullen gebruiken die niet undervolten. De powerdraw van Vega's wordt belachelijk overdreven.

Vervolgens gaat AMD zoals altijd al hun efficiëntie gewoon in performance gooien. Ik reken dan ook op 200W ish voor een RTX2070 concurrent. Verder denk niet aan Nvidia FX5000. Nee, denk aan glorieuze HD5000. Dat was mijn eerste gedachte. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 14:22

vectormatic

Warlock of the doorlock

@DaniëlWW2

Check, ik ging even uit van de 295w TDP die op wikipedia staat voor de V64, en kwa performance.. Ik gooi tegenwoordig alles wat binnen pakweg 10% van elkaar zit gewoon op de grote hoop, vaak merk je het verschil toch niet tenzij je heel intens naar je FPS monitor zit te staren, en is het ook wel te compenseren door een paar settings te laten zakken.

Wat efficiency betreft trouwens, hebben ze die 1.5x berekend tov polaris of vega? (en wat is het verschil tussen die twee?) Ben ook zeer benieuwd of ze navi ook standaard met een flinke overvolt gaan leveren..

HD5000, tja, weinig van meegekregen, mn ex had destijds een HD4670, zelf ben ik na de GTX260 een tijdje PC-land uit geweest.

Overigens, juli een 2070 beater, dan gok ik vrij snel daarna een RX5600 oid (cut down van de 5700), maar dan wordt een low end kaartje (denk RX560 vervanger) hoe dan ook niet voor pakweg oktober, neem de release cadans van ubuntu mee, het feit dat een nieuwe uArch misschien ook wel betekent dat de drivers in het begin niet zo mature zijn als gewoon GCN x.0, en dan zit ik toch nog wel een jaartje te wachten op een sub 75w navi en fatsoenlijke drivers support.
Misschien dan toch maar eens naar een RX570 kijken en die een tikje undervolten/clocken.

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!
vectormatic schreef op maandag 27 mei 2019 @ 09:16:
@DaniëlWW2

Check, ik ging even uit van de 295w TDP die op wikipedia staat voor de V64, en kwa performance.. Ik gooi tegenwoordig alles wat binnen pakweg 10% van elkaar zit gewoon op de grote hoop, vaak merk je het verschil toch niet tenzij je heel intens naar je FPS monitor zit te staren, en is het ook wel te compenseren door een paar settings te laten zakken.
Ik begrijp nog steeds niet waarom Vega zo'n belachelijke TDP rating heeft. Het is totaal excessief. Alleen de Vega liquid gaat net over de 300W, maar die is ook sneller. Verder is 10% wel relevant als je moet gaan vergelijken met perf/watt en procentuele verschillen. Overigens denk ik dat het in de praktijk eerder RTX2070 dan sneller omdat Strange Brigade uiteraard AMD biased is. ;)
Wat efficiency betreft trouwens, hebben ze die 1.5x berekend tov polaris of vega? (en wat is het verschil tussen die twee?) Ben ook zeer benieuwd of ze navi ook standaard met een flinke overvolt gaan leveren..
Geen idee. Het kan ook nog eens vanuit shader engine perspectief zijn geweest. Dus RDNA shader engine is zoveel efficiënter. Gewoon afwachten. Verder hoop ik echt niet op weer een flinke overvolt. Ik hoop ook niet dat ze dit hoeven te doen aangezien ze focussen op de RTX2070.
HD5000, tja, weinig van meegekregen, mn ex had destijds een HD4670, zelf ben ik na de GTX260 een tijdje PC-land uit geweest.

Overigens, juli een 2070 beater, dan gok ik vrij snel daarna een RX5600 oid (cut down van de 5700), maar dan wordt een low end kaartje (denk RX560 vervanger) hoe dan ook niet voor pakweg oktober, neem de release cadans van ubuntu mee, het feit dat een nieuwe uArch misschien ook wel betekent dat de drivers in het begin niet zo mature zijn als gewoon GCN x.0, en dan zit ik toch nog wel een jaartje te wachten op een sub 75w navi en fatsoenlijke drivers support.
Misschien dan toch maar eens naar een RX570 kijken en die een tikje undervolten/clocken.
Tja, dit is waarschijnlijk Navi 10. Er zou ook een Navi 12 zijn en dat is waarschijnlijk eerder een RX5600. Geen flauw idee of die later gaat zijn. Ook hoop ik niet dat we weer "finewine" krijgen. Gewoon presteren zou eens leuk zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Tricolores
  • Registratie: Februari 2017
  • Laatst online: 20-09 13:30
DaniëlWW2 schreef op maandag 27 mei 2019 @ 09:05:
[...]

Een RTX2070 is wel wat sneller dan een GTX1080. Een Vega 64 is all over the place tussen die twee of langzamer dan beiden. De vergelijking zegt dus weinig. Verder halen Vega 64's in principe niet eens een dergelijke TDP. Maximale powerlimiet op een Vega 64 met het turboprofiel is 253W. Standaardprofiel is 220W en dat is wat de meeste mensen zullen gebruiken die niet undervolten. De powerdraw van Vega's wordt belachelijk overdreven.

Vervolgens gaat AMD zoals altijd al hun efficiëntie gewoon in performance gooien. Ik reken dan ook op 200W ish voor een RTX2070 concurrent. Verder denk niet aan Nvidia FX5000. Nee, denk aan glorieuze HD5000. Dat was mijn eerste gedachte. ;)
Mijn vraag was vooral of het waard gaat zijn up te graden voor mensen die nu een VEGA56 of 64 bezitten :)

Ryzen 7 9800X3D - Gigabyte X870E AORUS ELITE WIFI7 - G.Skill Flare X5 F5-6000 (32GB) - Sapphire Nitro+ RX9070XT


Acties:
  • 0 Henk 'm!
Tricolores schreef op maandag 27 mei 2019 @ 09:57:
[...]

Mijn vraag was vooral of het waard gaat zijn up te graden voor mensen die nu een VEGA56 of 64 bezitten :)
En daar gaf ik geen antwoord op. :P
Maar ik denk het niet echt voor de meeste mensen. Voor mij wel want mijn RX Vega 56 is denk ik terminaal. Witte artifacts, zwarte artifacts, paarse vlakken, zwarte vlakken, ik heb het allemaal. Ik ga dus meteen voor een Navi, maar met een Vega hoeft het denk ik niet. Kan je beter volgend jaar kijken of er dan wat beters is. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Beaudog
  • Registratie: Augustus 2015
  • Laatst online: 20-09 17:54
Ik ga zeker voor Navi al is het alleen al voor de nieuwere techniek dan gaat de 64 eruit .

Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 14:22

vectormatic

Warlock of the doorlock

Tricolores schreef op maandag 27 mei 2019 @ 09:57:
[...]

Mijn vraag was vooral of het waard gaat zijn up te graden voor mensen die nu een VEGA56 of 64 bezitten :)
Zal een vooral aan de prijs (en de 2e hands prijs voor je Vega) liggen, en of dat verschil het waard is om ~100W aan stroomverbruik te schrappen.

Of Navi moet ineens blijken te overklokken als een malle..

Volgens mij was het al best een tijdje duidelijk dat Navi de RVII niet van de troon ging stoten of direct beconcurreren, dus puur kwa performance hadden we al een tijdje genoeg indicatie dat voor een V64 bezitter Navi weinig zou gaan bieden.

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!
Tricolores schreef op maandag 27 mei 2019 @ 09:57:
[...]

Mijn vraag was vooral of het waard gaat zijn up te graden voor mensen die nu een VEGA56 of 64 bezitten :)
In de eerste instantie denk ik niet. AMD komt eerst met opvolgers voor de RX570 tm Vega 64. Mijn vermoeden is dat Radeon VII voorlopig de snelste kaart van AMD zal blijven. En dat de snelste Navi 10 Vega 64+ een beetje is. Gezien de 5700 de RTX 2070 aan kan lijkt dat stuk te kloppen. Nu is alleen de vraag was de 5700 de snelste Navi 10 varriant of is er nog een die sneller is. Want als er ook nog een 5800 kan komen kunnen ze de Radeon VII mogelijk ook al vervangen.

Navi 20 (De grote chip) gaat denk ik later komen denk pas volgend jaar maar who knows doen ze dat dit jaar nog (al verwacht ik dat niet)

That said als het V64 + een beetje is is het maar de vraag of het nuttige is om te upgraden. Ik denk van niet tenzij je een zuinige kaart belangrijk vind. Voor mensen met een RX470tm590 kan het wel interessant zijn.

Maar we moeten dus even afwachten of de 5700 de snelste is. Want als er ook nog een snellere 5800 komt die de RTX2080 en dus Radeon VII aan kan dan is het wel interessant om te upgraden.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op maandag 27 mei 2019 @ 08:31:
Het is geen GCN 7. *O* *O* *O*
Mijn vermoeden van maanden geleden dat het wat nieuws was, is correct. :D

Het enige dat hier telt is dat het geen GCN is. Eindelijk is de splitsing bij de RTG tussen een datacenter architectuur, Vega en een gaming architectuur in Navi. Waarschijnlijk klopt het dan ook dat Navi meer dan vier shader engines heeft en die stomme geometrie bottleneck is weg.

RDNA is is. Verschrikkelijke naam, maar zo lang het beter is dan GCN.
-Nieuwe CU ontwerp voor gaming.
-Efficiënter en meer instructies per clock. IPC voor GPU's is een beetje een vreemde term waardoor ik uitga van meer primitives per clock, a.k.a GCN haar gigantische bottleneck.
-Nieuwe cache hiërarchie voor betere efficiëntie, lagere latency's en minder geheugenbrandbreedte.
-Nieuwe grafische engine met hogere clockspeeds en betere perf/clock, primtives dus.
-Geen HBM2, GDDR6 dus.
-De chip is klein, ze willen het graag klein. Ik ook graag. :Y
-Release (7) juli.
Ik had het inderdaad niet durven hopen maar inderdaad! goed om te horen dat ze dus toch de boel om gegooid hebben. Nu is het de vraag hoe van the ground up is het. Is het nog steeds GCN backward compatible (verwacht het wel gezien de consoles).
Ik ben heel benieuwd naar de details de 10e zouden ze volgens mij wat meer gaan vertellen. Maar dit bied wel mogelijkheden om de 2080 Ti te gaan verslaan met een grote versie van Navi!

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op maandag 27 mei 2019 @ 11:00:
[...]


Ik had het inderdaad niet durven hopen maar inderdaad! goed om te horen dat ze dus toch de boel om gegooid hebben. Nu is het de vraag hoe van the ground up is het. Is het nog steeds GCN backward compatible (verwacht het wel gezien de consoles).
Ik ben heel benieuwd naar de details de 10e zouden ze volgens mij wat meer gaan vertellen. Maar dit bied wel mogelijkheden om de 2080 Ti te gaan verslaan met een grote versie van Navi!
Ik denk dat het nog steeds een GCN ISA is, maar niet meer de GCN chiparchitectuur. Meer hoeft denk ik ook niet. Vanuit de softwarekant veranderd er dan ook weinig of niks, maar de chiparchitectuur zou veel efficiënter moeten zijn in geometrie zonder zaken zoals FP16 of de uitstekende compute focus te verliezen. Een gaming GCN is het dan, iets waar we eigenlijk al sinds Hawaï weer op wachten en zelfs Hawaï was niet echt een gaming focused GCN. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op maandag 27 mei 2019 @ 11:05:
[...]


Ik denk dat het nog steeds een GCN ISA is, maar niet meer de GCN chiparchitectuur. Meer hoeft denk ik ook niet. Vanuit de softwarekant veranderd er dan ook weinig of niks, maar de chiparchitectuur zou veel efficiënter moeten zijn in geometrie zonder zaken zoals FP16 of de uitstekende compute focus te verliezen. Een gaming GCN is het dan, iets waar we eigenlijk al sinds Hawaï weer op wachten en zelfs Hawaï was niet echt een gaming focused GCN. :)
Nee klopt heel GCN was niet echt een gaming Focus. Het was echt vanaf het begin een hybrid architectuur gericht op gaming en ook zwaar op compute. Bij Hawai werdt dat inderdaad extra duidelijk.

FP16 blijft zeker interessant nu meer games en ook architecturen van nVidia het ondersteuenen. Vega was zijn tijd hier vooruit. Maar BV FP64 heb je totaal niet nodig en zo zullen er nog wel meer dingen zijn die ze er uit kunnen slopen.

Ik ben benieuwd of we nu inderdaad 8 compute engines gaan zien en hoe de opbouw dan is. Voorheen was het bv 1 geometry unit per shader engine wellicht kunnen dat er nu meer worden en zo niet is het al wel een verdubbeling tov de laatste GCN design's.
Daarnaast vraag ik mij ook af of het ook meer dan 8 compute engines kan worden en hoeveel CU's er per compute engine aan kunnen (kortom hoe scalable is het al we richting 5 en 3nm gaan).
Interesting times!!

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Een ding zit mij nog dwars. Waarom is het een RX5700? Het is nu al bijna twee decennia zo dat de 7 staat voor de een na hoogste SKU. De 8 is de snelste en 9 is gereserveerd voor extreme uitschieters. Dit geld voor zowel Nvidia als AMD. Is die RX5700 wel de volledige Navi 10 chip? Is het zelf wel de Navi 10 chip en niet een kleinere Navi chip?

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Update van anandtech geschatte die size van de Navi chip die ze hebben laten zien is 275mm2. (Vega20 was 331 op 7nm)
DaniëlWW2 schreef op maandag 27 mei 2019 @ 14:08:
Een ding zit mij nog dwars. Waarom is het een RX5700? Het is nu al bijna twee decennia zo dat de 7 staat voor de een na hoogste SKU. De 8 is de snelste en 9 is gereserveerd voor extreme uitschieters. Dit geld voor zowel Nvidia als AMD. Is die RX5700 wel de volledige Navi 10 chip? Is het zelf wel de Navi 10 chip en niet een kleinere Navi chip?
Ik vraag mij dat ook af. Ik heb het gevoel dat er misschien nog een Navi 10 based 5800 komt.
Of ze bewaren die voor Navi 20.

Maar gezien de prestaties van V64 in strange brigade hoop ik toch op een 5800. Dan zouden ze Radeon VII ook meteen met pensooen kunnen sturen want die heeft dan weinig meerwaarde.

[ Voor 76% gewijzigd door Astennu op 27-05-2019 14:10 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op maandag 27 mei 2019 @ 14:08:
Update van anandtech geschatte die size van de Navi chip die ze hebben laten zien is 275mm2. (Vega20 was 331 op 7nm)

Ik vraag mij dat ook af. Ik heb het gevoel dat er misschien nog een Navi 10 based 5800 komt.
Of ze bewaren die voor Navi 20.

Maar gezien de prestaties van V64 in strange brigade hoop ik toch op een 5800. Dan zouden ze Radeon VII ook meteen met pensooen kunnen sturen want die heeft dan weinig meerwaarde.
Daar hoop ik ook op. Een RX5800 die tegen de Radeon VII/GTX1080Ti/RTX2080 aanzit zou voor mij welkom zijn ter vervanging van mijn stervende Vega 56. Eigenlijk wil ik niet puur op prestaties vervangen maar ook een klein sprongetje maken, maar als het moet dan doe ik het. :)

Eigenlijk is Navi veel interessanter geworden dan Ryzen 3000. Heerlijk dat mijn vermoeden van maanden geleden dat het geen GCN meer was gewoon klopte. Praise Raja Koduri want Navi zal vanaf de grond af ontwikkeld zijn onder zijn leiderschap. :*)

[ Voor 4% gewijzigd door DaniëlWW2 op 27-05-2019 14:19 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op maandag 27 mei 2019 @ 14:18:
[...]


Daar hoop ik ook op. Een RX5800 die tegen de Radeon VII/GTX1080Ti/RTX2080 aanzit zou voor mij welkom zijn ter vervanging van mijn stervende Vega 56. Eigenlijk wil ik niet puur op prestaties vervangen maar ook een klein sprongetje maken, maar als het moet dan doe ik het. :)

Eigenlijk is Navi veel interessanter geworden dan Ryzen 3000. Heerlijk dat mijn vermoeden van maanden geleden dat het geen GCN meer was gewoon klopte. Praise Raja Koduri want Navi zal vanaf de grond af ontwikkeld zijn onder zijn leiderschap. :*)
Navi was inderdaad zijn project dus ik ben heel benieuwd wat het geworden is.

Ik vind beide eigenlijk even interessant. Zen2 is ook heel belangrijk voor AMD. En voor mij komt Ryzen eindelijk op een punt dat mijn Intel er uit kan. (speel te veel oude games die van IPC en hoge clocks houden en waar mijn 8600K @5.1 veel sneller is dan de Ryzen 2600X van mijn broer ook duidelijk merkbaar in fps)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

DaniëlWW2 schreef op maandag 27 mei 2019 @ 14:18:
[...]


Daar hoop ik ook op. Een RX5800 die tegen de Radeon VII/GTX1080Ti/RTX2080 aanzit zou voor mij welkom zijn ter vervanging van mijn stervende Vega 56. Eigenlijk wil ik niet puur op prestaties vervangen maar ook een klein sprongetje maken, maar als het moet dan doe ik het. :)

Eigenlijk is Navi veel interessanter geworden dan Ryzen 3000. Heerlijk dat mijn vermoeden van maanden geleden dat het geen GCN meer was gewoon klopte. Praise Raja Koduri want Navi zal vanaf de grond af ontwikkeld zijn onder zijn leiderschap. :*)
Vind het allebei interessant. Hopelijk hebben ze genoeg tijd genomen om deze nieuwe GPU architectuur te ontwerpen. Hopelijk komt het niet te vroeg.

Voor Ryzen ben ik gewoon heel benieuwd hoe die chiplet architectuur in de praktijk gaat uitwerken. Latency's, communicatie tussen de chips etc.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 20-09 03:46

ZenTex

Doet maar wat.

DaniëlWW2 schreef op maandag 27 mei 2019 @ 14:18:
[...]


Eigenlijk is Navi veel interessanter geworden dan Ryzen 3000. Heerlijk dat mijn vermoeden van maanden geleden dat het geen GCN meer was gewoon klopte. Praise Raja Koduri want Navi zal vanaf de grond af ontwikkeld zijn onder zijn leiderschap. :*)
Is RDNA eigenlijk weleen geheel nieuwe architectuur? Het komt bij mij eerder over als een soort GCN plus waarbij de ergste bottlenecks gefixt zijn dmv redelijk ingrijpende hardware aanpassingen, maar niet iets compleet nieuws.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

ZenTex schreef op maandag 27 mei 2019 @ 14:36:
[...]


Is RDNA eigenlijk weleen geheel nieuwe architectuur? Het komt bij mij eerder over als een soort GCN plus waarbij de ergste bottlenecks gefixt zijn dmv redelijk ingrijpende hardware aanpassingen, maar niet iets compleet nieuws.
Ja vraag ik me ook af. Komt bij mij ook over als quick fix.

[ Voor 4% gewijzigd door Help!!!! op 27-05-2019 14:40 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
DaniëlWW2 schreef op maandag 27 mei 2019 @ 08:31:
RDNA it is. Verschrikkelijke naam, maar zo lang het beter is dan GCN.
-Nieuwe CU ontwerp voor gaming.
-Efficiënter en meer instructies per clock. IPC voor GPU's is een beetje een vreemde term waardoor ik uitga van meer primitives per clock, a.k.a GCN haar gigantische bottleneck.
-Nieuwe cache hiërarchie voor betere efficiëntie, lagere latency's en minder geheugenbrandbreedte.
-Nieuwe grafische engine met hogere clockspeeds en betere perf/clock, primtives dus.
-Geen HBM2, GDDR6 dus.
-De chip is klein, ze willen het graag klein bij AND. Ik ook graag want goedkoper. :Y
-Release (7) juli.
Aangezien Navi al vier jaar of langer op de roadmap staat, mag het ook wel een nieuw architectuur zijn. Je zou bijna afvragen wat AMD anders gedaan heeft gedurende die jaren.

Is RX 5700 nou de Navi 10 waar het al maandenlang over gaat, of wordt dit het snelste model?

March of the Eagles


Acties:
  • +1 Henk 'm!
ZenTex schreef op maandag 27 mei 2019 @ 14:36:
[...]


Is RDNA eigenlijk weleen geheel nieuwe architectuur? Het komt bij mij eerder over als een soort GCN plus waarbij de ergste bottlenecks gefixt zijn dmv redelijk ingrijpende hardware aanpassingen, maar niet iets compleet nieuws.
Lisa Su zei geheel nieuwe architectuur. Ik ga voor het gemak even uit dat de CEO van AMD gelijk heeft. :P
Maar zelfs als ze het CU ontwerp van Vega over hebben gedragen alsmede wat andere dingen, dan valt er alsnog dusdanig veel te veranderen dat het geen GCN architectuur meer is. De kern van GCN architectuur was namelijk een primitive per clock per shader engine samen met een zeer zware compute focus door middel van veel CU's per shader engine. Daadwerkelijk objecten creëren uit 2D lijntjes was gewoon zwak en dat zullen ze nu hoe dan ook aanpakken. Dat is ook het enige dat je echt moet interesseren als gamer.


@Astennu @Help!!!! Tja ik zit nog op een 1700. Mijn interesse in Ryzen 3000 is meer om mijn zeer slechte doordachte upgrade pad te repareren. :P

Van 1080/75Hz met die 1700 naar 1080/144Hz gegaan en een Vega erbij. Ik creëerde dus zelf een CPU bottleneck. Rond de 1700 wou ik ook perse een heel klein beetje besparen op RAM en moederbord en inmiddels beiden ook vervangen. Dat schuif ik goedkoop door naar mijn moeder die ook wanhopig wat nieuws nodig heeft.

Verder is Ryzen 3000 voor mij een beetje bekende kwaliteit. Ongeveer Skylake 5GHz performance op AM4. Dat is wat ik wil, dat is wat ik nodig heb en daar ben ik tevreden mee omdat ik dit nu krijg. De details interesseren me zeker, maar de prestaties zijn eigenlijk al sinds januari bekend door CES demo's.


Nee, Navi trekt veel meer interesse juist omdat we tot een paar dagen geleden eigenlijk niks echt wisten. De hoop dat het geen GCN was, was bij mij ook al vervlogen en toen opeens bleek het de nieuwe architectuur te zijn waar we al vijf jaar op wachten. Al sinds Maxwell heeft AMD dit nodig en Navi zal ontwikkeld zijn in reactie op wat Nvidia met Maxwell bereikte. Het cirkeltje is rond want Maxwell zal ontwikkeld zijn in reactie op de successen van TeraScale. Zo lang is de aanlooptijd voor een nieuwe architectuur wel.

Ik ben gewoon hartstikke benieuwd wat RDNA nu gaat bieden. Krijgen we eindelijk een meer gelijkwaardige prestaties in plaats van de zoveelste slecht geoptimaliseerde game die extreem slecht draait op AMD en gewoon slecht op Nvidia? Kunnen we nu eindelijk weer eens 8xMSAA draaien zonder gigantische prestatie hits? Is GameWorks definitief verslagen omdat RDNA geen geometrie zwaktes meer heeft die Nvidia misbruikt? Is de boel eens efficiënt zodat we budgetmodellen kunnen halen zonder dat het luidruchtige heethoofden zijn? Krijgen we eindelijk eens AIB kaarten van andere merken dan Sapphire die niet matig tot ronduit slecht zijn?

Dan qua architectuur ben ik zeer benieuwd wat AMD allemaal heeft veranderd. Ik ga er van uit dat de GCN ISA blijft waardoor DX12/Vulkan goed zullen blijven presteren. Maar gaan we nu een nog veel grotere sprong zien omdat geometrie beter zal worden? Verder hoe schaalt RDNA? Hoeveel shader engines?

Als laatste natuurlijk voor mij de vraag wat gaat Navi over Vega bieden. Ik zal bij release meteen Navi halen als er AIB kaarten zijn. Ik kan niet lang wachten want de artifacts die mijn Vega geven zijn soms niet mals. Ik durf sommige games niet eens meer op te starten. Er crasht eigenlijk zelden wat, maar je schrikt wel elke keer. :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Astennu schreef op maandag 27 mei 2019 @ 11:00:
[...]

Maar dit bied wel mogelijkheden om de 2080 Ti te gaan verslaan met een grote versie van Navi!
Als er een grotere versie komt. Het is nu niet duidelijk of RX 5700 de snelste variant is.

Er moet haast wel rek in zitten. Aangezien Navi een nieuw architectuur is, zal het ook moeten opboksen tegen toekomstige Nvidia producten. Dan moet er toch meer inzitten dan RTX 2070 prestaties?

March of the Eagles


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 15:19
Misschien gaan ze weer met Pro en/of XT werken? Dus een RX 5700 en RX 5700 Pro. Dan kunnen er nog vier chips boven gepositioneerd worden (5800/5800 Pro, 5900/5900 Pro).

[ Voor 10% gewijzigd door NitroX infinity op 27-05-2019 15:46 ]

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Astennu schreef op maandag 27 mei 2019 @ 14:08:
Update van anandtech geschatte die size van de Navi chip die ze hebben laten zien is 275mm2. (Vega20 was 331 op 7nm)
En dan de chip in kwestie:

Afbeeldingslocatie: https://i.imgur.com/iRZHY3Uh.jpg
https://www.anandtech.com...-in-july-25-improved-perf

March of the Eagles


Acties:
  • +1 Henk 'm!
Ryan Smith (Anandtech) heldert ook weer wat zaken op. Navi is dus 64SP's per CU net zoals GCN. Verder zou de RDNA architectuur ervoor zorgen dat een Navi voor hetzelfde aantal CU's, gemiddeld 25% per clock sneller is. Dat over 30 games op 4K/60Hz ultra met 4xMSAA, keiharde GPU bottleneck dus. Verder is de perf/watt winst van 1,5x gebaseerd op de node en architectuur. :)






Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 20-09 03:46

ZenTex

Doet maar wat.

Ald RDNA dan inderdaad een compleet van de grond af ontworpen architectuur is ipv een CGN upgrade, dan kunnen we toch zeker flinke winst in prestaties verwachten door optimalisaties in de hardware en drivers in de komende 1 a 2 jaar? Tenminste, dat hoop ik vurig.

Enfin, ik wacht met smart op concrete cijfers over vooral power consumptie en natuurlijk vooral prijs.

Achteraf kunnen de eerder gelekte prijzen best wel eens kloppen, yields van een nieuwe architectuur willen nog wel eens tegenvallen (hallo nVidia) ondanks een kleinere node.

Maar al met al verwacht ik niet dat Navi nVidia van de troon zal stoten qua prestaties. Hoeft ook niet, ik ben het bang for buck type, maar het zou wel mooi zijn voor een gezonde markt.

Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 15:19
https://www.reddit.com/r/...navi_pcb_that_was_leaked/
Since Anandtech had the photo (https://images.anandtech.com/doci/14412/NaviBack_575px.jpg) of the underside of the Navi GPU, I counted the pins and saw it basically matched the BGA pinout on the Navi PCB that was leaked few weeks ago

Using PCIe connector as base, I got the die size of roughly 252mm2

14mm*18mm is what I got from this Navi implementation, which is significantly smaller then Vega 20 (331mm2 )



Nog wat speculaas van mijn kant;

Met 25% betere ipc en waarschijnlijk ook zo'n 25% hogere kloksnelheden, denk ik dat de 75W kaart een gpu gaat hebben met zo'n 1536 shaders om rond het niveau van de RX 580 te zitten. En ik denk dat die zo rond dezelfde oppervlakte als de RX 560 zal zitten (~120mm²)

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 14:22

vectormatic

Warlock of the doorlock

NitroX infinity schreef op maandag 27 mei 2019 @ 21:52:
https://www.reddit.com/r/...navi_pcb_that_was_leaked/


[...]





Nog wat speculaas van mijn kant;

Met 25% betere ipc en waarschijnlijk ook zo'n 25% hogere kloksnelheden, denk ik dat de 75W kaart een gpu gaat hebben met zo'n 1536 shaders om rond het niveau van de RX 580 te zitten. En ik denk dat die zo rond dezelfde oppervlakte als de RX 560 zal zitten (~120mm²)
ik denk dat je kwa shaders/die size redelijk in de goede richting zit. Echter kan ik "50% more efficiency" niet rijmen met 580 performance <75w. Als je de 120w TDP van een 470 pakt kom je nog op 80w uit met die 50% efficiency winst.

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 15:19
vectormatic schreef op dinsdag 28 mei 2019 @ 09:58:
[...]


ik denk dat je kwa shaders/die size redelijk in de goede richting zit. Echter kan ik "50% more efficiency" niet rijmen met 580 performance <75w. Als je de 120w TDP van een 470 pakt kom je nog op 80w uit met die 50% efficiency winst.
50% van 120W is 60W. Je rekent volgens mij de verkeerde kant op ;)

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • vectormatic
  • Registratie: Maart 2009
  • Laatst online: 14:22

vectormatic

Warlock of the doorlock

NitroX infinity schreef op dinsdag 28 mei 2019 @ 10:45:
[...]

50% van 120W is 60W. Je rekent volgens mij de verkeerde kant op ;)
Mja, ligt er inderdaad aan hoe je rekent, als je denkt dat een hypothetische 80w navi 50% meer kan doen heb je dus een 120w polaris aan performance.

Master of the allen wrench Riding a mighty lawnmower for revenge In the realm of the screws he's the king And Lord of the Towel Rings


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 15:19
Ja maar we gaan niet van Navi naar Polaris. We gaan van Polaris naar Navi en daarom is het 50% van Polaris (en niet 150% van Navi).

[ Voor 10% gewijzigd door NitroX infinity op 28-05-2019 11:10 ]

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!
XWB schreef op maandag 27 mei 2019 @ 15:42:
[...]


Als er een grotere versie komt. Het is nu niet duidelijk of RX 5700 de snelste variant is.

Er moet haast wel rek in zitten. Aangezien Navi een nieuw architectuur is, zal het ook moeten opboksen tegen toekomstige Nvidia producten. Dan moet er toch meer inzitten dan RTX 2070 prestaties?
Er gaan genoeg geruchten in de ronde Over Navi 10, 12 en 20.
Met een nieuwe architectuur is de 4096 shaders met 4 shader engines limit ook weg en kunnen ze breeder dan Vega 10/20. Dat zullen ze ook echt wel gaan doen.

Maar de eerste Navi chip is een vervanger voor de Polaris lineup.

Ik neem aan dat ze die architectuur zo gemaakt hebben dat ze het ook kunnen opnemen tegen een RTX 3080/Ti want je weet eigenlijk nu al ongeveer hoeveel sneller die kan zijn gezien nVidia's track reccord. (dan kan je in ieder geval een aardige inschatting maken)
3080 Ti performance hoeft voor mij niet perse maar 2080 Ti + zou wel leuk zijn als ze dat kunnen halen.
Maar goed dat zien we volgend jaar pas.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • jeroentje93
  • Registratie: December 2012
  • Laatst online: 05-09 11:17
Radeon RX 5000 ‘Navi GPU’ First Details Unveiled – Two SKUs With 180W and 150W TDPs:

https://wccftech.com/amd-...rock-two-variants-report/

Twee versies zijn al bekend, AMD heeft de 180W versie getoont die de 2070 "verslaat" met 10%

Acties:
  • +1 Henk 'm!
jeroentje93 schreef op dinsdag 28 mei 2019 @ 11:50:
Radeon RX 5000 ‘Navi GPU’ First Details Unveiled – Two SKUs With 180W and 150W TDPs:

https://wccftech.com/amd-...rock-two-variants-report/

Twee versies zijn al bekend, AMD heeft de 180W versie getoont die de 2070 "verslaat" met 10%
Veel belangrijker is dat er zes weken voor launch al AIB kaarten opduiken. Eindelijk niet meer die bucking waardeloze blower koelers bij launch. Navi wordt zo met de dag beter. :*)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 15:19
Ik verwacht dan dat die 150Watter zo rond de prestaties van een RTX 2060 zal zitten.

De kleinere Navi's zullen dan waarschijnlijk rond GTX 1660 en RX 570 prestaties zitten.

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • jeroentje93
  • Registratie: December 2012
  • Laatst online: 05-09 11:17
Ik ben benieuwd of AMD zelf nog reference kaarten uitbrengt? zeker wat Daniël zegt dat zes weken voor tijd al custom kaarten gezien zijn.

Ook gok ik inderdaad dat de 150W 2060 tegenhanger is, misschien nog wel een 2060Ti (als die wordt uitgebracht) want ik vind het wattage verschil best wel klein.

Waar ik ook benieuwd naar ben is wat er gebeurd als ze de Navi op 250-300 watt (dus rond de vega 56-64) zetten, zal die dan vooral inefficient zijn? of zou het een 2080 tegenhanger kunnen worden

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Videocardz zegt 225w en 180w.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op dinsdag 28 mei 2019 @ 11:55:
[...]


Veel belangrijker is dat er zes weken voor launch al AIB kaarten opduiken. Eindelijk niet meer die bucking waardeloze blower koelers bij launch. Navi wordt zo met de dag beter. :*)
Ik hoop dat er wel refferenced versies komen ik ben als enige fan van die dingen ^_^ al verwacht ik nu een dual fan cooler die vergelijkbaar is met de cooler van de Radeon VII en helaas geen blower. Je kan best goede blower coolers maken zie ook de nVidia 1080 Ti cooler.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op dinsdag 28 mei 2019 @ 12:19:
[...]


Ik hoop dat er wel refferenced versies komen ik ben als enige fan van die dingen ^_^ al verwacht ik nu een dual fan cooler die vergelijkbaar is met de cooler van de Radeon VII en helaas geen blower. Je kan best goede blower coolers maken zie ook de nVidia 1080 Ti cooler.
Voor Turing zijn er ook blower kaarten gemaakt dus het kan goed. Dus dan koop jij een blower en de rest van ons koopt iets dat wel deugt. :Y)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op dinsdag 28 mei 2019 @ 12:29:
[...]


Voor Turing zijn er ook blower kaarten gemaakt dus het kan goed. Dus dan koop jij een blower en de rest van ons koopt iets dat wel deugt. :Y)
Het gaat mij ook vooral om de refferenced looks ;)
Maar ik heb zelf altijd veel plezier van mijn Refferenced AMD blower kaarten gehad ook de Vega kaarten gewoon wat tweaks en hij is best stil en alle warmte lucht netjes de kast uit. Is met de Prodidy M die ik heb wel zo handig.

Vind het veel te kort door de bocht om te zeggen dat die niet deugen. Voor mining waren die dingen bij far het beste die ball bearing fans gaan niet kapot bij bijna al die aftermarket meuk gaan de lagers kapot. Dus als je 3-5 jaar met zo'n kaart wil doen ga je ook al tegen dat soort issues aan lopen.

[ Voor 21% gewijzigd door Astennu op 28-05-2019 12:36 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!
Astennu schreef op dinsdag 28 mei 2019 @ 12:34:
[...]


Het gaat mij ook vooral om de refferenced looks ;)
Maar ik heb zelf altijd veel plezier van mijn Refferenced AMD blower kaarten gehad ook de Vega kaarten gewoon wat tweaks en hij is best stil en alle warmte lucht netjes de kast uit. Is met de Prodidy M die ik heb wel zo handig.
Weet je, ik haal een nieuwe videokaart gewoon uit de doos, kijk er even naar, installeer die vervolgens gewoon in mijn behuizing en kijk er alleen naar als ik weer eens wat stof uit mijn PC haal. Hoe die eruit ziet kan me gestolen worden. De pokkenherrie die eruit komt als je wattman profiel weer eens is gereset en je een game opstart, nee dank je. :+

Hoewel, het is wel effectief om te achterhalen of je profiel weer is gereset. :P


Misschien zou ik er iets minder militant tegen zijn als AMD eens een fatsoenlijk koelblok bij de blower zou doen. Die van Vega is bijvoorbeeld nog steeds bedroevend klein en dan is Vega nog beter dan wat ervoor kwam. Komt nog eens bij dat ik als autist bijzonder slecht tegen dit soort geluiden kan. Nee, blowers zijn gewoon slecht. ;)

[ Voor 17% gewijzigd door DaniëlWW2 op 28-05-2019 12:46 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op dinsdag 28 mei 2019 @ 12:29:
[...]


Voor Turing zijn er ook blower kaarten gemaakt dus het kan goed. Dus dan koop jij een blower en de rest van ons koopt iets dat wel deugt. :Y)
Juist het hele idee van een blower koeler is veel beter dan een triple of dual fan design, omdat de warmte direct uit de behuizing wordt geblazen. Bij twee of meer videokaarten van 250W of meer wil je ook wel blower koeler gebruiken, weinig behuizingen kunnen 600W of meer aan warmte goed kwijt. Ook in behuizingen met een slechte airflow is een blower koeler een groot voordeel. Zolang de capaciteit van de koeler ruim genoeg is kan ook een goed geïmplementeerde blower koeler relatief stil zijn onder load en onhoorbaar in idle.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +1 Henk 'm!
-The_Mask- schreef op dinsdag 28 mei 2019 @ 12:48:
[...]

Juist het hele idee van een blower koeler is veel beter dan een triple of dual fan design, omdat de warmte direct uit de behuizing wordt geblazen. Bij twee of meer videokaarten van 250W of meer wil je ook wel blower koeler gebruiken, weinig behuizingen kunnen 600W of meer aan warmte goed kwijt. Ook in behuizingen met een slechte airflow is een blower koeler een groot voordeel. Zolang de capaciteit van de koeler ruim genoeg is kan ook een goed geïmplementeerde blower koeler relatief stil zijn onder load en onhoorbaar in idle.
En voor de paar mensen die een zeer compact ITX systeem hebben of de ene persoon die nog steeds Crossfire gebruikt, kan ik het wel begrijpen ja. De rest opschepen met een kwalitatief teleurstellende blower koeler bij launch waarna we weer eens een paar maanden kunnen wachten, nee dank je. Dat is mijn punt en ik ben absoluut niet de enige die dit zal vinden. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 15:19
DaniëlWW2 schreef op dinsdag 28 mei 2019 @ 13:04:
[...]


En voor de paar mensen die een zeer compact ITX systeem hebben of de ene persoon die nog steeds Crossfire gebruikt, kan ik het wel begrijpen ja. De rest opschepen met een kwalitatief teleurstellende blower koeler bij launch waarna we weer eens een paar maanden kunnen wachten, nee dank je. Dat is mijn punt en ik ben absoluut niet de enige die dit zal vinden. ;)
Inderdaad. Passief gekoelde kaarten all the way! Weg met fans!

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!
Bij twee of meer moderne high-end videokaarten denk ik tegenwoordig niet meer aan CrossFire. Je ziet het eigenlijk niet meer echt in een game systeem.

Maar dan nog een blower reference koeler zegt niks over wanneer custom designs komen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Shabbaman
  • Registratie: Juli 2005
  • Laatst online: 16:54

Shabbaman

Got love?

Wat betekent PCI Express 4.0-ondersteuning van Navi voor mij met een armzalig 3.0 slot? Anandtech maakt dit ervan:
Thus far high-end AMD/NVIDIA parts haven't been significantly bottlenecked in games by PCIe 3.0 x16 (or even x8), so it will be interesting to see how much the extra bus bandwidth helps these first generation of parts.
En dan is mijn interpretatie van "interesting to see" in de rest van de context dan maar dat het eigenlijk marketing is. Ik had niet verwacht dat mijn keuze voor een moederbord met PCIe 3.0 een bottleneck zou gaan worden.

"Our words are backed with NUCLEAR WEAPONS!" - Mahatma Gandhi


Acties:
  • +1 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 15:19
Shabbaman schreef op dinsdag 28 mei 2019 @ 13:55:
Wat betekent PCI Express 4.0-ondersteuning van Navi voor mij met een armzalig 3.0 slot? Anandtech maakt dit ervan:


[...]


En dan is mijn interpretatie van "interesting to see" in de rest van de context dan maar dat het eigenlijk marketing is. Ik had niet verwacht dat mijn keuze voor een moederbord met PCIe 3.0 een bottleneck zou gaan worden.
https://www.techpowerup.c...CI-Express_Scaling/6.html

Verschil in prestaties voor een RTX 2080 Ti tussen PCIe 3.0 x8 en x16 is 3% op 1080p en minder op hogere resoluties. Ik denk niet dat je je veel zorgen hoeft te maken met PCIe 3.0 x16 voor de komende jaren.

Tegen de tijd dat je zo'n stevige kaart er ingooit dat het wel veel uitmaakt, zal het waarschijnlijk al lang tijd zijn om de hele boel sowieso te vervangen.

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 19-09 15:00

XanderDrake

Build the future!

Ik vind PCI-E 4.0 eigenlijk alleen interessant icm Thunderbolt 4. Dáár heb je er wat aan.

Ikzelf draait een oude Thinkbook met een EXP GDC verloopstuk tussen het Expresscard slot en een GTX 745 op PCI-E 2.0 1x en de videokaart draait ~95% capacity in PUBG.

Zo belangrijk is bandbreedte blijkbaar niet.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 15-09 13:16
NitroX infinity schreef op dinsdag 28 mei 2019 @ 14:05:
[...]

https://www.techpowerup.c...CI-Express_Scaling/6.html

Verschil in prestaties voor een RTX 2080 Ti tussen PCIe 3.0 x8 en x16 is 3% op 1080p en minder op hogere resoluties. Ik denk niet dat je je veel zorgen hoeft te maken met PCIe 3.0 x16 voor de komende jaren.

Tegen de tijd dat je zo'n stevige kaart er ingooit dat het wel veel uitmaakt, zal het waarschijnlijk al lang tijd zijn om de hele boel sowieso te vervangen.
Hierop aansluitend. NVidia heeft altijd meer last gehad van weinig PCI-E bandbreedte, AMD lijkt daar beter mee om te gaan. Dus Navi gaat zo meteen waarschijnlijk prima werken met PCI-E 3.0 x16.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Iha is PCI-E 4.0 gewoon nice to have. Zeker voor de mensen die langer met een mobo willen doen is het denk ik wel prettig.

Buiten dat zijn er volgensmij nog weinig use cases waar je er echt merkbaar iets aan hebt.

PCI-E 5.0 laat dacht ik ook niet meer lang op zich wachten.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • +1 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 20-09 22:41
NitroX infinity schreef op dinsdag 28 mei 2019 @ 14:05:
[...]

https://www.techpowerup.c...CI-Express_Scaling/6.html

Verschil in prestaties voor een RTX 2080 Ti tussen PCIe 3.0 x8 en x16 is 3% op 1080p en minder op hogere resoluties. Ik denk niet dat je je veel zorgen hoeft te maken met PCIe 3.0 x16 voor de komende jaren.

Tegen de tijd dat je zo'n stevige kaart er ingooit dat het wel veel uitmaakt, zal het waarschijnlijk al lang tijd zijn om de hele boel sowieso te vervangen.
Tenzij je gaat cherry picken:
Afbeeldingslocatie: https://tpucdn.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_PCI-Express_Scaling/images/assassins-creed-origins_1920-1080.png
Afbeeldingslocatie: https://tpucdn.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_PCI-Express_Scaling/images/civilization-vi_3840-2160.png
Afbeeldingslocatie: https://tpucdn.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_PCI-Express_Scaling/images/ghost-recon-wildlands_1920-1080.png
Afbeeldingslocatie: https://tpucdn.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_PCI-Express_Scaling/images/hellblade_1920-1080.png
Afbeeldingslocatie: https://tpucdn.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_PCI-Express_Scaling/images/wolfenstein-2_1920-1080.png

Acties:
  • 0 Henk 'm!
Even los van wat ik van sommige van die games/engines denk, zou het verdorie ook wel eens tijd worden :)

3.0 is al 8 jaar op de markt (eerste moederborden kwamen in de zomer van 2011 op de markt) en we beginnen nu pas hier en daar te zien dat het misschien niet genoeg is. Aan de andere kant gaat het wel om AC, GR en HB, die nou niet bepaald geweldige dingen laten zien qua efficiëntie. Civ is een ander verhaal, die game verstouwt een aardige berg data waar het ook daadwerkelijk iets mee doet. Wolfenstein snap ik niet helemaal, blijkbaar is het spel dusdanig licht op de CPU dat de bus de bottleneck wordt. Dat is op zich wel lovenswaardig :p

Acties:
  • +1 Henk 'm!
PCI-E 4.0 voor videokaarten eigenlijk net zoals dat je per se B-die RAM moet hebben voor je Ryzen systeem. Je weet dat het gemiddeld om een paar procent gaat, maar je wil het gewoon hebben. Daar is helemaal niks mis mee. ;)

Verder werd het ook wel eens tijd. Misschien niet zozeer omdat videokaarten PCI-E 4.0 al echt nodig hebben, maar meer omdat we tegenwoordig zoiets als NVME's hebben naast videokaarten, die om lanes strijden met elkaar. Ik zie Intel volgend jaar ook wel naar 4.0 gaan met Skylake++++. :+

4.0 is denk ik alleen geen lang leven toebedeeld. Aardige kans dat AM4+/AM5 in 2021 al naar PCI-E 5.0 zal gaan. In 2022 zal Intel ook wel weer volgen met alweer een nieuw socket.

[ Voor 16% gewijzigd door DaniëlWW2 op 28-05-2019 23:30 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • XWB
  • Registratie: Januari 2002
  • Niet online

XWB

Devver
Astennu schreef op dinsdag 28 mei 2019 @ 11:35:
[...]


Er gaan genoeg geruchten in de ronde Over Navi 10, 12 en 20.
Tja, maar Navi geruchten blijken tot nu toe niet waar te zijn. Is er wel nog sprake van Navi 10, 12 en 20, of kan dit ook gelijk de prullenbak in? Wat voor Navi chip zit precies in de net aangekondigde RX 5700?

March of the Eagles


Acties:
  • 0 Henk 'm!
AMD heeft altijd gezegd dat je aan de naam niet kunt zien hoe krachtig de chip is. Dus al zou er een Navi 10, 12 of 20 zijn dan nog is volstrekt onduidelijk om wat voor chip het gaat. Navi 10 zou bijvoorbeeld dus alles tussen een extreem snelle high-end chip en een budget APU kunnen zijn in principe.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op dinsdag 28 mei 2019 @ 23:24:
PCI-E 4.0 voor videokaarten eigenlijk net zoals dat je per se B-die RAM moet hebben voor je Ryzen systeem. Je weet dat het gemiddeld om een paar procent gaat, maar je wil het gewoon hebben. Daar is helemaal niks mis mee. ;)

Verder werd het ook wel eens tijd. Misschien niet zozeer omdat videokaarten PCI-E 4.0 al echt nodig hebben, maar meer omdat we tegenwoordig zoiets als NVME's hebben naast videokaarten, die om lanes strijden met elkaar. Ik zie Intel volgend jaar ook wel naar 4.0 gaan met Skylake++++. :+

4.0 is denk ik alleen geen lang leven toebedeeld. Aardige kans dat AM4+/AM5 in 2021 al naar PCI-E 5.0 zal gaan. In 2022 zal Intel ook wel weer volgen met alweer een nieuw socket.
Volgens mij slaap Intel 4.0 over en gaan ze meteen naar 5.0.
De Ice Lake CPU's zijn nog 3.0 en die hebben de nieuwe Suny Cove architectuur en nieuwe pch.
Zou dus best kunnen dat de desktop chips ook nog op 3.0 blijven zitten en dat ze 2020/2021 pas naar 5.0 gaan.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Amazigh_N_Ariff
  • Registratie: November 2008
  • Laatst online: 09-09 20:21
De laatste geruchten zijn dat NAVI toch super SIMD heeft.

Acties:
  • 0 Henk 'm!
Amazigh_N_Ariff schreef op woensdag 29 mei 2019 @ 03:40:
De laatste geruchten zijn dat NAVI toch super SIMD heeft.
Bron? :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Erkel
  • Registratie: Mei 2006
  • Laatst online: 19-09 11:11
Amazigh_N_Ariff schreef op woensdag 29 mei 2019 @ 03:40:
De laatste geruchten zijn dat NAVI toch super SIMD heeft.
Ik kwam deze tegen op reddit: https://translate.google....5700253,15700256,15700259 (Let op google translate, maar wel interessant)

C2D E6600 - 2048MB Kingston - Sapphire HD2900XT - 200Gb Samsung - Asus P5B-E


Acties:
  • 0 Henk 'm!
Erkel schreef op woensdag 29 mei 2019 @ 10:48:
[...]


[...]


Ik kwam deze tegen op reddit: https://translate.google....5700253,15700256,15700259 (Let op google translate, maar wel interessant)
Interessant leesvoer. Klinkt inderdaad wel als een optie. Ik kan mij ook niet voorstellen dat ze alles van GCN de deur uit gooien. Als ze dat wel hadden gedaan hadden ze waarschijnlijk niet weer met 64 Units per CU gewerkt.
En qua backward compatibility is het ook handig om niet alles over boord te gooien maar gewoon het design gronding herzien en dus 8 Shader engines, Beter scheduler, en mogelijk een sister SIMD waardoor voor bepaalde instructies er twee per SIMD kan verwerken.

Kan niet wachten tot er een uitgebreid architectuur artiekel over Navi uit komt (bv van Anandtech). Ik ben wel benieuwd wat ze er van gemaakt hebben.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Erkel
  • Registratie: Mei 2006
  • Laatst online: 19-09 11:11
Ik ben er ook wel benieuwd naar. Wat ik me ook afvraag is of er op redelijke termijn nog een 5800 komt. Ik ben aan het kijken voor een nieuw systeem, maar ik wil niet aan nVidia beginnen. Anders maar een Radeon VII...

C2D E6600 - 2048MB Kingston - Sapphire HD2900XT - 200Gb Samsung - Asus P5B-E


Acties:
  • 0 Henk 'm!
Erkel schreef op woensdag 29 mei 2019 @ 11:50:
Ik ben er ook wel benieuwd naar. Wat ik me ook afvraag is of er op redelijke termijn nog een 5800 komt. Ik ben aan het kijken voor een nieuw systeem, maar ik wil niet aan nVidia beginnen. Anders maar een Radeon VII...
Dat vraag ik mij ook af. Kan best dat er nog een 5800 mogelijk is met de getoonde Navi chip.
Ik heb zelf recent een Radeon VII gekocht erg leuke kaart. Ook super zuinig als je hem lager clockt en undervolt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op woensdag 29 mei 2019 @ 11:39:
[...]


Interessant leesvoer. Klinkt inderdaad wel als een optie. Ik kan mij ook niet voorstellen dat ze alles van GCN de deur uit gooien. Als ze dat wel hadden gedaan hadden ze waarschijnlijk niet weer met 64 Units per CU gewerkt.
Uh, als die gelijk heeft dan is 64 ALU's per CU werkelijk het enige dat AMD overneemt van GCN. Dan ook alleen dat het 64 ALU's per CU zijn want het zou ook een geheel nieuw CU ontwerp zijn.

Maar bij E3 zouden we veel meer te horen krijgen. Hopelijk krijgen we dan ook al details. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op woensdag 29 mei 2019 @ 13:21:
[...]


Uh, als die gelijk heeft dan is 64 ALU's per CU werkelijk het enige dat AMD overneemt van GCN. Dan ook alleen dat het 64 ALU's per CU zijn want het zou ook een geheel nieuw CU ontwerp zijn.

Maar bij E3 zouden we veel meer te horen krijgen. Hopelijk krijgen we dan ook al details. :)
Als wat hij zegt waar is is niet alles aangepast van de ALU's maar een een kleine ALU naast geplakt. Maar goed we gaan het zien. Hoe meer ze aanpassen hoe beter wat mij betreft :)
GCN in de kern is een goede architectuur hij had alleen een wat grotere update nodig om weer bij de tijd te zijn. Want sommige dingen zoals de max 4 shader engines zijn achterhaald. En het aanleveren van data kan ook efficienter.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op woensdag 29 mei 2019 @ 13:35:
[...]


Als wat hij zegt waar is is niet alles aangepast van de ALU's maar een een kleine ALU naast geplakt. Maar goed we gaan het zien. Hoe meer ze aanpassen hoe beter wat mij betreft :)
GCN in de kern is een goede architectuur hij had alleen een wat grotere update nodig om weer bij de tijd te zijn. Want sommige dingen zoals de max 4 shader engines zijn achterhaald. En het aanleveren van data kan ook efficienter.
Uh dat alleen zou als een gigantische verandering zijn. :P
Dat zou namelijk "super SMID" zijn. SMID met VLIW2. Dat alleen is al een geheel nieuwe CU. Daarnaast zou er een nieuwe cache hiërarchie zijn. Het is geen GCN CU meer op deze manier. Dat AMD bij 64 ALU's blijft is weinig meer dan een constante omdat ze het aantal als optimaal beschouwen. :)


edit: Nog een klein dingetje dat ik heb gevonden. ASRock heeft dus een aantal RX5700's laten zien. Wat blijkt, een model heeft maar een 8 pin connector. Ik denk dat dit wel bevestigd dat het geen heethoofden meer zijn. Het zal waarschijnlijk om de lagere SKU gaan die het zal opnemen tegen de RTX2060.
Afbeeldingslocatie: https://cdn.videocardz.com/1/2019/05/ASROCK-Radeon-RX-5700-Navi-1-1000x473.jpg
https://videocardz.com/80...eature-225w-and-180w-skus

[ Voor 21% gewijzigd door DaniëlWW2 op 29-05-2019 15:05 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • WhySoSerious
  • Registratie: Maart 2009
  • Laatst online: 10:34

WhySoSerious

Be the change.

ASRock mikt op release in augustus van de Navi-customkaarten;

https://nl.hardware.info/...n-in-augustus-op-de-markt

Acties:
  • 0 Henk 'm!

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 20-09 03:46

ZenTex

Doet maar wat.

DaniëlWW2 schreef op woensdag 29 mei 2019 @ 13:49:
[...]



edit: Nog een klein dingetje dat ik heb gevonden. ASRock heeft dus een aantal RX5700's laten zien. Wat blijkt, een model heeft maar een 8 pin connector. Ik denk dat dit wel bevestigd dat het geen heethoofden meer zijn.
Dat schijnt geen navi maar een rx 590 te zijn

Heeft iemand een idee hoe zich de tbp tov de tdp verhoudt door de bank genomen?

Ik weet het, navi is nog niet eens uit, maar een globaal idee van de verhoudingen zou welkom zijn.

Edit: ah, the TDP schijnt 150 en 180W te zijn. Ik ben happy. Navi, here I come.

[ Voor 58% gewijzigd door ZenTex op 29-05-2019 16:07 ]


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 15:19
ZenTex schreef op woensdag 29 mei 2019 @ 15:52:
[...]


Dat schijnt geen navi maar een rx 590 te zijn

Heeft iemand een idee hoe zich de tbp tov de tdp verhoudt door de bank genomen?

Ik weet het, navi is nog niet eens uit, maar een globaal idee van de verhoudingen zou welkom zijn.

Edit: ah, the TDP schijnt 150 en 180W te zijn. Ik ben happy. Navi, here I come.
Volgens Videocardz is het 180W en 225W;

https://videocardz.com/80...eature-225w-and-180w-skus

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 20-09 03:46

ZenTex

Doet maar wat.

Nee, dat is board power,geen tdp.

Acties:
  • 0 Henk 'm!
ZenTex schreef op woensdag 29 mei 2019 @ 15:52:
[...]


Dat schijnt geen navi maar een rx 590 te zijn
Nog eens goed gekeken en daar lijkt wel wel op. :)
Heeft iemand een idee hoe zich de tbp tov de tdp verhoudt door de bank genomen?

Ik weet het, navi is nog niet eens uit, maar een globaal idee van de verhoudingen zou welkom zijn.

Edit: ah, the TDP schijnt 150 en 180W te zijn. Ik ben happy. Navi, here I come.
150W en 180W ja. Verder moet je wel iets heel erg doms doen om TDP hoger te raten dan TBP. O-)
* DaniëlWW2 mompelt iets over Vega en mensen die niet begrijpen dat TDP en TBP twee verschillende waarden zijn...


En ik ga mezelf toch maar invriezen. Hoop op fatsoenlijke launch met AIB modellen lijkt al te vervliegen. Nee, gewoon weer een aantal weken wachten. Dat gelekte reference PCB had ook overduidelijk de ruimte gelaten voor een blower koeler. Dat geeft dus ook weinig hoop...
https://www.pcgamesn.com/...ed-graphics-cards-coolers

[ Voor 19% gewijzigd door DaniëlWW2 op 29-05-2019 18:34 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • ZenTex
  • Registratie: Maart 2007
  • Laatst online: 20-09 03:46

ZenTex

Doet maar wat.

DaniëlWW2 schreef op woensdag 29 mei 2019 @ 18:32:

150W en 180W ja. Verder moet je wel iets heel erg doms doen om TDP hoger te raten dan TBP. O-)
* DaniëlWW2 mompelt iets over Vega en mensen die niet begrijpen dat TDP en TBP twee verschillende waarden zijn...
Even ter verduidelijking, ik had wel gelezen over de board power van navi van 225 en 180, maar over de Tdp kon ik niets vinden, vandaar de vraag. Dat de TDPlager is dan de TBP is nogal wiedes ja. :+

En ik ga mezelf toch maar invriezen. Hoop op fatsoenlijke launch met AIB modellen lijkt al te vervliegen. Nee, gewoon weer een aantal weken wachten. Dat gelekte reference PCB had ook overduidelijk de ruimte gelaten voor een blower koeler. Dat geeft dus ook weinig hoop...
https://www.pcgamesn.com/...ed-graphics-cards-coolers
Een blower! *O*

Acties:
  • 0 Henk 'm!
ZenTex schreef op woensdag 29 mei 2019 @ 19:24:
[...]


Even ter verduidelijking, ik had wel gelezen over de board power van navi van 225 en 180, maar over de Tdp kon ik niets vinden, vandaar de vraag. Dat de TDPlager is dan de TBP is nogal wiedes ja. :+
Het werd al vrij snel bekend dat het om 180W en 150W ging. :)
Een blower! *O*
:'(

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 15:55

Trygve

Redacteur
Astennu schreef op woensdag 29 mei 2019 @ 11:39:
[...]


Interessant leesvoer. Klinkt inderdaad wel als een optie. Ik kan mij ook niet voorstellen dat ze alles van GCN de deur uit gooien. Als ze dat wel hadden gedaan hadden ze waarschijnlijk niet weer met 64 Units per CU gewerkt.
En qua backward compatibility is het ook handig om niet alles over boord te gooien maar gewoon het design gronding herzien en dus 8 Shader engines, Beter scheduler, en mogelijk een sister SIMD waardoor voor bepaalde instructies er twee per SIMD kan verwerken.

Kan niet wachten tot er een uitgebreid architectuur artiekel over Navi uit komt (bv van Anandtech). Ik ben wel benieuwd wat ze er van gemaakt hebben.
Alles overboord gooien leek mij ook heel sterk, en de eerste Navi lijkt ook een hybride RDNA-GCN te worden:
https://sweclockers.com/n...nodlad-rdna-forst-ar-2020
Perfect voor de aankomende consoles ook, om compatibility te vergroten en dit als een soort transitie naar 'full RDNA' in te zetten.

Acties:
  • 0 Henk 'm!
r100 schreef op vrijdag 31 mei 2019 @ 10:41:
[...]


Alles overboord gooien leek mij ook heel sterk, en de eerste Navi lijkt ook een hybride RDNA-GCN te worden:
https://sweclockers.com/n...nodlad-rdna-forst-ar-2020
Perfect voor de aankomende consoles ook, om compatibility te vergroten en dit als een soort transitie naar 'full RDNA' in te zetten.
Het probleem dat ik hiermee heb, want ik had dit al gezien, is dat er geen onderbouwing lijkt te zijn. Het komt mij een beetje over als "we nemen nog wat goede dingen van GCN over, dus is het GCN". Ga je die logica toepassen op Nvidia dan heeft Nvidia sinds Kepler ook helemaal geen nieuwe architectuur gelanceerd. :z

Ik zie niemand die vergelijking maken voor Nvidia terwijl er wel gronden voor zijn. Tussen Kepler en Maxwell ging Nvidia ook sleutelen aan hun ALU's en rekenclusters om ze efficiënter te maken. Nota bene is Pascall letterlijk niks meer dan een zwaar overclockte Maxwell op een kleiner proces. Turing is dan weer een tweak van Maxwell omtrent ALU's en rekenclusters.

Met RDNA lijkt AMD een gigantische aanpassing aan hun ALU's en rekencluster te doen en dan is het opeens niks nieuws. Nee, daar ga ik mooi niet in mee. Laat eerst maar eens zien wat RDNA echt brengt voordat er subjectieve waardeoordelen worden geplaatst. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 15:55

Trygve

Redacteur
DaniëlWW2 schreef op vrijdag 31 mei 2019 @ 11:15:
[...]
Nota bene is Pascall letterlijk niks meer dan een zwaar overclockte Maxwell op een kleiner proces. [...]

Met RDNA lijkt AMD een gigantische aanpassing aan hun ALU's en rekencluster te doen en dan is het opeens niks nieuws. [...]
Huh? Dit roep ik toch helemaal niet? En dit is bovendien behoorlijk zwart-wit denken wat je nu doet. De vergelijking met Nvidia maak ik niet omdat dit het AMD-topic is. Sowieso is Pascal echt wel wat meer dan enkel een dieshrink van Maxwell, dat weten we allebei wel. Tuurlijk, de stap van Pascal naar Turing was groter.

Wat betreft RDNA en Navi zeg ik dus helemaal niet dat dit niks nieuws is. In tegendeel, ik denk dat deze zet erg verstandig is gezien de legacy van GCN - nogmaals vooral het belang mbt de consoles kan imho hier niet onderschat worden. Zoals anderen al zeiden zal de ISA met Navi 10 veel meer overeenkomen dan verschillen tov Polaris/Vega. Dat wil niet zeggen dat de compute units en de verhouding met de shader engines niet flink onder handen zijn genomen.

Acties:
  • +3 Henk 'm!
r100 schreef op vrijdag 31 mei 2019 @ 14:05:
[...]


Huh? Dit roep ik toch helemaal niet? En dit is bovendien behoorlijk zwart-wit denken wat je nu doet. De vergelijking met Nvidia maak ik niet omdat dit het AMD-topic is. Sowieso is Pascal echt wel wat meer dan enkel een dieshrink van Maxwell, dat weten we allebei wel. Tuurlijk, de stap van Pascal naar Turing was groter.

Wat betreft RDNA en Navi zeg ik dus helemaal niet dat dit niks nieuws is. In tegendeel, ik denk dat deze zet erg verstandig is gezien de legacy van GCN - nogmaals vooral het belang mbt de consoles kan imho hier niet onderschat worden. Zoals anderen al zeiden zal de ISA met Navi 10 veel meer overeenkomen dan verschillen tov Polaris/Vega. Dat wil niet zeggen dat de compute units en de verhouding met de shader engines niet flink onder handen zijn genomen.
Het gaat niet om wat jij zegt, maar wat anderen zeggen. Excuses als het zo overkomt. Zeker niet mijn bedoeling. :)

Nee, ik heb een probleem met wat er nu weer gebeurd. Maandag kondigt AMD bij monde van de CEO aan dat ze een nieuwe GPU architectuur vanaf de grond af hebben ontwikkeld. CEO's, zeker niet altijd de zeer voorzichtige of zelfs ronduit doortrapte Lisa Su, gaan dat echt niet zeggen als het niet klopt. Zij is altijd bezig om vooral dingen niet te zeggen om speelruimte open te houden zodat haar woorden nooit tegen haar gebruikt kunnen worden. Als ze dus zegt nieuwe architectuur, dan meent ze het.

Vervolgens duiken er weer "journalisten" op om de boel te gaan bagatelliseren. Ze lijken er geen enkele onderbouwing of zelfs de meest basale kennis voor te hebben, maar doen het wel. De hele RDNA architectuur wordt voordat we zelfs maar de minste details officieel hebben al in negatief daglicht geplaatst. Oh het zijn maar wat GCN fixes etc. Dat past precies in een narratief dat AMD Radeon niks meer kan, ze nooit iets kunnen doen tegen Nvidia etc. Dat is namelijk de narratief van veel van de 13 in een dozijn "techmedia". Onderbouwing is alleen nul en dat irriteert mij...

Ik as hobbyist en enthousiasteling (en nota bene historicus dus echt geen expert als het om de fijne details van computers gaat) begrijp dus wel dat er een verschil is tussen de GCN ISA en GCN als architectuur. Je kan prima een geheel nieuwe GPU architectuur ontwikkelen die de ISA van een vorige generatie gebruikt, al dan niet met wat aanpassingen of aanvullingen voor architecturale aanpassingen en optimalisaties. Nvidia doet dat voor Turing waar de Turing ISA gewoon gebaseerd is op die van Volta. We noemen Turing toch ook niet Volta met wat aanpassingen?
Zie: https://docs.nvidia.com/c...tibility-guide/index.html

Dat is de dubbele standaard die mij mateloos irriteert. Ik weet onderhand genoeg van GPU en CPU ontwerp dat je iets dat werkt, niet weggooit om het opnieuw te ontwikkelen. Elke computerchip zit vol met gekopieerde modules uit eerdere ontwerpen. Om dan zo zonder enige kennis al te beginnen dat het GCN en een beetje is, nee het gaat me echt te ver. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

FWIW:

Coreteks heeft ook een video waarin hij aangeeft dat zijn bron van 7 mnd geleden correct was over navi en hem nu nieuwe info heeft gegeven: Prijs wordt USD 399 of 379 afhankelijk van 2070 pricing. Navi is een hybrid en volgend jaar komt nieuwe navi met volledige RDNA. + nog wat dingetjes zoals die size.

YouTube: Your next PC? ALL AMD

[ Voor 9% gewijzigd door Help!!!! op 31-05-2019 17:02 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!
Help!!!! schreef op vrijdag 31 mei 2019 @ 16:53:
FWIW:

Coreteks heeft ook een video waarin hij aangeeft dat zijn bron van 7 mnd geleden correct was over navi en hem nu nieuwe info heeft gegeven: Prijs wordt USD 399 of 379 afhankelijk van 2070 pricing. Navi is een hybrid en volgend jaar komt nieuwe navi met volledige RDNA. + nog wat dingetjes zoals die size.

YouTube: Your next PC? ALL AMD
255mm2 is zeer goed mogelijk. APISAK heeft dat ook te horen gekregen.


Verder heb ik nog steeds een bloedhekel aan "hybrid". Zelfs als AMD dit aangeeft dan doen ze zichzelf denk ik te kort als ze echt met een geheel nieuwe en efficiëntere CU komen. Zeker als de mindere techmedia (lees niet Anandtech) weer eens niet begrijpen dat GPU ontwerp ook een kwestie van voortbouwen op voorgaande architectuur is.

Als laatste kan ik heel goed leven met $399. Het betekent waarschijnlijk ook $299 voor de RTX2060 concurrent en die gaat pijn doen. Zeker als Nvidia de prijzen al wat laat zakken waardoor het opeens $279 kan zijn. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!
DaniëlWW2 schreef op vrijdag 31 mei 2019 @ 20:44:
[...]

Als laatste kan ik heel goed leven met $399. Het betekent waarschijnlijk ook $299 voor de RTX2060 concurrent en die gaat pijn doen. Zeker als Nvidia de prijzen al wat laat zakken waardoor het opeens $279 kan zijn. :)
De goedkoopste RTX 2060 is op dit moment in de pricewatch 312 dollar omgerekend, dat is dus maar een verschil van een luttele 13 dollar. Dan mag AMD's tegenhanger flink sneller zijn en een vergelijkbaar verbruik hebben wil het pijn doen voor nVidia.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 07-09 01:13

pino85

Im just a Bird in the Sky

DaniëlWW2 schreef op maandag 27 mei 2019 @ 11:05:
[...]


Ik denk dat het nog steeds een GCN ISA is, maar niet meer de GCN chiparchitectuur. Meer hoeft denk ik ook niet. Vanuit de softwarekant veranderd er dan ook weinig of niks, maar de chiparchitectuur zou veel efficiënter moeten zijn in geometrie zonder zaken zoals FP16 of de uitstekende compute focus te verliezen. Een gaming GCN is het dan, iets waar we eigenlijk al sinds Hawaï weer op wachten en zelfs Hawaï was niet echt een gaming focused GCN. :)
@DaniëlWW2

Ik ben al een tijdje uit de desktop markt dus mea culpa als ik iets vreemds zeg maar was de GCN chip architectuur dan niet een hele slechte keuze vanuit AMD? Of een blunder? Het heeft vooral voor veel problemen gezorgd volgens mij en ze veel gekost. Hoe winstgevend is de desktop markt voor amd in de laatste 5 jaar geweest? Met de consoles (apu’s) verdienen ze goed maar als dat ook was weg gevallen had AMD dan überhaupt nog bestaan? Of de desktop gpu tak bedoel ik dan.

Maar eindelijk positief nieuws dat het er op lijkt dat ze er deels vanaf stappen en nu de weg naar boven!

[ Voor 16% gewijzigd door pino85 op 01-06-2019 18:19 ]

Liefhebber van Tweakers


Acties:
  • +3 Henk 'm!
pino85 schreef op zaterdag 1 juni 2019 @ 18:12:
[...]


@DaniëlWW2

Ik ben al een tijdje uit de desktop markt dus mea culpa als ik iets vreemds zeg maar was de GCN chip architectuur dan niet een hele slechte keuze vanuit AMD? Of een blunder? Het heeft vooral voor veel problemen gezorgd volgens mij en ze veel gekost. Hoe winstgevend is de desktop markt voor amd in de laatste 5 jaar geweest? Met de consoles (apu’s) verdienen ze goed maar als dat ook was weg gevallen had AMD dan überhaupt nog bestaan? Of de desktop gpu tak bedoel ik dan.

Maar eindelijk positief nieuws dat het er op lijkt dat ze er deels vanaf stappen en nu de weg naar boven!
Het probleem is dat GCN in januari 2012 gelanceerd is. Dat is nu ruim zeven jaar geleden.
Die lancering ging overigens ook niet perfect. GCN1, met name Tahiti was veel te zwaar op compute en te licht op grafische mogelijkheden. De drivers waren ook slecht waardoor Nvidia met een kleinere efficiëntere GPU, Tahiti net kon verslaan. De echte high end Kepler spaarde Nvidia gewoon op voor later. Het is niet alsof Kepler nu zo geweldig is gebleken, maar bij launch was het iets beter. Zodra Kepler er was, kochten mensen dat. Daar begon de achteruitgang van Radeon.

Het concept achter GCN kwam ook uit de koker van AMD haar vele en alles behalve geweldige serie aan CEO's die heel veel fouten hebben gemaakt in bedrijfsvoering. Ze kochten ATi voor veel te veel geld en toen ging het roer om naar een compute architectuur. Talent vertrok en toen kwam Bulldozer ook nog eens waardoor AMD echt geen cent meer had. AMD had ondertussen geen ecosysteem voor de compute power van GCN ontwikkeld zoals Nvidia met CUDA had. Voor professionele applicaties kochten mensen dus liever een Quadro dan een FirePro. Het hele punt van GCN ging daar ook verloren. Die enorme fout loopt AMD de afgelopen paar jaar ook pas eindelijk in.

Er zaten nog wel wat dingen in de pijplijn toen AMD gigantische verliezen gingen maken door het falen van Bulldozer. GCN2 met Hawaï was waarschijnlijk het hoogtepunt van GCN. Opeens had AMD weer een zeer goede en uiterst competitieve high end GPU. Dat was ook de enige keer in de gehele zeven jaar van GCN. Hawaï is alleen een slachtoffer geworden van omstandigheden. Gelanceerd met de meest waardeloze koeler ooit en het duurde maanden voordat er fatsoenlijke AIB kaarten kwamen. Toen kwamen de bitcoin miners en kon je geen Hawaï kopen...

Komen we in 2014 en daar is Maxwell van Nvidia. Uh ja, dat is een probleem. AMD is blut en meer dan rebrands, licht verbeterde Tahiti in Tonga en de matige Fiji kwam AMD niet. Hier liep GCN ook tegen haar grenzen aan. Het verschil tussen een 56CU Fury en 64CU Fury X was zeer gering. De extra rekenclusters doen nauwelijks iets in gaming loads. Nee, hier was al een flinke aanpassing aan de architectuur nodig om de gaming performance te verbeteren. Die kwam alleen niet.

Polaris is overvolted om er maar clockspeed uit te halen voor performance targets. Alsnog kochten mensen Polaris kaarten. In dat opzicht zijn ze geslaagd, maar ze zijn niet optimaal. Vega was eigenlijk schandalig overvolted. Zo ongeveer iedereen kan er veel meer frames uithalen door de kaarten flink te undervolten. Het enige dat Vega voor zich heeft pleiten is dat AMD nu langzaam wel een ecosysteem heeft voor professionele kaarten. Vega is daar goed in en Vega's worden in enorme aantallen verkocht aan Apple en nu gaan ze ook massaal naar Google voor Google Stadia.


Voor ons gamers is GCN eigenlijk een teleurstelling die vervangen moet worden. Tahiti was best aardig, maar had beter gekund. Hawaï was uitstekend, Tonga goed en Polaris was ook best goed. GCN had alleen in 2015 of uiterlijk 2016 al vervangen moeten worden voor iets beters. Het is gewoon niet echt competitief met Maxwell of Pascal geweest. Dat moet RDNA nu hopelijk wel gaan zijn.

[ Voor 3% gewijzigd door DaniëlWW2 op 01-06-2019 19:53 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • pino85
  • Registratie: Mei 2007
  • Laatst online: 07-09 01:13

pino85

Im just a Bird in the Sky

Kijk daar kan ik veel mee, weer wat bij gespijkerd en up2date :>

Liefhebber van Tweakers


Acties:
  • +1 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!
Het lijkt er dan toch op dat AMD hun dump van Polaris en Vega aanslaat. Ook niet zo vreemd want hoe lager je gaat in de productlijn van Turing, hoe slechter de producten eigenlijk worden. De enige interessante Turing is de RTX2060. Niet alleen omdat de prijs/perf beter is dan Pascal, bijna een unicum voor Turing, maar ook omdat de kaart perfect is voor zowel 1080p/144Hz als 1440p/75Hz. Zit die ook nog in een redelijk fijne plek qua prijsstelling. Net betaalbaar voor de meeste gamers en de prijzen zijn zo dat je liever wat meer betaald voor een RTX2060 dan een GTX1660Ti.

Dat is denk ik ook de kaart die RX5700 echt moet verslaan. De RTX2070 gemiddeld matchen secondair, maar uiterst wenselijk om te bereiken als doel. De meeste mensen die een GTX1080Ti/RTX2080 wenst, heeft die waarschijnlijk al. Volgend jaar met Navi 20 is het tijd voor de test of mensen overstappen na meermaals uitgemelkt te zijn of natuurlijk GPP. ;)

De RX5700 branding suggereert ook net niet het beste, maar wel goed. Dat is waar 7 al jaren voor staat. RX5600 en RX5800 gaan er wel komen. Eerst RX5600 en waarschijnlijk dus begin 2020 RX5800. Qua prijzen schat ik zo in dat de RX5600 series nauwelijks sneller en nauwelijks goedkoper zullen worden dan de dumpprijzen van Polaris nu. Misschien teleurstellend, maar ik zie weinig alternatieven.


Verder lijkt mijn zeer sterke vermoeden te kloppen dat Navi 10 bestaat uit de GCN ISA, maar de architectuur totaal anders is. Een AMD medewerker die al jaren in de linux ondersteuning van AMD spul zit, zegt in ieder geval zoveel. Verder klopt het ook helemaal met meerdere Phoronix datamines die systematisch aangaven dat er nieuwe instructies aan de GCN ISA werden toegevoegd voor Navi. Zie:
https://www.phoronix.com/...9-2?p=1103266#post1103266

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +2 Henk 'm!
DaniëlWW2 schreef op zaterdag 1 juni 2019 @ 19:39:
Het probleem is dat GCN in januari 2012 gelanceerd is. Dat is nu ruim zeven jaar geleden.
Die lancering ging overigens ook niet perfect. GCN1, met name Tahiti was veel te zwaar op compute en te licht op grafische mogelijkheden. De drivers waren ook slecht waardoor Nvidia met een kleinere efficiëntere GPU, Tahiti net kon verslaan.
Nou...nee.

Tahiti is maar 58mm² groter dan GK104 (352 tegenover 294). Dat "efficiënter" is ook maar marginaal (2% lagere performance/watt op 1440p; 5% op 1080p). Daar stond tegenover dat Tahiti ook volledig gehakt maakte van GK104 als het op compute aan kwam.

Tahiti was helemaal niets mis mee. Sterker nog, het is één van de beste GPU's van dit decennium. Deed nauwelijks onder voor Kepler in games, liep ver voor in compute en had een nagenoeg identiek verbruik 99% van de tijd. Het is gewoon jammer dat Nvidia's mindshare nog steeds te sterk was om AMD écht terug op de kaart te zetten, zelfs na dat wanproduct van een Fermi. En dat zal voorlopig nog wel een probleem blijven.
AMD had ondertussen geen ecosysteem voor de compute power van GCN ontwikkeld zoals Nvidia met CUDA had.
Nee, AMD zette gewoon in op open technologie in plaats van een zwarte doos.

Het probleem met CUDA en AMD's compute is niet het gebrek aan een ecosysteem of iets dergelijks, het probleem is dat de gebruikers van Nvidia's CUDA veelal te lui zijn om te schakelen naar iets anders. Vanaf OpenCL 1.2 was dat qua features gelijkwaardig aan CUDA - 2.0 en nieuwer hebben dingen die CUDA ten tijde van release [van die OCL versies] niet had. Echter heeft Nvidia dusdanig veel aan klantbinding gedaan dat er maar heel weinig uptake was van OCL. Dat begint meer en meer te veranderen, vooral ook juist door de manier waarop AMD bestaande communities (lees: Linux) aan boort. Met hun visie omtrent HSA en HCC weten ze langzaam maar zeker meer grond te winnen. Het succes van Zen zal hier alleen maar aan bij dragen.

Daarnaast heeft Nvidia heel bewust niets aan OpenCL gedaan. Ze zitten nog steeds slechts op OpenCL 1.2. Dat stamt uit 2011.
Het verschil tussen een 56CU Fury en 64CU Fury X was zeer gering.
En waarom was dat verassend? Het is al jaren zo dat de cutdown chips akelig dicht op hun volledige broertjes zitten. Het is dat de 1070 wel héél gecastreerd is (25% weggekapt - en meer dan slechts what SP's). Maar een 1070 Ti doet nauwelijks onder voor een 1080.
Voor ons gamers is GCN eigenlijk een teleurstelling die vervangen moet worden. Tahiti was best aardig, maar had beter gekund. Hawaï was uitstekend, Tonga goed en Polaris was ook best goed.
Je verwisselt Hawaï en Tahiti. Tahiti was in verhouding een veel solider product, zeker voor z'n tijd :)


Je hamert verder ook te veel op de CU's van de GCN producten die het probleem zouden zijn. Daar zit het probleem niet. Het probleem zit hem in de frontend en de structuur van de shader engines. Er zit te veel in de shader engines. Dat is waarschijnlijk ook wat ze aan gaan passen: geometry loskoppelen van de SE's (hopelijk ook hun eigen cache, zoals Nvidia dat doet) óf de SE's "dunner" maken zodat je er daar meer van krijgt. Dan verbreed je de mogelijkheden tot horizontaal schalen.

Juist de CU's zijn niet direct het probleem van AMD. Sterker nog, dat is één van hun krachten, omdat de manier waarop elke CU z'n werk doet juist extreem flexibel en efficiënt is. Een CU kan letterlijk 64 inputs (lees: pixel) apart verwerken per kloktik - al vanaf Tahiti. Vergis je niet in hoe veel dat betekent voor de performance die er wel nog in Radeons zit.

Is 64 SP's te veel? Wellicht, kan best zijn dat zich dezelfde situatie voor doet als met VLIW5 toentertijd, waar een deel van de units stil ligt (hoewel het geen 40% zal zijn zoals bij Cypress het geval was). Maar ik vermoed ook dat 32 (zoals vaak geopperd) te weinig zou zijn. Dan zijn ze niet breed genoeg meer voor wat AMD met hun ALU's kan. Vergeet niet dat AMD alles van INT8 tot FP32 op 1:1 of beter door die krengen heen kan jagen hè ;)

Acties:
  • 0 Henk 'm!
Werelds schreef op zondag 2 juni 2019 @ 00:01:
[...]

Nou...nee.

Tahiti is maar 58mm² groter dan GK104 (352 tegenover 294). Dat "efficiënter" is ook maar marginaal (2% lagere performance/watt op 1440p; 5% op 1080p). Daar stond tegenover dat Tahiti ook volledig gehakt maakte van GK104 als het op compute aan kwam.

Tahiti was helemaal niets mis mee. Sterker nog, het is één van de beste GPU's van dit decennium. Deed nauwelijks onder voor Kepler in games, liep ver voor in compute en had een nagenoeg identiek verbruik 99% van de tijd. Het is gewoon jammer dat Nvidia's mindshare nog steeds te sterk was om AMD écht terug op de kaart te zetten, zelfs na dat wanproduct van een Fermi. En dat zal voorlopig nog wel een probleem blijven.
Uh ik heb gewoon een Tahiti gebruikt tot de zomer van 2017. Mijn punt is niet dat Tahiti perse slecht was, maar dat het beter had gekund. Met Tahiti al vier shader engines bieden was denk ik geen vreemde zet geweest. Al was het maar omdat het bepaalde extreme uitschieters wat gladder te strijken. Er is gewoon een verschil als je een Tahiti en een Tonga naast elkaar zet met identieke CU en clocks. Ik vind het juist zo opvallend dat in de minder geoptimaliseerde games, Tonga uitloopt en dichter bij Polaris zit. Zie:
https://www.computerbase....enskalierung_im_benchmark

Rond release van GK104 was er ook wel een verschil. Niet enorm, maar groot genoeg dat mensen massaal voor Kepler gingen. Dat AMD een paar maanden erna nou die monsterdriver lanceerde waarna het afgelopen was, tja. Verder heb ik volgens mij ook gezegd dat Kepler uiteindelijk niet zo goed bleek te zijn. Ik weet nog hoe het er in 2012 aan toe ging want Kepler was zoveel beter. ;)
Nee, AMD zette gewoon in op open technologie in plaats van een zwarte doos.

Het probleem met CUDA en AMD's compute is niet het gebrek aan een ecosysteem of iets dergelijks, het probleem is dat de gebruikers van Nvidia's CUDA veelal te lui zijn om te schakelen naar iets anders. Vanaf OpenCL 1.2 was dat qua features gelijkwaardig aan CUDA - 2.0 en nieuwer hebben dingen die CUDA ten tijde van release [van die OCL versies] niet had. Echter heeft Nvidia dusdanig veel aan klantbinding gedaan dat er maar heel weinig uptake was van OCL. Dat begint meer en meer te veranderen, vooral ook juist door de manier waarop AMD bestaande communities (lees: Linux) aan boort. Met hun visie omtrent HSA en HCC weten ze langzaam maar zeker meer grond te winnen. Het succes van Zen zal hier alleen maar aan bij dragen.

Daarnaast heeft Nvidia heel bewust niets aan OpenCL gedaan. Ze zitten nog steeds slechts op OpenCL 1.2. Dat stamt uit 2011.
Ah kijk, zo leren we dus nog eens wat. Ik had juist begrepen dat OpenCL juist afgewezen zou worden juist omdat het geen ecosysteem heeft. Zeg maar de andere kant van luiheid namelijk dat zaken voorgekauwd zijn als je een Quadro hebt en je het met AMD zelf moet uitzoeken. :)
En waarom was dat verassend? Het is al jaren zo dat de cutdown chips akelig dicht op hun volledige broertjes zitten. Het is dat de 1070 wel héél gecastreerd is (25% weggekapt - en meer dan slechts what SP's). Maar een 1070 Ti doet nauwelijks onder voor een 1080.
Ik zeg niet dat het verrassend was. Ik zeg dat GCN bij Fiji op haar einde liep. Een 12,5% cut down en de verschillen waren vaak binnen foutmarges. Daar werd gewoon duidelijk dat de rek uit GCN was. Maxwell was overduidelijk beter en als we de tijdlijn een beetje uitzetten dan zie je dat RDNA een directe reactie is op Maxwell en Fiji is.
[...]

Je verwisselt Hawaï en Tahiti. Tahiti was in verhouding een veel solider product, zeker voor z'n tijd :)
Ik zou dat niet zeggen. Hawaï ging van twee naar vier shader engines en van 32 naar 44CU's. Waar Tahiti nog een grotere chip was dan GK104 voor vergelijkbare prestaties in gaming, was Hawaï kleiner dan GK110 en net zo goed. Ik vind Hawaï dus relatief beter.
Je hamert verder ook te veel op de CU's van de GCN producten die het probleem zouden zijn. Daar zit het probleem niet. Het probleem zit hem in de frontend en de structuur van de shader engines. Er zit te veel in de shader engines. Dat is waarschijnlijk ook wat ze aan gaan passen: geometry loskoppelen van de SE's (hopelijk ook hun eigen cache, zoals Nvidia dat doet) óf de SE's "dunner" maken zodat je er daar meer van krijgt. Dan verbreed je de mogelijkheden tot horizontaal schalen.

Juist de CU's zijn niet direct het probleem van AMD. Sterker nog, dat is één van hun krachten, omdat de manier waarop elke CU z'n werk doet juist extreem flexibel en efficiënt is. Een CU kan letterlijk 64 inputs (lees: pixel) apart verwerken per kloktik - al vanaf Tahiti. Vergis je niet in hoe veel dat betekent voor de performance die er wel nog in Radeons zit.

Is 64 SP's te veel? Wellicht, kan best zijn dat zich dezelfde situatie voor doet als met VLIW5 toentertijd, waar een deel van de units stil ligt (hoewel het geen 40% zal zijn zoals bij Cypress het geval was). Maar ik vermoed ook dat 32 (zoals vaak geopperd) te weinig zou zijn. Dan zijn ze niet breed genoeg meer voor wat AMD met hun ALU's kan. Vergeet niet dat AMD alles van INT8 tot FP32 op 1:1 of beter door die krengen heen kan jagen hè ;)
Ik denk dat ik behoorlijk heb verprutst wat ik eigenlijk wou zeggen. O-) :P
Het gaat mij niet om meer of minder CU's of SP's. Het gaat mij om de constatering dat in gaming workloads, de utilisatie van CU's alles behalve optimaal lijkt te zijn. Dat lijkt ook niet helemaal af te schuiven te zijn op het aantal shader engines. Nee, ook utilisatie binnen een CU zou beter kunnen.

Als ik het goed begrepen heb dan functioneert een GCN CU in vier SMID clusters van elk 16ALU's. Elk van deze clusters kan tien wavefronts aan, totaal dus veertig. Een wavefront is 64 threads en een CU zou maximaal 2560 threads kunnen klaarzetten voor berekening. Na maximaal veertig wavefronts per CU worden de registers binnen de CU ook weer gerecycled waarna de volgende serie aan threads word ingeladen in het register.

Als ik het dan goed begrijp, dan loop je hier ook tegen een bottleneck aan. De CU kan maximaal 2560 threads aan instructies ontvangen en rekent deze vervolgens uit. Een wavefront uitrekenen duurt vier clock cycles. In totaal kunnen er tien wavefronts in sequentie uitgerekend worden door elke SMID. Dit zou als ik het goed heb 13 clock cycles kosten. Daarna kan de CU weer maximaal 2560 threads ontvangen en deze uit laten rekenen door de vier SMID's in een CU.

In theorie klopt dit natuurlijk perfect want 64 threads x 40 wavefronts = 2560 threads. Ik vermoed alleen dat in veel gaming workloads, zelden perfecte 2560 thread clusters bij een CU terechtkomen. Stel dat er maar 1280 threads binnenkomen. Dan is de CU in principe klaar met haar berekeningen in acht clockcycles. De andere vijf clock cycles doet de CU dan niks terwijl deze wacht op de volgende set threads. Dat is zeer inefficiënt.
Zie: https://www.anandtech.com...-architects-for-compute/4

AMD lijkt hier dus wat aan te gaan doen. Ik zie eigenlijk geen andere interpretatie als ze het hebben over een verbeterde, efficiëntere CU. Vervolgens lekte voor de presentatie al uit dat Navi naar acht shader engines zou gaan en 40CU's zou hebben. Klopt dit net zoals de RTX2070 level

Het gaat me dus ook niet om hoeveel CU's of SP's er zijn. Laat AMD dat uitzoeken, kunnen ze vast beter dan ik. Ik zeg alleen wel dat zoals het nu is, niet optimaal is. Los daarvan staat wat voor berekeningen een CU allemaal kan uitvoeren. Daar lijkt me toch weinig reden voor kritiek als ik zie wat Nvidia met Turing voor verschillende typen ALU's moet gebruiken. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op zondag 2 juni 2019 @ 02:00:
Uh ik heb gewoon een Tahiti gebruikt tot de zomer van 2017. Mijn punt is niet dat Tahiti perse slecht was, maar dat het beter had gekund. Met Tahiti al vier shader engines bieden was denk ik geen vreemde zet geweest. Al was het maar omdat het bepaalde extreme uitschieters wat gladder te strijken. Er is gewoon een verschil als je een Tahiti en een Tonga naast elkaar zet met identieke CU en clocks. Ik vind het juist zo opvallend dat in de minder geoptimaliseerde games, Tonga uitloopt en dichter bij Polaris zit. Zie:
https://www.computerbase....enskalierung_im_benchmark
Zeker was het interessant geweest als Tahiti meteen 4 engines had gehad. Zeker in die tijd had dat veel geholpen, omdat ze dan 4 geo engines hadden gehad. Los daarvan deed Tahiti het gewoon heel goed.
Rond release van GK104 was er ook wel een verschil. Niet enorm, maar groot genoeg dat mensen massaal voor Kepler gingen. Dat AMD een paar maanden erna nou die monsterdriver lanceerde waarna het afgelopen was, tja. Verder heb ik volgens mij ook gezegd dat Kepler uiteindelijk niet zo goed bleek te zijn. Ik weet nog hoe het er in 2012 aan toe ging want Kepler was zoveel beter. ;)
Ik weet niet waar je dat laatste vandaan haalt :)

GK104 was echt niet beter. Wel had GK104 uitschieters, maar dat had weinig met GK104 te maken. Dat zoiets als Crysis 2 sneller liep op GK104 was nauwelijks verrassend. Op hogere resoluties was Tahiti vanaf het begin al beter. En uitgerekend in bijvoorbeeld Metro was Tahiti ook een flink stuk sneller.

Over het geheel genomen was het stuivertje wisselen tussen GK104 en Tahiti. Tahiti zat op 2560x1600 veelal op hetzelfde niveau, iets eronder op 1080p. Uitschieters waren er naar beide zijden: dingen als Arkham City en BF3 gingen overtuigend naar Nvidia, Serious Sam en Metro overtuigend naar AMD. In beide gevallen een voorsprong voor de winnende partij van 20-30%. Maar gemiddeld zat er nauwelijks verschil in en kwam het vooral neer op welke games je speelde.

Ik denk dus ook dat daar jouw herinnering vandaan komt, wat jij speelde draaide gewoon beter op Nvidia :p
Ah kijk, zo leren we dus nog eens wat. Ik had juist begrepen dat OpenCL juist afgewezen zou worden juist omdat het geen ecosysteem heeft. Zeg maar de andere kant van luiheid namelijk dat zaken voorgekauwd zijn als je een Quadro hebt en je het met AMD zelf moet uitzoeken. :)
Ah nee joh. CUDA en OpenCL zijn beide vrij basaal. Op zichzelf doen ze niets magisch. Het is alleen dat sommige frameworks al bestonden vóór OpenCL en dat die nooit herschreven zijn. Dus gebruikers van die frameworks zijn dan vanzelf geneigd daar bij te blijven.

Het bewijs dat er niets mis is met de performance van OpenCL óf de bruikbaarheid er van is ook niet lastig te vinden. Je hoeft maar naar Final Cut Pro X van Apple te kijken. Mits je een AMD GPU hebt ;)
Ik zou dat niet zeggen. Hawaï ging van twee naar vier shader engines en van 32 naar 44CU's. Waar Tahiti nog een grotere chip was dan GK104 voor vergelijkbare prestaties in gaming, was Hawaï kleiner dan GK110 en net zo goed. Ik vind Hawaï dus relatief beter.
Kleiner, zeker. En niet zo'n beetje ook. Vergelijkbaar in gaming? Meh, vergeleken met een 780 of Titan wel. Maar een 780 Ti ging er toch aardig overheen, gemiddeld toch al gauw tegen de 10%. Het verbruik van Hawaï was ook wel een stuk minder gunstig. Waar Tahiti hooguit 5W verschilde met GK104 (los van Furmark), zat Hawaï toch een 30W boven de geknepen GK110. En in de piek zelfs zo'n 50W.

Hawaï is een voortzetting van Tahiti. Breder gemaakt waardoor er dubbel zo veel geo was en 40% meer rauwe rekenkracht. Dat uitte zich echter ook zoals verwacht: stukje groter, verbruikt iets meer. Het ding deed eigenlijk precies wat je van de specs verwachtte ten opzichte van Tahiti.

GK110 daarentegen is een vreemd ding vergeleken met GK104: anders ingedeeld, vele malen groter, maar daardoor ook ineens weer "terug" qua compute. En het verbruik van dat ding voor z'n idiote afmetingen was eigenlijk best wel knap.

Jij kijkt alleen naar Hawaï ten opzichte van de concurrent, ik kijk naar wat beide partijen intern ook deden. Wat mij betreft deed GK110 hetzelfde wat Tahiti deed.
Als ik het goed begrepen heb dan functioneert een GCN CU in vier SMID clusters van elk 16ALU's. Elk van deze clusters kan tien wavefronts aan, totaal dus veertig. Een wavefront is 64 threads en een CU zou maximaal 2560 threads kunnen klaarzetten voor berekening. Na maximaal veertig wavefronts per CU worden de registers binnen de CU ook weer gerecycled waarna de volgende serie aan threads word ingeladen in het register.
Ah, hier zit een misconceptie. Een CU zet niet 2560 "threads" klaar. Dat gebeurt al daarbuiten.

In een CU zit een branch unit. Dat is de unit die de wavefronts op haalt en scheduled tussen de beschikbare SIMDs - let op de bewoording: de branch unit haalt deze op. Het prepareren van de wavefronts is de taak van de schedulers en dergelijke. De aantallen die je aan haalt kloppen grotendeels maar je interpreteert ze op sommige plekken verkeerd: per CU zijn er 10 wavefronts beschikbaar en er kunnen dus tot 40 wavefronts "in flight" zijn.

Dat gezegd hebbende: de beperking zit in de registers, de branch unit en de aansturing daarvan. Die eerste werkt gewoon op de normale klokfrequentie en heeft dus 4 cycles nodig om elke SIMD aan het werk te zetten; niet geheel ontoevallig inderdaad, want een wavefront van 64 kan in principe in 4 cycles door een SIMD verwerkt worden aangezien die 16 breed zijn. Dus tegen de tijd dat hij weer "terug" bij een SIMD komt heeft die alles verwerkt.

Maar dan krijg je de registers. Het is helaas niet zo dat er altijd 10 wavefronts richting een SIMD geduwd kunnen worden. Een register bevat bij AMD 64 floats. Wederom niet geheel ontoevallig inderdaad. Elk wavefront gebruikt een register per wavefront om de waarden van elke thread in op te slaan. Als je echter een complexe shader hebt, kan het best zijn dat je dusdanig veel waarden nodig hebt dat er maar genoeg registers beschikbaar zijn voor 2 instanties van die shader. Dan kent de branch unit ook slechts 2 wavefronts toe. En als er dan niet meer gereed staat, ligt die SIMD even stil. Dat heeft echter niets met de CU te maken. De CU is een reactief onderdeel: het verwerkt dingen die klaar staan, niets meer en niets minder. Wel is het zo dat GCN een SIMD simpelweg op een ander wavefront zet als er bijvoorbeeld gewacht moet worden op het geheugen.
In theorie klopt dit natuurlijk perfect want 64 threads x 40 wavefronts = 2560 threads. Ik vermoed alleen dat in veel gaming workloads, zelden perfecte 2560 thread clusters bij een CU terechtkomen. Stel dat er maar 1280 threads binnenkomen. Dan is de CU in principe klaar met haar berekeningen in acht clockcycles. De andere vijf clock cycles doet de CU dan niks terwijl deze wacht op de volgende set threads. Dat is zeer inefficiënt.
Dit klopt deels. Het is echter de frontend die vervolgens moet zorgen dat er na die 20 wavefronts weer nieuwe wavefronts klaar worden gezet.
AMD lijkt hier dus wat aan te gaan doen. Ik zie eigenlijk geen andere interpretatie als ze het hebben over een verbeterde, efficiëntere CU. Vervolgens lekte voor de presentatie al uit dat Navi naar acht shader engines zou gaan en 40CU's zou hebben.
Als ze naar 8 shader engines met slechts 5 CU's elk gaan, zegt dat niets over wat elke CU wel/niet is/doet. Dit is precies wat ik eerder zei: ze verbreden de aanvoer. Het verbeteren van de CU's zal eerder slaan op de manier waarop de branch unit z'n wavefronts op haalt en hoe ze registers toewijzen, dan de logische functie/indeling van de CU :)

Acties:
  • 0 Henk 'm!
Werelds schreef op zondag 2 juni 2019 @ 13:16:
Ik weet niet waar je dat laatste vandaan haalt :)
Perceptie van mensen die toch blind Nvidia kochten. O-)
GK104 was echt niet beter. Wel had GK104 uitschieters, maar dat had weinig met GK104 te maken. Dat zoiets als Crysis 2 sneller liep op GK104 was nauwelijks verrassend. Op hogere resoluties was Tahiti vanaf het begin al beter. En uitgerekend in bijvoorbeeld Metro was Tahiti ook een flink stuk sneller.

Over het geheel genomen was het stuivertje wisselen tussen GK104 en Tahiti. Tahiti zat op 2560x1600 veelal op hetzelfde niveau, iets eronder op 1080p. Uitschieters waren er naar beide zijden: dingen als Arkham City en BF3 gingen overtuigend naar Nvidia, Serious Sam en Metro overtuigend naar AMD. In beide gevallen een voorsprong voor de winnende partij van 20-30%. Maar gemiddeld zat er nauwelijks verschil in en kwam het vooral neer op welke games je speelde.

Ik denk dus ook dat daar jouw herinnering vandaan komt, wat jij speelde draaide gewoon beter op Nvidia :p
Ik speelde zowel in de metro van Moscou als de metro van Parijs hoor. Ik zeg ook niet dat GK104 beter was, absoluut niet. Al is het maar omdat ik weet hoe GK104 en Tahiti na een paar jaar presteerden. Was erg tevreden met mijn Tahiti. :+
Kleiner, zeker. En niet zo'n beetje ook. Vergelijkbaar in gaming? Meh, vergeleken met een 780 of Titan wel. Maar een 780 Ti ging er toch aardig overheen, gemiddeld toch al gauw tegen de 10%. Het verbruik van Hawaï was ook wel een stuk minder gunstig. Waar Tahiti hooguit 5W verschilde met GK104 (los van Furmark), zat Hawaï toch een 30W boven de geknepen GK110. En in de piek zelfs zo'n 50W.

Hawaï is een voortzetting van Tahiti. Breder gemaakt waardoor er dubbel zo veel geo was en 40% meer rauwe rekenkracht. Dat uitte zich echter ook zoals verwacht: stukje groter, verbruikt iets meer. Het ding deed eigenlijk precies wat je van de specs verwachtte ten opzichte van Tahiti.

GK110 daarentegen is een vreemd ding vergeleken met GK104: anders ingedeeld, vele malen groter, maar daardoor ook ineens weer "terug" qua compute. En het verbruik van dat ding voor z'n idiote afmetingen was eigenlijk best wel knap.

Jij kijkt alleen naar Hawaï ten opzichte van de concurrent, ik kijk naar wat beide partijen intern ook deden. Wat mij betreft deed GK110 hetzelfde wat Tahiti deed.
En ik kijk juist naar totaal oppervlakte en hou rekening met hoe Hawaï gelanceerd werd. Hawaï was de eerste van de overvolted GCN's. Puur gedaan om er nog een paar procent uit te halen. Niet echt nodig, maar het verpeste de perf/power flink. Vervolgens zou het wat problematisch zijn als een 561mm2 chip langzamer zou zijn dan een 438mm2 chip. Nee, de cut down GK110 matchen was goed genoeg. ;)
Ah, hier zit een misconceptie. Een CU zet niet 2560 "threads" klaar. Dat gebeurt al daarbuiten.

In een CU zit een branch unit. Dat is de unit die de wavefronts op haalt en scheduled tussen de beschikbare SIMDs - let op de bewoording: de branch unit haalt deze op. Het prepareren van de wavefronts is de taak van de schedulers en dergelijke. De aantallen die je aan haalt kloppen grotendeels maar je interpreteert ze op sommige plekken verkeerd: per CU zijn er 10 wavefronts beschikbaar en er kunnen dus tot 40 wavefronts "in flight" zijn.

Dat gezegd hebbende: de beperking zit in de registers, de branch unit en de aansturing daarvan. Die eerste werkt gewoon op de normale klokfrequentie en heeft dus 4 cycles nodig om elke SIMD aan het werk te zetten; niet geheel ontoevallig inderdaad, want een wavefront van 64 kan in principe in 4 cycles door een SIMD verwerkt worden aangezien die 16 breed zijn. Dus tegen de tijd dat hij weer "terug" bij een SIMD komt heeft die alles verwerkt.

Maar dan krijg je de registers. Het is helaas niet zo dat er altijd 10 wavefronts richting een SIMD geduwd kunnen worden. Een register bevat bij AMD 64 floats. Wederom niet geheel ontoevallig inderdaad. Elk wavefront gebruikt een register per wavefront om de waarden van elke thread in op te slaan. Als je echter een complexe shader hebt, kan het best zijn dat je dusdanig veel waarden nodig hebt dat er maar genoeg registers beschikbaar zijn voor 2 instanties van die shader. Dan kent de branch unit ook slechts 2 wavefronts toe. En als er dan niet meer gereed staat, ligt die SIMD even stil. Dat heeft echter niets met de CU te maken. De CU is een reactief onderdeel: het verwerkt dingen die klaar staan, niets meer en niets minder. Wel is het zo dat GCN een SIMD simpelweg op een ander wavefront zet als er bijvoorbeeld gewacht moet worden op het geheugen.

Dit klopt deels. Het is echter de frontend die vervolgens moet zorgen dat er na die 20 wavefronts weer nieuwe wavefronts klaar worden gezet.
Het was misschien al twee uur 's nachts en misschien had ik dit iets beter moeten verwoorden. Verder wou het brein ook gewoon echt niet meer en was dit voor mij ook recentelijk opgedane kennis die nog beter verwerkt moet worden. O-)
Dat is bij mij nog wel eens een klassiek autistisch dingetje. Soms heb ik moeite om de juiste details aan elkaar te koppelen als ik niet geheel vertrouwd ben met het geheel. De correcties zijn dan ook meer dan welkom. :)

Ik begrijp dus dat de CU die wavefronts ophalen en de branch unit deze verdeeld onder de vier SMID's. Ik begrijp ook dat het maximaal tien wavefronts zijn in de CU haar registers. Waar het denk ik mis ging was het concept van "in flight". Bedoel je nu dat dit alle wavefronts zijn omdat het berekenen vier cycles kost, dus tien per SMID register? Ik denk namelijk dat ik hier nog iets mis.


Dan deel twee. Wederom ben ik niet "tegen" de 64 ALU CU, verre van. Het lijkt me juist een van de sterkte kanten van GCN en zeker iets dat AMD door zou moeten zetten. Ik zie alleen wel dat er verbetering mogelijk en nodig is. Je kan front end scheduling behoorlijk verbeteren, maar die CU's blijven beperkt tot tien wavefronts in de huidige configuratie en zijn niet gegarandeerd om deze ook allemaal te krijgen, elke clock cycle.

Oh en voor de mensen die nu meelezen en er geen ene F meer van snappen, plaatje van een GCN (Tahiti) CU. :P
Afbeeldingslocatie: https://images.anandtech.com/doci/4455/GCN-CUTh.png


Als ze naar 8 shader engines met slechts 5 CU's elk gaan, zegt dat niets over wat elke CU wel/niet is/doet. Dit is precies wat ik eerder zei: ze verbreden de aanvoer. Het verbeteren van de CU's zal eerder slaan op de manier waarop de branch unit z'n wavefronts op haalt en hoe ze registers toewijzen, dan de logische functie/indeling van de CU :)
Dat begrijp ik en daar doelde ik zelf op. Voor het gemak ga ik uit dat die 2560SP's/40CU's/8SE klopt. Het dook uit het niks op voor de keynote en opeens bleek Navi geen GCN architectuur meer te zijn. Beetje te toevallig of echt een uitzonderlijk goede gok. ;)

De enige maar lijkt te zijn dat Komachi het had over 64SP CU's die bestaan uit twee 32 ALU SMID's. Dat is toch een behoorlijk andere CU configuratie. Sluit ook aan bij AMD haar claim dat ze een nieuwe CU hebben ontworpen.
Afbeeldingslocatie: https://ic.tweakimg.net/camo/a5a402248bfae3af9671909709e161093775ea70/?url=http%3A%2F%2Foi63.tinypic.com%2Ffz6bt4.jpg
Dit combineer dit met RTX2070 niveau prestaties. Conclusie is dan dar AMD met minder CU's in een dieper SMID ontwerp, veel meer wavefronts zal moeten kunnen verwerken. Dat zal gebeurden door een combinatie van hogere clocks en dus meer clock cycles, maar denk ik ook door een betere opvulling van registers. Daar zou bijvoorbeeld die "super SMID" wel eens terug kunnen komen. Het doel lijkt me namelijk om meer berekeningen uit te voeren met minder ALU's. Naast het verhogen van clockspeeds lijkt me de beste manier om dat te bereiken, het opvullen van gaten in de que te zijn. Potentieel sluit het ook aan bij de claim dat er een nieuwe cache hiërarchie is. :)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!
DaniëlWW2 schreef op zondag 2 juni 2019 @ 14:57:
Het was misschien al twee uur 's nachts en misschien had ik dit iets beter moeten verwoorden. Verder wou het brein ook gewoon echt niet meer en was dit voor mij ook recentelijk opgedane kennis die nog beter verwerkt moet worden. O-)
Dat is bij mij nog wel eens een klassiek autistisch dingetje. Soms heb ik moeite om de juiste details aan elkaar te koppelen als ik niet geheel vertrouwd ben met het geheel. De correcties zijn dan ook meer dan welkom. :)

Ik begrijp dus dat de CU die wavefronts ophalen en de branch unit deze verdeeld onder de vier SMID's. Ik begrijp ook dat het maximaal tien wavefronts zijn in de CU haar registers. Waar het denk ik mis ging was het concept van "in flight". Bedoel je nu dat dit alle wavefronts zijn omdat het berekenen vier cycles kost, dus tien per SMID register? Ik denk namelijk dat ik hier nog iets mis.
Denk dat je het beste deze eens door kunt lezen :)

Het belangrijkste dat je moet beseffen is dat het allemaal "up to" cijfertjes zijn en dat hoewel GCN niet out-of-order is, het intern wel veel dingen asynchroon doet. OOO zou betekenen dat wavefronts 1 t/m 5 best in volgorde 4, 1, 3, 2, 5 afgewerkt kunnen worden. Dat is niet zo, maar een SIMD kan best al iets voor wavefront 4 aan het doen zijn terwijl 1 nog niet "af" is.

Dat leggen ze ook uit in de whitepaper.

Acties:
  • 0 Henk 'm!
Werelds schreef op zondag 2 juni 2019 @ 15:15:
[...]

Denk dat je het beste deze eens door kunt lezen :)
AMD whitepapers lezen voor informatie over AMD producten? Belachelijke suggestie dit zeg. :P
Maar het helderde weer wat kleine details op voor het geheel. :)
Het belangrijkste dat je moet beseffen is dat het allemaal "up to" cijfertjes zijn en dat hoewel GCN niet out-of-order is, het intern wel veel dingen asynchroon doet. OOO zou betekenen dat wavefronts 1 t/m 5 best in volgorde 4, 1, 3, 2, 5 afgewerkt kunnen worden. Dat is niet zo, maar een SIMD kan best al iets voor wavefront 4 aan het doen zijn terwijl 1 nog niet "af" is.

Dat leggen ze ook uit in de whitepaper.
Dit had ik allemaal nog meegekregen. Maar nu nog iets meer dan een week wachten en dan is de RDNA reveal bij E3. Ik vermoed dat de 40CU's/2x32SMID en 8SE's kloppen. Dat lijkt ook mogelijk in de 255mm2 die nu van meerdere kanten voorbij is gekomen voor Navi 10.

Gaat interessant worden wat AMD dan heeft gedaan met frontend en CU ontwerp. Ik vraag me vooral af of het echt die "super SMID" gaat zijn. Dat zou nog eens interessant kunnen worden als AMD bijvoorbeeld 64 thread wavefronts blijft gebruiken. Dan zou een wavefront uitvoeren nog maar minimaal 2 clock cycles zijn en niet minimaal vier. Vervolgens is het dan de vraag wat de speculatieve maar geïmpliceerde VLIW2 uit de "super SMID" zou doen. Bepaalde out of order executions lijkt me om berekeningen sneller af te handelen, maar hoe dat zou werken is de vraag. :)

Verder gaan we het nu Radeon DNA noemen of toch Raja DNA? Not sure. :z

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Saturnus
  • Registratie: Februari 2005
  • Niet online
DaniëlWW2 schreef op zondag 2 juni 2019 @ 21:23:

Verder gaan we het nu Radeon DNA noemen of toch Raja DNA? Not sure. :z
traitoR DNA.

Hopen dat de X5800XT volgend jaar niet te duur is. Anders een goedkopere X5700XTX.

Acties:
  • +1 Henk 'm!
Don't be like that. :N
RDNA zal minstens vier jaar in ontwikkeling zijn geweest. Het zal ontwikkeld zijn onder leiding van Koduri.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.

Pagina: 1 ... 41 ... 52 Laatste

Let op:
We krijgen de laatste tijd vanuit verschillende hoeken klachten over de gevoerde toon in deze topicserie. Laten we het een beetje gezellig houden. Probeer alleen op de feiten te reageren en je statements te onderbouwen met bronnen. Dram daarbij niet door, als een ander ook na onderbouwing een andere mening toegedaan blijft is daar niets mis mee. Laat sneren en op de man teksten achterwege, dan blijft het voor iedereen leuk.