Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Good news everyone !

https://www.pcgamer.com/n...emand-for-graphics-cards/
This may not be strictly gaming related, but in what is sure to please gamers hoping to upgrade to a new graphics card, Bitmain has announced pre-orders for its upcoming Antminer E3. The new ASIC will target the Ethash / DaggerHashimoto algorithm, currently used by Ethereum, Ethereumclassic, Ubiq, Piri, and several other cryptocurrencies. Prior to the arrival of the E3 ASIC, Ethereum has been one of the favorite mining targets for GPU miners, with droves of AMD and Nvidia GPUs working in the mines. The improvements in efficiency and performance from E3 should put a stop to that—though other algorithms like Equihash, Neoscrypt, and more remain.

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Zowel in aanschaf als verbruik goedkoper dan videokaarten dus. Qua aanschaf zelfs enorm veel goedkoper!

Ik ben benieuwd of en hoe snel we daar iets van gaan merken in 2e hands aanbod.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • MonkeyJohn
  • Registratie: Oktober 2014
  • Laatst online: 19-08 20:11
Ik denk dat de focus gewoon verschuift naar de volgende random 'crypto currency' die goed te minen is met een GPU, ik zou er niet teveel van verwachten.

Acties:
  • 0 Henk 'm!

  • Derby
  • Registratie: Januari 2010
  • Niet online
MonkeyJohn schreef op woensdag 4 april 2018 @ 09:35:
Ik denk dat de focus gewoon verschuift naar de volgende random 'crypto currency' die goed te minen is met een GPU, ik zou er niet teveel van verwachten.
Kijk eens naar de website van de makers van die ASICS. Voor een aanzienlijk deel van de algo's is er ondertussen een miner te bestellen. Er staat zelfs bij elk product wanneer de volgende batch verzonden zal worden.

https://shop.bitmain.com/product/main

Als de prijzen in het minen zo slecht blijven, zal de verkoop van de asic miners ook niet hard lopen, terwijl de mensen die al een mining rig hebben die investering al gedaan hebben en daardoor dus ook wel zullen blijven minen.
Tenzij er nu weer mensen nieuwe algoritmes gaan ontwikkelen waar nog geen asics voor zijn kan dit wel eens de doodsteek worden voor minen op gpu's.

Mocht navi met een nieuwe architectuur komen, of de opvolger van navi, dan is er weer opnieuw kans dat minen met gpu's tijdelijk weer interessant wordt omdat een nieuw architectuur ook de mogelijkheid voor een nieuw algoritme open laat.

If liberty means anything at all it means the right to tell people what they do not want to hear - Eric Arthur Blair


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik vermoed dat de Eth ASIC’s de druppel op de emmer is aangezien het lucratieve steeds minder en minder wordt door de toenemende moeilijkheid en het ontbreken aan snellere hardware voor een betere prijs. Mijn verwachting is dat de kleine GPU miners (die wat toch minen voor de snelle graai) er massaal mee gaan kappen dit kwartaal. Ethereum zijn waarde is bijna dezelfde als 6 maanden geleden en met binnenkort deze influx aan extra rekenkracht ziet het er niet rooskleurig uit.

https://www.worldcoinindex.com/coin/ethereum

Acties:
  • +1 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 13:38
De diepe wonden van de gpu apocalypse worden nu echt zichtbaar:

V&A aangeboden: Watergekoelde Asus ROG Strix GeForce GTX 1050 OC edition 2GB

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • +1 Henk 'm!

Verwijderd

Wedden dat het de komende weken/maanden nog veel leuker wordt. :)
Niet dat ik aanraad om gebruikte 'mining' kaarten te kopen maar dat is een ander verhaal.\

Zonder op die persoon in te hakken, ik geloof het nooit als mensen dit zo sterk benadrukken. De meeste mensen die weinig met een kaart hebben gedaan hebben niet de behoefte te benadrukken, in mijn ervaring.
"Hier na is de kaart op de plank terecht gekomen en nimmer gebruikt!"
Slechts een bedenking, misschien is het bij hem wel waar. Ik begrijp overigens niet waarom je een 1050 Ti zou waterkoelen, erg nuttig is dat niet voor gewoon gaming. :?

[ Voor 30% gewijzigd door Verwijderd op 08-04-2018 22:29 ]


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
lmao @ waterkoeling.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • DoubleYouPee
  • Registratie: Mei 2011
  • Laatst online: 22-09 23:46
Ik heb in januari 2014 mijn R9 280X nieuw gekocht voor 260 euro en die is een stukker sneller _O-

Acties:
  • 0 Henk 'm!

Verwijderd

In aanvulling hierop (het is ontopic, de prijs van geheugen bepaalt mee de prijs van de grafische kaarten), ook de RAM-prijzen lijken eindelijk langzaam maar zeker te dalen, vooral bij G Skill valt dit mij op. Corsair Vengeance nog niet, dat is te populair voor Ryzen? Zoek maar eens op 3000/3200 MT/s. Nog verre van wat het hoort te zijn maar het begin lijkt te zijn ingezet: 2*8 GB (de norm tegenwoordig) 3000 MT/s vanaf €156, 3200 MT/s vanaf €171. Ofwel is de prijs gedaald ofwel is de prijs vlak maar in ieder geval is de prijs niet meer aan het stijgen. Het is vreemd dat dat een lichtpuntje is voor de hardwareliefhebber maar zo is het.
Eerstewereldproblemen, ik beken schuld.

[ Voor 5% gewijzigd door Verwijderd op 08-04-2018 23:56 ]


Acties:
  • 0 Henk 'm!

  • Mantis
  • Registratie: Maart 2003
  • Laatst online: 17:05
Blaat schreef op woensdag 4 april 2018 @ 08:36:
[...]
Zowel in aanschaf als verbruik goedkoper dan videokaarten dus. Qua aanschaf zelfs enorm veel goedkoper!
Ik ben benieuwd of en hoe snel we daar iets van gaan merken in 2e hands aanbod.
Er staan op dit moment al een 13-tal mining rigs op Tweakers B&S. Snel samengeteld zo'n 86 videokaarten 8)

Acties:
  • 0 Henk 'm!

Verwijderd

Ja, een normaal mens zou dan een 1060 6 GB kopen of zo (en niet waterkoelen), of een RX 580 als die er wat meer verstand van heeft, bij normale prijzen. :X
Ja, het zal wel zijn dat hij de setup al gereed had en het toen per se wou gebruiken. Wedden dat hij de kaart te koop aanbood omdat hij merkte dat het geen enkel effect heeft op de klokfrequentie om dat te waterkoelen?
Sowieso begrijp ik weinig van custom waterkoeling tenzij het echt je hobby is om daarmee te spelen (een dure hobby maar verder kan ik me daar wel wat bij voorstellen en ben ik stiekem een beetje jaloers :$ ) maar doe dat bij een 1080 Ti en een SkylakeX met 18 kernen.
Mantis schreef op maandag 9 april 2018 @ 00:16:
[...]

Er staan op dit moment al een 13-tal mining rigs op Tweakers B&S. Snel samengeteld zo'n 86 videokaarten 8)
Mensen die verkeerd hebben gegokt en te laat instapten op het moment dat de opbrengst terugliep zodat ze nu snel hun spul willen verkopen voor een 'redelijke' prijs nu het nog kan?

[ Voor 69% gewijzigd door Verwijderd op 09-04-2018 00:48 ]


Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 13:38
Verwijderd schreef op zondag 8 april 2018 @ 22:25:
[...]
Ik begrijp overigens niet waarom je een 1050 Ti zou waterkoelen, erg nuttig is dat niet voor gewoon gaming. :?
Het is nog mooier dan dat, het gaat om een 1050(non-ti)2gb. Omdat er geen 1070/1080 leverbaar was, mss was het blok compatible maar.. 0_o

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • 0 Henk 'm!

Verwijderd

Ai! Ik heb me de Ti ingebeeld omdat ik het me zo erg niet kon voorstellen, dat zegt genoeg. :)
De 1050 Ti is een 75W kaart als ik me niet vergis. Thanks @aminam, je hebt me ons goed laten lachen.
Nog eventjes over dat artikel. Dit is toch wel een 'beetje' gestoord.

Bitmain reportedly has been ordering 20,000 wafers per month from TSMC for its Bitcoin-focused Antminer S9. That's more wafers than Nvidia orders per month, if that number is correct, and the E3 will likely increase that number.

[ Voor 59% gewijzigd door Verwijderd op 09-04-2018 00:57 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:07
Verwijderd schreef op zondag 1 april 2018 @ 23:01:
[...]

Niemand van ons heeft een glazen bol maar hier gefundeerde speculatie.
Mijn glazen bol voorspelde in 2016 dat Radeon in eerste instantie circa een jaar later met een antwoord op Nvidia high end zou komen (R&D hamer verhaal). Dat deel is helaas uitgekomen. Tweede deel van de voorspelling was dat een launch bij de volwaardige generatie daarna helemaal achterwege zou blijven. Nvidia heeft tot heden geen nieuwe architectuur gelanceerd, mogelijk binnenkort Volta?, dus of dat gaat uitkomen is nog even afwachten. Niemand zit daar echt op te wachten, maar het is helaas nog altijd mogelijk. De eerste geluiden over Navi zijn heel erg negatief (tweaktown) en we hebben het bij CPU destijds ook gezien. Dus ondenkbaar is het zeker niet.
De nodeshrink zal de performance verbeteren (want lager vermogen en minder hitte, de Vega64 kan veel beter presteren maar wordt beperkt door het hoge vermogen wat daarvoor nodig is en de hoge temperatuur die hierdoor ontstaat) dus als jouw vraag is of dat de volgende generatie kaarten van AMD die de 7 nm. GF/TSMC node gebruikt beter zullen presteren dan de 1080 Ti, dan is het antwoord hierop volmondig ja. Als jouw vraag is of dat AMD tussen nu en pak hem beet 2023 Nvidia van de troon stoot in de highend. Alleen als AMD straks met multi-die GPU's komt zoals het met de CPU's deed. Dat is mogelijk maar we moeten het afwachten. De kans is aanwezig dat Navi een multi-die GPU wordt. De beperking dat grafische kaarten van AMD minder goed uitvallen bij grotere diesizes (FuryX, Vega64) hangt samen met de huidige architectuur, die architectuur is op zich prima maar het vermogen loopt te ver op voor gaming (niet voor andere applicaties). AMD gaat na Navi een nieuwe architectuur invoeren maar het duurt een paar jaar voordat de eerste kaarten daarvan verschijnen.

Investeren in een G-Sync monitor? Hoe graag betaal je €200 extra per monitor? Als jij slechts (ultrawide) 1440p wil dan is Vega56 al geschikt, met de eerstvolgende generatie kaarten (ergens tussen nu en begin 2019) zal je zeker genoeg performance hebben, ook voor ultrawide 1440p en 100 FPS. Ik zou sowieso nog even rustig de kat uit de bomen kijken gezien de prijzen van de grafische kaarten. Het ineenstorten van crypto'munten' kan het wat verbeteren maar dat lost nog niet het probleem op dat GDDR5 momenteel absurd duur is.


[...]

Momenteel is geen enkele grafische kaart goed geprijsd. :')
Het is onzin dat Vega niet efficiënt is, Vega56 haalt een prima efficiëntie, bij Vega64 loopt het om de eerder genoemde reden uit de hand. Een Vega56 is alles wat je nodig hebt voor 1440p en die kaart was voor een goede prijs verkrijgbaar via Duitsland, maar nu niet meer. Waarschijnlijk door 'mining'.
Die uitspraak lijkt mij gewoon accuraat
Afbeeldingslocatie: https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_56/images/perfwatt_1920_1080.png
Natuurlijk hoor je hier en daar verhalen over users die met minder volt meer Mhz halen maar dat lijkt mij zeker niet genoeg om die uitspraak mee te ontkrachten. Appels met appels is het gat groot.

Een vega56 uit duitsland? Tsja wat moest dat kosten? Vermoedelijk had je voor hetzelfde geld een jaar eerder een 1070 kunnen halen. De EVGA 1070 FTW zat in ieder geval op 465 euro, gewoon bij Megekko.

Dat G-sync zo duur is speelt voorlopig in het voordeel van AMD. Dat is nog een beetje de laatste stok om mee te slaan. Op dit moment een gpu kopen zou ik hoe dan ook niet doen. Er zit nu veel in de lucht. Mogelijk gaan de V&A prijzen dalen en mogelijk komt Nvidia deze zomer met een nieuwe lineup. Dat in combinatie met de hoge prijzen maken het aanschaffen van een dure gpu nu onverstandig wat mij betreft. edit: Ik zie op reddit zelfs al foto's voorbij komen van AMD kaarten op voorraad in winkels.

Wellicht is nu investeren in een duurdere monitor zo gek nog niet. Tot heden heb ik nog nooit een defecte LCD monitor gehad. Heb nog een eerste generatie Belinea (1024x768) en Phlips staan (1280x1024), niet stuk te krijgen... Tijdens de crisis zelf een ultrawide met variabele stand gekocht a 350 euro. Vond ik toen duur. Momenteel lijkt 500 tot 1000 euro het nieuwe normaal te zijn voor een monitor :P . Het is alleen erg jammer dat G-sync monitoren niet ook free-sync ondersteunen en dat je dus moet kiezen.

[ Voor 10% gewijzigd door sdk1985 op 09-04-2018 02:49 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!
Er lijkt toch wat te spelen met AMD dit jaar. De RX 500X serie, maar deze is ook opgedoken.

http://webcache.googleuse...b/3191/radeon-rx-vega-64x

Dat is een RX Vega refresh op 7nm. Veel te weinig HBM2 voor een dedicated HPC kaart. Het lijkt dus op een 7nm refresh uit te gaan draaien voor AMD. Daarmee zullen ze alleen het mainstream segment kunnen dekken.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

DaniëlWW2 schreef op maandag 9 april 2018 @ 10:30:
Er lijkt toch wat te spelen met AMD dit jaar. De RX 500X serie, maar deze is ook opgedoken.

http://webcache.googleuse...b/3191/radeon-rx-vega-64x

Dat is een RX Vega refresh op 7nm. Veel te weinig HBM2 voor een dedicated HPC kaart. Het lijkt dus op een 7nm refresh uit te gaan draaien voor AMD. Daarmee zullen ze alleen het mainstream segment kunnen dekken.
Met een TDP van 250w (mits correct) lijkt me dat geen refresh op 7nm, eerder 12nm. :O

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!
Blaat schreef op maandag 9 april 2018 @ 11:03:
[...]


Met een TDP van 250w (mits correct) lijkt me dat geen refresh op 7nm, eerder 12nm. :O
TDP is geen waarde voor verbruik of een accurate weergave hiervan hé. ;)
Het is klassering voor koelingseisen die vaak niet accuraat is. Haal jij 250W verbruik dit met je undervolted Vega? Dat is namelijk eerder de vraag. Vega op 7nm zou hoger moeten kunnen clocken. Zet AMD het voltage dan weer eens op een niet bezopen 1000mv, dan zal het werkelijke verbruik een stuk lager moeten liggen.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

DaniëlWW2 schreef op maandag 9 april 2018 @ 11:17:
[...]


TDP is geen waarde voor verbruik of een accurate weergave hiervan hé. ;)
Het is klassering voor koelingseisen die vaak niet accuraat is. Haal jij 250W verbruik dit met je undervolted Vega? Dat is namelijk eerder de vraag. Vega op 7nm zou hoger moeten kunnen clocken. Zet AMD het voltage dan weer eens op een niet bezopen 1000mv, dan zal het werkelijke verbruik een stuk lager moeten liggen.
Misschien heb je gelijk, maar ik moet zeggen dat Vega op 7nm als een broodje aap klinkt. Het is voor zover ik weet nog nooit voorgekomen bij videokaarten dat een volledige die shrink dezelfde architectuurnaam gpu codenaam meekrijgt.

Nee. Gezien de bescheiden prestatiewinst en het behoud van de naam Vega zet ik mijn geld in op een 12nm refresh. Hetzelfde geldt voor de RX580X.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!
Blaat schreef op maandag 9 april 2018 @ 11:32:
[...]


Misschien heb je gelijk, maar ik moet zeggen dat Vega op 7nm als een broodje aap klinkt. Het is voor zover ik weet nog nooit voorgekomen bij videokaarten dat een volledige die shrink dezelfde architectuurnaam meekrijgt.

Nee. Gezien de bescheiden prestatiewinst en het behoud van de naam Vega zet ik mijn geld in op een 12nm refresh. Hetzelfde geldt voor de RX580X.
Als het 12nm is, dan zullen ze er in ieder geval eerder zijn dan Nvidia. Wel krijgen we dan weer een "R9 300 serie". :/

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • DoubleYouPee
  • Registratie: Mei 2011
  • Laatst online: 22-09 23:46
Blaat schreef op maandag 9 april 2018 @ 11:03:
[...]


Met een TDP van 250w (mits correct) lijkt me dat geen refresh op 7nm, eerder 12nm. :O
Die waardes zijn placeholders...

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
DoubleYouPee schreef op maandag 9 april 2018 @ 12:16:
[...]

Die waardes zijn placeholders...
Dit. Ze gaan echt niet nog een generatie uitbrengen met hbm dat maar op 945MHz draait, nog los van de rest.

[ Voor 4% gewijzigd door foppe-jan op 09-04-2018 12:24 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!
Blaat schreef op maandag 9 april 2018 @ 11:32:
Misschien heb je gelijk, maar ik moet zeggen dat Vega op 7nm als een broodje aap klinkt. Het is voor zover ik weet nog nooit voorgekomen bij videokaarten dat een volledige die shrink dezelfde architectuurnaam meekrijgt.
Fermi heeft althans gewoon een shrink gehad van 40nm naar 28nm voor sommige chips hoor ;)

Maar belangrijker nog, Tesla. En dan heb ik het over de architectuur, niet de product reeks. Begon met G80 op 90nm, eindigde met GT200b op 55nm (wat een half-shrink was van GT200 op 65nm). Of, als ik pietluttig ben, zelfs met GT215/216/218 op 40nm. Maar G80 zelf heeft zowel een half-shrink naar 80 als een full-shrink naar 65 gehad. G92 begon op 65, half-shrink naar 55.

En ja, GT200 was gewoon nog steeds Tesla. Dat is waar de T in de naam voor staat.

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Werelds schreef op maandag 9 april 2018 @ 14:43:
[...]

Fermi heeft althans gewoon een shrink gehad van 40nm naar 28nm voor sommige chips hoor ;)

Maar belangrijker nog, Tesla. En dan heb ik het over de architectuur, niet de product reeks. Begon met G80 op 90nm, eindigde met GT200b op 55nm (wat een half-shrink was van GT200 op 65nm). Of, als ik pietluttig ben, zelfs met GT215/216/218 op 40nm. Maar G80 zelf heeft zowel een half-shrink naar 80 als een full-shrink naar 65 gehad. G92 begon op 65, half-shrink naar 55.

En ja, GT200 was gewoon nog steeds Tesla. Dat is waar de T in de naam voor staat.
Kom eens met een ATI/AMD voorbeeld. :p

Los daarvan, ik blijf erbij dat een 7nm Vega onwaarschijnlijk is. Ik denk namelijk wel (gezien de info die we hebben rondom de RX580x, die dus met de x er achter overeen komt qua naamgeving) dat die 5% performance increase klopt. En ik geloof domweg niet dat dat alles is wat te bereiken valt met de stap naar 7nm.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!
Blaat schreef op maandag 9 april 2018 @ 15:13:
Kom eens met een ATI/AMD voorbeeld. :p
TeraScale? 80, 65, 55 en 40nm ;)

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Werelds schreef op maandag 9 april 2018 @ 15:18:
[...]

TeraScale? 80, 65, 55 en 40nm ;)
Die Gpu's hadden toch stuk voor stuk wel andere codenamen of ben ik nu waus?

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!
Blaat schreef op maandag 9 april 2018 @ 15:22:
[...]


Die Gpu's hadden toch stuk voor stuk wel andere codenamen of ben ik nu waus?
GPU codenaam != architectuur :)

R520, R600 en RV770 zijn verschillende chips, maar overduidelijk dezelfde architectuur. RV770 had heel ingrijpende wijzigingen in specifieke onderdelen (ROPs vele malen beter, geen ring bus meer maar een crossbar, een nieuwe UVD) en in andere verhoudingen, maar hoe dat allemaal samenhing was niet echt anders. Als je op codenamen af gaat dan bestond de HD5000 serie uit wel heel veel verschillende architecturen..Hemlock (:+), Cypress, Juniper, Redwood, Cedar.

Dat is ook waarom ik zo hard ben wat Maxwell en Pascal betreft. Pascal is gewoon overduidelijk Maxwell maar met de andere naam probeert Nvidia de illusie te wekken dat het iets heel anders is.

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Werelds schreef op maandag 9 april 2018 @ 15:32:
[...]

GPU codenaam != architectuur :)
[...]
Ja en daar gaat het dus juist om. Vega 64x zou op 7nm geen Vega meer heten omdat bij een die shrink de codenaam van de GPU verandert.

De architectuur is namelijk nog steeds GCN, dat weet ik ook wel.

Jullie struikelen over het feit dat ik architectuurnaam zei, wat ik bedoelde was GPU codenaam, wat Vega in feite is.

Is mijn punt nu duidelijk? :P

[ Voor 15% gewijzigd door Blaat op 09-04-2018 15:58 ]

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op maandag 9 april 2018 @ 10:30:
Er lijkt toch wat te spelen met AMD dit jaar. De RX 500X serie, maar deze is ook opgedoken.
In twee jaar tijd twee keer een X-versie, de 580 was immers al een 480X etc. , alleen niet zo genoemd, want marketing...
Alle vooruitgang is mooi meegenomen maar het is niet iets om enthousiast over te worden.
Wat betreft die VegaX, 250W voor een performance die net iets hoger ligt dan de Vega64 @stock is leuk maar met die naam vrees ik dat de prijs niet lager zal worden dan de MRSP van de Vega64. Zou het op papier niet minder duur moeten zijn om die Vega64X te maken? De kosten per vierkante micrometer wafer neemt toe (meer lagen) maar het totale oppervlakte daalt met ongeveer de helft, tenzij het aantal lagen ongeveer verdubbelt zouden de kosten dan toch moeten dalen? Ik ben benieuwd hoe het met de HBM-productie is gesteld. Problemen bijna opgelost of nog steeds problematisch?

Hier de gelekte informatie aangezien Google-cache over een paar dagen overschreven is. En omdat Techpowerup vervelende flikkerende adds (ik trek de grens bij statische ads) heeft die om aandacht schreeuwen waardoor je niet rustig op de website zelf kan lezen. Misschien toch maar eens een fullscreen-read-addon installeren die dat blokkeert?
AMD Radeon RX Vega 64X
Vega 20
Graphics Processor
4096
Cores
256
TMUs
64
ROPs
8192 MB
Memory Size
HBM2
Memory Type
2048 bit
Bus Width
This graphics card is not released yet.
Data on this page may change in the future.
The Radeon RX Vega 64X is a graphics card by AMD that is not released yet. Built on the 7 nm process, and based on the Vega 20 graphics processor, in its Vega 20 XT variant, the card supports DirectX 12.0. It features 4096 shading units, 256 texture mapping units and 64 ROPs. AMD has placed 8,192 MB HBM2 memory on the card, which are connected using a 2048-bit memory interface. The GPU is operating at a frequency of 1300 MHz, which can be boosted up to 1600 MHz, memory is running at 945 MHz.
We recommend the AMD Radeon RX Vega 64X for gaming with highest details at resolutions up to, and including, 3840x2160 (4K).
Being a dual-slot card, the AMD Radeon RX Vega 64X draws power from 2x 8-pin power connectors, with power draw rated at 250 W maximum. Display outputs include: 1x HDMI, 3x DisplayPort. Radeon RX Vega 64X is connected to the rest of the system using a PCIe 3.0 x16 interface. The card measures 279 mm in length, and features a dual-slot cooling solution.
Graphics Processor
GPU Name: Vega 20
GPU Variant: Vega 20 XT
Architecture: GCN 5.0
Process Size: 7 nm
Transistors: unknown
Die Size: unknown
Graphics Card
Released: Unreleased
Production Status: Unreleased
Bus Interface: PCIe 3.0 x16
Clock Speeds
GPU Clock: 1300 MHz
Boost Clock: 1600 MHz
Memory Clock: 945 MHz
1890 MHz effective
Memory
Memory Size: 8192 MB
Memory Type: HBM2
Memory Bus: 2048 bit
Bandwidth: 483.8 GB/s
Render Config
Shading Units: 4096
TMUs: 256
ROPs: 64
Compute Units: 64
Pixel Rate: 102.4 GPixel/s
Texture Rate: 409.6 GTexel/s
Floating-point performance: 13,107 GFLOPS
Board Design
Slot Width: Dual-slot
Length: 11 inches
279 mm
TDP: 250 W
Outputs: 1x HDMI
3x DisplayPort
Power Connectors: 2x 8-pin
Graphics Features
DirectX: 12.0
OpenGL: 4.6
OpenCL: 2.0
Shader Model: 6.0
Reviews
Our review database contains 49 reviews of the Radeon RX Vega 64X.
Vega 20 GPU Notes
Graphics/Compute: GFX9
Display Core Engine: 12.0
Unified Video Decoder: 7.0
Video Compression Engine: 4.0
DaniëlWW2 schreef op maandag 9 april 2018 @ 11:17:
Zet AMD het voltage dan weer eens op een niet bezopen 1000mv, dan zal het werkelijke verbruik een stuk lager moeten liggen.
Hoe sterk is de benodigde gemiddelde spanning de laatste jaren gedaald? Toen ik mijn kaart op 1050 mV zette crashte Windows. _O-
1085 gaat wel nog, bij desktop in ieder geval. Ik heb het nog niet geprobeerd om ermee te gamen, dat doe ik juist overklokt met een minimaal verhoogde spanning om het stabiel te houden, tenzij ik iets als FTL speel uiteraard.

[ Voor 8% gewijzigd door Verwijderd op 09-04-2018 16:20 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:07
Verwijderd schreef op maandag 9 april 2018 @ 16:09:
[...]

In twee jaar tijd twee keer een X-versie, de 580 was immers al een 480X etc. , alleen niet zo genoemd, want marketing...
Alle vooruitgang is mooi meegenomen maar het is niet iets om enthousiast over te worden.
In zo verre is het positief dat er blijkbaar budget is voor een refresh. In de laatste jaren voor Polaris zag je echte rebrands; identieke chips met een andere naam. Net even nagekeken en in de 300 reeks zaten nog 8 GCN gen1 kaarten. Er zaten er bij die 3x van naam zijn gewisseld. Toen was er geen geld om deze kaarten te 'upgraden' naar GCN 2/3. Als nu de hele lineup daadwerkelijk een refresh krijgt dan is dat toch een heel ander beleid. De pest is natuurlijk wel dat die lagere nm wellicht iets te snel komt, architectureel is er immers nog niets nieuws. Tenzij ze van de gelegenheid gebruik maken om Vega wat af te slanken door de ongebruikte features eraf te slopen.
Verwijderd schreef op maandag 9 april 2018 @ 16:09:
[...]

Ik ben benieuwd hoe het met de HBM-productie is gesteld. Problemen bijna opgelost of nog steeds problematisch?


[...]
Niemand weet het echt, vorig jaar waren de geruchten 150-160 dollar per Vega. Toen heeft SK Hynix al gemeld dat klanten 2.5x de prijs (van GDDR?) bereid waren te betalen. Gezien de prijzen die Nvidia kan rekenen in het hoogste segment zal daar niets aan zijn veranderd. Het is meer wat de gek ervoor geeft dan wat het kost om te maken. Op basis daarvan denk ik niet dat daar nu iets is verbeterd.
Hoe sterk is de benodigde gemiddelde spanning de laatste jaren gedaald? Toen ik mijn kaart op 1050 mV zette crashte Windows. _O-
1085 gaat wel nog, bij desktop in ieder geval. Ik heb het nog niet geprobeerd om ermee te gamen, dat doe ik juist overklokt met een minimaal verhoogde spanning om het stabiel te houden, tenzij ik iets als FTL speel uiteraard.
Kleinere nm, lagere mv.

[ Voor 68% gewijzigd door sdk1985 op 09-04-2018 16:35 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!
Blaat schreef op maandag 9 april 2018 @ 15:55:
[...]


Ja en daar gaat het dus juist om. Vega 64x zou op 7nm geen Vega meer heten omdat bij een die shrink de codenaam van de GPU verandert.
Uh nee. :P
Bij AMD is er geen relatie tussen architectuurnaam en productieproces. Er is geen enkele technische reden waarom ze de Vega architectuur niet opnieuw uit kunnen brengen, maar dan nu gebakken op 7nm. Er is ook geen verplichting dat de overstap naar 7nm gepaard zal gaan met een grote verbetering in prestaties ten opzichte van de op 14nm gebakken chips.

Je zet het ontwerp van de chip over naar het proces. Het blijven respectievelijk 5,7 en 12,5 miljard transistoren voor de Polaris 10 en Vega 10 chips. De chips worden gewoon kleiner dan 232mm2 en 484mm2 omdat de transistoren kleiner worden. Vervolgens kan je eventueel de clocks omhoog gooien als het 7nm procede van TSMC dit toestaat. Daar lijkt een limitering te zijn bij 14nm van Samsung/GoFlo, waardoor dit aannemelijk is.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

sdk1985 schreef op maandag 9 april 2018 @ 16:21:
[...]

In zo verre is het positief dat er blijkbaar budget is voor een refresh, en dus niet zoals in je jaren voor Polaris met echte rebrands op basis van identieke chips.
Ik kan het je niet kwalijk nemen dat jij het een rebrand noemt - veel scheelde het niet - maar er was wel iets gewijzigd aan het productieproces waardoor het net wat hoger klokte. Het was meer dan enkel overklokken @factory. Maar niet veel meer.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:07
Verwijderd schreef op maandag 9 april 2018 @ 16:23:
[...]

Ik kan het je niet kwalijk nemen dat jij het een rebrand noemt - veel scheelde het niet - maar er was wel iets gewijzigd aan het productieproces waardoor het net wat hoger klokte. Het was meer dan enkel overklokken @factory. Maar niet veel meer.
Misverstandje dan. Want ik zie zo'n 580X niet als echte rebrand, althans niet bij kleinere nm. Ik doelde op de tijd vóór Polaris waarbij we dezelfde kaarten tot drie keer toe terug zagen komen onder een andere SKU. Zal het even editen. Ik vind het vooral positief als AMD eens een keer niet stil zit en toekijkt hoe de andere bedrijven er met de markt vandoor gaan.

[ Voor 11% gewijzigd door sdk1985 op 09-04-2018 16:37 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

DaniëlWW2 schreef op maandag 9 april 2018 @ 16:21:
[...]

Uh nee. :P
Bij AMD is er geen relatie tussen architectuurnaam en productieproces. Er is geen enkele technische reden waarom ze de Vega architectuur niet opnieuw uit kunnen brengen, maar dan nu gebakken op 7nm. Er is ook geen verplichting dat de overstap naar 7nm gepaard zal gaan met een grote verbetering in prestaties ten opzichte van de op 14nm gebakken chips.

Je zet het ontwerp van de chip over naar het proces. Het blijven respectievelijk 5,7 en 12,5 miljard transistoren voor de Polaris 10 en Vega 10 chips. De chips worden gewoon kleiner dan 232mm2 en 484mm2 omdat de transistoren kleiner worden. Vervolgens kan je eventueel de clocks omhoog gooien als het 7nm procede van TSMC dit toestaat. Daar lijkt een limitering te zijn bij 14nm van Samsung/GoFlo, waardoor dit aannemelijk is.
Volgens mij draaien we in kringetjes rond. :P

Is het niet zo (bij mijn weten wel iig) dat een die shrink bij een half node betrekkelijk simpel is maar bij een full node niet? Dat wil zeggen dat je bij een full node stap wel degelijk wijzigingen moet doorvoeren aan de chip om de boel werkzaam te houden.

Nou is of dat een codenaamverandering bewerkstelligt volledig aan AMD, maar het verleden leert ons dat AMD dit doet. Net zoals bij Tahiti,Tonga en Antigua, welke zelfs alledrie op 28nm werden gebakken. En echt fundamentele wijzigingen hadden die drie niet.

Nou ja, ik moet wel eerlijk zijn, koffiedik kijken is het sowieso. Ik gok 12nm! :)

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

Verwijderd

sdk1985 schreef op maandag 9 april 2018 @ 00:58:
De eerste geluiden over Navi zijn heel erg negatief (tweaktown) en we hebben het bij CPU destijds ook gezien.
Alleen kennen we niet de context. Ik speculeer dat dit de context is: ook voor Navi gaan er problemen zijn wanneert je boven de X (56 of minder) CU's komt doordat er elders een bottleneck ontstaat. Dat is geen ramp, het betekent enkel dat je niet in het hoogste segment meedoet en dit laat jij zien met de figuren die jij plaatste. Vega heeft geen schijn van kans tegen de 1080 Ti als je puur naar de grafische kaart kijkt, als je naar het totale ecosysteem kijkt dan is het een ander verhaal.
Echter, die Vega56 verslaat de GTX 1070 (qua FPS) en zit daarmee ongeveer op hetzelfde niveau als de 980 Ti terwijl de performance per W iets beter is, het beste van de vorige generatie van Nvidia. Zo zal het bij de nodeshrink naar 7 nm. ook weer gaan indien die limiet voor AMD een probleem blijft, het op een na beste van AMD kan de concurrentie aan met het beste van Nvidia van 1 generatie eerder terijl het beste van AMD weinig indruk maakt t.o.v. het op een na beste. De grote winst wordt niet gemaakt met die <1% van de gamers die een 1080 Ti of een Vega64 koopt, AMD moet vooral zien dat het *60, *70, *80 en *90/*56-kaarten verkoopt. Helaas voor AMD houdt dit wel in dat AMD minder winst maakt want AMD levert relatief gezien grotere dies dan Nvidia voor dezelfde performance. Waar Nvidia het geld binnen harkt moet AMD genoegen nemen met een relatief kleine winst.
Een vega56 uit duitsland? Tsja wat moest dat kosten?
Voor wie op tijd handelde: ongeveer €450 in die paar weken (ongeveer 2?) dat het beschikbaar was. Er zijn er hier een paar die die kaart kochten of overwogen om die kaart te kopen, zij herinneren zich dat vast nog wel.
Vermoedelijk had je voor hetzelfde geld een jaar eerder een 1070 kunnen halen.
Die wat zwakker is dan de Vega56, de reden dat Nvidia met de 1070 ti uitkwam als tegenzet. Om nog maar te zwijgen over Vulkan en DX12.
Ja, maar dan moet je ook een G-Sync-premie van €200 betalen voor die premium gamingervaring. Ik vind het nog steeds dom van de Nvidia-managers om niet FreeSync te ondersteunen, AMD zal er blij mee zijn want die FreeSyncmonitors verkopen prima. Iets waar wij het blijkbaar over eens zijn.

Wat betreft de dure monitors, het percentage gamers wat gamet @1440p is flink toegenomen maar 1080p is nog stees de norm, als het wat meer had opgeschoten met de grafische kaarten dan zou 1440p nu meer verkocht worden. Is het een goede investering om nu €500-700 te besteden aan een monitor? Ik heb de indruk dat we binnen 2 jaar zullen zien dat 1440p wel standaard wordt voor gaming en dat 4k met een hoge refreshrate op dat prijspunt komt te zitten, plus dat een slechte tot matige implementatie van HDR standaard wordt. Het eerste puur op basis van de performance van de grafische kaarten. Met 7 nm. gaat alles eindelijk weer een tier omhoog qua performance. Aangezien die 1440p monitors nu al sinds minstens 2016 hetzelfde kosten en dezelfde performance hebben, waarbij LG en Samsung het laten afweten, heb ik er moeite mee om ze nu alsnog te kopen, dan had je ze net zo goed 2-3 jaar geleden kunnen kopen.

[ Voor 3% gewijzigd door Verwijderd op 09-04-2018 16:52 ]


Acties:
  • +1 Henk 'm!
Blaat schreef op maandag 9 april 2018 @ 16:37:
[...]


Volgens mij draaien we in kringetjes rond. :P

Is het niet zo (bij mijn weten wel iig) dat een die shrink bij een half node betrekkelijk simpel is maar bij een full node niet? Dat wil zeggen dat je bij een full node stap wel degelijk wijzigingen moet doorvoeren aan de chip om de boel werkzaam te houden.
Nee, jij mist gewoon een stukje informatie. ;)
Bij elke die shrink kan je opnieuw beginnen met de chip in productie krijgen. Bestond een computerchip puur uit transistoren die altijd dezelfde L/B/H verhoudingen hebben met welk procedé dan ook, dan was er geen probleem. Gewoon de transistors kleiner maken en je hebt een kleinere chip.

Helaas is dit niet zo. De verhoudingen in afmetingen veranderen altijd waardoor je de chip opnieuw moet inrichten. Zie het als lego blokjes. Eerst had je 2x4 blokjes, nu heb je opeens 2x3 blokjes. Moet je dus je hele patroon opnieuw gaan neerleggen.

Vervolgens schaalt SDRAM nooit lineair mee waardoor de verhoudingen tussen de verschillende onderdelen van de chip nog verder veranderen. Dan bestaan die chips ook nog eens in drie dimensies met meerdere lagen. Het aantal lagen kan ook zomaar gaan veranderen. 14nm van Samsung/GoFLo is maximaal 12 lagen, 7nm TSMC zal meer zijn. Dit heeft dan ook weer invloed op de bedrading tussen al die miljarden transistoren. Alles bij elkaar duurt het zo een jaar voordat je over kan stappen naar een nieuw procedé. Het is duur en tijdrovend. Als AMD het dus doet, dan hebben ze er een reden voor. Dit wijst ook meer op 7nm omdat de eventuele sprong in prestaties groter kan zijn dan 12nm.

Dit is dan nog enorm versimpeld. Ik ga echt niet pretenderen het allemaal volledig te begrijpen en ik heb ook niet elk detail dat ik weet vermeld. Het wordt dus alleen maar complexer. :P


Dan Polaris 10 vs Polaris 20. Tja, daar heeft AMD gelogen over een nieuw procedé. Beide zijn gebakken op hetzelfde 14nm procedé. Dat heette eerst LPE, later LPP. Het verschil hier is niet een aanpassing van verhoudingen, maar een stukje marketing. 14nm LPP is gewoon 14nm LPE dat al langer in productie is. Er treden altijd kleine verbeteringen op in yields en kwaliteit van de wafers naarmate deze langer in productie zijn. Hierdoor kunnen chips die maanden na release zijn gemaakt, vaak net iets hoger geclocked kunnen worden. Dat zie je ook met Ryzen gebeuren, en gebeurde ook met de late productie RX470/480's. Samsung heeft ervoor gekozen deze verbeteringen een naam te geven voor marketing. Dat is LPP. AMD heeft gewoon de chips iets hoger geclocked omdat ze dit konden doen.
Nou is of dat een codenaamverandering bewerkstelligt volledig aan AMD, maar het verleden leert ons dat AMD dit doet. Net zoals bij Tahiti,Tonga en Antigua, welke zelfs alledrie op 28nm werden gebakken. En echt fundamentele wijzigingen hadden die drie niet.

Nou ja, ik moet wel eerlijk zijn, koffiedik kijken is het sowieso. Ik gok 12nm! :)
Er zitten kleine verbeteringen tussen de verschillende iteraties van GCN. Groter in ieder geval dan tussen Maxwell en Pascal. Dit heeft @Werelds wel eens toegelicht. Ergo, je kan eerder spreken van vijf iteraties van GCN, dan dat Pascal een andere architectuur is dan Maxwell. ;)

[ Voor 3% gewijzigd door DaniëlWW2 op 09-04-2018 16:59 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op maandag 9 april 2018 @ 16:21:Vervolgens kan je eventueel de clocks omhoog gooien als het 7nm procede van TSMC dit toestaat. Daar lijkt een limitering te zijn bij 14nm van Samsung/GoFlo, waardoor dit aannemelijk is.
Ja, zo zou je het kunnen zeggen. De architectuur is geschikt voor hogere klokfrequenties, dat blijkt uit het feit dat een goed gekoelde kaart met voldoende extra vermogen met die hogere klokfrequentie flink wat extra performance krijgt. Het is die 14 nm. GF/S die het probleem is.
Bij elke die shrink kan je opnieuw beginnen met de chip in productie krijgen. Bestond een computerchip puur uit transistoren die altijd dezelfde L/B/H verhoudingen hebben met welk procedé dan ook, dan was er geen probleem. Gewoon de transistors kleiner maken en je hebt een kleinere chip.
Meer concreet, de W/L (of in het Nederlands B/L) bepaalt de stroomsterkte (draincurrent) in functie van gate-spanning: hogere W/L => grotere stroomsterkte en dus een hoger vermogen.

[ Voor 30% gewijzigd door Verwijderd op 09-04-2018 17:15 ]


Acties:
  • +1 Henk 'm!
-The_Mask- schreef op maandag 9 april 2018 @ 15:46:
Er zijn meerdere Terascale generaties net als er meerdere GCN generaties zijn.
Heeft ATI het nooit over gehad ;)

Evergreen is TS2, Northern Island is TS3. Alles daarvoor is gewoon TeraScale; persoonlijk zou ik RV770 eerder TS 1.5 noemen omdat de crossbar wijziging toch wel vrij ingrijpend was, maar vanuit vogelvlucht bekeken is het ook dan nog heel duidelijk een kindje van R600.
Blaat schreef op maandag 9 april 2018 @ 15:55:
Ja en daar gaat het dus juist om. Vega 64x zou op 7nm geen Vega meer heten omdat bij een die shrink de codenaam van de GPU verandert.

De architectuur is namelijk nog steeds GCN, dat weet ik ook wel.

Jullie struikelen over het feit dat ik architectuurnaam zei, wat ik bedoelde was GPU codenaam, wat Vega in feite is.

Is mijn punt nu duidelijk? :P
Ik begreep je sowieso wel :P

Maar ik ben een mierenneuker wat dit betreft, want "GCN" is ook niet de architectuur. GCN op zich is een instructieset, geen architectuur. Ik heb dit al eerder gedaan, maar hier gaan we nog eens:

- GCN Gen 1: Southern Islands (Pitcairn, Tahiti, Cape Verde, Oland)
- GCN Gen 2: Sea Islands (Bonaire, Hawaii)
- GCN Gen 3: Volcanic Islands (Tonga, Fiji)
- GCN Gen 4: Arctic Islands (Polaris 10, Polaris 11)
- GCN Gen 5: Vega (Vega 64, Vega 56)

Waar het verwarrend is, is dat Gen 5 de _enige_ generatie is waar familie naam, chipnaam én architectuur naam overeen komen. Vega is de naam van de architectuur, chips en de familie. En de chipnamen zijn dan ook nog eens de productnamen, om het extra verwarrend te maken.

In Gen 4 daarentegen heet de architectuur Polaris. De chipnamen volgen de naam van de architectuur, maar daar de familie naam is weer anders.

Eerder dan Polaris heeft AMD geen publieke namen aan de architecturen gegeven. Ze zijn met Gen 2 + 3 wel heel duidelijk geweest over het feit dat GCN een instructie-/featureset is, geen architectuur.

GCN als architectuur naam gebruiken kan alleen als je ook de generatie gebruikt, omdat er tot nu toe telkens slechts één architectuur is uitgekomen bij elke generatie. De manier waarop AMD het verwoord betekent echter dat ze best een geheel nieuwe architectuur uit kunnen brengen die GCN5 implementeert. Om je een hypothetisch voorbeeld te geven (en nu ga ik heel flauw iets doen waar veel over gespeculeerd is maar wat niet gaat gebeuren :+): stel nu dat Navi een product met 8 modules van 1 ACE, 8 CUs, 1 ROP en 32 texture units is, met GCN5 als instructieset? Qua aantallen identiek aan Vega, met exact dezelfde feature set, maar wel met een radicaal andere architectuur.

Alleen "GCN" zegt helemaal niets over de architectuur. GCN5 verschilt ook nauwelijks van GCN4, maar Vega en Polaris zijn toch echt heel andere dingen. AMD heeft dan ook niet voor niets bij Vega de naam GCN nooit genoemd. GCN vind je alleen terug in de documentatie voor programmeurs...als instructie set aanduiding ;)
DaniëlWW2 schreef op maandag 9 april 2018 @ 16:56:
Er zitten kleine verbeteringen tussen de verschillende iteraties van GCN. Groter in ieder geval dan tussen Maxwell en Pascal. Dit heeft @Werelds wel eens toegelicht. Ergo, je kan eerder spreken van vijf iteraties van GCN, dan dat Pascal een andere architectuur is dan Maxwell. ;)
Groter hangt van welke iteraties je bekijkt. Tussen iteraties zit er even veel (of weinig, het is maar hoe je het bekijkt) verschil als tussen Maxwell en Pascal. Pascal verschilt niet meer van Maxwell dan Tonga of Fiji van Tahiti en Hawaii naar mijn mening.

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Werelds schreef op maandag 9 april 2018 @ 17:33:
[...]

Heeft ATI het nooit over gehad ;)

Evergreen is TS2, Northern Island is TS3. Alles daarvoor is gewoon TeraScale; persoonlijk zou ik RV770 eerder TS 1.5 noemen omdat de crossbar wijziging toch wel vrij ingrijpend was, maar vanuit vogelvlucht bekeken is het ook dan nog heel duidelijk een kindje van R600.


[...]

Ik begreep je sowieso wel :P

Maar ik ben een mierenneuker wat dit betreft, want "GCN" is ook niet de architectuur. GCN op zich is een instructieset, geen architectuur. Ik heb dit al eerder gedaan, maar hier gaan we nog eens:

- GCN Gen 1: Southern Islands (Pitcairn, Tahiti, Cape Verde, Oland)
- GCN Gen 2: Sea Islands (Bonaire, Hawaii)
- GCN Gen 3: Volcanic Islands (Tonga, Fiji)
- GCN Gen 4: Arctic Islands (Polaris 10, Polaris 11)
- GCN Gen 5: Vega (Vega 64, Vega 56)

Waar het verwarrend is, is dat Gen 5 de _enige_ generatie is waar familie naam, chipnaam én architectuur naam overeen komen. Vega is de naam van de architectuur, chips en de familie. En de chipnamen zijn dan ook nog eens de productnamen, om het extra verwarrend te maken.

In Gen 4 daarentegen heet de architectuur Polaris. De chipnamen volgen de naam van de architectuur, maar daar de familie naam is weer anders.

Eerder dan Polaris heeft AMD geen publieke namen aan de architecturen gegeven. Ze zijn met Gen 2 + 3 wel heel duidelijk geweest over het feit dat GCN een instructie-/featureset is, geen architectuur.

GCN als architectuur naam gebruiken kan alleen als je ook de generatie gebruikt, omdat er tot nu toe telkens slechts één architectuur is uitgekomen bij elke generatie. De manier waarop AMD het verwoord betekent echter dat ze best een geheel nieuwe architectuur uit kunnen brengen die GCN5 implementeert. Om je een hypothetisch voorbeeld te geven (en nu ga ik heel flauw iets doen waar veel over gespeculeerd is maar wat niet gaat gebeuren :+): stel nu dat Navi een product met 8 modules van 1 ACE, 8 CUs, 1 ROP en 32 texture units is, met GCN5 als instructieset? Qua aantallen identiek aan Vega, met exact dezelfde feature set, maar wel met een radicaal andere architectuur.

Alleen "GCN" zegt helemaal niets over de architectuur. GCN5 verschilt ook nauwelijks van GCN4, maar Vega en Polaris zijn toch echt heel andere dingen. AMD heeft dan ook niet voor niets bij Vega de naam GCN nooit genoemd. GCN vind je alleen terug in de documentatie voor programmeurs...als instructie set aanduiding ;)


[...]

Groter hangt van welke iteraties je bekijkt. Tussen iteraties zit er even veel (of weinig, het is maar hoe je het bekijkt) verschil als tussen Maxwell en Pascal. Pascal verschilt niet meer van Maxwell dan Tonga of Fiji van Tahiti en Hawaii naar mijn mening.
Je hebt vast helemaal gelijk en je post is hardstikke leerzaam.

Ik vind alleen wel irritant dat het blijkbaar leuker is om iemand iets bij te brengen dan om in te gaan op het punt wat iemand probeert te maken. :P

Mag ik dan aannemen dat mijn argumentatie om te denken dat een Vega64x geen 7nm zal zijn hout snijdt? Want dáár gaat niemand inhoudelijk op in. :+

Het gaat het beetje als volgt:
Blaat: Ik denk dat *insert mening*. Denken jullie dat ook?
Reactie: Nee je zegt het niet goed. *insert correctie* :D

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!
Werelds schreef op maandag 9 april 2018 @ 17:33:

Groter hangt van welke iteraties je bekijkt. Tussen iteraties zit er even veel (of weinig, het is maar hoe je het bekijkt) verschil als tussen Maxwell en Pascal. Pascal verschilt niet meer van Maxwell dan Tonga of Fiji van Tahiti en Hawaii naar mijn mening.
Het verschil tussen Tahiti aan de ene kant en Tonga, of Hawaï aan de andere kant was wel enorm hoor. :>
Tahiti heeft geen Freesync ondersteuning, die andere wel. Dat is belangrijk hoor. :P
Verder is HBM op Fiji ook een behoorlijke wijziging geweest.
Blaat schreef op maandag 9 april 2018 @ 17:47:
[...]


Je hebt vast helemaal gelijk en je post is hardstikke leerzaam.

Ik vind alleen wel irritant dat het blijkbaar leuker is om iemand iets bij te brengen dan om in te gaan op het punt wat iemand probeert te maken. :P

Mag ik dan aannemen dat mijn argumentatie om te denken dat een Vega64x geen 7nm zal zijn hout snijdt? Want dáár gaat niemand inhoudelijk op in. :+
Nee want de prestatiewinst voor de overstap naar 12nm kan wel eens zeer gering zijn. Dan is het zinloos om te doen. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

DaniëlWW2 schreef op maandag 9 april 2018 @ 17:52:
[...]


Nee want de prestatiewinst voor de overstap naar 12nm kan wel eens zeer gering zijn. Dan is het zinloos om te doen. ;)
En de genoemde 5% is ook vrij gering. Gezien het feit dat de overstap van Zen naar Zen+ ook in dezelfde orde van grootte zit vind ik dat geen rare aanname.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • +1 Henk 'm!
Blaat schreef op maandag 9 april 2018 @ 17:47:
Ik vind alleen wel irritant dat het blijkbaar leuker is om iemand iets bij te brengen dan om in te gaan op het punt wat iemand probeert te maken. :P

Mag ik dan aannemen dat mijn argumentatie om te denken dat een Vega64x geen 7nm zal zijn hout snijdt? Want dáár gaat niemand inhoudelijk op in. :+

Het gaat het beetje als volgt:
Blaat: Ik denk dat *insert mening*. Denken jullie dat ook?
Reactie: Nee je zegt het niet goed. *insert correctie* :D
Oh sorry :P

Ik ben het met je eens dat ik ook betwijfel dat dit allemaal 7nm zou zijn zoals nu beschreven. Maar een Vega refresh zou ik sowieso vreemd vinden. Zelfs een Polaris refresh klinkt nog vreemd, maar is waarschijnlijker omdat dat product "af" is, goed is én wellicht nog wel wat baat kan hebben van wat tweaks. 12nm lijkt me helemaal niet gek, ook al spreken de geruchten dat tegen. Polaris nog net even iets efficiënter? Doe maar, dat is toch een belangrijk segment.

Acties:
  • +1 Henk 'm!
Blaat schreef op maandag 9 april 2018 @ 17:53:
[...]


En de genoemde 5% is ook vrij gering. Gezien het feit dat de overstap van Zen naar Zen+ ook in dezelfde orde van grootte zit vind ik dat geen rare aanname.
Zen+ is dan ook bedoelt voor 12nm, net zoals de RR vervanger volgend jaar. Polaris en Vega niet. Een paar procent prestaties winnen staat niet in verhouding met de miljoenen die het AMD kost om de overstap te maken. Daarom denk ik dat het eerder 7nm zal zijn. :)

Verder kunnen die 7nm chips volgende maand al in productie gaan als het ontwerp klaar is.

[ Voor 7% gewijzigd door DaniëlWW2 op 09-04-2018 18:03 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
Werelds schreef op maandag 9 april 2018 @ 17:33:
[...]

AMD heeft dan ook niet voor niets bij Vega de naam GCN nooit genoemd. GCN vind je alleen terug in de documentatie voor programmeurs...als instructie set aanduiding ;)
AMD noemt het bij Vega NCU: Next generation Compute Unit.

Zie ook:
https://www.anandtech.com...gpu-architecture-teaser/2

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op dinsdag 10 april 2018 @ 12:22:
[...]


AMD noemt het bij Vega NCU: Next generation Compute Unit.

Zie ook:
https://www.anandtech.com...gpu-architecture-teaser/2
Zucht, nee. NCU is gewoon een (logisch) onderdeel van de Vega architectuur. Het is geen vervanging voor de term GCN. Ik snap niet waarom iedereen zo op de term NCU blijft hameren. Het is een naam voor een groepering en verbinding van fysieke ALU's in een GPU. Niet meer, niet minder.

Laat ik Rapid Packed Math even nemen. Dat is een feature van de GCN5 (of GCN Vega Generation) instructie- en featureset. Stel nu dat er een Polaris refresh komt met 0,0 wijzigingen behalve dat de SP's nu ook 2xFP16 in 1 tik kunnen doen, net als de SP's in Vega. Namen wijzigen ze verder niet, dus die SP's zijn nog steeds onderdeel van een "CU" in plaats van "NCU".

Zo'n GPU zou gewoon GCN5-compatible zijn. De nodige ondersteuning voor RPM is er immers (en dat is bijna het enige dat in GCN5 zit qua features, ook al doet Vega zelf nog veel meer dan dat).

Met andere woorden, je zou dan een GCN5 GPU hebben zonder NCU; want waar de term NCU op slaat is iets heel anders. Dat is de fysieke implementatie in de hardware. Even los van het feit dat de SP's nu 2xFP16 doen, is er nog meer veranderd waardoor ze de NCU blijkbaar op hogere kloksnelheden kunnen laten tikken dan voorheen mogelijk was met een CU. Wat ze ook gedaan hebben (zal wel iets met de interconnects en transistor opbouw te maken hebben), dat is iets op hardware niveau en is niet relevant voor de GCN kant van het verhaal. Die hogere kloksnelheid is niet nodig om het een GCN5 GPU te kunnen noemen.

Of om het anders te stellen: de CU's en NCU's zijn slechts een klein onderdeel van de GPU. Geometry zit niet in een (N)CU. Rasterization zit niet in een (N)CU. L2 cache zit niet in een (N)CU. Maar dat zit wel allemaal in GCN.

NCU is niets meer en niets minder dan een ander naampje voor hetgeen voorheen een CU heette.

Acties:
  • 0 Henk 'm!
Tja dit is hier AMD het noemt.
Het is allemaal nog wel GCN based alleen in een nieuw jasje. Dus echt een nieuwe architectuur is het niet dat ben ik met je eens.

Ik ben benieuwd wat ze met Navi gaan doen ik mag hopen dat de boel eens wat meer op de schop gaat.

Want ik heb het vermoeden dat Vega nog steeds last heeft van dezelfde limieten qua shader aantallen als Vega. Het wordt gewoon tijd voor een grote overhaul van het frond end van de architectuur.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op dinsdag 10 april 2018 @ 13:18:
Tja dit is hier AMD het noemt.
Het is allemaal nog wel GCN based alleen in een nieuw jasje. Dus echt een nieuwe architectuur is het niet dat ben ik met je eens.
Je mist m'n punt nog steeds volledig.

AMD noemt "Vega" niet "NCU". AMD noemt de architectuur van Vega ook niet NCU. AMD noemt GCN met betrekking tot Vega ook niet NCU. Ook Anandtech zegt niet dat NCU een vervanging of iets dergelijks van GCN is.

Vega bevat een onderdeel dat NCU heet en dat is ook precies wat AMD zegt. Net zoals Southern/Sea/Volcanic/Arctic Islands een onderdeel bevatten dat CU heet. NCU is een evolutie van CU. Niet van GCN.

En nee, de CU/NCU zijn ook niet "GCN based". Ze maken onderdeel uit van de implementatie van GCN.


Een VW Golf 7 is leverbaar met een motorblok met bouwnummer EA211 en sinds vorig jaar ook met motorblokken met bouwnummer EA211 evo. De eerste krijg je als 1.0, 1.2 of 1.4; de laatste krijg je alleen als 1.5. De evo is een doorontwikkeling die net even iets schoner is en heeft een cilinderslag die 5,9mm langer is dan het oudere blok - dat is de grootste wijziging aan het blok.

De EA211 is duidelijk niet hetzelfde als de evo. Die cilinderslag wijziging is het equivalent van de SP's vervangen door exemplaren die 2xFP16 in 1 tik kunnen verwerken. Voor de rest zitten er nog wat tweaks in om hem wat efficiënter te maken. Jij gaat nog een stap verder en stelt NCU gelijk aan GCN, wat hetzelfde is als EA211 evo gelijk stellen aan Golf 7.

Is mijn punt nu duidelijk? :P

Acties:
  • 0 Henk 'm!
Werelds schreef op dinsdag 10 april 2018 @ 13:03:
[...]

Zucht, nee. NCU is gewoon een (logisch) onderdeel van de Vega architectuur. Het is geen vervanging voor de term GCN. Ik snap niet waarom iedereen zo op de term NCU blijft hameren. Het is een naam voor een groepering en verbinding van fysieke ALU's in een GPU. Niet meer, niet minder.

Laat ik Rapid Packed Math even nemen. Dat is een feature van de GCN5 (of GCN Vega Generation) instructie- en featureset. Stel nu dat er een Polaris refresh komt met 0,0 wijzigingen behalve dat de SP's nu ook 2xFP16 in 1 tik kunnen doen, net als de SP's in Vega. Namen wijzigen ze verder niet, dus die SP's zijn nog steeds onderdeel van een "CU" in plaats van "NCU".

Zo'n GPU zou gewoon GCN5-compatible zijn. De nodige ondersteuning voor RPM is er immers (en dat is bijna het enige dat in GCN5 zit qua features, ook al doet Vega zelf nog veel meer dan dat).

Met andere woorden, je zou dan een GCN5 GPU hebben zonder NCU; want waar de term NCU op slaat is iets heel anders. Dat is de fysieke implementatie in de hardware. Even los van het feit dat de SP's nu 2xFP16 doen, is er nog meer veranderd waardoor ze de NCU blijkbaar op hogere kloksnelheden kunnen laten tikken dan voorheen mogelijk was met een CU. Wat ze ook gedaan hebben (zal wel iets met de interconnects en transistor opbouw te maken hebben), dat is iets op hardware niveau en is niet relevant voor de GCN kant van het verhaal. Die hogere kloksnelheid is niet nodig om het een GCN5 GPU te kunnen noemen.

Of om het anders te stellen: de CU's en NCU's zijn slechts een klein onderdeel van de GPU. Geometry zit niet in een (N)CU. Rasterization zit niet in een (N)CU. L2 cache zit niet in een (N)CU. Maar dat zit wel allemaal in GCN.

NCU is niets meer en niets minder dan een ander naampje voor hetgeen voorheen een CU heette.
As always, I want to start at the heart of the matter: the shader core. In some respects AMD has not significantly altered their shader core since the launch of the very first GCN parts 5 years ago. Various iterations of GCN have added new instructions and features, but the shader core has remained largely constant, and IPC within the shader core itself hasn’t changed too much. Even Polaris (GCN 4) followed this trend, sharing its whole ISA with GCN 1.2.

With Vega, this is changing. By just how much remains to be seen, but it is clear that even with what we see today, AMD is already undertaking the biggest change to their shader core since the launch of GCN.

Meet the NCU, Vega’s next-generation compute unit. As we already learned from the PlayStation 4 Pro launch and last month’s Radeon Instinct announcement, AMD has been working on adding support for packed math formats for future architectures, and this is coming to fruition in Vega.
Het ligt er aan hoe je het leest. Maar wat jij zegt kan ik er eigenlijk ook wel uit halen dat ze het meer als nieuw component bedoelde als toevoeging aan.
Maar ik begrijp je wel hoor en ben het ook met je eens dat het eigenlijk gewoon GCN is.

[ Voor 9% gewijzigd door Astennu op 10-04-2018 15:27 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Het kan nog veel simpeler. :P

GCN = Instructieset.
Er is officieel geen directe verbinding met architectuur of aanpassingen in deze architectuur binnen GCN. Je hebt vijf generaties aan GCN instructies en features waarbij elke nieuwe set wat functies toevoegde die ook om wat wijzigingen qua hardware vroeg. Daarom kan je bepaalde architecturen indelen onder een iteratie van de GCN instructieset. Tahiti is dus 1.0 want die hardware ondersteunt alleen de GCN 1.0 intructieset, Hawaï 2.0 of Polaris is 4.0.

Met GCN 5.0 heeft AMD relatief meer gedaan dan met welke andere GCN instructieset. De GCN 5.0 instructieset heeft een eigen implementatie van tile based rasterization, minder statische scheduling om een hogere en efficiëntere utilisatie van CU's te krijgen en zou in staat moeten zijn tot meer dan een primitive (polygon) per clock te produceren.

Dit vertaalt zich aan de architectuurkant, Vega dus naar respectievelijk:
-Draw Stream Binned Rasterizer.
-Intelligent Workgroup Distributor.
-"NCU" i.p.v "CU" waarvan Primitive Shading de belangrijkste implementatie had moeten zijn geweest.

Dus @Astennu, AMD heeft de frontend met Vega 10 behoorlijk aangepakt. Probleem is dat de oplossing, Primitive Shaders niet werkt vanuit de driver zoals gepland door AMD...


Iets anders dan. Het begint erop te lijken dat de "Vega" chip voor de Kaby Lake G helemaal geen Vega chip is, maar een Polaris met HBM2. Er missen Vega features zoals RPM.
http://www.tomshardware.c...laris-graphics,36844.html

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!
Astennu schreef op dinsdag 10 april 2018 @ 15:25:
Het ligt er aan hoe je het leest. Maar wat jij zegt kan ik er eigenlijk ook wel uit halen dat ze het meer als nieuw component bedoelde als toevoeging aan.
Maar ik begrijp je wel hoor en ben het ook met je eens dat het eigenlijk gewoon GCN is.
In die quote staat nergens dat GCN en de shader core hetzelfde zijn. Wat ze zeggen is dat de shader core met Vega de grootste wijziging krijgt sinds de launch van GCN. Maar GCN omhelst meer dan alleen de shader core. Nogmaals: geometry, rasterization en dergelijke zijn ook onderdeel van GCN. Niets, maar dan ook echt niets daarvan zit in de shader core.

Het heeft niets te maken met hoe je het leest, daar staat geen enkele keer dat NCU "het nieuwe GCN" is, of iets in die richting. Overigens zijn dat ook de woorden van Anandtech, niet van AMD.
DaniëlWW2 schreef op dinsdag 10 april 2018 @ 15:43:
De GCN 5.0 instructieset heeft een eigen implementatie van tile based rasterization, minder statische scheduling om een hogere en efficiëntere utilisatie van CU's te krijgen en zou in staat moeten zijn tot meer dan een primitive (polygon) per clock te produceren.
Onjuist, geen van deze dingen vallen onder de noemer GCN. Dat zijn implementatie-specifieke dingen die alleen aan de VEGA architectuur voorbehouden zijn :)

Packed Math is de enige echte nieuwe feature van GCN5. Al het andere zat er al in.

TBR is geen feature van GCN; sterker nog er is geen enkele garantie dat rasterization op welke manier dan ook gebeurt.
-"NCU" i.p.v "CU" waarvan Primitive Shading de belangrijkste implementatie had moeten zijn geweest.
Fout, dat gedoe met primitives zit in de geometry engines, buiten de CU dus. Sorry, NCU :+

Afbeeldingslocatie: https://images.anandtech.com/doci/11717/vega10_block_diagram.png

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:07
Maakt het echt uit hoe AMD het noemt? Radeon had rond Fury het probleem dat er zelfs voor oude wijn in nieuwe zakken geen geld was. Dit tot aan het punt dat we een chip als de Pitcairn Pro (7850) uit 2012 omgelabeled zagen tot R7 370 in 2015. Vervolgens kwam er pas in de zomer van 2016 echt een vervanger op de markt. Dan praten we over pak hem beet 5 jaar dezelfde 'rommel' verkopen, terwijl de verbeteringen op de plank lagen (denk aan Fiji, maar ook eerder).

Nu is die oude line-up eindelijk de deur uit en hebben we Polaris en Vega (mits AMD meer gaat produceren). Vervolgens komt AMD nu al met een refresh. Vermoedelijk nog wel in de vorm van oude wijn in nieuwe zakken (de 5-6%) maar er wordt in ieder geval de keuze gemaakt te investeren in Radeon.

Toch kan dit ook een placebo effect zijn. Juist in de periode die ik beschrijf bleef alles op 28nm hangen. Nu wordt er gewisseld naar 7nm en dat levert normaal gesproken een kosten besparing op. Met voldoende volume verdient een refresh zichzelf dan terug. In dat geval is er geen extra geld/aandacht naar Radeon gegaan. Een slankere Vega als antwoord op de 1070ti zou wat dat betreft daar IMO een betere indicatie van zijn (ivm de ongebruikte features en het delen van het PCB tussen de FE, 64 en 56).

[ Voor 34% gewijzigd door sdk1985 op 10-04-2018 16:12 . Reden: lastig hoor spreekwoorden ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 19:11
@sdk1985 Om de RX460/560 een vervanger te noemen van Pitcairn gaat een stapje te ver. Het is meer een opvolger van Cape Verde, hooguit Bonaire.

De oude line-up is de deur helaas ook nog niet uit;
Wikipedia: List of AMD graphics processing units 400 serie
Wikipedia: List of AMD graphics processing units 500 serie

Sterker nog, die Radeon 530 is een 'nieuwe' oude chip.
https://www.amd.com/en/products/graphics/radeon-530

Imho zou AMD op 12nm een 3072 shader Polaris chip uit moeten brengen. Kleiner dan de GTX 1070 maar even krachtig, danwel krachtiger. (hadden ze al met de 400 serie moeten doen, maar goed.)

[ Voor 4% gewijzigd door NitroX infinity op 10-04-2018 16:45 ]

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • +1 Henk 'm!
Werelds schreef op dinsdag 10 april 2018 @ 15:58:
Onjuist, geen van deze dingen vallen onder de noemer GCN. Dat zijn implementatie-specifieke dingen die alleen aan de VEGA architectuur voorbehouden zijn :)

Packed Math is de enige echte nieuwe feature van GCN5. Al het andere zat er al in.

TBR is geen feature van GCN; sterker nog er is geen enkele garantie dat rasterization op welke manier dan ook gebeurt.

Fout, dat gedoe met primitives zit in de geometry engines, buiten de CU dus. Sorry, NCU :+

[afbeelding]
* DaniëlWW2 gooit tafel om en loopt boos weg om in een hoekje te gaan lopen mokken en later terug te komen. :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

DaniëlWW2 schreef op dinsdag 10 april 2018 @ 16:39:
[...]


* DaniëlWW2 gooit tafel om en loopt boos weg om in een hoekje te gaan lopen mokken en later terug te komen. :P
Ook zo'n hekel aan mensen die altijd gelijk hebben? :+

Maken een goede discussie gelijk kapot met hun goede argumenten enzo...

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:07
@NitroX infinity
Als ik heel eerlijk ben kijk ik al jaren niet meer naar het low-end segment :$ . Het is het (bovenste deel van) het mid-range segment waar het grote geld traditioneel wordt verdiend.

Ik heb een paar van die kaarten geprobeerd te vinden in de pricewatch maar ze ontbreken stuk voor stuk. Mogelijk modellen voor de Chinese markt of OEMS? Als ik het omdraai en sorteer op de goedkoopste kaart uitgekomen na 1dec 2016 dan kom ik op de RX 550, 14nm GCN4 (waarvan we net hebben geleerd dat dit geen architectuur is maar een instructieset :9 ). Dus dat is wat mij betreft nog steeds nieuwe wijn in nieuwe zakken.
Werelds schreef op dinsdag 10 april 2018 @ 15:58:
[...]


Onjuist, geen van deze dingen vallen onder de noemer GCN. Dat zijn implementatie-specifieke dingen die alleen aan de VEGA architectuur voorbehouden zijn :)

Packed Math is de enige echte nieuwe feature van GCN5. Al het andere zat er al in.
Maar wat als ik jou nu vertel dat in de Kaby Lake G Vega geen Packed Math support zit? Is VEGA dan geen GCN5, is Packed Math support toch geen (verplicht) GCN5 onderdeel of is Vega stiekem geen Vega :+ .

[ Voor 34% gewijzigd door sdk1985 op 10-04-2018 16:53 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!
Blaat schreef op dinsdag 10 april 2018 @ 16:44:
[...]


Ook zo'n hekel aan mensen die altijd gelijk hebben? :+

Maken een goede discussie gelijk kapot met hun goede argumenten enzo...
Nee, meer irritatie omdat ik echt dacht het goed in mijn hoofd te hebben. O-)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:07
NitroX infinity schreef op dinsdag 10 april 2018 @ 16:35:
Imho zou AMD op 12nm een 3072 shader Polaris chip uit moeten brengen. Kleiner dan de GTX 1070 maar even krachtig, danwel krachtiger. (hadden ze al met de 400 serie moeten doen, maar goed.)
Tja weet ik niet. Als jij Polaris pakt en die een super brede bus gaat geven om de extra CU van bandbreedte te voorzien dan kan ook dat een gedrocht worden waar je u tegen zegt. Tegelijkertijd is de performance per watt van Vega met de powersave bios ongeveer 40% beter dan die van de RX 580. Dus dat klinkt toch als de betere basis. Zeker als je dan ook nog naar zaken als rapid packed math kijkt.

Het lijkt erop dat AMD bij Vega een pentium 4tje heeft gedaan. Ze geven aan veel transitoren te hebben geïnvesteerd om hogere clocks te faciliteren. Juist bij die hogere clocks (.e.g 1600 Mhz) is het stroomverbruik belachelijk. Achteraf had Vega gewoon iets meer CU's nodig om op lagere Mhz wel competitief te kunnen zijn. Nu kun je achteraf alsnog wel een wat bredere Vega uitbrengen met een lagere turbo, maar als dat niet direct in de planning stond dan duurt dat weer minstens een jaar. Dat gaat dus niet gebeuren want AMD is al aan het toeteren over Navi. De refresh naar 7nm is leuk maar gaat natuurlijk weinig echt verbeteren. De afhankelijkheid van HBM2 blijft ook problematisch. Geruchten zijn dat het de bedoeling was dat HBM2 veel hoger clockte. Combineer dat met de hoge kostprijs en je hebt een nare situatie. Daarmee lijkt vega op een dood spoor te zijn beland. Zonde, zeker aangezien ik zelf verwacht dat Navi ook weer extreem laat gaat binnen komen en we mogelijk dus nog wel 2-3 jaar deze situatie volhouden waarbij je eigenlijk gewoon geen Radeon kaart kunt kopen als je een beetje leuk wilt gamen*.

Overigens is ook nog even de vraag of je niet min of meer hetzelfde uitkomt met een Vega GDDR5X waarbij de ongebruikte features eruit zijn gesloopt vs een hele brede Polaris.

*
Ubi zegt dat er geen gameworks in AC origins zit. Dit zou zo maar eens het beeld van 2018 kunnen zijn:Afbeeldingslocatie: https://cdn.mos.cms.futurecdn.net/zuZNWm74zCUzYRZGJLkgPB.png
Dat is dan nog medium... Overigens Far Cry 5 hebben ze wel goede AMD support. Verschil van dag en nacht. Dus AMD heeft er ook nog wat over te zeggen. De vraag is voor hoeveel games AMD dat zo netjes gaat oplossen. Tot heden niet veel.

[ Voor 38% gewijzigd door sdk1985 op 10-04-2018 17:43 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op dinsdag 10 april 2018 @ 16:39:
* DaniëlWW2 gooit tafel om en loopt boos weg om in een hoekje te gaan lopen mokken en later terug te komen. :P
Blaat schreef op dinsdag 10 april 2018 @ 16:44:
Ook zo'n hekel aan mensen die altijd gelijk hebben? :+

Maken een goede discussie gelijk kapot met hun goede argumenten enzo...
:$

Ik heb niet altijd gelijk hoor :P

Acties:
  • 0 Henk 'm!
sdk1985 schreef op dinsdag 10 april 2018 @ 16:04:
Maakt het echt uit hoe AMD het noemt? Radeon had rond Fury het probleem dat er zelfs voor oude wijn in nieuwe zakken geen geld was. Dit tot aan het punt dat we een chip als de Pitcairn Pro (7850) uit 2012 omgelabeled zagen tot R7 370 in 2015. Vervolgens kwam er pas in de zomer van 2016 echt een vervanger op de markt. Dan praten we over pak hem beet 5 jaar dezelfde 'rommel' verkopen, terwijl de verbeteringen op de plank lagen (denk aan Fiji, maar ook eerder).
Alleen Pitcairn heeft 3 refreshes gezien. Dat is de uitzondering.
En nVidia kan er ook wat van denk aan de G92 die is ook keer op keer hergebruikt.

Maar ik had ook liever gezien dat ze de chops van updates voorzien hadden. Ipv GCN 1.0, 1.1 en 1.2 door elkaar verkopen in een generatie.

[ Voor 8% gewijzigd door Astennu op 10-04-2018 17:54 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • DoubleYouPee
  • Registratie: Mei 2011
  • Laatst online: 22-09 23:46
@sdk1985 je eigen plaatje laat juist zien dat Vega NIET goed scaled met extra CU, Vega 56 en 64 verschillen nauwelijks. Als ze dus voor nog meer CU gegaan waren met lagere clocks, was je performance nog slechter geweest.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:07
DoubleYouPee schreef op dinsdag 10 april 2018 @ 18:48:
@sdk1985 je eigen plaatje laat juist zien dat Vega NIET goed scaled met extra CU, Vega 56 en 64 verschillen nauwelijks. Als ze dus voor nog meer CU gegaan waren met lagere clocks, was je performance nog slechter geweest.
Maar dat is de huidige Vega. Daarvan weten we al dat hij bandwidth starved is én dat hij op lagere clocks veel en veel efficiënter is. Ik heb op reddit users gezien die zakten van 290W naar 160W door de core clocks en het voltage te verlagen richting de 1000-1200Mhz. Kan zijn dat AC origins meer vatbaar voor geheugen bandbreedte is, dus dan gaat zowel een hogere clock als meer CU je niet helpen.

Hoe dan ook kan een Vega met een lagere clock dankzij meer CU dezelfde performance halen, maar dan op een efficiëntere plek in de curve. Daardoor wordt de kaart an sich interessanter en bovendien opent het ook mogelijkheden voor overstappen naar GDDR5(X), er is dan immers nog heel wat TDP beschikbaar dat er nu simpelweg niet is. TDP dat te gebruiken is voor een bredere bus met meer geheugen modules. Maar zoals gezegd heeft dat nu allemaal geen nut meer want nu zijn er al ?miljarden? transistors besteed aan het mogelijk maken van de hogere clocks. Er is gegokt op hoge clocks en HBM2 en beiden is helaas fout uitgepakt.

[ Voor 20% gewijzigd door sdk1985 op 10-04-2018 20:56 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 22:28

Damic

Tijd voor Jasmijn thee

Wat zou er eigenlijk gebeuren als je bvb een oude gpu (Tahiti XT2) gewoon op een nieuw procede zou maken?
De DIE word sowieso kleiner, maar ook cooler/minder energie verbuik?

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

Verwijderd

Damic schreef op dinsdag 10 april 2018 @ 19:36:
Wat zou er eigenlijk gebeuren als je bvb een oude gpu (Tahiti XT2) gewoon op een nieuw procede zou maken?
De DIE word sowieso kleiner, maar ook cooler/minder energie verbuik?
Ja, het vermogen zakt en de maximale klokfrequentie zal ook stijgen. Het heeft te maken met hoe de transistors werken. Transistors kunnen bijvoorbeeld door een spanning bij de gate een stroom krijgen tussen de drain en de source. Als je een kleinere transistor hebt dan gaat dat sneller en is een lager vermogen nodig. In het geval van GPU's/CPU's worden die transistors voor zo ver ik het begrijp vooral als schakel-elementen gebruikt; ze staan aan of uit (hoog vermogen of vrijwel 0 V) en buiten het schakelen heb je weinig vermogen. Aan dat sneller schakelen zitten overigens wel grenzen, niet zo heel erg lang geleden (10-15 jaar?) dacht een zeer hoog geplaatste medewerker van Intel nog dat CPU's nu rond de 9 GHz. of zo zouden zitten, dat kwam niet helemaal uit.

Ik beweer overigens niet dat je dat 1 op 1 zou willen overnemen (maar als je dat wel doet dan zal je een lager vermogen en een hogere klokfrequentie krijgen), waarschijnlijk wil je wel at aanpassen bij zo'n nodeverkleining om het onderste uit de kan te halen maar die details gaan mij vooralsnog boven mijn pet, als iemand daar meer over weet dan lees ik dat graag.
Astennu schreef op dinsdag 10 april 2018 @ 17:53:
[...]


Alleen Pitcairn heeft 3 refreshes gezien. Dat is de uitzondering.
En nVidia kan er ook wat van denk aan de G92 die is ook keer op keer hergebruikt.

Maar ik had ook liever gezien dat ze de chops van updates voorzien hadden. Ipv GCN 1.0, 1.1 en 1.2 door elkaar verkopen in een generatie.
AdoredTV deed een uitspraak over al die refreshes die volgens mij hout snijdt, Nvidia en AMD doen dit omdat de ontwikkeling van nieuwe architecturen zo verschrikkelijk duur is geworden. Daarnaast wordt Nvidia niet bepaald gestimuleerd om haast te maken aangezien AMD het de laatste jaren een beetje laat liggen. Begrijp me niet verkeerd, alles t/m Vega56 is in theorie competitief (bij een normale markt met normale prijzen) maar Vega kwam 1,5 jaar na de 1070 en 1080. Nvidia zit lekker lui achterover terwijl het geld binnenstroomt, jij weet hoe ik denk over bepaalde normen (Gimpworks, PhysX, GPP...) van mr. leather jacket maar dat kan ik hen toch niet kwalijk nemen.

[ Voor 54% gewijzigd door Verwijderd op 10-04-2018 22:27 ]


Acties:
  • 0 Henk 'm!
Ik snap nVidia heel goed. Ze hoeven inderdaad niets uit te brengen de huidge kaarten worden toch verkocht. Gameworks of wat GPP het maakt niet uit mensen blijven toch wel nVidia kopen dus ze gaan er gewoon lekker mee door.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op dinsdag 10 april 2018 @ 23:10:
Ik snap nVidia heel goed. Ze hoeven inderdaad niets uit te brengen de huidge kaarten worden toch verkocht. Gameworks of wat GPP het maakt niet uit mensen blijven toch wel nVidia kopen dus ze gaan er gewoon lekker mee door.
Yep, op een klein kliekje hardware-enthusiasts na - want daarvan koopt de meerderheid AMD, blijkt uit peilingen op fora - kopen de domme schaapjes toch wel Nvidia. Hell, bij elke desktopvraag die je ziet in het aankoopdeel denkt iedereen dat hij een i5 en een Nvidia-kaart moet hebben. 8)7
Nu moet ik zeggen dat dat op dit moment wat betreft de grafische kaart niet geheel onterecht is (prijzen) maar dan nog, veel plezier met de tears. Ik zou een paar maandjes wachten totdat de prijzen weer redelijk normaal zijn, enkel het duurdere geheugen (en retailers die extra winst pakken door de winstmarge niet te verlagen + extra BTW) maakt de kaarten dan nog duurder. :)

[ Voor 23% gewijzigd door Verwijderd op 11-04-2018 00:14 ]


Acties:
  • 0 Henk 'm!
sdk1985 schreef op dinsdag 10 april 2018 @ 17:27:
[...]

Tja weet ik niet. Als jij Polaris pakt en die een super brede bus gaat geven om de extra CU van bandbreedte te voorzien dan kan ook dat een gedrocht worden waar je u tegen zegt. Tegelijkertijd is de performance per watt van Vega met de powersave bios ongeveer 40% beter dan die van de RX 580. Dus dat klinkt toch als de betere basis. Zeker als je dan ook nog naar zaken als rapid packed math kijkt.

Het lijkt erop dat AMD bij Vega een pentium 4tje heeft gedaan. Ze geven aan veel transitoren te hebben geïnvesteerd om hogere clocks te faciliteren. Juist bij die hogere clocks (.e.g 1600 Mhz) is het stroomverbruik belachelijk. Achteraf had Vega gewoon iets meer CU's nodig om op lagere Mhz wel competitief te kunnen zijn. Nu kun je achteraf alsnog wel een wat bredere Vega uitbrengen met een lagere turbo, maar als dat niet direct in de planning stond dan duurt dat weer minstens een jaar. Dat gaat dus niet gebeuren want AMD is al aan het toeteren over Navi. De refresh naar 7nm is leuk maar gaat natuurlijk weinig echt verbeteren. De afhankelijkheid van HBM2 blijft ook problematisch. Geruchten zijn dat het de bedoeling was dat HBM2 veel hoger clockte. Combineer dat met de hoge kostprijs en je hebt een nare situatie. Daarmee lijkt vega op een dood spoor te zijn beland. Zonde, zeker aangezien ik zelf verwacht dat Navi ook weer extreem laat gaat binnen komen en we mogelijk dus nog wel 2-3 jaar deze situatie volhouden waarbij je eigenlijk gewoon geen Radeon kaart kunt kopen als je een beetje leuk wilt gamen*.

Overigens is ook nog even de vraag of je niet min of meer hetzelfde uitkomt met een Vega GDDR5X waarbij de ongebruikte features eruit zijn gesloopt vs een hele brede Polaris.

*
Ubi zegt dat er geen gameworks in AC origins zit. Dit zou zo maar eens het beeld van 2018 kunnen zijn:[afbeelding]
Dat is dan nog medium... Overigens Far Cry 5 hebben ze wel goede AMD support. Verschil van dag en nacht. Dus AMD heeft er ook nog wat over te zeggen. De vraag is voor hoeveel games AMD dat zo netjes gaat oplossen. Tot heden niet veel.
Mee eens tot 1500MHz is het nog wel te doen maar daar na moet het voltage flink omhoog ik kan 1480MHz draaien met 900mv. Ik gok dat elke kaart wel 1350-1400 MHz moet kunnen op dat voltage.

Alleen meer CU's gaat niet helpen dan zouden er ook meer ROP's in moeten want net als Fiji heeft vega daar de grootste bottelneck zitten.
DoubleYouPee schreef op dinsdag 10 april 2018 @ 18:48:
@sdk1985 je eigen plaatje laat juist zien dat Vega NIET goed scaled met extra CU, Vega 56 en 64 verschillen nauwelijks. Als ze dus voor nog meer CU gegaan waren met lagere clocks, was je performance nog slechter geweest.
Het probleem zit hem in het frond-end van de chip net als Fiji is vega daar meestal bottelnecked.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Verwijderd schreef op woensdag 11 april 2018 @ 00:11:
[...]Hell, bij elke desktopvraag die je ziet in het aankoopdeel denkt iedereen dat hij een i5 en een Nvidia-kaart moet hebben. 8)7[...]
Zelfs nog beter, je hebt de startpost van dit topic ook wel gezien: PUBG videokaart

"Moet ik een MSI of een NVIDIA kaart hebben?" :D

Dat zegt natuurlijk alles! Dit is puur het resultaat van marketing en van horen zeggen. De wat minder goed geinformeerde consument kan niet anders dan er in tuinen.
Astennu schreef op woensdag 11 april 2018 @ 07:49:
[...]Alleen meer CU's gaat niet helpen dan zouden er ook meer ROP's in moeten want net als Fiji heeft vega daar de grootste bottelneck zitten.[...]
Niet alleen dat. Vega loopt ook tegen een draw call bottleneck aan bij de CPU omdat dit bij AMD in een single thread wordt afgehandeld. Dit kan je natuurlijk tegen gaan met meer single thread performance maar de rek is daar inmiddels wel uit bij CPU's.

Getuige het feit dat in Vulkan en DX12 Vega opeens veel beter gaat presteren. En volgens mij is het niet zo dat de ROPS dan minder belast worden.

[ Voor 40% gewijzigd door Blaat op 11-04-2018 08:55 ]

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!
Blaat schreef op woensdag 11 april 2018 @ 08:41:
[...]

Niet alleen dat. Vega loopt ook tegen een draw call bottleneck aan bij de CPU omdat dit bij AMD in een single thread wordt afgehandeld. Dit kan je natuurlijk tegen gaan met meer single thread performance maar de rek is daar inmiddels wel uit bij CPU's.

Getuige het feit dat in Vulkan en DX12 Vega opeens veel beter gaat presteren. En volgens mij is het niet zo dat de ROPS dan minder belast worden.
Daar heb je met DX12 als het goed is geen last van maar met DX10 en 11 is dat zeker het geval dat ligt aan de drivers van AMD. nVidia kan idd twee threads inzetten. Maar goed ik zie niet in waaarom AMD nog heel veel moeite zou steken in het herschrijven van de drivers voor DX10 en 11. Aan de andere kant gaat het nog niet zo hard met het aantal games dat op een goede manier DX12 ondersteund. Het zou mij niets verbazen als nVidia dev's aanraad DX11 te gebruiken zij hebben daar erg veel voordeel bij.

En over de ROPS's in DX12. Het kleine verschil tussen de Fury en Fury X en Vega 56 en 64 laat zien dat daar gewoon niet genoeg capaciteit zit. Er zijn wel wat titels waar het verschil groter is maar op gelijke clocks is het verschil meestal marginaal (2-3%). Bij bepaalde compute zaken zie je ineens wel veel meer winst omdat dan wel alle units van data voorzien kunnen worden.

Zie bv:
https://www.gamersnexus.n...ame-clocks-part-2-revisit

En dan vooral de game benshmarks.

[ Voor 4% gewijzigd door Astennu op 11-04-2018 09:06 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Astennu schreef op woensdag 11 april 2018 @ 09:02:
[...] Bij bepaalde compute zaken zie je ineens wel veel meer winst omdat dan wel alle units van data voorzien kunnen worden.
Of bij Far Cry 5! :)

Die game laat zien hoe het ook kan in dat opzicht. Ik blijf het bizar vinden in wat voor schril contrast dat staat met Assasin's Creed Origins, allebei Ubisoft titels.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!
Blaat schreef op woensdag 11 april 2018 @ 09:06:
[...]


Of bij Far Cry 5! :)

Die game laat zien hoe het ook kan in dat opzicht. Ik blijf het bizar vinden in wat voor schril contrast dat staat met Assasin's Creed Origins, allebei Ubisoft titels.
Is die ook getest op gelijke clocks? want ik denk dat het verschil hem vooral zit in de clockspeed verschillen.
Zie ook de link die ik toegevoegd heb aan mijn vorige post.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Astennu schreef op woensdag 11 april 2018 @ 09:09:
[...]


Is die ook getest op gelijke clocks? want ik denk dat het verschil hem vooral zit in de clockspeed verschillen.
Zie ook de link die ik toegevoegd heb aan mijn vorige post.
Waarschijnlijk heb je gelijk. Je ziet ook dat het verschil groter wordt op hogere resoluties. Daar zie je een tekort aan geheugenbandbreedte in terug komen omdat het geheugen op de 64 ook hoger geclockt is.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!
Blaat schreef op woensdag 11 april 2018 @ 09:13:
[...]


Waarschijnlijk heb je gelijk. Je ziet ook dat het verschil groter wordt op hogere resoluties. Daar zie je een tekort aan geheugenbandbreedte in terug komen omdat het geheugen op de 64 ook hoger geclockt is.
Yep en in die clock scaling test die ik linkte zie je dat ook wel terug. Als je de V56 dan op gelijke clocks laat draaien is het verschil minimaal. Dit was bij de Fury en Fury X ook al zo erg zonde.
Vandaar dat ik hoopte dat ze bij Vega een overhaul van het frond end zouden doen maar dat hebben ze niet gedaan. Het is eigenlijk een die Shrink van Fiji met met wat nieuwe features on steroids om hogere clocks mogelijk te maken en de extra prestaties komen vooral door die hogere clock speeds.

Op gelijke clocks is Vega volgens mij nog steeds niet sneller dan Fiji. Alleen als Rapid Math gebruikt kan worden. Al heb ik geen tests gezien met de laatste drivers. Vraag me ook af in hoeverre die rasterizer zijn werk kan doen. Of dat ze elders wat "IPC" verloren zijn

[ Voor 14% gewijzigd door Astennu op 11-04-2018 09:20 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op woensdag 11 april 2018 @ 07:49:
Alleen meer CU's gaat niet helpen dan zouden er ook meer ROP's in moeten want net als Fiji heeft vega daar de grootste bottelneck zitten.

Het probleem zit hem in het frond-end van de chip net als Fiji is vega daar meestal bottelnecked.
Nee, het probleem zit aan het begin van de graphics pipeline, niet het einde. De AMD kaarten lopen gewoon tegen een bottleneck van DX11 aan. Een CPU core, ook al is het een 8700K @5GHz kan botweg niet voorzien in alle instructies die een RX Vega 56/64 nodig heeft om al die CU's aan het werk te zetten. Switch je naar een DX12 of Vulkan titel, dan kunnen er meerdere CPU cores aangesproken worden. Daarom loopt je framerate vaak fors op als je naar deze API wisselt. Als het probleem de ROPs waren, dan zou er geen verbetering op kunnen treden omdat je dan al tegen de limiet van rasterization loopt. Moet ik de ruime verdubbeling van framerates die ik in CiV 6 haal er weer bijhalen? :P

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 17-09 13:58

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

DaniëlWW2 schreef op woensdag 11 april 2018 @ 11:07:
[...]


Nee, het probleem zit aan het begin van de graphics pipeline, niet het einde. De AMD kaarten lopen gewoon tegen een bottleneck van DX11 aan. Een CPU core, ook al is het een 8700K @5GHz kan botweg niet voorzien in alle instructies die een RX Vega 56/64 nodig heeft om al die CU's aan het werk te zetten. Switch je naar een DX12 of Vulkan titel, dan kunnen er meerdere CPU cores aangesproken worden. Daarom loopt je framerate vaak fors op als je naar deze API wisselt. Als het probleem de ROPs waren, dan zou er geen verbetering op kunnen treden omdat je dan al tegen de limiet van rasterization loopt. Moet ik de ruime verdubbeling van framerates die ik in CiV 6 haal er weer bijhalen? :P
En dit gaat niet veranderen. De drivers zover aanpassen dat die draw calls multithreaded gemaakt kunnen worden lijkt mij echt een gigantische opgave.

Het verontrustende hier aan is dat we dus in feite kunnen zeggen dat AMD kaarten domweg niet sneller kunnen worden onder DX11, gezien de afhankelijkheid van de CPU.

Zelfs een volledig nieuwe videokaart met nieuwe architectuur zou daar geen verandering in brengen. Of maak ik nu een denkfout?

[ Voor 13% gewijzigd door Blaat op 11-04-2018 11:22 ]

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Ardjee
  • Registratie: Februari 2009
  • Laatst online: 16-09 09:44
Verwijderd schreef op dinsdag 10 april 2018 @ 22:16:
[...]

Ja, het vermogen zakt en de maximale klokfrequentie zal ook stijgen. Het heeft te maken met hoe de transistors werken. Transistors kunnen bijvoorbeeld door een spanning bij de gate een stroom krijgen tussen de drain en de source. Als je een kleinere transistor hebt dan gaat dat sneller en is een lager vermogen nodig. In het geval van GPU's/CPU's worden die transistors voor zo ver ik het begrijp vooral als schakel-elementen gebruikt; ze staan aan of uit (hoog vermogen of vrijwel 0 V) en buiten het schakelen heb je weinig vermogen. Aan dat sneller schakelen zitten overigens wel grenzen, niet zo heel erg lang geleden (10-15 jaar?) dacht een zeer hoog geplaatste medewerker van Intel nog dat CPU's nu rond de 9 GHz. of zo zouden zitten, dat kwam niet helemaal uit.

Ik beweer overigens niet dat je dat 1 op 1 zou willen overnemen (maar als je dat wel doet dan zal je een lager vermogen en een hogere klokfrequentie krijgen), waarschijnlijk wil je wel at aanpassen bij zo'n nodeverkleining om het onderste uit de kan te halen maar die details gaan mij vooralsnog boven mijn pet, als iemand daar meer over weet dan lees ik dat graag.


[...]

AdoredTV deed een uitspraak over al die refreshes die volgens mij hout snijdt, Nvidia en AMD doen dit omdat de ontwikkeling van nieuwe architecturen zo verschrikkelijk duur is geworden. Daarnaast wordt Nvidia niet bepaald gestimuleerd om haast te maken aangezien AMD het de laatste jaren een beetje laat liggen. Begrijp me niet verkeerd, alles t/m Vega56 is in theorie competitief (bij een normale markt met normale prijzen) maar Vega kwam 1,5 jaar na de 1070 en 1080. Nvidia zit lekker lui achterover terwijl het geld binnenstroomt, jij weet hoe ik denk over bepaalde normen (Gimpworks, PhysX, GPP...) van mr. leather jacket maar dat kan ik hen toch niet kwalijk nemen.
Er waren idd plannen om een CPU neer te zetten met zeer hoge clockspeeds (7 a 10 GHz afhankelijk van bron) Dit zou een opvolger moeten zijn geweest voor de pentium 4. Gelukkig zijn deze gecancelled en zijn ze voor de core 2 duo's gegaan.

Wikipedia: Tejas and Jayhawk

Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op woensdag 11 april 2018 @ 11:07:
[...]


Nee, het probleem zit aan het begin van de graphics pipeline, niet het einde. De AMD kaarten lopen gewoon tegen een bottleneck van DX11 aan. Een CPU core, ook al is het een 8700K @5GHz kan botweg niet voorzien in alle instructies die een RX Vega 56/64 nodig heeft om al die CU's aan het werk te zetten. Switch je naar een DX12 of Vulkan titel, dan kunnen er meerdere CPU cores aangesproken worden. Daarom loopt je framerate vaak fors op als je naar deze API wisselt. Als het probleem de ROPs waren, dan zou er geen verbetering op kunnen treden omdat je dan al tegen de limiet van rasterization loopt. Moet ik de ruime verdubbeling van framerates die ik in CiV 6 haal er weer bijhalen? :P
Op hogere resoluties heb je die CPU limits niet en dan zie je ook geen verschil tussen een 56 en 64 kortom het zit wel degelijk in de chip zelf. DX11 of 12 maakt niet uit de extra NCU's in de 64 kunnen niet echt bijdragen aan betere prestaties alleen in specifieke gevallen helpt het wel.

Als het echt een harde CPU limit zou zijn is een stock 56 ook niet sneller als een 64 maar clockspeeds schalen wel degelijk.
Blaat schreef op woensdag 11 april 2018 @ 11:18:
[...]


En dit gaat niet veranderen. De drivers zover aanpassen dat die draw calls multithreaded gemaakt kunnen worden lijkt mij echt een gigantische opgave.

Het verontrustende hier aan is dat we dus in feite kunnen zeggen dat AMD kaarten domweg niet sneller kunnen worden onder DX11, gezien de afhankelijkheid van de CPU.

Zelfs een volledig nieuwe videokaart met nieuwe architectuur zou daar geen verandering in brengen. Of maak ik nu een denkfout?
Als je meer dingen in de hardware oplost kan dat wel. De vraag is of je nog nog zo veel moeite in DX10/11 wil en moet stoppen. In mijn ogen niet die API's zijn oud en lang niet zo efficient als DX12 en Vulcan. Maar de meeste engines op dit moment zijn gemaakt op DX10 en 11 en worden dan een beetje opgewaardeerd met DX12. Of ze nemen die moeite niet eens. Dus het is wachten op engines die van de grond af aan opgebouwd zijn voor DX12/Vulcan.

In de tijd van DX10 duurde het ook erg lang omdat DX9 zo populair was en volop gebruikt werd in game engines die nog even mee konden.

[ Voor 36% gewijzigd door Astennu op 11-04-2018 11:28 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!
Blaat schreef op woensdag 11 april 2018 @ 11:18:
[...]


En dit gaat niet veranderen. De drivers zover aanpassen dat die draw calls multithreaded gemaakt kunnen worden lijkt mij echt een gigantische opgave.

Het verontrustende hier aan is dat we dus in feite kunnen zeggen dat AMD kaarten domweg niet sneller kunnen worden onder DX11, gezien de afhankelijkheid van de CPU.

Zelfs een volledig nieuwe videokaart met nieuwe architectuur zou daar geen verandering in brengen. Of maak ik nu een denkfout?
Er is wel een oplossing mogelijk voor DX11. Veel games laten de videokaart dingen renderen die helemaal niet op beeld verschijnen. Denk bijvoorbeeld aan objecten achter muren. Ook worden bepaalde objecten meermaals berekend voor een frame. Denk aan een bos met identieke bomen die telkens opnieuw worden gerendered. Dat zijn allemaal nutteloze draw calls en AMD is hier juist mee bezig. Objecten achter muren hebben ze al opgelost met de Primitive Discard Accelerator in de Polaris architectuur.

Met Vega gaan ze verder. Dit komt uit de white paper:
Another innovation of “Vega’s” NGG is improved load balancing across multiple geometry engines. An intelligent workload distributor (IWD) continually adjusts pipeline settings based on the characteristics of the draw calls it receives in order to maximize utilization.

One factor that can cause geometry engines to idle is context switching. Context switches occur whenever the engine changes from one render state to another, such as when changing from a draw call for one object to that of a di erent object with di erent material properties. The amount of data associated with render states can be quite large, and GPU processing can stall if it runs out of available context storage. The IWD seeks to avoid this performance overhead by avoiding context switches whenever possible.

Some draw calls also include many small instances (i.e., they render many similar versions of a simple object). If an instance does not include enough primitives to fill a wavefront of 64 threads, then it cannot take full advantage of the GPU’s parallel processing capability, and some proportion of the GPU's capacity goes unused. The IWD can mitigate this e ect by packing multiple small instances into a single wavefront, providing a substantial boost to utilization.
Wat AMD hier doet is bewust bepaalde objecten die hetzelfde of vergelijkbaar zijn proberen te clusteren zodat de CU's aan het werk blijven. Er is een verschil tussen wat een Vega en wat een Fiji of Polaris aan draw calls kan opvragen, en dat komt door de nieuwe scheduler.

Het is allemaal maar erg beperkt. Verder zou AMD inderdaad de scheduling multithreaded moeten maken, maar ik betwijfel dus of dit kan in combinatie met AMD hardware. Bij Nvidia is de scheduling softwarematig en draait deze op de CPU. Daar hebben ze het tot een zekere hoogte multithreaded gemaakt. Nadeel is dat er geen sprake is van low level acces en dat pushed AMD nu juist zo hard. Lijkt me een beetje onhandig om dat op te geven, terwijl low level over een paar jaar de standaard zal zijn.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 19:11
RX 500X serie is OEM;

https://www.anandtech.com...ile-radeon-rx-500x-series

Dus, R3/5/7/9 300 en HD 8000 again.

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:07
Blaat schreef op woensdag 11 april 2018 @ 11:18:
[...]


En dit gaat niet veranderen. De drivers zover aanpassen dat die draw calls multithreaded gemaakt kunnen worden lijkt mij echt een gigantische opgave.

Het verontrustende hier aan is dat we dus in feite kunnen zeggen dat AMD kaarten domweg niet sneller kunnen worden onder DX11, gezien de afhankelijkheid van de CPU.

Zelfs een volledig nieuwe videokaart met nieuwe architectuur zou daar geen verandering in brengen. Of maak ik nu een denkfout?
Ja, Nvidia toont immers het tegenovergestelde aan. Bovendien kan een videokaart kan ook sneller hetzelfde werk doen.

Overigens was opnieuw mijn punt niet dat een Vega met meer CU's meer fps zou halen maar dat hij het zou kunnen doen met een veel lager TDP en in combinatie met het veel goedkopere GDDR5. Voor AMD gaat er dan mogelijk 100 dollar van de kostprijs af terwijl er minimaal 50W wordt bespaard.

Verder zou ik geen enkele conclusie trekken op basis van Civilization 6 omdat dit gewoon een game is die technisch echt brak in elkaar zit. Die krijgen het voor elkaar om 20 miljoen exemplaren te verkopen en toch nog onder de fog of war te renderen en zelfs te animeren. Als je een AMD kaart hebt dan moet je in Civilization MSAA even uit zetten, of hoogstens op x4. Dan haal je met een rx 480 ook gewoon de 60 fps ultra.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Verwijderd

Blaat schreef op woensdag 11 april 2018 @ 08:41:
[...]


Zelfs nog beter, je hebt de startpost van dit topic ook wel gezien: PUBG videokaart

"Moet ik een MSI of een NVIDIA kaart hebben?" :D
Ik had dat gelezen maar ik haakte af bij "PUBG", om meerdere redenen. _O-
De dommigheid om op basis van 1 spel je hardware te kiezen, slechte optimalisatie van dat spel en omdat het niet eens meer zo leuk schijnt te zijn met al die Chiniese hackers en idioot hoge pingtijden waardoor je wordt gedood door onzichtbare kogels en goed gemikte kogels van jezelf geen schade aanrichten. :')
Het is inderdaad wel grappig dat hij niet weet dat Nvidia en AMD de GPU leveren en dat MSI er een kaart rond ontwerpt en maakt of laat maken.
Dat zegt natuurlijk alles! Dit is puur het resultaat van marketing en van horen zeggen. De wat minder goed geinformeerde consument kan niet anders dan er in tuinen.
Helemaal mee eens! Puur hersenspoeling door marketing. En ja, MSI is daar ook goed in, net als Nvidia.

offtopic:
Het blijft beangstigend hoe goed dat werkt want propaganda is niets anders dan marketing voor de machthebber in een staat en dat gebeurt ook nu in heel de wereld, niet overal even sterk en even kwaadaardig maar het gebeurt overal, ook hier. Soms heel erg duidelijk en vaak subtiel, het werkt allebei. Denk bijvoorbeeld aan "Europa, best belangrijk" toen we mochten stemmen voor de grondwet van de EU (niet dat er naar die stem werd geluisterd) maar ook aan hoe de Pentagon grote donaties geeft aan films en mooie helicopters en zo beschikbaar stelt als in de film X minuten de USA-vlag te zien is, het volkslied te horen is en dat soort onzin. Denk ook aan media waarin een sterke bias domineert, om tal van redenen.

[ Voor 25% gewijzigd door Verwijderd op 11-04-2018 17:38 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:07
Blaat schreef op woensdag 11 april 2018 @ 08:41:
[...]


Zelfs nog beter, je hebt de startpost van dit topic ook wel gezien: PUBG videokaart

"Moet ik een MSI of een NVIDIA kaart hebben?" :D

Dat zegt natuurlijk alles! Dit is puur het resultaat van marketing en van horen zeggen. De wat minder goed geinformeerde consument kan niet anders dan er in tuinen.


[...]
Logisch gevolg van het beperkte marktaandeel. Unity liet vorig jaar voor Windows 71% Nvidia en 11% AMD zien 8)7. Als iedereen in je omgeving een 'MSI' of een 'NVIDIA' heeft dan ga je daar naar vragen. Valt me wel mee dat de letters goed staan :P .

[ Voor 14% gewijzigd door sdk1985 op 11-04-2018 17:43 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Verwijderd

sdk1985 schreef op woensdag 11 april 2018 @ 17:40:
[...]

Logisch gevolg van het beperkte marktaandeel. Unity liet vorig jaar voor Windows 71% Nvidia en 11% AMD zien 8)7. Als iedereen in je omgeving een 'MSI' of een 'NVIDIA' heeft dan ga je daar naar vragen. Valt me wel mee dat de letters goed staan :P .
Ik heb het hier eerder al opgemerkt, bij al die internetcafés loggen erg veel mensen op dezelfde computer in, ieder met zijn eigen accounts (Steam of wat dan ook). Dat lijkt misschien niet zo belangrijk maar met 1,4 miljarde Chinezen en een cultuur waarin een zeer groot percentage van de Chinezen in een internetcafé gamet is dat erg relevant. NVidia heeft een groter marktaandeel, maar niet zoveel groter. Het is eerder 70/30%, in het ergste geval 75/25%. Dat neemt niet weg dat er een zeer sterk indoctrinatie-effect is bij mensen die niets van hardware weten en dat je het die mensen moeilijk krijgt uitgelegd dat soms AMD de betere keuze is en dat vaak MSI niet de beste kaarten maakt (zeker bij AMD!). :/

Nog eventjes over vooroordelen, het bleek net dat iemand die met een 144 Hz. monitor en een GTX 1070 (en een Ryzen 1600) CS:Go speelt (hij is er redelijk goed in, afgaande op wat ik zag), een verschil van 50-60 FPS kreeg (130-140 vs. 190) tussen hardwareaccelleratie aan bij Chrome en hardware-accelleratie uit bij Chrome. Tot zo ver die superieure drivers. 8)7
Ik merk bij mijn 2,5 keer zo'n zwakke kaart al amper een load bij hardware-accelleratie (Waterfox en Vivaldi). Nvidia is zoals Mark Teflon Rutte, alles glijdt van hen af, het publiek blijft denken dat alles ok is.
Astennu schreef op woensdag 11 april 2018 @ 09:02:
Het zou mij niets verbazen als nVidia dev's aanraad DX11 te gebruiken zij hebben daar erg veel voordeel bij.
Het zou mij verbazen als dat niet is. Wie anders dan mr. leather jacket remt de adoptatie van deze superieure API's - met name Vulkan - af? Nvidia heeft die invloed, niemand anders komt daarbij in de buurt. Verrassend genoeg is de baas van de Khronos Group een Nvidia-medewerker, hij werkt al heel erg lang voor de KG en blijkbaar gedoogt Nvidia dat, ik heb niet de indruk dat hij de belangen van Nvidia in het oog houdt (meer dan die van de totale industrie) bij zijn tweede werkgever. Dat geeft ogenschijnlijk een tegenstelling: een medewerker van Nvidia (andere tak dan de grafische kaarten voor desktops) die juist hard werkt aan Vulkan.

[ Voor 53% gewijzigd door Verwijderd op 11-04-2018 18:33 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:07
Ik zette jaren geleden bij Internet Explorer die hardware acceleration al uit om dezelfde reden. Check net even en met Chrome en edge open zat ik op 40% gpu usage (stuk of 30-40 tabs). De vraag is of dat nu erg is of niet. Immers het is de browser die gek genoeg rekenkracht blijft vragen ook al is de pagina niet zichtbaar. Die rekenkracht moet van je cpu of je gpu komen. Neem aan dat als jij dat een hele lage gpu load hebt dat je cpu dan zwaar wordt belast. Echte probleem zit IMO in de browser, die moeten inactieve pagina's niet blijven renderen.

Moet overigens mijn positieve woorden weer terug nemen. De 500X serie is volgens de laatste nieuwberichten een ordinaire OEM rebrand met identieke clocks voor de meeste kaarten en het 7nm verhaal is nergens meer te bekennen. Als dat klopt dan is dat erg jammer.

edit: Argh ben al te laat met aandelen AMD shorten :F
AMD Short Interest Hits New High
Summary
Nearly 182 million shares now short.

Stock falls below $10 per share.

Is this all cryptocurrency-related?

As the chart below shows, one of the market's biggest losers over the past six months is chip maker Advanced Micro Devices (AMD). While the company has posted decent results, it appears that the Street isn't totally buying the recent business improvement. With some of this appearing to be due to the cryptocurrency burst, short interest recently hit a new high
Allemaal wel erg overhaast want wie goed oplet heeft gezien dat AMD nauwelijks iets verdient aan de bitcoin hype. Dus de paniek in bitcoin land hoef je AMD niet mee lastig te vallen, die draaien op Ryzen en semi-custom.

[ Voor 39% gewijzigd door sdk1985 op 12-04-2018 03:41 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +1 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
sdk1985 schreef op woensdag 11 april 2018 @ 23:54:

Allemaal wel erg overhaast want wie goed oplet heeft gezien dat AMD nauwelijks iets verdient aan de bitcoin hype. Dus de paniek in bitcoin land hoef je AMD niet mee lastig te vallen, die draaien op Ryzen en semi-custom.
Het AMD aandeel misschien niet, maar niks houdt 1tje van de raad van bestuur of van 1 van de vrienden van AMD tegen om niet een heel groot "GPU testcentrum" in te richten om goed te analyseren of de GPU`s goed werken, en voor de zekerheid de telemetry output mee naar huis te nemen om nog even te errorchecken of het wel allemaal goed klopt.

Om vervolgens een jaar later 1 of andere chinese Elon Musk/Mark Zuckerberg te zien opkomen die ogenschijnlijks iets creatiefs/positiefs/populairs wil gaan doen met onze wereld.

Bitcoin (of andere coin) is kip met gouden eieren en geen enkele zelfrespecterend bedrijfshoofd wil daar belasting over betalen.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:07
NA tweaktown kwam ik via reddit weer negatieve geruchten over o.a. Navi tegen: Navi zou een 7nm versie van Polaris worden zonder high-end. Geen 7nm Vega voor gaming. Opvolger van Navi pas na 2020. https://overclock3d.net/n...ack_a_high-end_offering/1 Uiteindelijke bron Fudzilla en vermoedelijk een bak speculatie saus. Maar goed, rond Volta is het ook nog erg stil.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 22-09 15:16
sdk1985 schreef op vrijdag 13 april 2018 @ 02:39:
NA tweaktown kwam ik via reddit weer negatieve geruchten over o.a. Navi tegen: Navi zou een 7nm versie van Polaris worden zonder high-end. Geen 7nm Vega voor gaming. Opvolger van Navi pas na 2020. https://overclock3d.net/n...ack_a_high-end_offering/1 Uiteindelijke bron Fudzilla en vermoedelijk een bak speculatie saus. Maar goed, rond Volta is het ook nog erg stil.
Maar Navi is toch bedoeld als MCM design? Dus dan is het logisch dat een enkele chip niet heel bijzonder is, maar als het goed is kun je er twee, drie of vier naast elkaar plakken en dan is het ineens leuk.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 23-09 08:02
Dan mogen de prijzen eerst wel zakken, Als je nu 1080 prestaties haalt ben je zelfs met 500 euro nog 100 euro goedkoper.

Ik zie wel een enorm aanbod van kaarten op v&a nu trouwens, 66 1070's, een hoop daarvan zijn ook nog eens miners die er meerdere hebben. Misschien gaat het zakken van de prijs dan toch gebeuren.

[ Voor 10% gewijzigd door haarbal op 13-04-2018 14:52 ]

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

https://www.videokaartsho...deon-hd-videokaarten.html
Ik zie dat de eerste AMD-kaarten weer verkrijgbaar zijn. Slechts een week geleden keek ik daar ook en toen zag ik enkel die R7240 erop staan. De prijzen zijn nog absurd hoog, je betaalt €150-300 teveel, maar in ieder geval zijn ze weer leverbaar. Ook opvallend, de prijs van de Vega56 kaart is veel meer geïnflateerd dan de prijs van de Vega64 kaart, het prijsverschil (beide Asus Strix) is ongeveer €50 (net onder en net boven de €800). Heeft iemand een verklaring hiervoor?

Als dadelijk de 'miners' hun kaarten tweedehands gaan verkopen en de voorraad bij de winkels wordt weer wat groter dan zullen die prijzen snel genoeg dalen. Dat gezegd hebbende, nu beter maar wachten op Navi? Zo ver weg is niet meer, begin 2019?

https://wccftech.com/rumo...x-1080-class-performance/

- twee versies van Navi; 1 voor desktops en 1 voor laptops
- de desktopversie gaat de opvolger van de RX 580 worden qua prijs en vermogen en de performance van een GTX 1080 halen (dat klinkt niet onlogisch bij '7' nm, nietwaar?)
- geen andere kaart voor gaming in 2019
- in 2020 een dubbele Navi-kaart met 2 van die dies, dus wel multidie ("scalability") maar niet op de manier die wij hoopten.

edit
Ik had nog niet gezien dat Help het had geplaatst.

[ Voor 11% gewijzigd door Verwijderd op 13-04-2018 15:44 ]


Acties:
  • 0 Henk 'm!
Oftewel precies zoals velen, waaronder ikzelf allang vermoeden. Verder is het wederom wccftech dus neem alles van hun met een korreltje zout. Die website moet je eigenlijk als "wctech" lezen. :P

Het kan heel goed dat ze er zelf druk op los speculeren. Dit is niet moeilijk om te bedenken, verre van. ;)

Maar als het klopt dan is het enige nieuwtje dat AMD kennelijk al in 2020 met een geheel nieuwe architectuur wil komen en vaarwel gaat zeggen tegen GCN. Laten we dat hopen want het is hard nodig. :/

[ Voor 13% gewijzigd door DaniëlWW2 op 13-04-2018 15:47 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

Verwijderd

Over AMD heb ik hen sinds 2016 meestal gelijk zien krijgen. Korreltje zout, ja, maar voor AMD is hun track record de laatste jaren niet slecht. Het zou bovendien een logische ontwikkeling zijn!
- 7 nm. , dus GTX 1080-prestaties (ongeveer het dubbele van een RX 480) op de opvolger van de RX 580. Logisch.
- 2 dies, logisch ("scalability" + Zen).
- Geen grotere die, want beperkingen GCN. Logisch.

Het enige wat ik niet kan volgen is waarom het zo lastig is voor hen om 2 dies te gebruiken terwijl ze dat bij Zen al een tijdje doen. Waarom pas in 2020 de dubbele die?
Ja, een opvolger van GCN is hard nodig maar over een AMD-equivalent van de GTX 1080 voor €250 kan ik niet klagen. Daar houd je het wel een paar jaar mee uit, ook met een hoge-resolutie monitor die een hoge refresh-rate heeft.
Niets nieuws onder de zon, een plotselinge minicrash naar aanleiding van een kleinigheidje en vervolgens weer herstel en hoger. :?
Binnen een paar weken tot maanden zullen we waarschijnlijk weer een flinke correctie zien.
Hoe kom jij erbij dat AMD nauwelijks meer omzet/winst heeft gekregen door mining?
Het marktaandeel van AMD steeg fors in 2017 (7 procentpunt erbij, 7 procentpunt eraf bij Nvidia) en dat lijkt grotendeels niet dankzij Vega te zijn geweest.

[ Voor 48% gewijzigd door Verwijderd op 13-04-2018 15:51 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:07
Verwijderd schreef op vrijdag 13 april 2018 @ 15:42:
Hoe kom jij erbij dat AMD nauwelijks meer omzet/winst heeft gekregen door mining?
Het marktaandeel van AMD steeg fors in 2017 (7 procentpunt erbij, 7 procentpunt eraf bij Nvidia) en dat lijkt grotendeels niet dankzij Vega te zijn geweest.
Terug redeneren. Ongeveer de helft van de computing & graphics omzet komt van Ryzen (dus niet Zen, Epyc, Threadripper, enz), aldus de CEO in de laatste conference call transcripts. Dus dan blijft er voor Radeon iets tussen de 0 en 50% over. Dat maximum van 50% komt neer op circa 450 miljoen (wat dus niet reëel is) maar op zichzelf al in het niets valt bij de 2600 miljoen aan gpu's sales van Nvidia.

Dus nee ik denk niet dat een eventuele barstende mining bubble de operationele omzet van AMD pijn gaat doen. Zoveel produceren ze blijkbaar niet en gamers zitten voorlopig nog te snakken om die kaarten. Ik heb er alle vertrouwen in dat ze het de RX580 voor de originele MSRP echt wel kwijt raken.
Toettoetdaan schreef op vrijdag 13 april 2018 @ 09:56:
[...]

Maar Navi is toch bedoeld als MCM design? Dus dan is het logisch dat een enkele chip niet heel bijzonder is, maar als het goed is kun je er twee, drie of vier naast elkaar plakken en dan is het ineens leuk.
Tja dat zou mooi zijn maar Vega was ook 'scalable' en 'MCM', voor dat laatste zie Kaby-G. Komt blijkbaar toch meer bij kijken. De geruchten die ik de laatste tijd lees zijn steeds negatief. Niets wijst op een geweldige multi chip Navi gpu. Maar goed dat is dus wat het zijn; geruchten. Ik ga hier verder geen voorspellingen aan wagen (behalve de eerder gemaakte voorspelling dat AMD Radeon niet meer in high-end mee doet).

[ Voor 26% gewijzigd door sdk1985 op 13-04-2018 16:07 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 21:36

edward2

Schieten op de beesten

Verwijderd schreef op vrijdag 13 april 2018 @ 15:29:
- geen andere kaart voor gaming in 2019
Dat zou wel heel zuur zijn, geen andere high end GPU(SKU) vóór 2020 :|

Het is logisch dat de productcycles steeds groter worden, maar 3 jaar?

[ Voor 14% gewijzigd door edward2 op 13-04-2018 16:13 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Verwijderd

edward2 schreef op vrijdag 13 april 2018 @ 16:11:
[...]

Dat zou wel heel zuur zijn, geen andere high end GPU(SKU) vóór 2020 :|

Het is logisch dat de productcycles steeds groter worden, maar 3 jaar?
Ja, dat is zuur maar niet onverwacht. Het wordt steeds moeilijker om kleinere nodes te maken en het wordt steeds uitdagender om die goed te benutten terwijl de architectuur steeds meer verfijnd geraakt en het dus alles bij elkaar steeds moeilijker wordt om zo snel met een voldoende grotere performance te komen. Daarom is de ontwikkeling van multi-die GPU's zo belangrijk, de toekomst is dat we veel meer parallele dies gaan gebruiken waarbij de powergating nog beter wordt zodat je in idle nauwelijks een hoger verbruik hebt maar wel de extra performance hebt wanneer je die nodig hebt. Het grote struikelblok is de software en daar speelt Vulkan (en DX12 wat Vulkan plagieerde) een rol in.

Pragmatisch gezien, besteed €250 euro aan die RX680 (als die zo gaat heten) en vervang die na 2 jaar (verkopen?) in plaats van dat je €600 besteedt aan een grotere kaart en die na 4 jaar vervangt. ;)
Alleen als je je ogen hebt laten vallen op een 4k-monitor met 100 Hz. (Nvidia gaf toch aan dat 100 FPS met 4k erin zou zitten voor de 1180 ti?) en je momenteel een 1080p monitor hebt, dan is het misschien wel zuur, dan mag je kiezen tussen nog een paar jaar het met een 1080p monitor doen en upgraden naar een 1440p-monitor.
sdk1985 schreef op vrijdag 13 april 2018 @ 16:02:
[...]

Terug redeneren. Ongeveer de helft van de computing & graphics omzet komt van Ryzen (dus niet Zen, Epyc, Threadripper, enz), aldus de CEO in de laatste conference call transcripts. Dus dan blijft er voor Radeon iets tussen de 0 en 50% over. Dat maximum van 50% komt neer op circa 450 miljoen (wat dus niet reëel is) maar op zichzelf al in het niets valt bij de 2600 miljoen aan gpu's sales van Nvidia.
17% van 2600 miljoen.
Nvidia verkoopt veel meer in de high-end en misschien speelt het een rol dat Nvidia veel meer winst maakt per kaart omdat ze kleinere dies gebruiken bij dezelfde prestatie?
Jij spreekt van omzet in welk geval dat niet zou zijn maar weet jij zeker dat het om omzet gaat en niet om iets anders?
Dus nee ik denk niet dat een eventuele barstende mining bubble de operationele omzet van AMD pijn gaat doen.
Niet meer dan Nvidia in dit geval? Voor beide bedrijven zal de tweedehandsmarkt overspoeld worden met grafische kaarten wanneer het helemaal knapt.
Ik heb er alle vertrouwen in dat ze het de RX580 voor de originele MSRP echt wel kwijt raken.
Eens, de Vega56 ook als die prijs normaal wordt, wat nog ver weg is (+€300 op dit moment).
Ik ben uiteraard van mening dat je 2 jaar na de launch van Polaris geen Polaris-kaart moet kopen voor eender welk bedrag wat in de buurt komt van de MSRP maar veel mensen hebben niet de discipline om een paar maanden te wachten, laat staan tot begin 2019 met een onbekende datum...
Ik besteed liever die €250 aan een RX 680 die de prestaties van een GTX 1080 haalt (7 nm.) maar met beteer performance in Vulkan en DX12 en RPM dan nu aan een RX 580 en dat ik het daar dan nog een paar jaar mee moet doen.
Niets wijst op een geweldige multi chip Navi gpu.
Let op! Niet geweldig voor grote dies zegt niets over hoe goed of slecht het uitpakt voor kleine dies. Zo waren de RX 580, de Vega56 en de R9 390 prima kaarten. Alleen heb je weinig aan de Vega64 bij gaming en stelde de Fury(X) ook flink teleurg in vergelijking met de 1080 Ti bij gaming. GCN lijkt simpelweg niet geschikt te zijn voor grote dies.

Overigens 1 bedenking bij dit gerucht over Navi: het gaat hier om 7 nm. , de kostprijs per oppervlakte-eenheid wafer moet aanzienlijk hoger zijn dan bij de 14 nm.
Immers meer lagen. Blijkbaar 16 vs. 12 of zoiets, wat bij benadering 1/3de kostenstijging zou moeten geven?

[ Voor 31% gewijzigd door Verwijderd op 13-04-2018 16:26 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:07
@Verwijderd
Ja de vraag was iets in de richting van welk deel van deze (omzet) cijfers is nu toe te schrijven aan Ryzen. Antwoord was ongeveer de helft.

Ik denk dat Nvidia daar veel meer last van kan krijgen dan AMD. Nvidia kan zichzelf gedeeltelijk beschermen tegen het probleem van de tweede hands markt door Volta significant beter te maken.
Hoe dan ook zal er bij het barsten van de gpu bubble heel wat omzet wegvallen.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Verwijderd

Zoals bij elke zeepbel.
Ik had nog wat toegevoegd aan mijn reactie op jou.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:07
Verwijderd schreef op vrijdag 13 april 2018 @ 16:28:
Zoals bij elke zeepbel.
Ik had nog wat toegevoegd aan mijn reactie op jou.


Overigens 1 bedenking bij dit gerucht over Navi: het gaat hier om 7 nm. , de kostprijs per oppervlakte-eenheid wafer moet aanzienlijk hoger zijn dan bij de 14 nm.
Immers meer lagen. Blijkbaar 16 vs. 12 of zoiets, wat bij benadering 1/3de kostenstijging zou moeten geven?
Probleem hiermee is dat het geen open markt is. Dus als jij TSMC bent en je zegt tegen AMD en Nvidia van goh ik heb 7nm en ga een fabriek (om)bouwen hoeveel willen jullie minimaal afnamen. Dan zegt Nvidia iets in de zin van Volta is beste wat de wereld is overkomen ik wil er voor minimaal 1 miljard per kwartaal met een optie maar 2 miljard. Dan komt AMD en die heeft van zoiets van ja nou ja 400 miljoen moeten we misschien wel kwijt kunnen maar we hebben niet zo veel cash en misschien barst de mining bubbel wel en misschien valt het allemaal tegen dus laten we het maar houden op 200 miljoen. Natuurlijk gechargeerd maar wie denk je dat er dan minder per wafer betaald?

Werkt ook door bij capaciteitsuitbreiding. Wanneer die fabriek op volle toeren draait en er komt extra capaciteit vrij dan zal die capaciteit in de regel naar de partij zijn die het meest daarvoor betaald. Dus als het bij Nvidia goed gaat met de afzet dan komt AMD niet meer aan bod. Nvidia had immers al meer verkocht en dus meer geld verdiend. Op die manier kan AMD dus nooit een 50/50 marktaandeel halen puur omdat ze de allocatie niet krijgen.

Uit dat negatieve spiraal stappen kan door vertrouwen te hebben in het eigen product, geld op te halen en er dan vreselijk veel te bestellen. Natuurlijk wel een strategie met een risico. Ik zie dat AMD voorlopig nog niet doen. Ze zijn net een beetje winstgevend met Ryzen dus daar zullen ze wel op doorbouwen.

TLDR: Kleinere nm geeft niet automatisch een verbetering van de situatie voor AMD. Als ze niet genoeg inkopen gaan anderen er met de productiecapaciteit vandoor waarmee die ook nog eens mogelijk een kostenvoordeel behalen en hun eigen toekomst veilig stellen.

Verder zitten we momenteel in een markt die, in ieder geval aan de kant van Nvidia, volledig is losgekoppeld van de kosten. Het is wat de gek ervoor geeft.

[ Voor 12% gewijzigd door sdk1985 op 13-04-2018 16:51 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Verwijderd

De vraag is hoe AMD voor dezelfde prijs als de RX 580 GPU die Navi GPU met een even grote diesize (dat volgt uit de GTX 1080 equivalentie aangezien de GTX 1080 ongeveer het dubbele presteert van de RX 480 buiten Vulkan en DX12) kan verkopen als er 4 lagen bij komen op die GPU. Dat is immers bij de CPU nodig om die '7' nm. te krijgen, dat zal dan voor de GPU ook gelden.

Ja, bij Nvidia is het zo dat ze vragen wat ze kunnen krijgen en dat mensen bereid zijn om het te geven. :?
sdk1985 schreef op woensdag 11 april 2018 @ 23:54:
Ik zette jaren geleden bij Internet Explorer die hardware acceleration al uit om dezelfde reden. Check net even en met Chrome en edge open zat ik op 40% gpu usage (stuk of 30-40 tabs).
Ik heb zelf vaak veel meer tabs open dan dat en ik heb al die jaren Firefox, Chrome, Vivaldi en Waterfox (= Firefox minus wat rotzooi) gebruikt. Ik heb nooit iets gemerkt van een hoge GPU-load terwijl ik altijd de hardware-accelleratie aan had staan. Het grootste deel van de tijd had ik een AMD-kaart. Ik weet niet wat voor probleerm Nvidia hiermee heeft maar AMD lijkt er weinig last van te hebben. Het maakt me nieuwsgierig naar de oorzaak.

[ Voor 45% gewijzigd door Verwijderd op 13-04-2018 17:05 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 00:07
Verwijderd schreef op vrijdag 13 april 2018 @ 16:58:
[...]

Ik heb zelf vaak veel meer tabs open dan dat en ik heb al die jaren Firefox, Chrome, Vivaldi en Waterfox (= Firefox minus wat rotzooi) gebruikt. Ik heb nooit iets gemerkt van een hoge GPU-load terwijl ik altijd de hardware-accelleratie aan had staan. Het grootste deel van de tijd had ik een AMD-kaart.
Probleem zit in de browser. Gaat het niet via je gpu dan wel via je cpu. Kijk anders even wat er gebeurd wanneer je een youtube video afspeelt met edge (Chrome kan ik niet testen daar zitten zoveel extenties op dat er dan een core wegvalt :+ )

Idle (cpu / gpu ):
4% bij 4%
Standaard (30s):
5% bij 30%pauze 4% bij 16%
gpu assisted rendering disabled: (internet options in win10)
10% bij 15% pauze 5% bij 5%

edit: Oke die percentages hebben totaal geen nut. Bij die laatste test zag ik ineens 30% staan en toen bleek dat wanneer ik mijn muis niet beweeg de gpu terug valt naar 139-215 Mhz en Windows dan dus een hogere load geeft. Dus dat iemand die 30-40% load ziet hoeft niet te betekenen dat er echt veel van de gpu wordt gevraagd. In mijn geval draait hij op 11% van de normale snelheid.

edit2: Hypothese bevestigd. Heb met EVGA Precision-X Kboost geactiveerd waarmee mijn GPU de power savings uitzet en altijd op 1980+ Mhz blijft draaien. Nu kwam de gpu load niet boven de 2%.

[ Voor 49% gewijzigd door sdk1985 op 13-04-2018 17:21 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

Pagina: 1 ... 23 ... 52 Laatste

Let op:
We krijgen de laatste tijd vanuit verschillende hoeken klachten over de gevoerde toon in deze topicserie. Laten we het een beetje gezellig houden. Probeer alleen op de feiten te reageren en je statements te onderbouwen met bronnen. Dram daarbij niet door, als een ander ook na onderbouwing een andere mening toegedaan blijft is daar niets mis mee. Laat sneren en op de man teksten achterwege, dan blijft het voor iedereen leuk.