Acties:
  • 0 Henk 'm!
Verwijderd schreef op woensdag 16 augustus 2017 @ 00:55:
Wat belet de Chinezen om de winkels in Duitsland etc. leeg te kopen?
Logistiek. Bij meerdere verschillende winkels kopen die niet naar China shoppen, met betaalmethoden die ze niet kennen, tussen persoon nodig. Dit allemaal gaat diep in de marges bijten terwijl ze andere GPUs rechtstreeks inkopen.

Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 18:47
Afbeeldingslocatie: https://www.legitreviews.com/wp-content/uploads/2017/08/reddit-vega-645x319.png

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Geweldig dat je een kaart in zes verschillende modi kan zetten. Terwijl de performance tussen de modi een verwaarloosbaar verschil is (niet significant). Het verbruik daarentegen wordt er wel significant door beïnvloed, in positieve zin uiteraard.

AdoredTV kwam min of meer met het advies turbo modus links te laten liggen en voor balanced of power save modus te gaan.

Lijkt er een beetje op alsof Vega een geheugenbandbreedte te kort heeft aangezien de core kloksnelheden flink variëren en het nauwelijks een fluit uit maakt voor de performance, maar de geheugensnelheid in alle modi gelijk is en blijven. Helaas is het verbruik het enige wat significant veranderd tussen de verschillende modi.

[ Voor 8% gewijzigd door madmaxnl op 16-08-2017 05:07 ]


Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
Paprika schreef op woensdag 16 augustus 2017 @ 00:58:
[...]

Logistiek. Bij meerdere verschillende winkels kopen die niet naar China shoppen, met betaalmethoden die ze niet kennen, tussen persoon nodig. Dit allemaal gaat diep in de marges bijten terwijl ze andere GPUs rechtstreeks inkopen.
Ach die baby melkpoeder bussen vinden ook hun weg van de appie naar China, ik denk sowieso dat je met mijnen het best een Chinese partner kan vinden of ergens anders waar stroom goedkoop is.

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37
Finally, een goede poster voor op het werk :p
Soit het toont voornamelijk aan dat de architectuur veranderingen niet enorm waren.

Wellicht kan AMD niet anders? Indien ze hun nieuwe gpu's radicaal ander design gaan geven zal de console win er nog amper toe doen.
En in de toekomst alle low level dx12 optimalisaties..
Hopelijk zorgt dx12/alle gehypte low lvl implementaties niet voor een al te grote rem op de ontwikkeling van nieuwe architecturen. Natuurlijk kunnen zowel nVidia en AMD relatief snel naar een kleiner procédé overstappen atm.
Maar vastgeroeste architecturen zijn op lange termijn echt geen vooruitgang.
Tegenwoordig gaat het wel snel zodat je per 18 maanden wel gebruik kan maken van nieuw geheugen of een kleiner proces maar hopelijk verbeteren ze de gpu op zichzelf ook nog.

En dan bedoel ik niet mining optimalisaties. Die mogen ze echt wel terug naar de overpriced quadro/pro kaarten duwen })

Specs


Acties:
  • 0 Henk 'm!
lightdestroyer schreef op woensdag 16 augustus 2017 @ 08:28:
[...]

Finally, een goede poster voor op het werk :p
Soit het toont voornamelijk aan dat de architectuur veranderingen niet enorm waren.

Wellicht kan AMD niet anders? Indien ze hun nieuwe gpu's radicaal ander design gaan geven zal de console win er nog amper toe doen.
En in de toekomst alle low level dx12 optimalisaties..
Hopelijk zorgt dx12/alle gehypte low lvl implementaties niet voor een al te grote rem op de ontwikkeling van nieuwe architecturen. Natuurlijk kunnen zowel nVidia en AMD relatief snel naar een kleiner procédé overstappen atm.
Maar vastgeroeste architecturen zijn op lange termijn echt geen vooruitgang.
Tegenwoordig gaat het wel snel zodat je per 18 maanden wel gebruik kan maken van nieuw geheugen of een kleiner proces maar hopelijk verbeteren ze de gpu op zichzelf ook nog.

En dan bedoel ik niet mining optimalisaties. Die mogen ze echt wel terug naar de overpriced quadro/pro kaarten duwen })
Geeft wel aan dat het niet goed uitgepakt heeft.
Echter HBM1.0 naar 2.0 geeft in dit geval niet veel winst behalve dat je 8GB hebt. Ze zijn van 4 naar 2 stacks gegaan en de clocks zijn geen 1000 MHz dus de bandbreedte is lager dan die van de Fury X.

Dat GCN3 vs 5 gedeelte is wel erg jammer. Ze hebben veel features die meer toekomst gericht zijn en nu dus geen voordeel geven. En ook dingen die specifiek voor het datacenter / content creators zijn.
Dus je hebt een vrij grote chip waar veel zaken in zitten die gamers niet gebruiken.

nVidia doet dat beter door het af te splitsen zie GP100 vs GP102. Maar daar heeft AMD op dit moment het geld en de ontwikkelteams niet voor. Ik hoop wel dat ze voor Navi zo iets gaan doen. Ik snap dat ze graag in het datacenter segment mee willen doen want daar heb je hele mooie marges maar voor de gamers is dat niet echt goed.

Met Ryzen zie je hetzelfde. Die is gewoon veel geschikter voor servers/datacenters/content creators. Gaming doet hij niet slecht maar vanwegen de latency's die Infinity fabric met zich mee brengt zie je dat de game prestaties lager zijn dan die van de concurrentie.

Dus ik hoop voor zowel Zen2 als Navi dat de gamers ook weer wat meer liefde gaan krijgen.

Er is echt wel veel veranderd aan de architectuur van VEGA maar daar hebben wij vandaag de dag nog maar weinig aan + deel is op een andere markt gericht.
Fiji was veel meer een game chip. In sommige dingen was Hawaii ook sneller dan Fij omdat bepaalde compute zaken niet mee genomen waren.

Ik denk dat het niet simpel kan maar eigenlijk moeten ze Vega strippen net als nVidia dat met de GP100 heeft gedaan.Sommige dingen zoals die High bandwith cache zitten er helemaal in verweven.
Maar in denk dat het dan makkelijker is om GCN4 te pakken en daar een 4096 shader versie van te maken. Gewoon GDDR5x er op plakken en je hebt denk ik iets wat sneller is dan Vega maar toch iets zuiniger. (ik heb nog steeds het idee dat bepaalde zaken voor een achteruitgang zorgen qua prestaties per clock maar in het datacenter / voor de content creators wel voor veel voordelen zorgen / betere prestaties geven)

Maar goed eigenlijk wil je wel die nieuwe DX12 features en de rasterizer hebben. Maar al die compute zaken zijn op dit moment voor gamers niet zo interessant. Of rapid packed math aan gaat slaan is nog maar de vraag al is het net als met tesselation zo dat je wel eerst hardware moet hebben om developers zo ver te krijgen het te gaan gebruiken.

Komende weken zullen er ook wel sites zijn die Vega helemaal gaan doorgronden ook op gelijke clocks met Fiji gaan testen enz. En kijken of ze bottelneks kunnen vinden.

[ Voor 16% gewijzigd door Astennu op 16-08-2017 08:53 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Tadream
  • Registratie: Augustus 2002
  • Laatst online: 08-09 10:05
Waar hebben ze die 34% performance vandaan kunnen halen vraag je je af.
En zoals ik het zie is het 21% performance bij AMD (100-79), of ik moet ergens iets over het hoofd zien.
Ik denk dat AMD teveel nieuwe technologieen erin heeft willen stoppen wat natuurlijk fantastisch is maar de gamer die nu wil spelen met de meeste performance heeft er (nog) niet veel aan.

Acties:
  • 0 Henk 'm!
Tadream schreef op woensdag 16 augustus 2017 @ 08:59:
[...]


Waar hebben ze die 34% performance vandaan kunnen halen vraag je je af.
Grotere GPU, met meer rekenkernen.
En zoals ik het zie is het 21% performance bij AMD (100-79), of ik moet ergens iets over het hoofd zien.
Ja je hebt niet goed opgelet bij rekenen/wiskunde vroeger. ;)
Ik denk dat AMD teveel nieuwe technologieen erin heeft willen stoppen wat natuurlijk fantastisch is maar de gamer die nu wil spelen met de meeste performance heeft er (nog) niet veel aan.
Ze hebben niet als nVidia het budget voor twee absolute top GPU's, zoals de GP100 en GP102, met elk hun eigen markt segment. Maar ze moet het houden bij één die beide moet bedienen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!
Zo bereken je toename niet...

Laat me overigens aan dit filmpje van Adored denken waaruit bleek dat Maxwell en Pascal gelijke IPC hebben.

Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Nu online
Weet iemand hoe het eigenlijk uberhaupt zit met die bundels??

Mindfactory biedt alleen de 2 games aan bij de Vega 64, dan kun je nog 85 euro korting krijgen op een 1700x.
Maar als klap op de vuurpijl bieden ze twee bundels aan met een MSI Xpower boordje, Vega 64 en 1800x of 1700x voor 1849 en 1699 euro aan... 8)7 8)7

https://www.mindfactory.d...AMD_Radeon_RX_VEGA_Bundle

Als je die 1700x bundel los zou kopen ben je dus zo'n 500 euro goedkoper uit ofzo....

1700x = 285 euro
MoBo = 256 euro
Vega 64 = 650 euro
Totaal = 1191 (en dan eventueel dus nog 85 euro korting voor de CPU)

Mis ik hier iets of ....

[ Voor 8% gewijzigd door Zeara op 16-08-2017 09:13 ]


Acties:
  • 0 Henk 'm!

  • Moi_in_actie
  • Registratie: Maart 2007
  • Laatst online: 13:45
Tadream schreef op woensdag 16 augustus 2017 @ 08:59:
[...]


Waar hebben ze die 34% performance vandaan kunnen halen vraag je je af.
En zoals ik het zie is het 21% performance bij AMD (100-79), of ik moet ergens iets over het hoofd zien.
Ik denk dat AMD teveel nieuwe technologieen erin heeft willen stoppen wat natuurlijk fantastisch is maar de gamer die nu wil spelen met de meeste performance heeft er (nog) niet veel aan.
Heel simpel, een GTX 1080 heeft 2560 CUDA cores, een GTX 1080 Ti heeft er 3584, oftewel 40% meer. Volgens de stock Founders Edition specs is de clockspeed van de 1080Ti echter zo'n 5% lager, dus ja... dan kom je uit rond de 35%. Ook de memory bandwith van de 1080Ti is iets hoger. Helemaal 1 op 1 deze waardes optellen en aftrekken klopt niet, want 1% meer clockspeed zorgt ook niet exact voor 1% performance increase. Maar grofweg komt het wel in de buurt.

Dat plaatje is ook, in ieder geval voor wat betreft die NVidia vergelijk, totaal zinloos, het is een open deur intrappen. Voor wat betreft AMD, tsja... 27% meer performance, maar ook een veel hogere clockspeed. Een Fury X loopt standaard op 1050Mhz, een RX Vega 64 haalt toch wel rond de 1500Mhz, terwijl ze beiden evenveel cores hebben (4096). Bij een undervolted RX Vega 56 snap ik nog dat deze een stuk energie zuiniger is, bij een default RX Vega 64 vraag ik het me toch af wat AMD in al die tijd gedaan heeft (ja, vooral Ryzen ontwikkeld). Het enige wat echt lijkt is dat deze GNC architecture hogere clockspeeds haalt, maar ja bij NVidia is dat eigenlijk ook het geval. Een 1080Ti is met name sneller dan een 980Ti door hogere clockspeeds.

Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT


Acties:
  • 0 Henk 'm!
Moi_in_actie schreef op woensdag 16 augustus 2017 @ 09:15:
[...]
Een 1080Ti is met name sneller dan een 980Ti door hogere clockspeeds.
De GTX1080 is dat alleen maar doro de hogere clockspeeds :+ (minder CUDA cores, zie filmpje).
Wtf? 8)7

https://www.newegg.com/Pr...px?ItemList=Combo.3615244
https://www.overclockers....8-pack-ram-bu-02q-gi.html
De UK deal is wel best goed. Newegg is wel 'goedkoper', maar duurder dan een 64 op dag 1 kopen...

[ Voor 46% gewijzigd door Paprika op 16-08-2017 09:24 ]


Acties:
  • 0 Henk 'm!

  • Tadream
  • Registratie: Augustus 2002
  • Laatst online: 08-09 10:05
-The_Mask- schreef op woensdag 16 augustus 2017 @ 09:10:

Ja je hebt niet goed opgelet bij rekenen/wiskunde vroeger. ;)

[...]

Ze hebben niet als nVidia het budget voor twee absolute top GPU's, zoals de GP100 en GP102, met elk hun eigen markt segment. Maar ze moet het houden bij één die beide moet bedienen.
Terug naar de schoolbanken dan maar. :P
Toch vind ik het knap dat ze redelijk goed mee kunnen met Nvidia met dat beperkte budget.
Als ik nu in de markt was voor een kaart en op 1920x1080/2560x1440 zou zitten dan zou ik zeker die Vega56 overwegen. In mijn ogen hadden ze daar met deze serie op moeten richten, om die wat zuiniger te krijgen. Die Vega64 is niet interessant.

Acties:
  • 0 Henk 'm!
@Astennu niet eens alle features werken op het moment. Met name Primitive Shaders is gewoon onbegrijpelijk...

Maar wat hebben we nu eigenlijk te zien gekregen van AMD? Een te hoog geclockte, op een te hoog voltage lopende alleskunner van een chip, die eigenlijk maar matig presteert qua gaming, en zeer goed in professionele workloads.

Ik blijf erbij dat RX Vega 64 nooit uitgebracht had moeten worden. Clock voor clock zou die een paar procent sneller moeten zijn, en dat is gewoon zeer matig voor het extra verbruik. Verder kan AMD die chips voor veel meer verkopen op de professionele markt. Gaming prestaties zullen nog wel wat beter worden, zoals wel vaker gebeurd bij AMD. Dan gaat de RX Vega 56 een aardige gaming chip worden. Verder zou ik heel graag een RX Vega 48 chip zien, maar of dat gaat gebeuren zien we wel.

Dan nog bottleneck testen, want er lijkt er wel eentje te zitten met zo'n grote chip...

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 13:27

flessuh

Set sail for fail!

ja ik denk dat ze de boel beter iets uit hadden kunnen stellen om er zeker van te zijn dat de drivers goed waren. Maar ja, dan hadden ze geen deadlines moeten stellen en echt vroeg genoeg melden dat het iets later werd en daar bij vermelden dat het voor goede drivers is.

Ik snap ook niet dat ze de Vega 64 zo uitgebracht hebben, het is net alsof hij tegen een betonnen muur gaat met verbruik en AMD daar een gat in heeft geslagen om hem nog wat hoger te klokken, ook al is het grotendeels het niet waard.

https://www.dutchsolarboat.com


Acties:
  • +1 Henk 'm!
DaniëlWW2 schreef op woensdag 16 augustus 2017 @ 11:02:
@Astennu niet eens alle features werken op het moment. Met name Primitive Shaders is gewoon onbegrijpelijk...

Maar wat hebben we nu eigenlijk te zien gekregen van AMD? Een te hoog geclockte, op een te hoog voltage lopende alleskunner van een chip, die eigenlijk maar matig presteert qua gaming, en zeer goed in professionele workloads.

Ik blijf erbij dat RX Vega 64 nooit uitgebracht had moeten worden. Clock voor clock zou die een paar procent sneller moeten zijn, en dat is gewoon zeer matig voor het extra verbruik. Verder kan AMD die chips voor veel meer verkopen op de professionele markt. Gaming prestaties zullen nog wel wat beter worden, zoals wel vaker gebeurd bij AMD. Dan gaat de RX Vega 56 een aardige gaming chip worden. Verder zou ik heel graag een RX Vega 48 chip zien, maar of dat gaat gebeuren zien we wel.

Dan nog bottleneck testen, want er lijkt er wel eentje te zitten met zo'n grote chip...
Best begrijpelijk. AMD heeft te weinig budget software team heeft te veel werk te weinig mensen en te weinig tijd. Is inderdaad wel heel zonde.
Echter moeten developers ook wat doen voordat je voordeel hebt van Primitive shaders dus vrees dat dat weinig uit gemaakt had.

Dat alles kunner gebeuren nekt AMD de afgelopen twee generaties. Je zag het al bij Maxwell. Toen begon nVidia al met het uitkleden van de chips voor gaming en met resultaat. Bij Pascal zie je hetzelfde. De chip blijft relatief compact en zuinig. Hawaii is ook een voorbeeld van een chip die veel kan maar het verbruik is er ook naar. Bij Vega hetzelfde.

Vega 64 hadden ze niet in z'n huidige vorm uit kunnen brengen. Ik heb het idee dat Powersave + bios 2 de default het moeten zijn. veel betere performance per watt. Als ze die dan beter getweaked hadden zitten ze wel onder de 1080 maar het totaal plaatje is in mijn ogen dan beter. Echter is de prijs in de ogen van veel mensen dan niet goed genoeg meer want heel veel mensen kijken vooral naar de prestaties.

Wat verwacht je dan van een Vega 48? als de 64 niet zou moeten bestaan geld dat eigenlijk ook voor de 56 en een eventuele 48. Een 48 kan niet veel goedkoper want Vega is duur. HBM2 is duur en met die die size is hij in dat opzicht ook duur tov de GP102.

Ik denk dat AMD nu beter de focus kan leggen op het maken van twee versies van Navi. Hopelijk leren ze hier van. Maar met een beetje peg is het al te laat voor Navi. (GPU ontwikkelen duurt 3 jaar wellicht dat een varriant maken sneller kan maar wederom is nu de vraag hebben ze daar het geld voor? Inkomsten van Zen beginnen nu pas binnen te komen.)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 13:37
Als je uitgaat van te weinig mensen en te laag budget kun je er zeker van uit gaan dat de performance in rap tempo omhoog zal gaan. Weliswaar procentje per procentje maar komen zal het zeker. Het zal me niet verbazen dat we pas op zo'n 80% van de mogelijke performance zitten.

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!
Astennu schreef op woensdag 16 augustus 2017 @ 11:24:
[...]
Echter moeten developers ook wat doen voordat je voordeel hebt van Primitive shaders dus vrees dat dat weinig uit gemaakt had.
Hoeft niet volgens een AMD engineer:
https://mobile.twitter.com/ryszu/status/896304786307469313

En tja, vroeger maakte Nvidia de alleskunner en AMD de kleine GPU. Dat ging toen best goed voor AMD. Nu maakt AMD de alleskunner en Nvidia de kleine GPU en dat werkt goed voor Nvidia :+.

http://www.anandtech.com/show/2549
GTX280
Let's put aside all the important considerations for a moment and bask in the glow of sheer geekdom. Intel's Montecito processor (their dual core Itanium 2) weighs in at over 1.7 billion transistors, but the vast majority of this is L3 cache (over 1.5 billion transistors for 24MB of on die memory). In contrast, the vast majority of the transistors on NVIDIA's GT200 chip are used for compute power.

[ Voor 31% gewijzigd door Paprika op 16-08-2017 11:56 ]


Acties:
  • 0 Henk 'm!
Paprika schreef op woensdag 16 augustus 2017 @ 11:53:
[...]

Hoeft niet volgens een AMD engineer:
https://mobile.twitter.com/ryszu/status/896304786307469313

En tja, vroeger maakte Nvidia de alleskunner en AMD de kleine GPU. Dat ging toen best goed voor AMD. Nu maakt AMD de alleskunner en Nvidia de kleine GPU en dat werkt goed voor Nvidia :+.

http://www.anandtech.com/show/2549
GTX280

[...]
Dan is het helemaal zonde maar zouden we er dus nog wat performance er bij krijgen met Nieuwe drivers. Echter te laat om de schade te beperken.

Klopt nu zijn de rollen omgedraaid. Maar nvidia doet nu beide. 1 chip voor compute GP en GV100 en de 102/104 en 106 zijn de uitgeklede gaming varianten.

[ Voor 8% gewijzigd door Astennu op 16-08-2017 12:04 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!
Astennu schreef op woensdag 16 augustus 2017 @ 11:24:
[...]


Best begrijpelijk. AMD heeft te weinig budget software team heeft te veel werk te weinig mensen en te weinig tijd. Is inderdaad wel heel zonde.
Echter moeten developers ook wat doen voordat je voordeel hebt van Primitive shaders dus vrees dat dat weinig uit gemaakt had.
Een aantal dagen terug was er een AMD engineering die stelde dat Primitive Shaders juist geen imput vragen van de developer. Saus: https://mobile.twitter.com/ryszu/status/896304786307469313
:P

Gewoon je shader programma's maken, en de AMD driver zou de rest doen. Zeker als je ziet dat Primitives hiermee van 4, naar maximaal 17 per clock kunnen gaan, en nutteloze primtives ook weggegooid zouden worden. Als Vega 10 met een frontend bottleneck zit dan kan dit zeer interesant zijn. Het is in ieder geval een indicatie dat hier een probleem zat van Fiji, wat ze proberen op te lossen. Anders verander je dit niet.
Dat alles kunner gebeuren nekt AMD de afgelopen twee generaties. Je zag het al bij Maxwell. Toen begon nVidia al met het uitkleden van de chips voor gaming en met resultaat. Bij Pascal zie je hetzelfde. De chip blijft relatief compact en zuinig. Hawaii is ook een voorbeeld van een chip die veel kan maar het verbruik is er ook naar. Bij Vega hetzelfde.
Nogal, maar het is ook niet slecht. Het probleem lijkt echt te ontstaan bij chips die de 3000SP barrière breken. Daaronder valt het mee. Polaris 10/20 is bijvoorbeeld een capabele gaming chip. :)
Vega 64 hadden ze niet in z'n huidige vorm uit kunnen brengen. Ik heb het idee dat Powersave + bios 2 de default het moeten zijn. veel betere performance per watt. Als ze die dan beter getweaked hadden zitten ze wel onder de 1080 maar het totaal plaatje is in mijn ogen dan beter. Echter is de prijs in de ogen van veel mensen dan niet goed genoeg meer want heel veel mensen kijken vooral naar de prestaties.
Boostclock had gelimiteerd moeten worden op 1500MHz ish. Dat is gewoon het maximale in de efficiëntiecurve van deze chip. Daarboven is het volslagen zinloos want je extra vermogen wordt nauwelijks omgezet in gaming prestaties. Dan zit je op enkele tientallen watts, en dat is acceptabel, zeker als na verloop van tijd de RX Vega 10 kaarten uit gaan lopen op hun Nvidia tegenhangers door verdere optimalisaties.
Wat verwacht je dan van een Vega 48? als de 64 niet zou moeten bestaan geld dat eigenlijk ook voor de 56 en een eventuele 48. Een 48 kan niet veel goedkoper want Vega is duur. HBM2 is duur en met die die size is hij in dat opzicht ook duur tov de GP102.
Juist wel. Vega 64 is een voor de professionele markt georiënteerde chip. Deze zit in de Instinct MI25 serverkaart, beide Radeon Pro kaarten, Vega FE en iMac Pro. Alleen voor die laatste zijn er ook Vega 56 chips. RX Vega 64 is dan ruim de laatste keuze voor die chips gezien de marges en prestaties. Het is gewoon niet doeltreffend om ze als RX te verkopen. Dus RX Vega 64 had niet moeten bestaan, Vega 64 wel, maar niet voor gaming.

Instinct MI25 is er ook al sinds juni, en er zijn genoeg taken waar die de grotere GV100 chip verslaat. Daar moet AMD op maximaliseren, zeker in combinatie met Epyc. Hetzelfde voor Radeon Pro en Threadripper.

Ondertussen bestaat Vega 56 bestaat voor dezelfde reden als elke cut down chip bestaat, kosten besparing. Het is in vrijwel elk scenario goedkoper om een gedeeltelijk mislukte chip te verkopen als cut down, voor een lagere prijs, dan weg te gooien. Weggooien is 100% verlies van investering, en dus nooit aantrekkelijk. Een Vega 56 chip verkopen voor de kostprijs is al het terugverdienen van je investering, en dus geen verlies. Nu zitten we met een behoorlijk grote chip en de yields zullen niet geweldig zijn. Dat roept de vraag op of er genoeg chips zijn die minder dan 56 functionele CU's hebben, maar wel 48 of meer functionele CU's. Is dat zo, dan kan die chip er komen om de functionele chip per wafer kosten te drukken. Je wil zo weinig mogelijk weggooien, en zo doe je dit. Zelfs met een licht verlies verkopen is beter dan weggooien omdat je er nog wat voor krijgt.
Ik denk dat AMD nu beter de focus kan leggen op het maken van twee versies van Navi. Hopelijk leren ze hier van. Maar met een beetje peg is het al te laat voor Navi. (GPU ontwikkelen duurt 3 jaar wellicht dat een varriant maken sneller kan maar wederom is nu de vraag hebben ze daar het geld voor? Inkomsten van Zen beginnen nu pas binnen te komen.)
Als Navi een schaalbare achitectuur is alla zen, dan geef ik ze een aardige kans. Dat zou een achitectuur van modulariteit moeten worden die doorgaat op de IF techniek van het CPU team. GPU is natuurlijk anders dan een CPU, en zal ook een andere aanpak vragen. Ik kan me heel goed voorstellen dat ze kiezen voor een enkele Shader Engine unit van bijvoorbeeld 12CU's en bijbehoren. Vervolgens produceren ze chips met 2/4/6/8 van die units. De limiet is in theorie alleen de boel koel houden. Dat zou vragen om een een aparte scheduler unit om verschillende aantallen van Shader Engines te bedienen. Vervolgens zal de geheugencontroller ook een aparte unit worden. Dit alles moet dan aan elkaar verbonden worden en dan is een behoorlijke verandering van GPU achitectuur op zichzelf. De resultaten lijken me duidelijk als ze het doen.

Al die onderdelen modulair worden en bestaan uit kleine stukjes silicon waardoor yields een veel kleiner probleem worden. Productiekosten per chip zouden ook dramatisch zakken omdat je weinig meer weg hoeft te gooien. Desnoods kan AMD hiermee keihard onder de prijzen van Nvidia gaan zitten.

Hebben we het nog niet over de mogelijkheid om modulair bepaalde onderdelen toe te voegen, of weg te halen uit een ontwerp. Het is de vraag hoe ver AMD hiermee kan gaan, maar dat Nvidia een tijdje terug opeens met een paper kwam waarin ze expliciet beschrijven dat ze een dergelijk modulaire chip plannen zegt al genoeg. Het is de vraag hoe ver Nvidia achter ligt op AMD, en hoeveel generaties AMD vrij spel gaat krijgen. Navi denk ik wel, maar daarna?

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
IF is denk ik niet geschikt voor GPU's. GPU's moeten juist zo min mogelijk latency hebben.
GCN is al modulair. Maar in dat geval zitten de compute units die we nu juist even niet nodig hebben er ook bij.

Dat stukje moeten ze nu ook "modulair" maken dat je makkelijker twee smaken zou kunnen uitbrengen. Echter moet je daar vrees ik vooraf al veel rekening mee houden en kan het zijn dat dat niet op tijd is voor Navi. Daarnaast kost het wel extra geld. Dus tijd zal leren wat AMD gaat doen. Maar als ze niet doen kunnen ze het vs nVidia schudden om op top niveau mee te doen. Dan zullen ze toch met een chip moeten kunnen komen die meer gericht is op gaming en niet te veel voor gaming overbodige transistors aan boord heeft.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37
Paprika schreef op woensdag 16 augustus 2017 @ 11:53:
[...]

Hoeft niet volgens een AMD engineer:
https://mobile.twitter.com/ryszu/status/896304786307469313

En tja, vroeger maakte Nvidia de alleskunner en AMD de kleine GPU. Dat ging toen best goed voor AMD. Nu maakt AMD de alleskunner en Nvidia de kleine GPU en dat werkt goed voor Nvidia :+.

http://www.anandtech.com/show/2549
GTX280

[...]
Fermi was dan ook een serieuse wake up call: "Zo gaat het niet verder".

Sindsdien heb je inderdaad de opsplitsing die financieel een héél succes is geworden (de Geforce kaarten zijn de goedkoopste in hun assortiment.. een gpu kaartje van 700 euro+ goedkoop noemen beeld je in dat ik dat 10 jaar geleden hier had neergeschreven :+ )

Wat vooral schokkerend is dat AMD er geen lessen uit getrokken hebben. Ok hun Pro oplossing is goedkoper dan de nVidia variant en zal veel geld in het laatje brengen maar uiteindelijk konden ze deze ook een stuk duurder verkopen zoals nVidia dit deed en een cut-down versie dat minder verbruikte aan de gamers (zonder gevaar voor hun dure pro kaarten).

/me Light denkt dat ze best eens de top van AMD eens op een basis economie cursus dienen te sturen: Vraag en aanbod + product differentiatie: Breng meerdere producten uit op verschillende prijspunten om zodoende je winst te maximaliseren, werkt het beste in een monopoly, duo of beperkte oligopoly markt .. en daar we hier een perfecte duopoli markt hebben:
http://www.dummies.com/st...productCd-1118412044.html <<koop er een paar voor die gasten zal precies meer doen dan een extra winstuitkering.. :p
Trouwens hint: zoals alle theoriën voorspellen versnipper je eigen markt te veel en je winst zal ook dalen.

Een grote opsplitsing tussen dure professionele kaarten die daadwerkelijk veel beter werken maar te duur zijn voor 90% van je klanten (particuliere klanten) en een gelimiteerd aantal goedkopere (stripped down) varianten voor die 90% werkt dus veel beter dan een "all in" product ..
(Yeah zelf rijke klanten kopen je goedkoper product als ze merken dat buiten een paar fancy details het product hetzelfde is).

Hoe zo'n grote bedrijven met zo'n omzet vaak zelf de meest basis principes van de economie uit het oog verliezen :?
Wellicht teveel luisteren naar je engineers en te weinig naar je boekhouder (omgekeerd is even rampzalig natuurlijk)

Specs


Acties:
  • 0 Henk 'm!
Astennu schreef op woensdag 16 augustus 2017 @ 12:29:
IF is denk ik niet geschikt voor GPU's. GPU's moeten juist zo min mogelijk latency hebben.
GCN is al modulair. Maar in dat geval zitten de compute units die we nu juist even niet nodig hebben er ook bij.
Vega is een IF GPU. ;)
Dat stukje moeten ze nu ook "modulair" maken dat je makkelijker twee smaken zou kunnen uitbrengen. Echter moet je daar vrees ik vooraf al veel rekening mee houden en kan het zijn dat dat niet op tijd is voor Navi. Daarnaast kost het wel extra geld. Dus tijd zal leren wat AMD gaat doen. Maar als ze niet doen kunnen ze het vs nVidia schudden om op top niveau mee te doen. Dan zullen ze toch met een chip moeten kunnen komen die meer gericht is op gaming en niet te veel voor gaming overbodige transistors aan boord heeft.
IF zal nu bij AMD intern een aantal jaar moeten bestaan. Zen is IF, Vega is IF en die kan je pas ontwerpen als IF klaar is en werkt.

Verder denk ik dat Vega 10 nieuwe features heeft geprobeerd, mede voor Navi. We weten dat een GCN GPU meer dan vier Shader Engines kan ondersteunen, dat zou het probleem niet moeten zijn voor een schaalbare GPU achitectuur op een interposer. Verder zou Vega de eerste GPU zijn waar Raja veel invloed op heeft, terwijl Navi 100% zijn werk is. Een aparte perfecte gaming en GPGPU chip verwacht ik niet, beter dan nu wel. Het is ook de vraag of AMD in staat is een aparte gaming "Shader Engine module" en een GPGPU "Shader Engine module" kan maken. Doen ze dat, en functioneert dit met dezelfde sheduler en memory controller, dan gaat Navi helemaal interesant worden. :)

[ Voor 11% gewijzigd door DaniëlWW2 op 16-08-2017 12:40 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op woensdag 16 augustus 2017 @ 12:38:
[...]
Verder zou Vega de eerste GPU zijn waar Raja veel invloed op heeft, terwijl Navi 100% zijn werk is.
Ook dan heb je alleen invloed. Je bent toch altijd afhankelijk van de kwaliteiten van je hele team.

Acties:
  • 0 Henk 'm!

  • lightdestroyer
  • Registratie: Oktober 2005
  • Laatst online: 02-08 20:37
Paprika schreef op woensdag 16 augustus 2017 @ 12:46:
[...]

Ook dan heb je alleen invloed. Je bent toch altijd afhankelijk van de kwaliteiten van je hele team.
Als Amerikaans bedrijf heb je ook veel meer invloed op je team (ontslaan/aannemen) dan hier in Europa hoor :p
Het enige waarvan hij echt afhankelijk is, is het budget (dat dan weer op zijn beurt bepaalt wie kan aangenomen/ingehuurd worden).

Specs


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Paprika schreef op woensdag 16 augustus 2017 @ 12:46:
[...]

Ook dan heb je alleen invloed. Je bent toch altijd afhankelijk van de kwaliteiten van je hele team.
+ Budget. :)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 13:56
lightdestroyer schreef op woensdag 16 augustus 2017 @ 12:37:
[...]

Fermi was dan ook een serieuse wake up call: "Zo gaat het niet verder".

Sindsdien heb je inderdaad de opsplitsing die financieel een héél succes is geworden (de Geforce kaarten zijn de goedkoopste in hun assortiment.. een gpu kaartje van 700 euro+ goedkoop noemen beeld je in dat ik dat 10 jaar geleden hier had neergeschreven :+ )

Wat vooral schokkerend is dat AMD er geen lessen uit getrokken hebben. Ok hun Pro oplossing is goedkoper dan de nVidia variant en zal veel geld in het laatje brengen maar uiteindelijk konden ze deze ook een stuk duurder verkopen zoals nVidia dit deed en een cut-down versie dat minder verbruikte aan de gamers (zonder gevaar voor hun dure pro kaarten).

/me Light denkt dat ze best eens de top van AMD eens op een basis economie cursus dienen te sturen: Vraag en aanbod + product differentiatie: Breng meerdere producten uit op verschillende prijspunten om zodoende je winst te maximaliseren, werkt het beste in een monopoly, duo of beperkte oligopoly markt .. en daar we hier een perfecte duopoli markt hebben:
http://www.dummies.com/st...productCd-1118412044.html <<koop er een paar voor die gasten zal precies meer doen dan een extra winstuitkering.. :p
Trouwens hint: zoals alle theoriën voorspellen versnipper je eigen markt te veel en je winst zal ook dalen.

Een grote opsplitsing tussen dure professionele kaarten die daadwerkelijk veel beter werken maar te duur zijn voor 90% van je klanten (particuliere klanten) en een gelimiteerd aantal goedkopere (stripped down) varianten voor die 90% werkt dus veel beter dan een "all in" product ..
(Yeah zelf rijke klanten kopen je goedkoper product als ze merken dat buiten een paar fancy details het product hetzelfde is).

Hoe zo'n grote bedrijven met zo'n omzet vaak zelf de meest basis principes van de economie uit het oog verliezen :?
Wellicht teveel luisteren naar je engineers en te weinig naar je boekhouder (omgekeerd is even rampzalig natuurlijk)
Hoe gaan economische theorieen helpen? Nvidia heeft een product dat met een kleinere chip en minder memorybandbreedte (dus lagere productiekosten) hetzelfde presteert met lager verbruik.

Nu met de mining gekte verkoopt alles, maar als dat keldert is amd weer afhankelijk van nvidia, als die de prijzen hoog houdt kan amd winst maken op gpu's, anders niet.

Mechwarrior Online: Flapdrol


Acties:
  • +1 Henk 'm!

Verwijderd

Ik vindt dat ze wel degelijk een goed product hebben neergezet, zie hun R&D budget.

Acties:
  • 0 Henk 'm!
Paprika schreef op woensdag 16 augustus 2017 @ 12:46:
[...]

Ook dan heb je alleen invloed. Je bent toch altijd afhankelijk van de kwaliteiten van je hele team.
Dat ligt er ook aan. AMD werkt noodgedwongen met kleinere teams onder leiderschap van zeer getalenteerde engineerings. Dat kan juist zeer efficiënt zijn omdat de lijntjes kort zijn binnen de organisatie, en men elkaar kan ondersteunen en helpen. Bij Nvidia, en zeker bij Intel zal je meer groepvorming hebben waar elke groep aan een onderdeel werkt. Faalt een groep te leveren, dan heb je als geheel een probleem. Het is ook echt geen toeval dat behoorlijk wat, enorme technische doorbraken van de afgelopen eeuw uit een klein groepje, gedreven en goed aangestuurde technici kwamen, onder leiding van een genie.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 17:38

MazeWing

The plot thickens...

Sinds nvidia het stroomverbruik bij Kepler flink heeft terug kunnen brengen en deze lijn zeer goed wist door te zetten is het minder en minder met AMD gegaan.

Ook het land genaamd HBM dat ze een paar jaar geleden bewandeld hebben, geeft nog niet het resultaat waar iedereen op gehoopt had.

MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


Acties:
  • +1 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 19:17
Computerbase.de heeft Vega 64 en 56 vergeleken met Fury X op gelijke frequenties;
https://www.computerbase....eon-rx-vega-64-56-test/7/

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 13:27

flessuh

Set sail for fail!

NitroX infinity schreef op woensdag 16 augustus 2017 @ 14:26:
Computerbase.de heeft Vega 64 en 56 vergeleken met Fury X op gelijke frequenties;
https://www.computerbase....eon-rx-vega-64-56-test/7/
dan zou je toch zeggen dat een aantal verbeteringen nog niet werken dus?

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

Verwijderd

MazeWing schreef op woensdag 16 augustus 2017 @ 14:15:
Sinds nvidia het stroomverbruik bij Kepler flink heeft terug kunnen brengen en deze lijn zeer goed wist door te zetten is het minder en minder met AMD gegaan.

Ook het land genaamd HBM dat ze een paar jaar geleden bewandeld hebben, geeft nog niet het resultaat waar iedereen op gehoopt had.
AMD begon echt achter te lopen bij pascal release.

Maar wat is de magic geweest van Nvidia? Van kepler die niet bijzonder was naar maxwell/pascal.

Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op woensdag 16 augustus 2017 @ 14:29:
[...]


AMD begon echt achter te lopen bij pascal release.

Maar wat is de magic geweest van Nvidia? Van kepler die niet bijzonder was naar maxwell/pascal.
Een goed proces van TSMC waardoor ze lage voltage en hoge clocksnelheden kunnen doorvoeren?

Acties:
  • 0 Henk 'm!
Verwijderd schreef op woensdag 16 augustus 2017 @ 14:32:
[...]
Een goed proces van TSMC waardoor ze lage voltage en hoge clocksnelheden kunnen doorvoeren?
28nm was al best oud.

Ik zou dit even lezen @Enchantress http://www.anandtech.com/...-geforce-gtx-980-review/2

Acties:
  • 0 Henk 'm!

Verwijderd

The source kan jij het laatste verhaal over hoogte verschillen in de chips toelichten?

Acties:
  • 0 Henk 'm!

Verwijderd

Mogelijk interessant: Dirt 4 zonder AA, met CMAA en met 8x MSAA.
Bij de eerste 2 maakt de Vega56 gehakt van de 1070. Bij de derde is het verschil klein.

Afbeeldingslocatie: https://s30.postimg.org/3vdemfp9d/HUD41.png
Afbeeldingslocatie: https://s4.postimg.org/5fiy0xf5p/HUD42.png
Afbeeldingslocatie: https://s2.postimg.org/hvz6jye95/HUD43.png

AMD heeft blijkbaar geweldig geoptimaliseerd voor dit spel (dat wisten we al) maar waarom hebben de AMD-kaarten zoveel moeite met MSAA in vergelijking met de Nvidia-kaarten? Zonder MSAA liggen ze ruim aan kop, met MSAA ligt de RX580 lichtjes achter op de GTX 1060 en presteren Vega56 en de GTX 1070 hetzelfde (naar mijn mening wint de GTX 1070 omdat het minimum belangrijker is).

PS
Hoe bevalt CMAA jullie? Is dat een goed alternatief?

Acties:
  • +1 Henk 'm!
MSAA is een erkend issue bij reviewers.

YouTube: What's Up With The Hardware Unboxed RX Vega Results?
https://www.hardocp.com/a...a_64_video_card_review/17
An issue that we weren’t expecting, is traditional Multi-Sample or Super Sample Anti-Aliasing performance.

Based on our testing there is indication that MSAA is detrimental to AMD Radeon RX Vega 64 performance in a big way. In three separate games, enabling MSAA drastically reduced performance on AMD Radeon RX Vega 64 and the GTX 1080 was faster with MSAA enabled. In Deus EX: Mankind Divided we enabled 2X MSAA at 1440p with the highest in-game settings. The GeForce GTX 1080 was faster with 2X MSAA enabled. However, without MSAA, the AMD Radeon RX Vega 64 was faster. It seems MSAA drastically affected performance on AMD Radeon RX Vega 64.

In Rise of the Tomb Raider we enabled 2X SSAA at 1440p. Once again, we see AMD Radeon RX Vega 64 drop in performance. GeForce GTX 1080 was faster with 2X SSAA compared to Radeon RX Vega 64 with SSAA. Finally, in Dirt 4, which is playable at 8X MSAA, was faster on GTX 1080.

This is combined evidence enough that enabling forms of anti-aliasing like MSAA or SSAA are for some reason performance-impacting on AMD Radeon RX Vega 64. We need to do more testing on this for sure.

The conclusion so far is thus, when using shader based AA methods like SMAA, or FXAA or Temporal AA, or CMAA AMD Radeon RX Vega 64 performs much better and can compete with GTX 1080. However, if enabling any level of MSAA or SSAA then performance will decrease more on AMD Radeon RX Vega 64 and GTX 1080 will give more performance in that scenario. Therefore currently, AMD Radeon RX Vega 64 is best played with shader based AA methods versus traditional MSAA or SSAA in games for now. It will be interested to see if this can get addressed in a driver update.
En tja, shaders doen het gewoon (nog) niet goed:
http://gpu.userbenchmark....AMD-RX-Vega-64/3603vs3933
Beetje naar beneden scrollen tot lighting etc...

Afbeeldingslocatie: https://i.imgur.com/1ftkkte.png

(en lol die age balk...)

Relevant...
http://imgur.com/a/B6D0y

[ Voor 80% gewijzigd door Paprika op 16-08-2017 14:43 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Paprika schreef op woensdag 16 augustus 2017 @ 14:37:
MSAA is een erkend issue bij reviewers.

YouTube: What's Up With The Hardware Unboxed RX Vega Results?
https://www.hardocp.com/a...a_64_video_card_review/17


[...]


En tja, shaders doen het gewoon (nog) niet goed:
http://gpu.userbenchmark....AMD-RX-Vega-64/3603vs3933
Beetje naar beneden scrollen tot lighting etc...

[afbeelding]

(en lol die age balk...)

Relevant...
http://imgur.com/a/B6D0y
Niet enkel Vega, ook Polaris!
HardOCP was de concrete aanleiding voor hem om deze verschillende settings (geen AA en twee verschillende vormen van AA) uit te proberen.
Bij reflection en lightning is het verschil onthutsend groot. Enig idee hoe het komt dat Vega in dit alles zoveel zwakker is?

Acties:
  • 0 Henk 'm!
Verwijderd schreef op woensdag 16 augustus 2017 @ 14:34:
The source kan jij het laatste verhaal over hoogte verschillen in de chips toelichten?
Wat is niet duidelijk?

AMD maakt niks zelf, maar dat weet iedereen hier wel. Zo komt de GPU uit de fabriek van GloFo, geheugen bij Samsung of Hynix weg en interposer weer bij een ander, assemblage gebeurt ook bij twee verschillende fabrikanten. Volgens mij is het in één van de vorige delen al eens langsgekomen welken dat zijn.

Als je de foto's op de frontpage bekijkt dan lijkt het HBM2 geheugen iets lager dan de GPU, terwijl het bij de andere gelijk is. Nu is het verbruik per mm2 bij HBM2 relatief laag in vergelijking met de GPU, dus door gebruik te maken van een heel dun metalen plaatje of gewoon koelpasta is dit opvulbaar. Beetje afhankelijk van het verschil in hoogte en warmte afgift wat de beste keuze is.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +1 Henk 'm!
Paprika schreef op woensdag 16 augustus 2017 @ 14:37:
MSAA is een erkend issue bij reviewers.

YouTube: What's Up With The Hardware Unboxed RX Vega Results?
https://www.hardocp.com/a...a_64_video_card_review/17


[...]


En tja, shaders doen het gewoon (nog) niet goed:
http://gpu.userbenchmark....AMD-RX-Vega-64/3603vs3933
Beetje naar beneden scrollen tot lighting etc...

[afbeelding]

(en lol die age balk...)

Relevant...
http://imgur.com/a/B6D0y
Ik had het ook al gezien en het viel mij ook op. Heeft dit niet te maken met het fundamentele verschil in belasting tussen MSAA en shader based AA? Het lijkt alsof Pascal beter is in traditionele AA omdat die chips, al die extra ROPS hebben, waarvan een aantal redelijk vrij lijken voor taken zoals flink wat MSAA. Aan de andere kant lijkt Vega tegen een bottleneck aan te lopen bij traditionele AA, terwijl shader based als een trein gaat. Daar lijkt het alsof er genoeg hardware is om shader based AA met gemak te draaien met minimale impact op prestaties.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • +1 Henk 'm!
Als ik de tekst zo lees (zie mijn laatste linkje):
The Vega 10 GPU includes four geometry engines which would normally be limited to a maximum throughput of four primitives per clock, but this limit increases to more than 17 primitives per clock when primitive shaders are employed.

http://www.anandtech.com/...rce-gtx-1080-ti-review/15
Fury X doet 200 in Tessmark. In theorie zou Vega dan rond GTX 1080 Ti levels voor Tessmark moeten kunnen komen (en dus ook andere geometry)...

Wat ik alleen dan weer raar vind is dat ze zo lang de tijd hebben om hun shit te fixen en ze alsnog zo laat live gaan met de helft van de nieuwe features uit of ongebruikt.

[ Voor 16% gewijzigd door Paprika op 16-08-2017 14:55 ]


Acties:
  • 0 Henk 'm!

Verwijderd

DaniëlWW2 schreef op woensdag 16 augustus 2017 @ 14:52:
[...]


Ik had het ook al gezien en het viel mij ook op. Heeft dit niet te maken met het fundamentele verschil in belasting tussen MSAA en shader based AA? Het lijkt alsof Pascal beter is in traditionele AA omdat die chips, al die extra ROPS hebben, waarvan een aantal redelijk vrij lijken voor taken zoals flink wat MSAA. Aan de andere kant lijkt Vega tegen een bottleneck aan te lopen bij traditionele AA, terwijl shader based als een trein gaat. Daar lijkt het alsof er genoeg hardware is om shader based AA met gemak te draaien met minimale impact op prestaties.
Sorry voor de n00b-vraag maar gezien mijn flink gedateerde kaart heb ik weinig kunnen experimenteren met verschillende AA-technieken en het moeten doen met wat ik erover heb gelezen en wat screenshots die ik heb gezien. Als je de visuele kwaliteit van shader based AA vergelijkt met die van MSAA (hogere resolutie voor delen van het beeld?) is er dan een verschil of maakt het geen drol uit zolang het spel maar alternatieve shader based AA-opties aanbiedt en die goed heeft uitgewerkt?

Acties:
  • 0 Henk 'm!
https://videocardz.com/blog/all-amd-radeon-rx-vega-64-sins
:+
Verwijderd schreef op woensdag 16 augustus 2017 @ 14:56:
[...]

Sorry voor de n00b-vraag maar gezien mijn flink gedateerde kaart heb ik weinig kunnen experimenteren met verschillende AA-technieken en het moeten doen met wat ik erover heb gelezen en wat screenshots die ik heb gezien. Als je de visuele kwaliteit van shader based AA vergelijkt met die van MSAA (hogere resolutie voor delen van het beeld?) is er dan een verschil of maakt het geen drol uit zolang het spel maar alternatieve shader based AA-opties aanbiedt en die goed heeft uitgewerkt?
Heeft voornamelijk met de performance impact te maken.

Ik denk dat je kunt zeggen SSAA > MSAA > CMAA > FXAA voor je beeld, maar de 'cost' loopt ook over die lijn.

[ Voor 90% gewijzigd door Paprika op 16-08-2017 15:04 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 11:55
Verwijderd schreef op woensdag 16 augustus 2017 @ 14:56:
[...]

Sorry voor de n00b-vraag maar gezien mijn flink gedateerde kaart heb ik weinig kunnen experimenteren met verschillende AA-technieken en het moeten doen met wat ik erover heb gelezen en wat screenshots die ik heb gezien. Als je de visuele kwaliteit van shader based AA vergelijkt met die van MSAA (hogere resolutie voor delen van het beeld?) is er dan een verschil of maakt het geen drol uit zolang het spel maar alternatieve shader based AA-opties aanbiedt en die goed heeft uitgewerkt?
FXAA is eigenlijk de minste maar is bijna gratis.

Wij van wc eend: http://international.down...on-1-4x-txaa-vs-fxaa.html
They're all different types of Anti-Aliasing.

FXAA - Fast Approximate Anti-Aliasing

TXAA - Temporal Anti-Aliasing

SSAA - Super-Sampling Anti-Aliasing

MSAA - Multi-Sample Anti-Aliasing

CSAA - Coverage Sample Anti-Aliasing
QCSAA - Don't know what it stands for


MSAA is basic, isn't specially optimised or anything, but it gets the job done.

CSAA is basically MSAA but better, without doing a number on your GPU, it Nvidia only and preferred over MSAA.

QCSAA is better than these two, but does hit your GPU a little harder.

TXAA is along the same lines as PhysX, in that it is Nvidia exclusive and only works on games that support it, again a lot better than MSAA and CSAA but will hit your GPU hard.

MLAA is better than MSAA, as it also effects colour reproduction and blends corners and edges better.


The rest, I'm not so sure.


EDIT: FXAA is the worst of them all. It is outdated.

[ Voor 36% gewijzigd door sdk1985 op 16-08-2017 15:10 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!
Paprika schreef op woensdag 16 augustus 2017 @ 14:53:
Als ik de tekst zo lees (zie mijn laatste linkje):
The Vega 10 GPU includes four geometry engines which would normally be limited to a maximum throughput of four primitives per clock, but this limit increases to more than 17 primitives per clock when primitive shaders are employed.

http://www.anandtech.com/...rce-gtx-1080-ti-review/15
Fury X doet 200 in Tessmark. In theorie zou Vega dan rond GTX 1080 Ti levels voor Tessmark moeten kunnen komen (en dus ook andere geometry)...
He he, hier probeer ik nu al bijna twee dagen een antwoord op te krijgen nadat ik maandagavond de white paper las. :P
Maar het zou toch grappig zijn als AMD dit activeert, zeker omdat dit een issue lijkt te zijn geweest bij Fiji en Vega nu clock voor clock gelijk presteert met Fiji. O-)
Mag dus ook op de zonde lijst. ;)
Verwijderd schreef op woensdag 16 augustus 2017 @ 14:56:
[...]

Sorry voor de n00b-vraag maar gezien mijn flink gedateerde kaart heb ik weinig kunnen experimenteren met verschillende AA-technieken en het moeten doen met wat ik erover heb gelezen en wat screenshots die ik heb gezien. Als je de visuele kwaliteit van shader based AA vergelijkt met die van MSAA (hogere resolutie voor delen van het beeld?) is er dan een verschil of maakt het geen drol uit zolang het spel maar alternatieve shader based opties aanbiedt en die goed heeft uitgewerkt?
Een goed geïmplementeerde, en zinvolle MSAA implementatie ik meteen, en de verschillen tussen 2x 4x en 8x ook. Tussen 4x en 8x is het meestal wel minder. Qua shader based zijn MLAA en FXAA gewoon waardeloos. Beide noem ik liever "blur AA". Dan zijn er nog een aantal andere shader based AA's die aardig in de buurt komen van MSAA, maar nog niet zo goed zijn.

Als laatste is er de heilige graai van AA, SSAA. Dat heb ik jaren geleden een tijdje gedraaid met BF3, toen mijn 7950 nog nieuw was. Het was het prestatieverlies uiteindelijk niet waard, maar het verschil met MSAA zag ik ook. Dit is ook alleen zinvol voor games die de extra scherpte echt kunnen gebruiken. Een BF of Crysis, dat niveau van grafische kwaliteit.

In de regel draai ik 2x of 4x MSAA en dat is het ook. 8x is extreem zwaar, met verminderd effect, en lijkt niet echt besteed aan GCN chips, niet alleen Vega. Heeft een game een goede shader based AA, dan probeer ik die ook uit.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:33
Ik prefereer sowieso een AA versie die niets met ingame text als chat e.d. doet. Blizzard had in WoW een paar jaar terug ook een AA versie geïmplementeerd (weet ff zo snel niet meer welke) die vele malen minder performance hit gaf dan bijv MSAA of SSAA maar die liet ook bijv. ingame chat er zeer slecht en blurry uitzien. Was echt niet om aan te gluren.

Acties:
  • 0 Henk 'm!
Dennism schreef op woensdag 16 augustus 2017 @ 15:12:
Ik prefereer sowieso een AA versie die niets met ingame text als chat e.d. doet. Blizzard had in WoW een paar jaar terug ook een AA versie geïmplementeerd (weet ff zo snel niet meer welke) die vele malen minder performance hit gaf dan bijv MSAA of SSAA maar die liet ook bijv. ingame chat er zeer slecht en blurry uitzien. Was echt niet om aan te gluren.
Dat klinkt als FXAA. ;)

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • vleesjus
  • Registratie: Januari 2005
  • Laatst online: 10-09 08:05

vleesjus

echte vleesjus!

FXAA en CMAA zijn de andere twee opties(naast MSAA) in WoW. Denk dat je CMAA bedoelt.

van https://software.intel.co...anti-aliasing-cmaa-update :
CMAA is positioned between FXAA and SMAA 1x in computation cost (0.9-1.2x the cost of default FXAA 3.11 and 0.45-0.75x the cost of SMAA 1x) on Intel 4th Generation HD Graphics hardware and above. Compared to FXAA, CMAA provides significantly better image quality and temporal stability as it correctly handles edge lines up to 64 pixels long and is based on an algorithm that only handles symmetrical discontinuities in order to avoid unwanted blurring (thus being more conservative). When compared to SMAA 1x it will provide less anti-aliasing as it handles fewer shape types but also causes less blurring, shape distortion, and has more temporal stability (is less affected by small frame-to-frame image changes).

[ Voor 83% gewijzigd door vleesjus op 16-08-2017 15:19 ]

i7 4790k; 12GB ram; Asrock Z97 Extreme4; 1080ti;


Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 19:33
vleesjus schreef op woensdag 16 augustus 2017 @ 15:15:
FXAA en CMAA zijn de andere twee opties(naast MSAA) in WoW. Denk dat je CMAA bedoelt.

van https://software.intel.co...anti-aliasing-cmaa-update :

[...]
Ik denk dat het FXAA geweest is aangezien ik nu in WoW SSAA x4 + CMAA gebruik volgens het settings menu.

Acties:
  • 0 Henk 'm!

  • vleesjus
  • Registratie: Januari 2005
  • Laatst online: 10-09 08:05

vleesjus

echte vleesjus!

Verkeerd gelezen inderdaad. FXAA = blurry, CMAA is minder blurry en MSAA/SSAA zijn prima, maar zwaar.

i7 4790k; 12GB ram; Asrock Z97 Extreme4; 1080ti;


Acties:
  • 0 Henk 'm!

  • Reksho
  • Registratie: Maart 2009
  • Laatst online: 05-09 00:10
https://nl.hardware.info/...viesprijzen-onrealistisch

Het lijkt er meer en meer op dat de adviesprijzen inderdaad alleen gelden voor launch om de eerste reviews positief te krijgen. Daarna zal de prijs vanzelf omhoog draaien door tekorten en aftermarket coolers. Wat een afgang is deze launch zeg. Was AMD zo goed bezig met Ryzen, komt deze smet vanuit de gpu-tak.

Acties:
  • 0 Henk 'm!
Je moet niet vergeten dat een standaard custom GTX 1080 op het moment ook zo'n 100 euro duurder is en dat is een kaart welke niet voor mining wordt gebruikt. Dus uiteindelijk kom je met 100 euro meer met standaard custom Vega 64 ook gewoon op het niveau van een standaard custom GTX 1080.

Leuk die sensatie artikelen waar niet naar de praktijk wordt gekeken, maar als dat eens wel wordt gedaan dan valt het eigenlijk altijd wel weer mee.

[ Voor 20% gewijzigd door -The_Mask- op 16-08-2017 15:43 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Reksho
  • Registratie: Maart 2009
  • Laatst online: 05-09 00:10
-The_Mask- schreef op woensdag 16 augustus 2017 @ 15:42:
Je moet niet vergeten dat een standaard custom GTX 1080 op het moment ook zo'n 100 euro duurder is en dat is een kaart welke niet voor mining wordt gebruikt. Dus uiteindelijk kom je met 100 euro meer met standaard custom Vega 64 ook gewoon op het niveau van een standaard custom GTX 1080.
Dat kan wel zo zijn maar dan:

- Anderhalf jaar later
- Performance die nog van alle kanten rammelt
- Veel hogere stroomverbruik
- Meestal biedt AMD het goedkopere alternatief, zeker nu ze zo weinig marktaandeel hebben

Ik kan me niet bedenken waarom je voor Vega zou kiezen als de prijzen gelijk zijn aan de nvidia varianten, behalve Freesync. Nvidia kan nu ook zomaar de prijzen laten zakken als het benauwd wordt.

[ Voor 4% gewijzigd door Reksho op 16-08-2017 15:46 ]


Acties:
  • 0 Henk 'm!

Verwijderd

sdk1985 schreef op woensdag 16 augustus 2017 @ 15:07:
[...]


FXAA is eigenlijk de minste maar is bijna gratis.
Zo ver ben ik nog mee, die kan zelfs mijn HD 7850 prima draaien. FXAA heeft het vaseline op de cameralens-effect en het kost je misschien 1 FPS per seconde. Maar zijn er alternatieven voor MSAA die een net zo'n goed of beter resultaat geven maar die wel goed draaien op AMD-kaarten?
Een van deze technieken dus.
FXAA en temporal AA zijn niets, die vallen bij voorbaat al af. Hoe zijn SMAA en CMAA in vergelijking met MSAA. Hoe is AMD's eigen AA-techniek (zij hebben er toch ook een, net als Nvidia?)? Zonder hier nu een uitgebreide discussie over AA te beginnen, de tl;dr-versie is prima.

The conclusion so far is thus, when using shader based AA methods like SMAA, or FXAA or Temporal AA, or CMAA AMD Radeon RX Vega 64 performs much better and can compete with GTX 1080. However, if enabling any level of MSAA or SSAA then performance will decrease more on AMD Radeon RX Vega 64 and GTX 1080 will give more performance in that scenario. Therefore currently, AMD Radeon RX Vega 64 is best played with shader based AA methods versus traditional MSAA or SSAA in games for now. It will be interested to see if this can get addressed in a driver update.

[ Voor 11% gewijzigd door Verwijderd op 16-08-2017 15:50 ]


Acties:
  • +1 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 18:47
Verwijderd schreef op woensdag 16 augustus 2017 @ 14:34:
The source kan jij het laatste verhaal over hoogte verschillen in de chips toelichten?
Het lijkt alsof ik naast mijn buro een stapel VEGA kaarten heb liggen, maar helaas.
Dus nee, weet ik niets van.

Acties:
  • 0 Henk 'm!
-The_Mask- schreef op woensdag 16 augustus 2017 @ 15:42:
Je moet niet vergeten dat een standaard custom GTX 1080 op het moment ook zo'n 100 euro duurder is en dat is een kaart welke niet voor mining wordt gebruikt. Dus uiteindelijk kom je met 100 euro meer met standaard custom Vega 64 ook gewoon op het niveau van een standaard custom GTX 1080.
https://www.caseking.de/g...2-mb-gddr5x-gcgb-156.html
https://www.overclockers....phics-card-gx-03b-pl.html

Of tellen Duitsland en de UK nog altijd niet, terwijl Vega in Nederland niet eens te koop is... De Palit is nog altijd 1 van de beste (if not best) aftermarket modellen van de GTX 1080. Zelfs na alle pricegauging i.v.m. mining is ie een stuk goedkoper.

Acties:
  • 0 Henk 'm!

Verwijderd

Rezk schreef op woensdag 16 augustus 2017 @ 15:35:
https://nl.hardware.info/...viesprijzen-onrealistisch

Het lijkt er meer en meer op dat de adviesprijzen inderdaad alleen gelden voor launch om de eerste reviews positief te krijgen. Daarna zal de prijs vanzelf omhoog draaien door tekorten en aftermarket coolers. Wat een afgang is deze launch zeg. Was AMD zo goed bezig met Ryzen, komt deze smet vanuit de gpu-tak.
Een beetje. AMD kan er niets aan doen dat je nu die 'mining'-hype (of zeepbel?) hebt. AMD zou het wat mij betreft wel minder mogen faciliteren, als die nieuwe driver die de 'mining'-performance verbetert daar concreet op gericht zou zijn (en het niet een toevallig bijeffect is van een optimalisatie voor gaming-performance of CAD-performance) dan zou AMD er ook toe bijdragen. Leuk voor op de korte termijn en om ontevreden aandeelhouders te sussen, niet goed op de lange termijn. Gamers zijn merktrouw, als ze de laatste keer een Nvidia-kaart hadden dan de volgende keer weer tenzij het verschil heel erg groot is in het voordeel van AMD. Hoe lager het marktaandeel hoe minder developers rekening houden met AMD-kaarten.

Acties:
  • 0 Henk 'm!
Paprika schreef op woensdag 16 augustus 2017 @ 15:50:
[...]

https://www.caseking.de/g...2-mb-gddr5x-gcgb-156.html
https://www.overclockers....phics-card-gx-03b-pl.html

Of tellen Duitsland en de UK nog altijd niet, terwijl Vega in Nederland niet eens te koop is... De Palit is nog altijd 1 van de beste (if not best) aftermarket modellen van de GTX 1080. Zelfs na alle pricegauging i.v.m. mining is ie een stuk goedkoper.
Daarmee bevestig je toch gewoon wat ik zeg? Behalve enkele uitzonderingen die net 25 euro goedkoper is (GB uitgaande van 21% btw) of een aanbieding (die op OC) zitten de standaard GTX 1080 kaarten ook rond de 600 euro.
Rezk schreef op woensdag 16 augustus 2017 @ 15:45:
[...]


Dat kan wel zo zijn maar dan:

- Anderhalf jaar later
- Performance die nog van alle kanten rammelt
- Veel hogere stroomverbruik
- Meestal biedt AMD het goedkopere alternatief, zeker nu ze zo weinig marktaandeel hebben

Ik kan me niet bedenken waarom je voor Vega zou kiezen als de prijzen gelijk zijn aan de nvidia varianten, behalve Freesync. Nvidia kan nu ook zomaar de prijzen laten zakken als het benauwd wordt.
Behalve het hoge verbruik is er geen reden om hem niet te nemen. Maar hoeveel die verbruikte wisten we al even dus dat was sowieso geen verrassing.

Zoals je zelf al aangeeft is FreeSync een voordeel. Daarnaast is de architectuur beter, wat je terug gaat zien in toekomstige games. Dat is alleen maar voor AMD een nadeel, want die kunnen de kaart niet nu voor meer verkopen ook al hebben ze het betere ontwerp welke meer mogelijkheden geeft. Voor de consument betekend dat dat de kaart sneller wordt ten opzichte van de GTX 1080, terwijl beide een vergelijkbare aankoopprijs hebben. Wat je ook ziet is dat de drivers nog zorgen voor soms mindere prestaties dan verwacht. Voor AMD niet handig, omdat daardoor de kaart gemiddeld op die van een GTX 1080 zit, terwijl die ook daarboven had kunnen zitten.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +1 Henk 'm!

Verwijderd

Rezk schreef op woensdag 16 augustus 2017 @ 15:45:
[...]


Dat kan wel zo zijn maar dan:

- Anderhalf jaar later
Dat is het grote probleem. Nu biedt de Vega56 wel meer longevity dan de 1070 maar je zou eigenlijk graag zien dat de Vega56 in alle spellen bij alle instellingen de GTX 1080 verslaat, nu gebeurt dat slechts incidenteel (Dirt4 als je geen MSAA gebruikt (boven een bepaalde stand?)).
- Performance die nog van alle kanten rammelt
De drivers zijn verre van afgewerkt maar de Vega56 verslaat de 1070, op papier voor dezelfde prijs maar we zullen moeten afwachten hoe dat verloopt wanneer die 'mining'-hype eindelijk voorbij gaat zijn.
- Veel hogere stroomverbruik
Dat valt nogal mee.
Verwijderd schreef op woensdag 16 augustus 2017 @ 00:52:
[...]

+ 66 MHz (4,4%)
- 71 W

Je kan natuurlijk nog wat meer eruit halen met overklokken EN een hoger vermogen (20% meer punten bij Firestrike denk ik, niet aandachtig gekeken) en 30W, dus in totaal 101 W hoger) maar dit lijkt me geen slecht resultaat (1550 MHz) voor een referentiekaart waarbij een onervaren persoon een uurtje stoeide met de instellingen.
Gelijk vermogen (1 W minder bij gaming zelfs) en betere prestaties als je ondervolt. Waarom zet AMD die spanning niet lager? Omdat AMD extreem voorzichtig is en will voorkomen dat 1 op de heel erg veel gamers een crashende grafische kaart heeft doordat net voor die sample de spanning iets te laag
- Meestal biedt AMD het goedkopere alternatief, zeker nu ze zo weinig marktaandeel hebben
Nu ook! De Vega56 kost geen cent meer dan de 1070, de MSRP ligt zelfs lager maar uiteindelijk gaat het erom wat de prijzen van de AIB-modellen zijn en helaas kunnen we dat pas beoordelen als de 'mining'-hype voorbij is.
Ik kan me niet bedenken waarom je voor Vega zou kiezen als de prijzen gelijk zijn aan de nvidia varianten, behalve Freesync.
Alsof dat een detail is. :')
Zoals ik aangaf, Vega zal meer longevity bieden:
- veel betere compatibiliteit met Vulkan en DX12
- RPM, Nvidia gaat dat pas vanaf Volta mogelijk maken, hoogst waarschijnlijk, Vega heeft dit al. Reken er maar op dat developers het zullen gaan gebruiken (voor o.a. Far Cry 5 is het al aangekondigd) en dat het binnen 2 jaar in Vulkan, DX12 en hopelijk ook in DX11 (tenzij MS DX12 wil pushen) op API-niveau wordt ondersteund.
- het is niet onwaarschijnlijk dat je nog minstens 10% performanceverbetering krijgt in 2017/2018

Kijk naar nu en de Vega56 is al de betere keuze dan de 1070, kijk naar de toekomst en dat zal nog veel sterker gelden en de Vega64 zal waarschijnlijk geen achterstand meer hebben op de 1080.


Tot slot, zowel de 1080 als Vega64 zijn een relatief slechte keuze, het zijn de kaarten die de minste waarde/€ geven. De Vega56 en 1070 geven veel meer waarde/€ en de 1080 ti levert ook meer waarde/€ dan de 1080 (20% hogere prijs, 25-50% meer performance). Het is geen goed segment in de markt, die 1080/Vega64. De 1070 en Vega56 lijken daarentegen een sweetspot te zijn, ironisch genoeg samen met de 1080 ti met de kanttekening dat die ook nog moeite heeft om Crysis3 met de hoogste instellingen op 1440p te draaien, zelfs de 1080ti komt nipt boven de 60 FPS. Naar mijn mening ben je als gamer op dit moment het best af met een 470/580 voor 1080p of een Vega56 voor 1440p. Bij de normale prijzen natuurlijk. :+
Ik zou de 1060 en 1070 noemen als je niet €200 extra voor een G-Sync monitor zou moeten betalen.

[ Voor 13% gewijzigd door Verwijderd op 16-08-2017 16:22 ]


Acties:
  • 0 Henk 'm!

  • Reksho
  • Registratie: Maart 2009
  • Laatst online: 05-09 00:10
Ik ben het ermee eens dat Vega vele technische indrukwekkende zaken heeft in de chip. Maar dit is eerder een nadeel dan een voordeel voor AMD in dit geval. De chip is veels te groot voor wat het momenteel levert. Nou kan Vega toekomstbestendig zijn omdat het zoveel technisch vernuft aan boord heeft, grote kans dat de kaart tegen die tijd alweer te traag is om er optimaal gebruik van te maken.

Het helpt ook niet dat AMD verschrikkelijke marketing heeft en absurd slecht communiceert rondom deze launch (remember 'poor volta'). Raja's twitter is al dik een week stil terwijl dit zijn launch zou moeten zijn. Zo'n grote launch zou je van de daken willen schreeuwen, maar AMD doet al maanden geheimzinnig en stuurt review samples maar een paar dagen voordat het embargo eindigt. En waarom was Vega vertraagd? Volgens AMD om genoeg in voorraad te hebben voor verkoop, we zien nu hoe dat heeft uitgepakt (https://www.techpowerup.c...increase-stock-for-gamers).

En Vega is blijkbaar even snel als Fury op dezelfde clocks.

Afbeeldingslocatie: https://cdn.videocardz.com/1/2017/08/Radeon-RX-Vega-64-56.png

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 11:55
-The_Mask- schreef op woensdag 16 augustus 2017 @ 16:00:
[...]

Daarmee bevestig je toch gewoon wat ik zeg? Behalve enkele uitzonderingen die net 25 euro goedkoper is (GB uitgaande van 21% btw) of een aanbieding (die op OC) zitten de standaard GTX 1080 kaarten ook rond de 600 euro.


[...]
Euro maakt het altijd zo gecompliceerd (koers, belasting, import heffing, duitsland, enz).

Bij newegg is de goedkoopste 1080 $509.99, dat zijn twee modellen van Gigabyte. MSRP is $499 dus dat zit er inderdaad boven. EVGA begint overigens bij $559.

De Vega zit bij Newegg nu op $599 (out of stock) met een MSRP van $499

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Verwijderd

de RX 56 hashrate zit nu al op 36,48 met nieuwe update.

Zo zijn die stroomkosten ook geen probleem meer want je kan lekker minen en zo die stroomkosten makkelijk terug verdienen :+ +alvast sparen voor toekomsite hardware

Acties:
  • 0 Henk 'm!

Verwijderd

Een puntje wat ik was vergeten in mijn laatste reactie, de Vega56 verslaat nu al een AIB-model van de 1070. Reken er maar op de AIB-modellen van de Vega56 ook beter zullen presteren dankzij de betere koeling. In welke mate je het hogere vermogen ervoor over hebt moet je zelf bepalen maar dat geldt voor elke kaart van de beide teams, overklokken doet al snel het vermogen meer dan lineair stijgen in functie van de klokfrequentie.

Acties:
  • +4 Henk 'm!

  • MazeWing
  • Registratie: Augustus 2001
  • Laatst online: 17:38

MazeWing

The plot thickens...

Allemaal leuk en aardig dat een kaart naarmate je ouder wordt sneller wordt, maar laten we met z'n alleen reëel blijven: tegen de tijd dat ie echt merkbaar sneller is, zijn we al lang een videokaart verder.

De Radeon was ook beter dan de GeForce 2 en de Radeon 8500 was weer beter dan de GeForce 3 en in sommige gevallen zelfs sneller dan de GeForce 4 ti4200. Toen dit echter zijn vruchten begon af te werpen, waren we al lang een generatie verder.

De Radeon bleek (net) niet voldoende te hebben op de pixel shaders van DirectX 8 te kunnen weergeven en de Radeon 8500 werd met zoveel driver problemen geplaagd dat we al met de Radeon 9700 en GeForce FX zaten tegen te tijd dat ie merkbaar sneller was dan de GeForce 3 ti500.

Gezien de, zeker door nvidia, grote sprongen qua performance elke generatie heb je meer aan een kaart die vanaf dag 1 bijna al z'n power tot z'n beschikking heeft, dan een kaart die tegen het einde van z'n leven eindelijk z'n volledige potentieel kan benutten.

Op dit moment is de veel te hoge prijs hetgeen dat Vega compleet z'n nek omdraait, daarna het hoger verbruik en pas daarna de prestaties. Helaas gaan al deze zaken hand in hand en is het op dit moment een miskoop.

MacBook Pro 16” M4 Pro | PC (Ryzen 58000X / RTX5070 Ti) | PS5 Pro | Switch 2 | LG 77G2 | B&W 700 S2 | Nikon Z8 + 14-30, 24-120, 100-400 | iPhone 16 Pro Max | Tesla Model Y


Acties:
  • 0 Henk 'm!

Verwijderd

Vergeet ook niet dat het allemaal nog spinter nieuw is, er komen nog driver updates.
Denk dat het een opstapje is naar navi.
AMD weet het zelf ook wel die zeiden al tegen de reviewers om meer nadruk te leggen op de Vega 56 ipv Vega 64.

En laat aub dat mining gebeuren ophouden de prijzen zijn niet leuk meer van geen ene kaart.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

In mijn ogen kan je niet blindelings afgaan van AMD Radeon FineWine Tech, misschien kan er 20% performance in het algemeen nog uitgepeuterd worden maar met wat pech is het in de enkele procenten. Dat gaat dan niet de doorslag geven om een GTX 1080 te laten staan bijvoorbeeld, aangezien je ze nu blijkbaar ook nog duurder moet betalen. Ik vind het allemaal heel spijtig, ik ga de AMD Radeon kaarten voorlopig vergeten en hoop dat ik omvergeblazen wordt midden volgend jaar met Navi.

Acties:
  • 0 Henk 'm!

  • MrVegeta
  • Registratie: September 2002
  • Laatst online: 11-09 20:46

MrVegeta

! Dolf is rechtvaardig !

Ik heb nu de AMD RX Vega Liquid Edition in de kast en heb even Everspace aangezet, maar die fan die meekomt is nog wel aardig aanwezig qua geluid. En damn, dit is de eerste keer dat ik de fan hoor van de Corsair 860i! Poeh.

[ Voor 20% gewijzigd door MrVegeta op 16-08-2017 17:23 ]

Geeft steekhoudelijke argumenten terwijl hij niet weet waar het over gaat. BlizzBoys, HD casts van StarCraft II gemaakt door Tweakers! Het begint, Zombiepocalyps


Acties:
  • 0 Henk 'm!
Rezk schreef op woensdag 16 augustus 2017 @ 16:27:
Ik ben het ermee eens dat Vega vele technische indrukwekkende zaken heeft in de chip. Maar dit is eerder een nadeel dan een voordeel voor AMD in dit geval.
Voor AMD wel, maar voor de koper niet.
De chip is veels te groot voor wat het momenteel levert. Nou kan Vega toekomstbestendig zijn omdat het zoveel technisch vernuft aan boord heeft, grote kans dat de kaart tegen die tijd alweer te traag is om er optimaal gebruik van te maken.
Maar als het jou niet extra kost, kan het niet een nadeel zijn. Hier zijn dan wel veel mensen die de videokaart snel vervangen en eigenlijk altijd de nieuwste high-end videokaart willen hebben. Maar dat is lang niet bij iedereen het geval, zijn dus ook genoeg die er langer mee doen.
Het helpt ook niet dat AMD verschrikkelijke marketing heeft en absurd slecht communiceert rondom deze launch (remember 'poor volta').
Ja dat zei ik toen ook al, zoiets is nooit slim om te doen. Je moet je eigen producten er beter uitlaten zien door marketing, niet het product van de concurrent zwart proberen te maken. Bij een toekomstig product dat nog ver weg is heeft het helemaal geen zin.
Raja's twitter is al dik een week stil terwijl dit zijn launch zou moeten zijn.
Kijk nooit op z'n Twitter, maar dat kan van allerlei redenen hebben en zegt ook niks.
Zo'n grote launch zou je van de daken willen schreeuwen, maar AMD doet al maanden geheimzinnig en stuurt review samples maar een paar dagen voordat het embargo eindigt.
Is tegenwoordig normaal dat reviewers minder dan een week de tijd hebben voor een review.
En waarom was Vega vertraagd? Volgens AMD om genoeg in voorraad te hebben voor verkoop, we zien nu hoe dat heeft uitgepakt (https://www.techpowerup.c...increase-stock-for-gamers).
Waarschijnlijk meerdere redenen, maar dat is iets wat je sowieso nooit hoort. Zal vast ook de maken hebben met andere fabrikanten waarmee samengewerkt wordt. Informatie dat niet zo maar gedeeld zal worden en gedeeld kan worden.
En Vega is blijkbaar even snel als Fury op dezelfde clocks.

[afbeelding]
Sneller zoals je kunt zien.
Verwijderd schreef op woensdag 16 augustus 2017 @ 16:39:
Een puntje wat ik was vergeten in mijn laatste reactie, de Vega56 verslaat nu al een AIB-model van de 1070. Reken er maar op de AIB-modellen van de Vega56 ook beter zullen presteren dankzij de betere koeling. In welke mate je het hogere vermogen ervoor over hebt moet je zelf bepalen maar dat geldt voor elke kaart van de beide teams, overklokken doet al snel het vermogen meer dan lineair stijgen in functie van de klokfrequentie.
Volgens mij is het vaak genoeg tegen je gezegd dat de beperking niet in de koeler zit, maar een keuze is wat betreft stroomverbruik.
MazeWing schreef op woensdag 16 augustus 2017 @ 17:04:
Allemaal leuk en aardig dat een kaart naarmate je ouder wordt sneller wordt, maar laten we met z'n alleen reëel blijven: tegen de tijd dat ie echt merkbaar sneller is, zijn we al lang een videokaart verder.
Dat is toch niet jou probleem? Alleen die van AMD die hun product niet duurder kan verkopen daardoor. Ook nVidia komt met driver updates met optimalisaties erin zei het vaak minder groot.

Voor de gebruiker is het alleen maar een plus dat hun RX Vega56 bijvoorbeeld volgend jaar GTX 1080 prestaties levert, terwijl ze hem gekocht hebben voor de prijs van een GTX 1070. Voor AMD is het een nadeel omdat ze een jaar geleden er 100 euro minder voor kunnen vragen dan een jaar later.

Het maakt dat de koper van de kaart alleen maar een betere videokaart krijgt tegenover een kaart van nVidia. Hoe kan zoiets een nadeel zijn?

[ Voor 13% gewijzigd door -The_Mask- op 16-08-2017 18:06 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Phuncz schreef op woensdag 16 augustus 2017 @ 17:13:
In mijn ogen kan je niet blindelings afgaan van AMD Radeon FineWine Tech, misschien kan er 20% performance in het algemeen nog uitgepeuterd worden maar met wat pech is het in de enkele procenten. Dat gaat dan niet de doorslag geven om een GTX 1080 te laten staan bijvoorbeeld, aangezien je ze nu blijkbaar ook nog duurder moet betalen. Ik vind het allemaal heel spijtig, ik ga de AMD Radeon kaarten voorlopig vergeten en hoop dat ik omvergeblazen wordt midden volgend jaar met Navi.
Hou wel in gedachten dat vega ook in laptops komt zitten, en AMD graag laptops wil verkopen, en dat ze dus gemotiveerd zullen zijn om daar alles uit te halen wat kan (van de features die op de APU passen). Zal vast wel even gaan duren, en ik zou ook niet aanraden hier blind op te varen, maar het is niet puur een prestigeproject.

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op woensdag 16 augustus 2017 @ 17:40:
Volgens mij is het vaak genoeg tegen je gezegd dat de beperking niet in de koeler zit, maar een keuze is wat betreft stroomverbruik.
Dat gaat hand in hand, de beperking voor het stroomverbruik is minder omdat er een betere koeler op zit (of andersom als je het zo wil zien).
Ja, bij de referentiekaart van Vega wordt er aan de rem getrokken zogauw het stroomverbruik over een bepaalde waarde gaat.

Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op dinsdag 15 augustus 2017 @ 10:01:
[...]

Met die mentaliteit ga je inderdaad failliet. Verder waar is precies de IPC gain van Vega over Fiji op het moment?
Iets van 6% gemiddeld op dit moment, zal waarschijnlijk nog wel wat meer worden.
Het lijkt toch behoorlijk op dat clockspeeds het verschil maken.
Dat sowieso omdat dat verschil nogal groot is.
Een Fiji refresh, aangepast voor 14nm en hogere clocks produceren zou qua R&D ook niet zo duur zijn geweest als Vega 10, en zou een jaar geleden AMD een GX1070 en GTX1080 concurrent hebben gegeven.
Daarmee zou je geen GTX 1080 concurrent hebben, alleen maar een GTX 1070 concurrent. De kloksnelheid zou dan op zo'n 1300/1400MHz uitkomen, meer zal er waarschijnlijk niet inzitten bij Fiji op 14nm. Daarnaast zit je nog steeds met 4GB geheugen en HBCC is ook niet aanwezig. Als zo'n product uit zou komen zou niemand het nut er van zien. Ik zie het iig niet.

Daarnaast zit je er ook nog eens mee dat je niet de nieuwe Vega architectuur hebt en dus ook niet kunt gebruiken voor je APU's. En je mist de kennis voor een volgende generatie.
Daar verdien je geld mee. Het is verder niet alsof de productie van Fiji chips is gestaakt. Nee, AMD probeert ze nu te verkopen als serverkaart.
Schijnbaar zijn er nuttige toepassingen voor zo'n product. Anders hadden ze het niet gedaan.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Moi_in_actie
  • Registratie: Maart 2007
  • Laatst online: 13:45
Vond dit wel een interessante video van Digital Foundry, met name het gedeelte na de 12 minuten marker:

Daar overclocken ze alleen het geheugen van de RX Vega 56, naar snelheden van de Vega 64, en met nauwelijks meer stroomverbruik krijg je toch al zo'n 5% meer performance. Eerder in de video doen ze alles overclocken, zonder undervolting, en dat zorgt dan weer voor een forse toename van het verbruik.

Ergens zou ik wel een Vega 56 willen hebben om mee te spelen. Van wat ik nu uit verschillende reviews gezien heb, denk ik dat de beste performance/Watt setup is:
- Core iets undervolten naar iets van 1080 of 1100mV
- Power target licht omhoog, naar misschien +10%
- HBM2 overclocken zover dit het toelaat, 950Mhz of meer.

Ik gok dat je daarmee een performance krijgt ergens midden tussen de GTX1070 en GTX1080 in (misschien soms zelf dicht tegen de GTX 1080 aan), met een verbruik van ongeveer gelijk aan een stock RX Vega 56 (afhankelijk van de undervolt). Maar goed... in mijn huidige setup werkt een GPU met een AIO een stuk fijner en ik ben prima tevreden met mn Fury X, dus het heeft weinig zin om een RX Vega 56 te halen.

Ryzen 9 9950X3D ~~ 32GB GSkill TridentZ 6000Mhz ~~ ASRock B850M Steel Legend ~~ Powercolor Hellhound RX9070XT


Acties:
  • +5 Henk 'm!

  • ScytheNL
  • Registratie: Februari 2005
  • Laatst online: 06-06 15:57

ScytheNL

Mooiste deal ooit.

Ik vindt wel dat er een beetje struisvogel gedrag wordt vertoont met een vleugje goedpraterij. Ik zie nogal veel 'ja maar' en 'komt nog' en 'toekomst'. Als vervent AMD gebruiker (nog nooit t gras groener gezien aan de overkant) moet ik in ieder geval erkennen dat me dit totaal geen launch lijkt waar AMD blij mee moet zijn. Weinig voorraad oftewel paperlaunch, in de publieke opinie niet onaardig maar over het algemeen 'too little, too late'. Een jaar na Pascal en nog steeds niet kunnen presteren op hetzelfde of beter niveau tegen hoger verbruik. Dan nog niet te praten over de berichten over hoogstwaarschijnlijke prijs spikes (en nee die hebben niet altijd met miners te maken) omdat de huidige MRSP laag ingezet lijkt te zijn voor de initiële launch ontvangst.

Het is dan misschien een (semi) vernieuwde architectuur met een aantal zaken die geheel nieuw zijn, maar als die niet eens (fatsoenlijk) werken op het moment van launch terwijl de kaart 3 kwart jaar later uit komt als dat de bedoeling was en met een hoop poeha in de tussentijd dan moet ik eerlijkheidshalve bekennen dat ik teleurgesteld ben in het verloop naar introductie alsook het uiteindelijke product.

Niet persoonlijk bedoeld maar vrijwel ieder bericht wat ik momenteel lees staat vol met toekomst muziek waar feitelijk niks met zekerheid over te zeggen valt. Ik hoop erop dat er over een maand of twee veel voorraad is en de prijzen alleszins mee vallen met al een goede vooruitgang in driver performance. Zo ja dan ben ik zeker in de markt voor een 64 LC, maar zoals het er nu voor staat hou ik m'n adem niet in. Vingers crossed.

Acties:
  • 0 Henk 'm!

  • Apoca
  • Registratie: November 2001
  • Laatst online: 17:00

Apoca

Array Technology Industry

Is al helder rond welk tijdstip de 28ste de Vega 56 besteld kan worden? Ga net als met de Vega 64 toch even kijken wat ze doen prijstechnisch. Het jeukt toch een beetje ergens zo een nieuwe GPU :)

Asus C6E / Ryzen 9 5950X / AMD RX 6900 XT / G.Skill Flare X 32GB / Noctua NH-U12A / Corsair HX750i


Acties:
  • +1 Henk 'm!

  • carlpls
  • Registratie: Januari 2012
  • Laatst online: 09:51
Net even een korte nietszeggende test gedaan met mijn Vega 64 LC:
GTA V, alles maxen (geen advanced graphics options aangezet) op 1080p, solid 60fps uiteraard en mijn 650w Corsair PSU leek het prima te trekken :)

Acties:
  • +1 Henk 'm!
carlpls schreef op woensdag 16 augustus 2017 @ 19:20:
en mijn 650w Corsair PSU leek het prima te trekken :)
Ja geen probleem, maar zorg wel dat je twee losse kabels gebruikt en niet één kabel met twee connectors.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • carlpls
  • Registratie: Januari 2012
  • Laatst online: 09:51
-The_Mask- schreef op woensdag 16 augustus 2017 @ 19:23:
[...]

Ja geen probleem, maar zorg wel dat je twee losse kabels gebruikt en niet één kabel met twee connectors.
Mm, teveel voor 1 kabel?

Anyhow, zal ik doen!

Acties:
  • 0 Henk 'm!
carlpls schreef op woensdag 16 augustus 2017 @ 19:20:
Net even een korte nietszeggende test gedaan met mijn Vega 64 LC:
GTA V, alles maxen (geen advanced graphics options aangezet) op 1080p, solid 60fps uiteraard
Dat hoop ik toch ja op 1080p :X . Al doet Vega het in GTA V waarschijnlijk slecht door MSAA.... Sommige reviews plaatsen RX Vega onder de GTX 1060 daardoor.

[ Voor 9% gewijzigd door Paprika op 16-08-2017 19:26 ]


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 19:17
Alsof dat mining-gebeuren de prijzen nog niet genoeg omhoog heeft gedreven, nu ook dit;
https://www.techpowerup.c...fect-graphics-card-prices

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • +1 Henk 'm!

  • kladblokje
  • Registratie: Juli 2009
  • Laatst online: 09:09
in de pricewatch staat nog niets, maar bij alternate staat inmiddels de GIGABYTE 8GB HBM2 RX VEGA64 8G voor 699,- direct leverbaar

Acties:
  • 0 Henk 'm!

  • carlpls
  • Registratie: Januari 2012
  • Laatst online: 09:51
-The_Mask- schreef op woensdag 16 augustus 2017 @ 19:27:
[...]

Nee maar wel voor één modulaire connector met 8 pinnen, de kabel kan het op zich wel aan.
Dank voor het advies! Is nu met 2 verschillende kabels op 2 verschillende connectors aangesloten. :)

Acties:
  • +1 Henk 'm!
kladblokje schreef op woensdag 16 augustus 2017 @ 20:02:
in de pricewatch staat nog niets, maar bij alternate staat inmiddels de GIGABYTE 8GB HBM2 RX VEGA64 8G voor 699,- direct leverbaar
Heb hem aangemeld bij de Pricewatch.

Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 13:27

flessuh

Set sail for fail!

700 voor de luchtgekoelde.. damn

Bij andere winkels nog niks gevonden

Blijft overigens wel echt raar dat er toch nog spul uitgeschakeld is.. schijnbaar :P

[ Voor 76% gewijzigd door flessuh op 16-08-2017 20:36 ]

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • nLr
  • Registratie: Februari 2009
  • Laatst online: 04-08 13:31

nLr

-The_Mask- schreef op woensdag 16 augustus 2017 @ 19:23:
[...]

Ja geen probleem, maar zorg wel dat je twee losse kabels gebruikt en niet één kabel met twee connectors.
Waarom is dit ? Heb een AC komt morgen binnen...

Ryzen 7800X3D| ASUS TUF GAMING X670E-PLUS | MSI RTX4080 Gaming Trio X 16GB | LG GP95R | 32GB DDR5 6000 F5-6000J3238F16GX2-TZ5NR | Samsung 970 Evo Plus | NZXT H710i | NZXT Kraken x73 | Corsair RM850x


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

ScytheNL schreef op woensdag 16 augustus 2017 @ 19:16:
Ik vindt wel dat er een beetje struisvogel gedrag wordt vertoont met een vleugje goedpraterij. Ik zie nogal veel 'ja maar' en 'komt nog' en 'toekomst'. Als vervent AMD gebruiker (nog nooit t gras groener gezien aan de overkant) moet ik in ieder geval erkennen dat me dit totaal geen launch lijkt waar AMD blij mee moet zijn. Weinig voorraad oftewel paperlaunch, in de publieke opinie niet onaardig maar over het algemeen 'too little, too late'. Een jaar na Pascal en nog steeds niet kunnen presteren op hetzelfde of beter niveau tegen hoger verbruik. Dan nog niet te praten over de berichten over hoogstwaarschijnlijke prijs spikes (en nee die hebben niet altijd met miners te maken) omdat de huidige MRSP laag ingezet lijkt te zijn voor de initiële launch ontvangst.

Het is dan misschien een (semi) vernieuwde architectuur met een aantal zaken die geheel nieuw zijn, maar als die niet eens (fatsoenlijk) werken op het moment van launch terwijl de kaart 3 kwart jaar later uit komt als dat de bedoeling was en met een hoop poeha in de tussentijd dan moet ik eerlijkheidshalve bekennen dat ik teleurgesteld ben in het verloop naar introductie alsook het uiteindelijke product.

Niet persoonlijk bedoeld maar vrijwel ieder bericht wat ik momenteel lees staat vol met toekomst muziek waar feitelijk niks met zekerheid over te zeggen valt. Ik hoop erop dat er over een maand of twee veel voorraad is en de prijzen alleszins mee vallen met al een goede vooruitgang in driver performance. Zo ja dan ben ik zeker in de markt voor een 64 LC, maar zoals het er nu voor staat hou ik m'n adem niet in. Vingers crossed.
Zou liever tot een andere conclusie komen maar wat mij betreft heb je in ieder geval een punt.

Tegelijkertijd is het ook niet onlogisch dat er geprobeerd wordt e.e.a. in perspectief te bekijken.
Alhoewel bijv. R&D budget niet alles zegt is het natuurlijk wel van grote invloed.

In "absolute" zin vind ik Vega teleurstellend en ik denk dat AMD niet de target heeft gehaald die ze initieel in gedachten hadden. Echter, relatief gezien vind ik het nog wel vrij redelijk wat AMD gerealiseerd heeft en in lijn met de meer realistische verwachtingen die ik had.

Mocht je nu in de markt zijn voor 1070 prestaties dan zou een Vega56 ondanks wat jij schrijft nog steeds een goede koop zijn denk ik. Zeker als je een Freesync monitor hebt of gaat aanschaffen.

Echter als de prijsverwachtingen kloppen dan wordt ook de Vega 56 helaas een hard sell ben ik bang.

Het positieve is m.i. verder wel dat naar mijn gevoel AMD en RTG op de grote lijnen wel de goede dingen aan het doen zijn.
* Marketing komt niet uit de verf maar ze proberen het wel te verbeteren.
* Focus op developers
* Focus op drivers en software
* Focus op TAM en Margins
* Feit dat ze toch ook weer een Zen kunnen introduceren
* Etc.

Helaas is de realiteit dat het een redelijke uphill battle is, de concurrentie zit ook niet stil. Het zal tijd kosten om dichterbij nVidia te komen. Balen voor alle gamers maar het is niet anders.

Een verkeerde inschatting, foutje of gewoon pech is nooit ver weg in deze business denk ik, dat geldt ook voor nVidia. Niet dat je het daar van moet willen hebben maar kansen kunnen ook daardoor keren.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • nLr
  • Registratie: Februari 2009
  • Laatst online: 04-08 13:31

nLr

Excuses helemaal overheen gekeken.

Wordt dus ook nog een extra kabeltje erbij regelen. Goed dat je aangeeft

Ryzen 7800X3D| ASUS TUF GAMING X670E-PLUS | MSI RTX4080 Gaming Trio X 16GB | LG GP95R | 32GB DDR5 6000 F5-6000J3238F16GX2-TZ5NR | Samsung 970 Evo Plus | NZXT H710i | NZXT Kraken x73 | Corsair RM850x


Acties:
  • 0 Henk 'm!
nLr schreef op woensdag 16 augustus 2017 @ 20:43:
[...]


Excuses helemaal overheen gekeken.

Wordt dus ook nog een extra kabeltje erbij regelen. Goed dat je aangeeft
Je bent je bewust dat modulaire kabels niet echt los verkocht worden? Enkele uitzonderingen daargelaten.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Fredi
  • Registratie: Februari 2011
  • Laatst online: 09-06 04:29
Verwijderd schreef op maandag 14 augustus 2017 @ 21:17:
[...]


Ik denk dat bepaalde functies op driverniveau bewust uitgezet zijn, omdat ze potentieel nog te buggy voor bestaande games kunnen zijn. Het is wachten op een nieuwe driverrelease die deze functies mogelijk activeert, en wat het effect hierop zal zijn. Het is een nieuwe kaart met nieuwe features, en ergens denk ik dat de driver gewoon een geoptimaliseerde Fury X betreft.

AMD zou er goed aan doen 2 lijnen op hun GPU devisie uit te gaan werken. Eentje voor workloads, eentje voor games. Wedden dat ze dan wel de concurrentie met Nvidia aan kunnen gaan? Echter uit budget / R&D wordt een one size fits all (opnieuw) toegepast met AMD's bekende too-soon-junior wat betreft techniek.

GCN is er al jaren, maar hoeveel games maken er echt gebruik van op bijv Doom en wat nog meer na? Devs zijn ook verschrikkelijk lui. Heel veel games die helaas slecht draaien op AMD kaarten en met name DX11.
Gpu in PS4 en Xbox One is toch ook GCN. Je zou denken dat het dan voor developers niet moeilijk is om te porten naar de pc. Dat developers niet optimaliseren voor GCN is dus je reinste BS. Er moet iets anders spelenwaardoor AMD achterblijft.

Ik vind de performance van Vega 64 en vooral Vega 56 best nog meevallen. Zelfs in DX11 presteren ze goed, alleen in GTA5 blijven ze zwaar achter. Kan iemand verklaren hoe dat komt? In DX12 veegt V56 de vloer aan met de 1070 en nadert de V64 de 1080Ti.

Alleen het verbruik van Vega 64 boven de 300W vind ik te veel, van Vega 56 valt het nog mee.

Als AMD de MSRP kan aanhouden zie ik ze best goed verkopen, vooral de Vega 56.

Acties:
  • +1 Henk 'm!
-The_Mask- schreef op woensdag 16 augustus 2017 @ 18:19:
[...]
Iets van 6% gemiddeld op dit moment, zal waarschijnlijk nog wel wat meer worden.


Dat sowieso omdat dat verschil nogal groot is.

Daarmee zou je geen GTX 1080 concurrent hebben, alleen maar een GTX 1070 concurrent. De kloksnelheid zou dan op zo'n 1300/1400MHz uitkomen, meer zal er waarschijnlijk niet inzitten bij Fiji op 14nm. Daarnaast zit je nog steeds met 4GB geheugen en HBCC is ook niet aanwezig. Als zo'n product uit zou komen zou niemand het nut er van zien. Ik zie het iig niet.

Daarnaast zit je er ook nog eens mee dat je niet de nieuwe Vega architectuur hebt en dus ook niet kunt gebruiken voor je APU's. En je mist de kennis voor een volgende generatie.

Schijnbaar zijn er nuttige toepassingen voor zo'n product. Anders hadden ze het niet gedaan.
Je negeert nog steeds mijn punt. Vega is een diepte investering van de RTG, dat moge duidelijk zijn. Ik zeg helemaal niet dat Vega nooit ontworpen had moeten worden, verre van. Het lijkt me alleen wel terecht om op te merken dat Nvidia Maxwell effectief een refresh heeft gegeven op 16nm TSMC met hogere clocks. Vervolgens verkochten ze deze chips voor behoorlijke winsten.

Ondertussen was de RTG weg in het gehele segment, en geen verkopen betekent geen omzet. Omzet die bruikbaar is om je nieuwe GPU mee te ontwikkelen. Met een Fiji refresh op 14nm, met hogere clocks reageren op de GV104 is alles behalve gestoord. Het is ook niet alsof de 4GB HBM1 nu echt een probleem is. Met de prijzen die Nvidia vroeg had je er zo €500 en €650 voor kunnen vragen. Daag je Nvidia niet uit om haar prijzen te laten zakken, en verdien je er zelf ook behoorlijk aan. Ondertussen werk je verder aan Vega, die een aantal maanden later zal verschijnen.

Maar niet gedaan, gemiste kans want zo verlies je dus naamsbekendheid, en marktaandeel. Beter een matige GPU waar je nog wat voor kan zeggen vanwege DX12/Vulkan prestaties en Freesync, dan helemaal niks.

Het gaat uiteindelijk niet om winnen voor de RTG op het moment. Het gaat om niet verliezen. Het zal pas gaan om winnen als Primtive Shaders geactiveerd worden en er opeens 30% extra prestaties bijkomen, hoe onwaarschijnlijk dit ook is. Dan gaat het om winnen. ;)
Verwijderd schreef op woensdag 16 augustus 2017 @ 16:39:
Een puntje wat ik was vergeten in mijn laatste reactie, de Vega56 verslaat nu al een AIB-model van de 1070. Reken er maar op de AIB-modellen van de Vega56 ook beter zullen presteren dankzij de betere koeling. In welke mate je het hogere vermogen ervoor over hebt moet je zelf bepalen maar dat geldt voor elke kaart van de beide teams, overklokken doet al snel het vermogen meer dan lineair stijgen in functie van de klokfrequentie.
Wat moet een betere AIB koeler hier opleveren? RX Vega 56 lijkt zo op het eerste gezicht zeer goed getuned qua clockspeeds, voor maximale prestaties zonder belachelijke powerdraw. Dit in tegenstelling tot RX Vega 64 wat gewoon belachelijk is, alleen maar om de GTX1080 te matchen, terwijl dat dadelijk ook gaat lukken met wat driver optimalisaties...

Misschien kan je met een AIB kaart er nog net een beetje meer eruit halen en met een aardige koeler een 1500MHz boostclock stabiel krijgen. Dat is het ook wel. Ongetwijfeld kunnen AIB's een 1600MHz+ kaart en koeler maken, als ze willen. Maar waarom zou je? Dan is het geen RX Vega 56 meer, maar RX vlammenwerper 56. En voor wat, paar frames. Nee dank je. RX Vega 56 is behoorlijk scherp getuned door AMD, zit geen realistisch OC potentieel in.

Het lijkt er ook op dat de RTG beter wat minder transistoren in clockspeeds had kunnen gooien en het bij een lagere clockfrequentie had kunnen houden. Had je een kleinere chip gehad, die iets minder minder verbruikte, en net zo goed presteerde. Well, sh*t happens, helaas.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 11:55
DaniëlWW2 schreef op dinsdag 15 augustus 2017 @ 10:01:
[...]

Een Fiji refresh, aangepast voor 14nm en hogere clocks produceren zou qua R&D ook niet zo duur zijn geweest als Vega 10, en zou een jaar geleden AMD een GX1070 en GTX1080 concurrent hebben gegeven. Daar verdien je geld mee. Het is verder niet alsof de productie van Fiji chips is gestaakt. Nee, AMD probeert ze nu te verkopen als serverkaart.
Van te voren weet je natuurlijk nooit hoe goed je nieuwe architectuur wordt. Valt het mee dan pak je een relatief kleine chip voor je high-end reeks. Valt het tegen dan moet je er meer oppervlakte tegen aangooien of zelfs met dual-kaarten op de markt komen.
Als laatste blijft bij mij de logica ontbreken om uberhaupt RX Vega 64 uit te brengen. Als AMD een chip heeft gehad waar ze eindelijk de professionele markt mee open kunnen breken dan is het wel een volle Vega 10 chip. Daar presteert die uitstekend, voor gaming is het meh. Als je chips overhoud en die wil verkopen als gaming chips, oke. Betwijfel alleen of het er zoveel zullen zijn...
Door het niet meedoen met de GTX 1070 en GTX 1080 loopt AMD aardig wat omzet mis. We zitten in hoogconjunctuur en die dure kaarten gaan als zoete broodjes. De 1070 heeft de 970 nu al bijna ingehaald op steam. De 1080 doet het ook heel erg goed voor zo'n dure kaart, die haalt binnenkort het marktaandeel van de 760 in.*

*steam survey dus biased op gamers

Verklaring van de beperkte productieaantallen kun je eerder in de financiele resultaten van AMD vinden. Kijk maar eens in de laatste kwartaal cijfers hoeveel cash er is verdwenen en waar dat is heengegaan (total assets ongeveer gelijk). Fiji, Vega, Pro en gaming maakt wat dat betreft niet uit. Op een gegeven moment is het geld op. Als er nu voldoende orders staan dan kan dat straks weer gefinancierd worden.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!
DaniëlWW2 schreef op woensdag 16 augustus 2017 @ 20:53:
[...]


Je negeert nog steeds mijn punt. Vega is een diepte investering van de RTG, dat moge duidelijk zijn. Ik zeg helemaal niet dat Vega nooit ontworpen had moeten worden, verre van. Het lijkt me alleen wel terecht om op te merken dat Nvidia Maxwell effectief een refresh heeft gegeven op 16nm TSMC met hogere clocks. Vervolgens verkochten ze deze chips voor behoorlijke winsten.
Ook al lijkt de architectuur van een GTX 1080 niet fundamenteel anders dan die van een GTX 980 het is geen refresh. Polaris 20 is een refresh van Polaris 10. Als je een GTX 1080 een refresh noemt van GTX 980 is Vega10 dat even goed ten opzichte van Fiji.
Ondertussen was de RTG weg in het gehele segment, en geen verkopen betekent geen omzet. Omzet die bruikbaar is om je nieuwe GPU mee te ontwikkelen. Met een Fiji refresh op 14nm, met hogere clocks reageren op de GV104 is alles behalve gestoord. Het is ook niet alsof de 4GB HBM1 nu echt een probleem is. Met de prijzen die Nvidia vroeg had je er zo €500 en €650 voor kunnen vragen. Daag je Nvidia niet uit om haar prijzen te laten zakken, en verdien je er zelf ook behoorlijk aan. Ondertussen werk je verder aan Vega, die een aantal maanden later zal verschijnen.
Dan ga je er dus vanuit dat het ontwikkelen van Fiji op 14nm geen tijd en geen geld kost. Je houdt er immers geen rekening mee dat er ook mensen aan het ontwerp moeten werken en aan de drivers, waardoor je mensen niet kunt inzetten voor Vega. Daarnaast houd je er dus ook geen rekening mee dat het geld kost omdat je de videokaart binnen enkele maanden al weer wil vervangen en dus geen tijd hebt om de investeringen terug te verdienen.

Ik zie dus echt niet de logica van een Fiji op 14nm, ook niet als tussenstap. Een procesverkleining is namelijk een hele grote stap en zorgt er gewoon voor dat je opnieuw moet ontwerpen. Het is niet zo dat je even een screenshotje maakt en deze verkleint in MSPaint en dat je dan een kleiner ontwerp klaar hebt. :P Je schuift daarmee Vega10 dan eerder door naar 2018 en ik denk niet dat het daardoor beter wordt.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08
MrVegeta schreef op woensdag 16 augustus 2017 @ 17:22:
Ik heb nu de AMD RX Vega Liquid Edition in de kast en heb even Everspace aangezet, maar die fan die meekomt is nog wel aardig aanwezig qua geluid. En damn, dit is de eerste keer dat ik de fan hoor van de Corsair 860i! Poeh.
Net even Furmark gedraait op mijn RX Vega64, dit icm een Ryzen 1700x (stock) en een 550Watt beQuiet voeding (wel voor de zekerheid in single rail mode gezet). Ging prima, denk dat het wel close zal zijn maar niks om me zorgen over te maken.
Ik ga waarschijnlijk toch over op 2e bios en powersafe ;).

Dit gaat overigens niet op een cheape 550Watt voeding werken waarschijnlijk :+.

Edit:
Wel twee dingen opgemerkt. Geluid via HDMI, als er niks speelt dan hoor je een lichte ruis als je bepaalde dingen doet (muis ineens bewegen). Verder niet een storend iets.
Mijn moederbord heeft iets meer moeite met booten, moet even uitzoeken of dat komt omdat ik van slot ben gewisselt of door de videokaart.

[ Voor 18% gewijzigd door Sp3ci3s8472 op 16-08-2017 21:43 ]


Acties:
  • 0 Henk 'm!

  • Arator
  • Registratie: Juli 2004
  • Laatst online: 18:45
sdk1985 schreef op woensdag 16 augustus 2017 @ 20:54:
Verklaring van de beperkte productieaantallen kun je eerder in de financiele resultaten van AMD vinden. Kijk maar eens in de laatste kwartaal cijfers hoeveel cash er is verdwenen en waar dat is heengegaan (total assets ongeveer gelijk). Fiji, Vega, Pro en gaming maakt wat dat betreft niet uit. Op een gegeven moment is het geld op. Als er nu voldoende orders staan dan kan dat straks weer gefinancierd worden.
Als ik het goed zo, pakken ze redelijk constant een marge van 33%. En van die marge gaat er redelijk constant 75% naar R&D.

Ik draai momenteel een R290, een vega zou voor mij dus al een besparing betekenen qua stroomverbruik (als ik afga op de reviews van vroeger), en ik zou erop vooruit gaan qua GPU-kracht. Ik heb dus ook geen schrik dat de PSU het niet zou aankunnen (die heeft die R290 tesamen met een Phenom X4 965 getrokken).
Ik zat te wachten op de release van Vega, en of het nu een 1080 of 1070 killer zou worden, speelt voor mij geen rol. Mijn huidige kaart begint kuren te krijgen en is aan vervanging toe. En ik zit met een freesync scherm, dus een beetje locked-in.

Ik vind de koe een moedig dier, want ze durft te vrijen met een stier


Acties:
  • +2 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
@The Source Na wat gedoe met PostNL eindelijk de MSI GeForce GTX 1080 GAMING X 8G binnen.

Mijn complimenten, zelfs op max. load blijft hij extreem stil! _/-\o_

http://www.3dmark.com/3dm/21602710

HWinfo meldt zo'n 250W verbruik (totaal systeem) @ max load. (icm Ryzen 1700 en MSI Gaming Pro Carbon bordje)

Afbeeldingslocatie: https://i.imgur.com/KNqkKKE.jpg

Afbeeldingslocatie: https://i.imgur.com/o9feYB6.jpg

Afbeeldingslocatie: https://i.imgur.com/7eLqzzt.jpg

Acties:
  • 0 Henk 'm!
ArcticWolf schreef op woensdag 16 augustus 2017 @ 22:01:
@The Source Na wat gedoe met PostNL eindelijk de MSI GeForce GTX 1080 GAMING X 8G binnen.

Mijn complimenten, zelfs op max. load blijft hij extreem stil! _/-\o_

http://www.3dmark.com/3dm/21602710

HWinfo meldt zo'n 250W verbruik (totaal systeem) @ max load. (icm Ryzen 1700 en MSI Gaming Pro Carbon bordje)

[afbeelding]

[afbeelding]

[afbeelding]
Uhmm dit is het Radeon Info & Nieuwsdiscussietopic? volgens mij zit je verkeerd :+




Ik hem mijn Vega inmiddels binnen. Heb hier maar even een ervaringen topic gemaakt:

AMD RX Vega Evaringen topic

Voltage control werkt helaas niet :'(
En powersave heeft wel meer impact dan in de reviews. Ik ging van 86 fps naar 116 als ik custom mode gebruik. Ik moet nog heel veel meer testen maar dat viel mij in ieder geval op. Memory clocks werken wel daar zie ik FPS verschil. Core clocks weet ik nog niet heb het idee dat dat ook niet werkt ondanks dat GPU-Z wel andere waardes laat zien had ik met 1000 MHz een veel lagere FPS verwacht maar die bleef gelijk. Dus wordt vervolgt :)

[ Voor 30% gewijzigd door Astennu op 16-08-2017 22:06 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
Astennu schreef op woensdag 16 augustus 2017 @ 22:03:
[...]


Uhmm dit is het Radeon Info & Nieuwsdiscussietopic? volgens mij zit je verkeerd :+
Weet ik ;) maar ik heb gecheat en ben alsnog overgestapt op NV dus dit is/was m'n laatste post hier ;w
Pagina: 1 ... 5 ... 52 Laatste

Let op:
We krijgen de laatste tijd vanuit verschillende hoeken klachten over de gevoerde toon in deze topicserie. Laten we het een beetje gezellig houden. Probeer alleen op de feiten te reageren en je statements te onderbouwen met bronnen. Dram daarbij niet door, als een ander ook na onderbouwing een andere mening toegedaan blijft is daar niets mis mee. Laat sneren en op de man teksten achterwege, dan blijft het voor iedereen leuk.