Acties:
  • +1 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Werelds schreef op vrijdag 4 augustus 2017 @ 21:12:
Ik wil me niet weer in deze hele discussie mengen, maar...


[...]

Asjeblieft zeg.

Het spijt me heel erg, maar als je iedereen op hun plaats wilt zetten moet je wel eerst leren lezen, of dusdanig je gedachten leren verwoorden dat je zinnen kloppen.

- Shader en CU zijn niet hetzelfde
- "Shaders" zijn onderdeel van CU's (en de term shader is niet correct meer, die dingen kunnen veel meer tegenwoordig)
- 64 "shaders" per CU
- In het geval van Fiji en Vega: 64 CU's
- 64 * 64 = 4096 "shaders"

Zoals jij het hebt neergezet lijkt het alsof shader en NCU hetzelfde betekenen en dat er 4096 van zijn.

En we weten weldegelijk hoe zwaar die shader aan is gepast. Een bron heb je zelf al tal keren gepost (Anand's preview). Rapid Packed Math, wat betekent dat de "shaders" geheel anders zijn. Nog steeds 32-bit, maar ze kunnen nu 2xFP16/4xINT8 ops in 1 kloktik verwerken; de registers zullen vanwege de 8-bit ondersteuning ook vervangen zijn, aangezien die voorheen alleen native 16-bit support hadden bij mijn weten.

Enige wat we nog niet weten is hoe ze hun flexibele benutting bewerkstelligen. Of dat nu in decoders/fetch zit of in cache wijzigingen zullen we inderdaad hopelijk over anderhalve week weten, maar dit zit wellicht niet eens in de CU.


[...]


[...]

Incorrect. We weten bijvoorbeeld 100% zeker dat de ROPs nu clients van de L2 zijn en niet aan de MC hangen. Dat alleen al is een gigantische wijzigingen (die Nvidia met Kepler al heeft gemaakt), waardoor render-to-texture nu alleen door het L2 gaat. Je texture units kunnen direct uit L2 lezen, bespaart zowel bandbreedte naar het VRAM als de daarbij betrokken latency.

GCN is een ISA. Instructie set. Als die bepalend was voor de microarchitectuur, dan zouden alle x86 CPU's gelijk zijn. Een ISA bepaalt niet welke onderdelen hoe met elkaar in verbinding staan, deze bepaalt alleen wat er kan/mag en wat het resultaat daarvan is. Hóe dat gebeurt ligt bij de microarchitectuur. Vega, Polaris, Fiji, Tonga, Hawaii en Tahiti zijn allemaal aparte microarchitecturen. Pitcairn en Cape Verde zijn Tahiti op kleinere schaal.


Bewijs hebben dat GCN "slechts" een instructie set is? Ga Tonga en Fiji eens vergelijken. Beide GCN3 en toch radicaal andere eigenschappen. Eenvoudigste voorbeeld is de geometry throughput; beide hebben 4 geometry engines, kloksnelheden verschillen slechts zo'n 10% en toch is Fiji dik twee keer zo snel tot je te veel samples wil doen (volgens mij is het t/m 32xT geen probleem, dus 8 poly's per clock, maar pin me daar niet op vast). Is vast wel ergens een review met TessMark of iets dergelijks.
Modbreak:*knip* niet op de man
nogmaals, waarstaat dat ik zeg dat CU het zelfde is als een shader, als je mijn vorige berichten zou lezen heb ik letterlijk gezegd:
Shader core =onderdeel van CU
link
Incorrect. We weten bijvoorbeeld 100% zeker dat de ROPs nu clients van de L2 zijn en niet aan de MC hangen.
Tuurlijk weten 'wij' dat: bron.

Bewijs hebben dat GCN "slechts" een instructie set is? Waar lees jij dat ik dat zeg?
Fiji (4096) heeft dubbel aantal CU's tav Tonga (2048) weet je zelf wel waar je het over hebt? (nog maar te zwijgen over het feit dat de een GDDR heeft en de andere HBM)
Sterk bewijs, goed beargumenteerd!

GCN is het fysieke ontwerp, de ISA noemen ze GCN ISA en is de instructieset voor GCN. Hij heet GCN ISA ..tromgeroffel.. omdat hij specifiek voor GCN is. GCN is dus niet alleen de instructie set.
ISA bepaald niet -inderdaad- welk onderdeel met wat in verbinding staat nee, want het is machinecode, geen hardware maar de hardware (bepaald aan de hand van de GCN architectuur) bepaald wel hoe de ISA verloopt.
En we weten weldegelijk hoe zwaar die shader aan is gepast. Een bron heb je zelf al tal keren gepost (Anand's preview).
Uit anadatech's preview (dit is gewoon lachwekkend) Over over de shaders:
As always, I want to start at the heart of the matter: the shader core. In some respects AMD has not significantly altered their shader core since the launch of the very first GCN parts 5 years ago. Various iterations of GCN have added new instructions and features, but the shader core has remained largely constant, and IPC within the shader core itself hasn’t changed too much. Even Polaris (GCN 4) followed this trend, sharing its whole ISA with GCN 1.2.

With Vega, this is changing. By just how much remains to be seen, but it is clear that even with what we see today, AMD is already undertaking the biggest change to their shader core since the launch of GCN.
Komt dus uit anandtech preview, maar zij weten niet hoe zwaar, ze weten alleen wat AMD zegt. Staat er letterlijk.

Modbreak:*knip* niet op de man

[ Voor 1% gewijzigd door br00ky op 04-08-2017 23:54 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 19:02

Damic

Tijd voor Jasmijn thee

foppe-jan schreef op vrijdag 4 augustus 2017 @ 20:08:
Durft iemand obv eerdere ervaringen te gokken of er (op termijn) een 1x8pin (itx?) vega56 zal komen?
Vrees ervoor eerder 6+8, vega is heel power hongerig.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • +7 Henk 'm!

  • MrCharming
  • Registratie: Oktober 2009
  • Laatst online: 11-09-2024
Mag dan wel geen mod zijn, maar kunnen jullie het een béétje gezellig houden? Deze toon van discussie komt alleen maar kinderachtig over. Het gaat over grafische kaarten hier, niet politiek :) Ik probeer er grotendeels overheen te lezen, maar denk niet dat ik de enige ben die vind dat dit semantische welles-nietes het topic vervuilt. Neem een pilletje en denk er nog eens over na of dit de opwinding waard is :+

Over iets nuttigs, een kerel op reddit zegt dat de hashrate nooit boven de 70, laat staan 100 uit kan komen.

https://www.reddit.com/r/...nlikely_to_exceed_65_mhs/
Professional mining software developer here.
Ethash (the proof-of-work used in Ethereum) is memory bandwidth bound.
1 Ethash requires 8KB of memory bandwidth, 1 MH requires ~7.8 GB of memory bandwidth (1000000*8KB/1048576 ~= 7.8GB).
Vega56 has ~409.6 GB/s; 409.6/7.8 ~= 52.5 MH/s
Vega64 has ~483.8 GB/s; 483.8/7.8 ~= 63.4 MH/s
Both versions use SKHynix's HBM2 memory, which is a 1.6Gbps part @ 1.2volts (SKHynix's Q2'17 Databook). This is the memory speed in Vega56. The Vega64 runs the same part @ 1.89Gbps meaning it is factory overclocked and unlikely to go faster.
Tldr: Peak Ethash performance unlikely to exceed 65 MH/s on Vega64 and 55 MH/s on stock Vega56.
En wat ik er van begrijp is dat een theoretisch maximum, dus dat wil niet zeggen dat zoiets in de praktijk gehaald gaat worden. Ik dacht overigens dat Samsung de HBM2 voor Vega maakt? Dus misschien kletst die ook wel uit z'n nek. Ik weet niet meer wat gerucht en feit is ;)

Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
^unlikely to exceed 65MH/s :') $&#$%^&@%& alles boven de 50MH/s is al genoeg voor een nieuwe GPU rampage...

Vraag me nu serieus af je überhaupt een Vega kan kopen voordat ETH PoS gaat... /zucht.

Acties:
  • 0 Henk 'm!

  • MrCharming
  • Registratie: Oktober 2009
  • Laatst online: 11-09-2024
ArcticWolf schreef op vrijdag 4 augustus 2017 @ 22:50:
^unlikely to exceed 65MH/s :') $&#$%^&@%& alles boven de 50MH/s is al genoeg voor een nieuwe GPU rampage...

Vraag me nu serieus af je überhaupt een Vega kan kopen voordat ETH PoS gaat... /zucht.
Oh ja, het is inderdaad nog steeds reteveel. Wilde niet zeggen dat dit "goed" nieuws is. 50 of 100, uitverkocht is die dan sowieso, in beide gevallen. Maar de 100MH/s "gratis geld"-machine is onwaarschijnlijk volgens die poster.

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
In zekere zin is het te hopen dat het zo hoog mogelijk is, des te groter zijn de inkomsten voor AMD in korte termijn en des te sneller wordt de nepmunten moeilijker.

Dus des te sneller zijn we van het gezeik af zou je zeggen.

Door het bijvoorbeeld tegen te houden met slechte drivers en die op basis van muntmoeilijkheid aan te passen duurt het alleen maar langer voordat de mogelijkheden benut kunnen worden, en blijven de munten kunstmatig langer interessanter.

En lage beschikbaarheid door oneindige vraag door extreme prestaties is ook veel betere marketing dan hoge beschikbaarheid door prestatiegelimiteerde drivers.

Anyway RX 480/580 zal wel ineens goed beschikbaar worden nu.

[ Voor 13% gewijzigd door enchion op 04-08-2017 23:08 ]

How do you save a random generator ?


Acties:
  • 0 Henk 'm!
D0gtag schreef op vrijdag 4 augustus 2017 @ 21:50:
waarstaat dat ik zeg dat CU het zelfde is als een shader, als je mijn vorige berichten zou lezen heb ik letterlijk gezegd:
Modbreak:*knip* niet op de man


Ik zal het hier wederom quoten en even onderstrepen:
D0gtag schreef op vrijdag 4 augustus 2017 @ 20:26:
Wat er significant veranderd is(volgens AMD) is dus de shader/CU wat een groot onderdeel van een gpu is want hij komt er 4096 keer in voor. Volgens AMD is hij dus zwaar aangepast -hoe zwaar weten we gewoon niet-
Je gebruikt een slash tussen shader en CU, wat betekent dat je ze als gelijk beschouwt. Als dat niet het geval is, moet je het woord "en" er tussen zetten. Vervolgens zeg je ook "hij" - als je ze niet als gelijk beschouwt, over welke van de twee heb je het dan?
Tuurlijk weten 'wij' dat: bron.
Dat "bron" van jou is waarom zovelen hier zich zo aan jouw posts irriteren. En met recht, want: http://www.anandtech.com/...gpu-architecture-teaser/3
Meanwhile, on the ROP side of matters, besides baking in the necessary support for the aforementioned binning technology, AMD is also making one other change to cut down on the amount of data that has to go off-chip to VRAM. AMD has significantly reworked how the ROPs (or as they like to call them, the Render Back-Ends) interact with their L2 cache. Starting with Vega, the ROPs are now clients of the L2 cache rather than the memory controller, allowing them to better and more directly use the relatively spacious L2 cache.

This is especially significant for a specific graphics task, which is rendering to a texture (as opposed to a frame buffer to be immediately displayed). Render to texture is an especially common operation for deferred shading, and while deferred shading itself isn’t new, its usage is increasing. With this change to Vega, the ROPs can now send a scene rendered to a texture to the L2 cache, which can in turn be fetched by the texture units for reuse in the next stage of the rendering process. Any potential performance improvements from this change are going to be especially game-specific since not every game uses deferred shading, but it’s one of those corner cases that is important for AMD to address in order to ensure more consistent performance.
Afbeeldingslocatie: http://images.anandtech.com/doci/11002/Vega%20Final%20Presentation-34.png

Je haalt dit artikel zelf keer op keer aan en beschuldigt mensen er constant van dat ze niet goed lezen.
Bewijs hebben dat GCN "slechts" een instructie set is? Waar lees jij dat ik dat zeg?
Fiji (4096) heeft dubbel aantal CU's tav Tonga (2048) weet je zelf wel waar je het over hebt? (nog maar te zwijgen over het feit dat de een GDDR heeft en de andere HBM)
Sterk bewijs, goed beargumenteerd!
Hè?

Ik zeg juist dat GCN slechts een ISA is. En zowel het aantal CU's als de hoeveelheid of type geheugen hebben niets heeft niets met de geometry throughput in z'n algemeen, laat staan specifiek de tessellation throughput.
GCN is het fysieke ontwerp
Niet dus. Het fysieke ontwerp hangt af van de microarchitectuur, nu Vega, vorig jaar Polaris en vijf jaar geleden Tahiti. Nogmaals, als GCN zoals jij zegt ook de microarchitectuur en daarmee het fysieke ontwerp dicteerde dan zou:

- Geometry throughput van Tonga en Fiji identiek zijn, beide zijn immers GCN3 en daar ligt het ontwerp dus mee vast.
- Had Fiji sowieso geen HBM kunnen hebben, want het fysieke ontwerp hangt vast aan de GCN revisie
- Had Hawaii geen 8 ACE's kunnen hebben, Bonaire is immers ook GCN2 en heeft er slechts 2

En als je met "fysieke ontwerp" de logische layout bedoelt zoals we die vaak in een block diagram zien, dan is Kepler identiek aan Fermi en is Maxwell/Pascal ook nauwelijks veranderd. Vooral wat andere afkortingen. Qua logische layout is er maar nauwelijks iets veranderd. Maar als je iets dieper duikt is Kepler een heel ander beest dan Fermi en Maxwell heeft ook de nodige verschillen met Kepler. Pascal dan weer niet.
Komt dus uit anandtech preview, maar zij weten niet hoe zwaar, ze weten alleen wat AMD zegt. Staat er letterlijk.
Waar Ryan op doelt is dat er buiten de vrijgegeven wijzigingen, die al bijzonder substantieel zijn, er nog meer wijzigingen zullen zijn die pas in de whitepaper te zien zullen zijn.

Om maar even exact dezelfde quote te nemen en ook even een stukje te cherry-picken:
With Vega, this is changing. By just how much remains to be seen, but it is clear that even with what we see today, AMD is already undertaking the biggest change to their shader core since the launch of GCN.
Nogmaals, ik zeg niet dat je met alles wat je zegt ongelijk hebt, maar je reageert ontzettend overdreven; en al die kleine sneren en opmerkingen zijn nergens voor nodig.

[ Voor 2% gewijzigd door br00ky op 04-08-2017 23:57 ]


Acties:
  • +8 Henk 'm!

  • br00ky
  • Registratie: Januari 2014
  • Laatst online: 19:53

br00ky

Moderator Harde Waren
Modbreak:We krijgen de laatste tijd vanuit verschillende hoeken klachten over de gevoerde toon in deze topicserie. Laten we het een beetje gezellig houden. Probeer alleen op de feiten te reageren en je statements te onderbouwen met bronnen. Laat sneren en op de man teksten achterwege, dan blijft het voor iedereen leuk.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

Vraagje (aan TheSource), wat mij nu nog steeds bezighoud, zijn Vega FE en RX fysiek geheel gelijkwaardig, afgezien van het V-ram, vwb hardware? Blijft nog over het bios, kan mij voorstellen dat de FE bv wat meer "zekerheid" heeft ingesteld heeft vanwege prof. toepassingen.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Fredi
  • Registratie: Februari 2011
  • Laatst online: 09-06 04:29
Nog een vraagje @The Source
Weet jij of RX Vega HBM2 van Samsung of SK Hynix gebruikt?

Acties:
  • +1 Henk 'm!

  • Fredi
  • Registratie: Februari 2011
  • Laatst online: 09-06 04:29
DaniëlWW2 schreef op vrijdag 4 augustus 2017 @ 01:31:

Bron? Ik heb er namelijk helemaal niks over gehoord. Verder zou Vega 56 er ook op 14 augustus zijn, te vroeg voor AIB kaarten.
Voor de officiële aankondiging van AMD op Siggraph is altijd gezegd geweest dat Vega 56 alleen met custom koelers ging komen. Maar ik heb nog eens gekeken naar aankondiging en je hebt gelijk, de Vega 56 komt ook met een referentie koeler maar niet op 14 augustus maar in september.

Bron: https://www.techpowerup.c...on_RX_Vega_Preview/3.html

[ Voor 29% gewijzigd door Fredi op 05-08-2017 07:25 ]


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:40

SG

SG surft naar info hardewaren

nV en ATI -> AMD hebben de nijging om hun beestjes of delen ervan naamjes te geven. Geeft het beestje een naam. Zo heeft ATI architectuur Charisma engine genoemd geen hond boeide dat. Terwijl aan infiniteFX mytische krachten gegeven werd. En 9700 over 5800FX walst.

Wat kwa architectuur verschild tussen de merken, is dat met DX12 nV en AMD gezamelijke conference gegeven hadden over optimal guidlines voor hun architectuur en die guides zijn nogal verschillend.
Als architectuur flink op de schop genomen wordt zouden die guidlines wel een gedeeltelijk ongeldig zijn zo niet valt de op de schop nemen nogal mee. Niet radicaal anders maar gewoon een iteratie van architectuur.

Daarnaast dat de drivers achterlopen door architectuur veranderingen en ook hun tijd nodig hebben om er meeste uit te halen.

Ik zag ook ergens onder Vega DX12.1 vermeld. Dus ben benieuwd naar waar deze hardware kwa featureset ondersteund. Level_12.2 ?

En uiteraard wat dat inhoud.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

foppe-jan schreef op vrijdag 4 augustus 2017 @ 20:08:
Durft iemand obv eerdere ervaringen te gokken of er (op termijn) een 1x8pin (itx?) vega56 zal komen?
Op zich blijft een PCIe kaart binnen de specs met 1x 8-pin zelfs tot 225W: PCI 8-pin is certified (*) tot 150W en de PCIe x16 slot kan ook volgens spec nog eens 75W leveren. Dat lijkt me geschikt voor een Vega Nano. Maar de full Vega56 lijkt dan op een ander procedee gebakken te moeten worden of dusdanig undervolted kunnen worden door jezelf want fabrikanten lijken zich daar nooit aan te wagen.

(*) Dit is afhankelijk van de kwaliteit van de voeding, kabels en de gebruiker die geen verloopstekkers gebruikt.

[ Voor 14% gewijzigd door Phuncz op 05-08-2017 08:07 ]


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
Slecht nieuws:

https://cryptowat.ch/kraken/btceur
https://cryptowat.ch/kraken/etheur

:/ :/

[ Voor 22% gewijzigd door ArcticWolf op 05-08-2017 17:26 ]


Acties:
  • 0 Henk 'm!

  • Gelunox
  • Registratie: April 2010
  • Laatst online: 15-06 10:16

Gelunox

Hardware addicted

Als vega straks peperduur of niet beschikbaar is door die stomme miners ga ik misschien toch kijken naar een 1080(ti), ookal heb ik een freesync monitor en veel liever AMD

PC: R9 5950X | 32GB | VEGA 64 Liquid Edition


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Als AMD de powermanagement echt goed voor elkaar heeft zullen de kaarten nagenoeg niet slijten.

Maw goedkope maar toch goede 2ehands Vega`s te krijgen binnen een aantal maanden.

Maar het is niet alsof we dit niet allemaal ruim zagen/voelden aankomen. Vega als Armless Bandit.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Gelunox schreef op zaterdag 5 augustus 2017 @ 17:33:
Als vega straks peperduur of niet beschikbaar is door die stomme miners ga ik misschien toch kijken naar een 1080(ti), ookal heb ik een freesync monitor en veel liever AMD
In die boot zit ik momenteel: "genieten" van de micro-stutter met een GTX 1080 terwijl mijn FreeSync scherm weinig kan doen om het verhelpen. Voorlopig ziet het er niet naar uit dat ik snel naar AMD kan gaan.

Acties:
  • 0 Henk 'm!

  • nLr
  • Registratie: Februari 2009
  • Laatst online: 04-08 13:31

nLr

Phuncz schreef op zaterdag 5 augustus 2017 @ 18:33:
[...]

In die boot zit ik momenteel: "genieten" van de micro-stutter met een GTX 1080 terwijl mijn FreeSync scherm weinig kan doen om het verhelpen. Voorlopig ziet het er niet naar uit dat ik snel naar AMD kan gaan.
Dit dus. En laat ik nou net een kleine 1,5 maand geleden mijn r9 390 van de hand heb gedaan voor de hoofdprijs en geen vervanger heb..

Zit echt te wachten op 14 augustus zodat ik hele dag kan f5'en en hopen dat ergens iets te bestellen is.

En ook ik zit dus zeer sterk te twijfelen om een 1080 te kopen..

Ryzen 7800X3D| ASUS TUF GAMING X670E-PLUS | MSI RTX4080 Gaming Trio X 16GB | LG GP95R | 32GB DDR5 6000 F5-6000J3238F16GX2-TZ5NR | Samsung 970 Evo Plus | NZXT H710i | NZXT Kraken x73 | Corsair RM850x


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
nLr schreef op zaterdag 5 augustus 2017 @ 18:43:
[...]


Dit dus. En laat ik nou net een kleine 1,5 maand geleden mijn r9 390 van de hand heb gedaan voor de hoofdprijs en geen vervanger heb..

Zit echt te wachten op 14 augustus zodat ik hele dag kan f5'en en hopen dat ergens iets te bestellen is.

En ook ik zit dus zeer sterk te twijfelen om een 1080 te kopen..
idem :/ 1080 wordt toch wel aantrekkelijker zo, maar ja heb ook een Freesync monitor (zit nu met een HD6850 opgescheept)

[ Voor 3% gewijzigd door ArcticWolf op 05-08-2017 19:00 ]


Acties:
  • 0 Henk 'm!

  • nLr
  • Registratie: Februari 2009
  • Laatst online: 04-08 13:31

nLr

ArcticWolf schreef op zaterdag 5 augustus 2017 @ 19:00:
[...]

idem :/ 1080 wordt toch wel aantrekkelijker zo, maar ja heb ook een Freesync monitor (zit nu met een HD6850 opgescheept)
Ik met een mooie onboard.. Laptop maar in gebruik en huilen. Heb ook freesync, en eigenlijk ook gekocht hiervoor. Zou jammer zijn maar goed. Zit zelfs te twijfelen om een rx580 te nemen hierdoor maar 1440p is wel een must geworden met mijn scherm.

Ryzen 7800X3D| ASUS TUF GAMING X670E-PLUS | MSI RTX4080 Gaming Trio X 16GB | LG GP95R | 32GB DDR5 6000 F5-6000J3238F16GX2-TZ5NR | Samsung 970 Evo Plus | NZXT H710i | NZXT Kraken x73 | Corsair RM850x


Acties:
  • +1 Henk 'm!

  • The Chosen One
  • Registratie: Juni 2007
  • Nu online

The Chosen One

Zie signature!

Ik zit ook bij het clubbie. GTX 970 -> Intel HD3000 -> "tijdelijke GTX 780 TI" -> Vega....(/1080TI?)
Wil ook naar een nieuw scherm 27"/1440p etc.

Mijn LEGALE dvd collectie; (altijd onder constructie) http://www.invelos.com/dvdcollection.aspx/The%20Chosen%20One - - - - - - - - - Quietum Grandis: https://nl.hardware.info/usersystemen/28203/quietum-grandis---ryzen-2700x-game-pc


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
The Chosen One schreef op zaterdag 5 augustus 2017 @ 19:10:
Ik zit ook bij het clubbie. GTX 970 -> Intel HD3000 -> "tijdelijke GTX 780 TI" -> Vega....(/1080TI?)
Wil ook naar een nieuw scherm 27"/1440p etc.
Ernstige is dat m'n GTX765M (laptop GPU) sneller is dan de HD6850 in m'n desktop in de spellen die ik speelde :X

Heb hier al een 27"/1440p scherm.

[ Voor 5% gewijzigd door ArcticWolf op 05-08-2017 19:17 ]


Acties:
  • +1 Henk 'm!

  • winwiz
  • Registratie: September 2000
  • Laatst online: 12-09 13:37
Wie iets goeds wil hebben moet pijn lijden

Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD


Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
MrCharming schreef op vrijdag 4 augustus 2017 @ 22:46:
Mag dan wel geen mod zijn, maar kunnen jullie het een béétje gezellig houden? Deze toon van discussie komt alleen maar kinderachtig over. Het gaat over grafische kaarten hier, niet politiek :) Ik probeer er grotendeels overheen te lezen, maar denk niet dat ik de enige ben die vind dat dit semantische welles-nietes het topic vervuilt. Neem een pilletje en denk er nog eens over na of dit de opwinding waard is :+

Over iets nuttigs, een kerel op reddit zegt dat de hashrate nooit boven de 70, laat staan 100 uit kan komen.

https://www.reddit.com/r/...nlikely_to_exceed_65_mhs/


[...]


En wat ik er van begrijp is dat een theoretisch maximum, dus dat wil niet zeggen dat zoiets in de praktijk gehaald gaat worden. Ik dacht overigens dat Samsung de HBM2 voor Vega maakt? Dus misschien kletst die ook wel uit z'n nek. Ik weet niet meer wat gerucht en feit is ;)
Je hebt gelijk, ik ga mijn focus verleggen op die gene die nog interesse hebben in feiten (met bronnen :*) ), excuses voor bloatpost en het vervelende lezen.


Ik dacht het zelfde (aangezien ETH memory bound is om ASCII bitcoin verhaal te voorkomen) (alleen uitgebreider) maar wat hij/zij/reddit zegt komt hier mee overeen.
70-100 is gewoon niet haalbaar.
IO saturation: The algorithm should consume nearly the entire available memory access bandwidth (this is a strategy toward achieving ASIC resistance, the argument being that commodity RAM, especially in GPUs, is much closer to the theoretical optimum than commodity computing capacity)
Ethash Design Rationale

But then again: 1070 hasht weer beter dan de 1080 en hebben zelfde busbreedte Nu worden de nV kaarten duurder omdat deze het nu relatief beter zijn gaan doen, na ETH hashrate drop.

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

Dit zou wel erg sterk zijn, oa. om logische redenen, maar ik quote het toch even:
In short... what is happening is the Drivers are acting as a Limiter, in essence you have a Bugatti Veyron in "Road" Mode; where it just ends up a more pleasant drive overall... but that's a W12 under-the-hood. It can do better than the 150MPH that it's currently limiting you to. The question here ends up being, "Well just how much of a difference will Drivers make?" ... Conservatively speaking, the RX VEGA Consumer Drivers are almost certainly going to provide 20 - 35% Performance Uplift over what the Frontier Edition has showcased on FIJI Drivers.

Yet most of that optimisation will come from FP16 Support, Tile-Based Rendering, Geometry Discard Pipeline, etc. while HBCC will continue to ensure that the GPU isn't starved for Data maintaining very respectable Minimums that are almost certainly making NVIDIA start to feel quite nervous.

Still, this isn't the "Party Trick" of the VEGA Architecture. Something that most never really noticed was AMDs claim when they revealed Features of Vega.

Primarily that it supports 2X Thread Throughput. This might seem minor, but I'm not sure people quite grasped (NVIDIA did, because they got the GTX 1080 Ti and Titan Xp out to market ASAP following the official announcement of said features) is this actually is perhaps THE most remarkable aspect of the Architecture. So... what does this mean?

In essence the ACE on GCN 1.0 to 4.0 has 4 Pipelines, each is 128-Bit Wide. This means it processes 64-Bit on the Rising Edge, and 64-Bit on the Falling Edge of a Clock Cycle. Now each CU (64 Stream Processors) is actually 16 SIMD (Single Instruction, Multiple Data / Arithmetic Logic Units) each SIMD Supports a Single 128-Bit Vector (4x 32-Bit Components, i.e. [X, Y, Z, W]) and because you can process each individual Component ... this is why it's denoted as 64 "Stream" Processors, because 4x16 = 64.

As I note, the ACE has 4 Pipelines that Process, 4x128-Bit Threads Per Clock. The Minimum Operation Time is 4 Clocks ... as such 4x4 = 16x 128-Bit Asynchronous Operations Per Clock (or 64x 32-Bit Operations Per Clock)
GCN 5.0 still has the same 4 Pipelines, but each is now 256-Bit Wide. This means it processes 128-Bit on the Riding Edge, and 128-Bit on the Falling Edge. Each CU is also now 16 SIMD that support a Single 256-Bit Vector or Double 128-Bit Vector or Quad 64-Bit Vector (4x 64-Bit, 8x 32-Bit, 16x 16-Bit).

It does remain the same SIMD merely the Functionality is expanded to support Multiple Width Registers, in a very similar approach to AMD64 SIMD on their CPU; which believe it or not, AMD SIMD (SSE) is FASTER than Intel because of their approach. This is why Intel kept introducing new Slightly Incompatible versions of SSE / AVX / etc. They're literally doing it to screw over AMD Hardware being better by using their Market Dominance to force a Standard that deliberately slows down AMD Performance, hence why Bulldozer Architecture appeared to be somewhat less capable in a myriad of common scenarios.

Anyway, what this means is Vega remains 100% Compatible and can be run as if it were a current Generation GCN Architecture. So all of the Stability, Performance Improvements, etc. they should translated pretty well and it will act in essence like a 64CU Polaris / Fiji at 1600MHz; and well that's what we see in the Frontier Edition Benchmarks.

Now a downside of this, is well it's still strictly speaking using the "Entire" GPU to do this... so the power utilisation numbers appear curiously High for the performance it's providing; but remember is being used as if under 100% Load; while in reality it's Utilisation is actually 50%. Here's where it begins to make sense as to why when they originally began showing RX VEGA at Trade Conventions, they were using it in a Crossfire Combination; as it is a Subtle (to anyone paying attention, again like NVIDIA) hint at when fully Optimised the Ballpark of what a SINGLE RX VEGA will be capable of under a Native Driver.

And well... it's performance is frankly staggering as it was running Battlefield 1, Battlefront, Doom and Sniper Elite 4 at UHD 5K at 95 FPS+ For those somewhat less versed in the processing Power Required here.
The Titan Xp, is capable of UHD 4K on those games at about 120 FPS, if you were to increase it to UHD 5K it would drop to 52 FPS; and at this point it's perhaps dawning on those reading this why NVIDIA have somewhat entered "Full Alert Mode" ... because Volta was aimed at ~20% Performance Improvement, and this was being achieved primarily via just making a larger GPU with more CUDA Cores.

RX VEGA has the potential to dwarf this in it's current state. Still this also begins to bring up the question... "If AMD have that much performance just going to waste... Why aren't they using it to Crush NVIDIA? Give them a Taste of their own Medicine!" Simple... they don't need to, and it's actually not advantageous for them to do so. While doing this might give them the Top-Dog Spot for the next 12-18 months... NVIDIA aren't idiots, and they'll find a way to become competitive; either Legitimate, or via utilising their current Market Share.
Het hele verhaal:

https://www.reddit.com/r/...is_better_than_you_think/

Kunnen de meer onderwezen GPU-analisten hier wat van maken, of is het onzin voor YouTube hits?

Verder, van de Sapphire website voor de AIO variant:

Vega XTX
Base Clock 1406 MHz
Boost Clock 1677 MHz
Max Clock (DPM7) 1750 MHz

En euhh, crossfire toch nog niet zo dood??

http://wccftech.com/amd-vega-64-x2/

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 19:02

Damic

Tijd voor Jasmijn thee

Dus als ik het goed begrijp: als AMD de drivers open smijt heb ik een beest van een kaart, want in de plaats van alles op 256b te verwerken, doet ie het nu op 128b en smijt ik resources weg vermits de kaart al de power gebruikt. Does sound familiar eerste 64b AMD cpu's op 32b windows.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

Verwijderd

damm die max clock zou je dit met een leuke koeler constant kunnen halen ?

gaat al richting de 1800 mhz ben benieuwd wat voor boost dit geeft in vergelijking met de bechmakrs die we al kennen die eerder rond de 1450 mhz lopen.

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
edward2 schreef op zaterdag 5 augustus 2017 @ 20:23:
Dit zou wel erg sterk zijn, oa. om logische redenen, maar ik quote het toch even:


[...]


Het hele verhaal:

https://www.reddit.com/r/...is_better_than_you_think/

Kunnen de meer onderwezen GPU-analisten hier wat van maken, of is het onzin voor YouTube hits?

Verder, van de Sapphire website voor de AIO variant:

Vega XTX
Base Clock 1406 MHz
Boost Clock 1677 MHz
Max Clock (DPM7) 1750 MHz

En euhh, crossfire toch nog niet zo dood??

http://wccftech.com/amd-vega-64-x2/
Ikke te onbekend met het terrein, maar persoonlijk heeft het gespeculeer dat niet gaat over warp coils, antimatter containment, dilithium chambers, enz., me een iets te hoog "ze vinden het zielig voor Nvidia om erachter te komen dat ze eigenlijk al dood zijn, dus bieden ze maar niet al te veel concurrentie zodat die gozer in zijn leren jasjes er maar niet achterkomt dat hij de hoofdrolspeler in de sixth sense is"-gehalte om het waarschijnlijk te maken dat de rest klopt. Maar goed, wie weet hebben we te maken met een idiot savant. ;)

[ Voor 6% gewijzigd door foppe-jan op 05-08-2017 21:45 ]

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

foppe-jan schreef op zaterdag 5 augustus 2017 @ 21:42:
[...]

"ze vinden het zielig voor Nvidia
Niet zielig, maar berekenend voor the kill had ik het opgevat, maar dat is dus het gedeelte wat ik nog snap :D en mij onlogisch en onwaarschijnlijk lijkt.

[ Voor 4% gewijzigd door edward2 op 05-08-2017 22:12 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 19:02

Damic

Tijd voor Jasmijn thee

@edward2 Vega Cfire. kan zijn dat ze het stilletjes laten sterven of dat ze het anders gaan doen. Wat betreft de Asus kaart, de ingenieurs hebben nu eigenlijk minder werk te doen d.w.z. vroeger moesten ze nog al de lijnen voor gddr tekenen maar nu is het alleen pci-e power en uitgangen. Nu is alleen de vraag of je voor gpgpu doeleinde het geheugen apart kunt gebruiken, dus dat je 16GB HMB2 vrij kunt gebruiken.

* Damic begint te sparen of zou een dual RX vega goedkoper zijn :?

[ Voor 8% gewijzigd door Damic op 05-08-2017 22:44 ]

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 13-09 22:28

edward2

Schieten op de beesten

Damic schreef op zaterdag 5 augustus 2017 @ 22:22:
@edward2 Vega Cfire. kan zijn dat ze het stilletjes laten sterven of dat ze het anders gaan doen. Wat betreft de Asus kaart, de ingenieurs hebben nu eigenlijk minder werk te doen d.w.z. vroeger moesten ze nog al de lijnen voor gddr tekenen maar nu is het alleen pci-e power en uitgangen. Nu is alleen de vraag of je voor gpgpu doeleinde het geheugen apart kunt gebruiken, dus dat je 16GB HMB2 vrij kunt gebruiken.
Heb zo'n vermoeden dat het bericht over het verminderen van resources naar CF ook met de transitie van dx11 naar dx12/Vulkan te maken heeft. Daar zijn we mooi de sjaak mee. Triple A devs zoals Dice zullen het nog wel gebruiken, maar de kleinere niet. Misschien dat in de toekomst als team dx (heten die lui nog zo?), z'n expliciet multi adapter methode vergemakkelijkt dat kleinere devs zich ook aansluiten, voordat in de verre toekomst Rage Fury Maxx achtige kaarten weer verschijnen.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

Verwijderd


De meeste mensen hier weten dit wel, in het kort komt het erop neer dat ze een hoop rekenwerk besparen door niet te rekenen met wat uiteindelijk niet gezien wordt door de speler. Ik vraag me af wat de overhead van dit proces (of deze processen?) is.

[ Voor 72% gewijzigd door Verwijderd op 05-08-2017 22:59 ]


Acties:
  • +2 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
edward2 schreef op zaterdag 5 augustus 2017 @ 20:23:

[...]


Het hele verhaal:

https://www.reddit.com/r/...is_better_than_you_think/

Kunnen de meer onderwezen GPU-analisten hier wat van maken, of is het onzin voor YouTube hits?

Verder, van de Sapphire website voor de AIO variant:

Vega XTX
Base Clock 1406 MHz
Boost Clock 1677 MHz
Max Clock (DPM7) 1750 MHz

En euhh, crossfire toch nog niet zo dood??

http://wccftech.com/amd-vega-64-x2/
Laten we beginnen met wat hij zegt over hoe vega het geheugen aanspreekt.
3:20- yt transscript:
in those 1% lows now what

Vega is really unique about or not just unique but what they really focused
on is they have a memory caching system so the cache this memory like storing it.
once you have that available memory in the storage and something pops up on the
screen, now the GPU can access that cached or stored memory so that it
doesn't have any sort of latency by accessing the memory it's
it's already cashed and ready to go.
Vega's High Bandwidth Cache(de link geeft filmpje met uitleg van pcper)= HMB2(8GB dus), wat HBCC doet is gewoon vanuit zijn bronnen (SSD/DRAM) selectief data zoeken ipv wat kaarten nu doen gewoon complete data set in het geheugen laden.
Het komt duidelijk over dat hij niet weet wat hij zegt. :)
Dat filmpje is da bomb 8:00 zegt hij I hope you liked the vid. Hopefully this clears any confusion. Vervolgens gaat hij nog 2 minuten door, waarover weet ik niet want ik was eigenlijk al afgehaakt rond de 5 minuten. :)
Best knap 10minuten gewoon helemaal niks zeggen.
Toen kwam ik erachter dat het om de comments ging die eronder stond :(

VEGA Consumer Drivers are almost certainly going to provide 20 - 35% Performance Uplift over what the Frontier Edition has showcased on FIJI Drivers.
Volgens mij was het al bevestigd dat de VEGA fe niet met fiji drivers werkte?

Primarily that it supports 2X Thread Throughput,.
Hmm hyperthreading ik heb hier niks over gelezen en ik moet morgen vroeg op :) (ik hoop niet dat hij bedoeld dat vega nu de fp16 in de fp32alu kan doen, That aint hyperthreading.)

Oh and if you don't believe me on how seriously NVIDIA are taking this... the Titan Xp Driver up-date that unlocked it's Professional (Workstation) Functionality, essentially brings it inline with the P100 in terms of Performance.
Dat kan en is ook niet zo vreemd aangezien ze de zelfde chip hebben, alleen de p6000 is een workstation kaart met 24GB en gecertificeerd. Vroeger kon je GPu's van zowel ATI als nV softmodden naar workstations, betekent nog niet dat dit workstation kaarten zijn. Het is leuk als je kaart het kan, maar bedrijven mogen er nog steeds niet mee werken.
(het maakt de titan Xp wel een alternatief voor de VEGA fe ook gericht op de markt van workstation-prestaties -niet certificatie)
Over nV gesproken, ik heb helemaal niks gehoord van het nV kamp.


And people will somewhat accept them doing this to "Be Competitive", but if AMD aren't being overly aggressive and letting NVIDIA remain in their Dominant Position; while offering value and slowly removing NVIDIA from the Mainstream / Entry Level... well then not only do they know that they can with each successive "Re-Brand" Lower Costs, Improve the Architecture and offer a Meaningful Performance Uplift for their Consumers while remaining Competitive with anything NVIDIA produce.
Nu is het ongeloofwaardig en daarna komt nog meer.

Maar het is allemaal onzin, er staat GCN5 in, dus nep :+

Ik wacht wel op de eerste gaming kaart die daadwerkelijk uitkomt :)

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • +4 Henk 'm!

  • BNieuwenhuizen
  • Registratie: Februari 2011
  • Laatst online: 21-03-2023
edward2 schreef op zaterdag 5 augustus 2017 @ 20:23:
Dit zou wel erg sterk zijn, oa. om logische redenen, maar ik quote het toch even:


[...]


Het hele verhaal:

https://www.reddit.com/r/...is_better_than_you_think/

Kunnen de meer onderwezen GPU-analisten hier wat van maken, of is het onzin voor YouTube hits?
Dit lijkt mij heel erg onwaarschijnlijk. (Mijn reactie is op de original post / gekopieerde comment op youtube)

FP64 support zou gelijkwaardig moeten zijn. Voor FP16 support lijkt het mij onwaarschijnlijk. Het enige wat ik zou verwachten onder de noemer atomics is operaties die je in 1 keer op een stuk geheugen kunt uitvoeren zonder dat je een aparte load en store moet doen. Dit zijn bij lange na geen vervangers van ALU operaties, en lijken me om de volgende redenen onwaarschijnlijk:
  • Atomics zijn heel erg langzaam.
  • GCN3 ondersteunde al FP16, hetzij op dezelfde snelheid als FP32, dus er is genoeg mogelijkheid geweest om vroeg te testen
  • GCN3/GCN4 hebben geen 16-bit atomics, en AMD heeft niks gezegd over 16 bit atomics op vega
  • In een naive implementatie kan je 32-bit registers gebruiken voor de fp16 instructies, wat dus betekent dat je alleen maar wat instructies aan je compiler hoeft toe te voegen. Simpeler kan bijna niet.
  • In D3D11+ en Vulkan specifeer je over het alegemeen geen fp16 berekeningen, maar fp32 + relaxed precision, waarbij de driver de keuze krijgt om deze in fp16/fp32 of iets er tussen in te implementeren. Dus forceren fp16 te gebruiken heeft geen zin.
Dat laatse kan overigens wel verklaren waar het vermeende verschil met compute vandaan komt. In e.g. openCL C specificeer je wel expliciet char/short/int.

Overigens heb je hier spellen voor nodig die die relaxed precision aanzetten wat weinig spellen gedaan zullen hebben aangezien Vega voor zover ik weet de eerste desktop kaart is die hier echt van profiteert. Darnaast zijn in mijn ervaring de FPU's maar ong 50% bezet in typische spellen, dus 2x improvement haalt maar 25% van je tijd af, waarschijnlijk zelfs eerder 10-15% aangezien het niet overal gebruikt kan worden.

Dan het verhaal over de ACEs. Daar weet hij echt niet waar hij over praat. ACEs hebben gewoon aparte ringbuffers om compute shader dispatch commandos te versturen die tegelijkertijd met de hoofdringbuffer kunnen draaien.

Een dispatch bevat een pointer naar de shader, grid configuratie en tot 16 willekeurige 32-bit values. Over het algemeen stop de driver hiet 64-bit pointers naar data in het geheugen in (e.g. een lijst met textures oid) en werkt de shader daar dan mee. Aangezien de toegestane instructies totaal niet verschillen tussen shaders gestart met een ACE en met de CP(nou ja, misschien wat niche instructies als GDS geheugen en prioriteiten zetten oid, maar die zijn niet relevant voor deze discussie), maakt formaat compleet niet uit.

Ook lijkt hij te suggereren dat ACEs dedicated hardware hebben om die shaders uit te voeren. Dit is pertinent onwaar, ze zijn er alleen om shaders te starten, daar concurreren daarmee wel voor dezelfde CUs als de CP. De relatie ACEs en de pipelines voor verwerking is dus niet zoals gepresenteerd. Ook het verhaal over van 128-bit vectoren naar 256-bit vectoren gaan lijkt me sterk, want dan zou je ook 2x FP32 performance moeten krijgen.

Ik zou totaal niet weten wat de realistische performance impact van eventuele verbeteringen zijn. Als ontwikkelaar van de open source drivers voor linux heb ik zeker driver update meer dan 100% verschil zien maken. Je moet dan echter wel 2 dingen bekijken:
  • Hoe slect zijn je drivers momenteel, i.e. hoeveel kan je nog verbeteren. Over het algemeen zijn de drivers voor windows toch een stuk beter dan die voor linux, wat minder ruimte laat voor verbeteringen.
  • Wat is je vermogen om die verbeteringen te doen? Mankracht en kennis en dergelijke
Ik denk dat de berichten duiden dat er nog iig wat ruimte zit voor verbeteringen, maar met alle heisa heb ik geen idee hoe goed AMD is in het oplossen daarvan.

Acties:
  • +3 Henk 'm!

Verwijderd

edward2 schreef op zaterdag 5 augustus 2017 @ 20:23:
Dit zou wel erg sterk zijn, oa. om logische redenen, maar ik quote het toch even:


[...]


Het hele verhaal:

https://www.reddit.com/r/...is_better_than_you_think/
De video waar hij naar verwijst vind ik niet heel erg interessant om eerlijk te zijn. Hij speculeert dat Vega relatief hoge 1% FPS (1/framerendertijd van de 1% traagst gerenderde frames als ik het goed begrijp) geeft en dat het verschil tussen de minima en de gemiddelde FPS kleiner is, dit op basis van de cijfers die AMD gaf voor een paar spellen voor de RX Vega64.
Hij onderbouwt wel zijn speculatie. Hij haalt die verbeterde cache aan, zie cache als een relatief klein stukje geheugen wat erg dicht bij een GPU/CPU zit en hierdoor snel data kan versturen naar en ontvangen van de GPU/CPU, data latencies nemen met afstand de meeste tijd in beslag bij alles wat een CPU/GPU doet, de speculatie zit hem erin dat we moeten afwachten hoe goed het is uitgevoerd; of dat er wel of niet een bottleneck is in de hardwareketen (waarschijnlijk niet) en of dat de software het goed aanstuurt
Kleinere verschillen in framerendertijd levert een betere ervaring op tijdens het gamen omdat je verschillen goed merkt en vooral als de lagere framerendertijd boven een bepaalde waarde komt, dus als de FPS zakt van bijvoorbeeld 50 FPS naar 28 FPS, dit merk je direct en het wordt als negatief ervaren. Indien AMD's voorbeelden representatief zouden zijn dan zou dat inderdaad een waardevolle asset zijn voor RX Vega maar we kunnen enkel speculeren naar de mate waarin die representatief zijn. Het lijkt me trouwens wel logisch dat er een kern van waarheid in zit (waarom zou AMD het anders melden? Het zou PR-technisch dodelijk zijn als er niets van klopt) maar hoe consistent is het?

Verder heeft (RX) Vega inderdaad een aantal features die de FPS redelijk kunnen verhogen indien developers het ondersteunen, mogelijk ook hier en daar een feature die zonder steun van de developer de performance nog wat meer kan verbeteren met verbeterde drivers (afwachten). Rapid Packed Math houdt in dat je 2 16-bits waarden in 1 32-bits woord kan plakken. GPU's werken regelmatig met 16-bits instructies en eventueel kan er ook bewust voor worden gekozen om nauwkeurigheid (16 bits in plaats van 32 bits) op te offeren om het dubbele aantal instructies (ik weet niet zeker of dat je het ook instructies mag noemen als het enkel data bevat :?) te halen. AMD gaf hiervoor het voorbeeld van haar-rendering waarbij een groter aantal haren meer indruk maakt dan wanneer die haren met een grotere precisie worden gerenderd. Merk op dat jet 2^n mogelijke 'getallen' kan opslaan in n bits, bij 32 bits heb je dus 2^16 keer zoveel getallen als bij 16 bits maar die precisie is niet altijd nodig. Ook nu zijn er al vaak instructies met 16 bits bij veel spellen en momenteel worden dan 16 bits van die 32-bits woorden niet gebruikt. Voor het vermogen van de kaart maakt het geen drol verschil of dat je wel of niet iets nuttigs doet met die andere 16 bits dus dit is een gigantische verspilling, als je twee van die 16 bits instructies in 1 woord kan plakken dan verwerk je twee instructies tegelijkertijd. Het probleem met deze feature is dat de developer het moet ondersteunen, inmiddels is volgens mij van 2 of 3 spellen bekend dat die dit zullen gaan ondersteunen, waaronder een nieuwe Wolfenstein en Far Cry 5).
Mooi, Ubisoft heeft het een en ander goed te maken met gamers die een AMD-kaart gebruikten in de afgelopen jaren. ;)
Hoeveel performancewinst je haalt is moeilijk te zeggen aangezien zo'n feature slechts gebruikt zou worden voor een deel van het renderwerkt, dat je van 100% naar 200% gaat voor die ene feature is geweldig maar als je 10% van de resources gebruikt voor die ene feature dan heb je misschien een winst van iets minder dan 5%). Ik denk dat hier vooral geldt dat meerdere kleine beetjes ophopen en dat alles bij elkaar bepaalde verbeteringen van de architectuur bij sommige spellen en bij toekomstige spellen een redelijk voordeel kunnen geven t.o.v. de equivalente kaart van Nvidia. Nvidia heeft ook al hun eigen versie van Rapid Packed Math uitgewerkt, alleen Nvidia ondersteunt dit nog niet voor de gamingkaarten, ze gaan dit waarschijnlijk vanaf Volta ook ondersteunen.

Yet most of that optimisation will come from FP16 Support, Tile-Based Rendering, Geometry Discard Pipeline, etc. while HBCC will continue to ensure that the GPU isn't starved for Data maintaining very respectable Minimums that are almost certainly making NVIDIA start to feel quite nervous.

HBCC lijkt inderdaad voor relatief hogere minima te zorgen, bij de demonstratie die AMD gaf van Deus Ex: Mankind Divided verhoogde de minima FPS meer dan de gemiddelde FPS (2:1,5) en dat zou wellicht die ene slide van de presentatie kunnen verklaren waarin AMD de relatief hogere minima laat zien van de door hen gecherrypickte spellen. De vraag is in welke mate de developer dit moet ondersteunen en of dat de door AMD uitgekozen spellen waarover ze data gaven bij die slides van die spellen zijn waarvoor de developer dat heeft ingebouwd. Het zou de goede benchmarks van de RX Vega 56 kunnen verklaren, als die waar zijn. Over Geometry Discard Pipeline kan je meer horen in het filmpje wat ik net plaatste en tile-based rendering had Nvidia al ontwikkeld voor Maxwell en zou ervoor zorgen dat je minder RAM-geheugen op de kaart hoeft te gebruiken.
Hier meer uitleg over tile based rendering van iemand die als deskundig (onder de journalisten) wordt gezien.


Over atomics en het laatste deel wat hij aanhaalt kan ik niets zinnigs zeggen.

[rant]Ik ben niet te spreken over de presentatie van AMD op die ene slide met 1% minima. AMD plaatste daar steeds de Vega-kaart rechts, ook wanneer de FPS van de 1080 hoger lag. AMD zou dit soort fratsen aan Nvidia moeten overlaten, kopieer dat vooral niet!
BNieuwenhuizen schreef op zaterdag 5 augustus 2017 @ 23:16:

• In D3D11+ en Vulkan specifeer je over het alegemeen geen fp16 berekeningen, maar fp32 + relaxed precision, waarbij de driver de keuze krijgt om deze in fp16/fp32 of iets er tussen in te implementeren. Dus forceren fp16 te gebruiken heeft geen zin.
[/list]

Dat laatse kan overigens wel verklaren waar het vermeende verschil met compute vandaan komt. In e.g. openCL C specificeer je wel expliciet char/short/int.
Weet jij waarm ze bij deze API's (DX, Vulkan, naar ik aanneem ook OpenGL) niet specificeren wat het datatype is? Een bewuste keuze met goede redenen?

Een toelichting voor wie het niet weet (jouw uitleg), pointers zijn een adres van het geheugen, het geeft aan waar in het geheugen data is opgeslagen en dit wordt gebruikt zodat je niet onnodig extra data hoeft te kopiëren van/naar het geheugen (wat erg traag verloopt in vergelijking met...), je laat het zitten waar het is opgeslagen in de RAM en je verwijst simpelweg naar waar het zit.
Als ontwikkelaar van de open source drivers voor linux heb ik zeker driver update meer dan 100% verschil zien maken. Je moet dan echter wel 2 dingen bekijken:
Hoe slect zijn je drivers momenteel, i.e. hoeveel kan je nog verbeteren. Over het algemeen zijn de drivers voor windows toch een stuk beter dan die voor linux, wat minder ruimte laat voor verbeteringen.
Ik las laatst een artikel (op goede website over Linux, ik ben helaas de bookmark kwijtgeraakt door een gecrashte harde schijf) waarin ze diverse drivers vergeleken voor diverse AMD-kaarten. Grappig genoeg blijkt dan de ene open source driver beter te werken voor de ene kaart en de andere voor de andere kaart en dit met hele grote verschillen. Anyway, ik zou zeker aanraden om de proprietary drivers te gebruiken bij Linux. :)


Edit
Interessant leesvoer over atomics
http://on-demand.gputechc...mic-Memory-Operations.pdf

[ Voor 35% gewijzigd door Verwijderd op 06-08-2017 00:17 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41
Oh gelukkig ging het niet om het filmpje... volgens mij heeft hij nog geen idee waar hij het over heeft (en als hij een idee heeft dan kan hij het niet verwoorden). Dat comment, tjah AMD gaat echt geen kaart op de markt zetten en de helft van de performance expres uitzetten hoe graag ik het ook zou willen dat dat het geval was en dat we zo meteen een kaart zien die 2x zo snel is als de 1080.
Nu geloof ik wel dat Vega bij launch nog niet zijn volle performance laat zien en dat de drivers in de loop van de tijd nog verbeteren. AMD (volgens mij Kaduri) heeft zelf aangegeven dat Vega niet makkelijk is wat betreft drivers, moeilijker dan eerdere, ik kan die statement helaas niet zo terug vinden wel iets wat bevestigd dat het maken van drivers voor grafische kaarten ansich gewoon moeilijk is.
gfxchiptweeter In Raja We Trust
Developing drivers for new architecture is one of the most complex and difficult engineering tasks for a GPU company...In fact this is one of the reasons why there are only so few GPU companies.
https://www.reddit.com/r/.../?st=j5zuw9kw&sh=9dc0a648

Ik wacht nog wel 2 weken dan zien we het.

Acties:
  • 0 Henk 'm!

Verwijderd

Wacht maar eerder een jaar voordat we het volledig gaan overzien. ;)

Acties:
  • +1 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 17:57
VEGA FE op LN2
Interessante info; https://cxzoid.blogspot.n...ns-of-vega-fe-on-ln2.html

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het fenomeen dat hij observeerde bij een veel lager gebruik bij extreme koeling zag ik ook in kleine mate met mijn 290X: als deze idle was en naar 100% verbruik ging, was het verbruik iets lager dan dat ie op de max ingestelde temperatuur was. Nu was het geen 100W bij mij zoals in dit extreme voorbeeld, maar wel een paar tientallen watt.

Acties:
  • 0 Henk 'm!

  • foppe-jan
  • Registratie: Februari 2004
  • Laatst online: 21-10-2024
Phuncz schreef op zondag 6 augustus 2017 @ 07:59:
Het fenomeen dat hij observeerde bij een veel lager gebruik bij extreme koeling zag ik ook in kleine mate met mijn 290X: als deze idle was en naar 100% verbruik ging, was het verbruik iets lager dan dat ie op de max ingestelde temperatuur was. Nu was het geen 100W bij mij zoals in dit extreme voorbeeld, maar wel een paar tientallen watt.
Zelfde bij de x299 chips (en VRMs zonder adequate heatsink & koeling).

The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years


Acties:
  • 0 Henk 'm!

  • CoronelHimself
  • Registratie: Mei 2006
  • Laatst online: 16:47

CoronelHimself

Division Brabant

Phuncz schreef op zondag 6 augustus 2017 @ 07:59:
Het fenomeen dat hij observeerde bij een veel lager gebruik bij extreme koeling zag ik ook in kleine mate met mijn 290X: als deze idle was en naar 100% verbruik ging, was het verbruik iets lager dan dat ie op de max ingestelde temperatuur was. Nu was het geen 100W bij mij zoals in dit extreme voorbeeld, maar wel een paar tientallen watt.
Dat "fenomeen" is toch gewoon dat materialen verschillende weerstanden hebben bij verschillende temperaturen. Bij de meeste materialen gaat de weerstand omlaag en daarmee ook de electrische verliezen -> verbruik. Of denk ik nu te simpel? :P

Steam - PTR83


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
CoronelHimself schreef op zondag 6 augustus 2017 @ 08:39:
[...]
Bij de meeste materialen gaat de weerstand omlaag en daarmee ook de electrische verliezen -> verbruik. Of denk ik nu te simpel? :P
Klopt en dat kan aanzienlijk schelen. Voor zover ik weet is de besparing d.m.v. actievekoeling altijd minder dan de energie die nodig was om te koelen en tot die besparing te komen.

Acties:
  • 0 Henk 'm!

  • dstyle_nl
  • Registratie: Juni 2002
  • Laatst online: 08-09 14:28
Ik herinner mij een gerucht dat de NDA op 8 augustus opgeheven zou worden voor de rx vega. Kan iemand dat bevestigen?

Warzone spelen met andere tweakers? https://discord.gg/EYT3SC9


Acties:
  • +1 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 19:02

Damic

Tijd voor Jasmijn thee

dstyle_nl schreef op zondag 6 augustus 2017 @ 11:14:
Ik herinner mij een gerucht dat de NDA op 8 augustus opgeheven zou worden voor de rx vega. Kan iemand dat bevestigen?
Sorry NDA :+

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

CoronelHimself schreef op zondag 6 augustus 2017 @ 08:39:
[...]


Dat "fenomeen" is toch gewoon dat materialen verschillende weerstanden hebben bij verschillende temperaturen. Bij de meeste materialen gaat de weerstand omlaag en daarmee ook de electrische verliezen -> verbruik. Of denk ik nu te simpel? :P
Dat is inderdaad niets bijzonders maar het is ook niet bij elk electronisch component even omvangrijk. Maar dat zijn mogelijk andere factoren die daarbij meespelen.

Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
En ik maar denken dat je moet voorkomen dat de rest van de kaart condens heeft, moet je niet alleen de gpu koelen ipv de hele kaart :+

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • Joppiesaus2
  • Registratie: Maart 2009
  • Laatst online: 26-08 17:57
dstyle_nl schreef op zondag 6 augustus 2017 @ 11:14:
Ik herinner mij een gerucht dat de NDA op 8 augustus opgeheven zou worden voor de rx vega. Kan iemand dat bevestigen?
Zijn er al reviewers bekend dan die een kaart in handen hebben maar wachten op de NDA?

Acties:
  • 0 Henk 'm!

Verwijderd

Uiterlijk begin volgende week krijgen we de eerste officiële benchmarks aangezien dan de kaart verkocht gaat worden, het zou me niet verbazen (afgaande op een gerucht en hoe AMD dit meestal doet met de laatste stukken hardware) als we binnen een paar dagen de eerste officiële benchmarks krijgen van reviewers.
D0gtag schreef op zondag 6 augustus 2017 @ 16:06:
[...]

En ik maar denken dat je moet voorkomen dat de rest van de kaart condens heeft, moet je niet alleen de gpu koelen ipv de hele kaart :+
Vocht op zichzelf is geen probleem, zolang er geen ionen in zitten of andere deeltjes (metaal) die de stroom geleiden. Water bevat ionen, dat geleidt stroom.

[ Voor 27% gewijzigd door Verwijderd op 06-08-2017 21:12 ]


Acties:
  • 0 Henk 'm!

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • MrVegeta
  • Registratie: September 2002
  • Laatst online: 11-09 20:46

MrVegeta

! Dolf is rechtvaardig !

R.I.P Vega for Gamers. AMD raakt ze wel kwijt. Maareh, krijgen we in Europa niet gewoon de packs? Of zijn we bang dat ook die allemaal worden opgekocht? Het wordt in ieder geval interessant rond de 15e.

//edit. Oh blijkbaar kunnen de Vegas zo goed dat minders ook gewoon de packs kopen...

[ Voor 18% gewijzigd door MrVegeta op 06-08-2017 22:05 ]

Geeft steekhoudelijke argumenten terwijl hij niet weet waar het over gaat. BlizzBoys, HD casts van StarCraft II gemaakt door Tweakers! Het begint, Zombiepocalyps


Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Dus de 580 doet nu ~23MH vega doet dan 3x meer.....
Fury X doet nu ~28MH, vega 2x meer....
VEGA FE doet ~33MH, vega RX doet 2x meer....

Don't believe the hyp, ik denk dat het verloop van hierboven ook aardig de prestaties vertegenwoordigd in mining. (kijkend hoe de fury x presteert tav de 580 in zowel mining als games)
De 1080ti doet ~32MH) En de data van buisbreedte is nog steeds valid (was niet voor vega geschreven :) ).

Ik heb getwijfeld of ik dit moest melden, want ik hoop dat de miners de kaarten kopen en dan erachter komen dat hij 345watt verstookt en rond de 30 zit, marktplaats komt dan vanzelf vol :*)

Even voor de duidelijkheid mensen, etherum is specifiek ontworpen om custom ontwerp miners te ontmoedigen. (de ASCII -waarom typ ik altijd ascii- ASIC miners, custom ontwerp, goedkope chips instaat alleen maar een enkele taak te doen: minen)
Volgens het ontwerp van ETH:(er staat nog meer, maar hier zelf na lezen, dit is de officiele wiki van ETH)
IO saturation: The algorithm should consume nearly the entire available memory access bandwidth (this is a strategy toward achieving ASIC resistance, the argument being that commodity RAM, especially in GPUs, is much closer to the theoretical optimum than commodity computing capacity)
The 1 GB DAG size was chosen in order to require a level of memory larger than the size at which most specialized memories and caches are built, but still small enough for ordinary computers to be able to mine with it.
Bus blijft het zelfde en is niet veel groter dan de fury of 1080ti, geheugen blijft 8GB en ik geloof nog steeds niet dat HBCC een impact zal hebben met mining.
VEGA FE heeft HBCC al en ook HMB2 en dito bus.
I call BS first.(dit gaat zo tegen mij gebruikt worden als vega 100MH/s doet :+ )

[ Voor 39% gewijzigd door D0gtag op 06-08-2017 22:38 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • DervishD
  • Registratie: Januari 2013
  • Laatst online: 06-08-2023
MrVegeta schreef op zondag 6 augustus 2017 @ 22:03:
R.I.P Vega for Gamers. AMD raakt ze wel kwijt.
De vraag als die 70MH/s waar is, is of AMD helemaal uit de gaming markt gedrukt wil worden door miners? Als er een herhaling komt van wat we met de 570 en 580 zagen dan zullen gamers massaal overstappen naar Nvidia. Ik denk ook niet dat ze dan nog in Navi geïnteresseerd zullen zijn.

Acties:
  • 0 Henk 'm!

  • Sandwalker
  • Registratie: Juli 2011
  • Laatst online: 20:43
Ik denk dat gamers het probleem niet zijn. Er kopen er genoeg een kaart omdat het prijspeil eventueel in relatie tot de prestatie ze aanspreekt. Het zit voor mijn gevoel meer aan de developerkant. Waarom zou je in je code nog moeite doen voor optimalisatie voor AMD als 99% van het marktaandeel nV is. Nou is het zo erg nog lang niet, maar als een generatie of wat niet in spellen gebruikt, maar alleen in mining rigs, gaat het effectief wel die kant op.
Dat verschil tussen Vega Rx en Vega FE in hashrate snap ik trouwens niet, maar daar heb ik me al eerder over verbaasd.

[ Voor 11% gewijzigd door Sandwalker op 06-08-2017 22:46 ]


Acties:
  • 0 Henk 'm!

  • The Chosen One
  • Registratie: Juni 2007
  • Nu online

The Chosen One

Zie signature!

Als Star Citizen of zo 1 van die games is zou het al genoeg zijn. :p

Mijn LEGALE dvd collectie; (altijd onder constructie) http://www.invelos.com/dvdcollection.aspx/The%20Chosen%20One - - - - - - - - - Quietum Grandis: https://nl.hardware.info/usersystemen/28203/quietum-grandis---ryzen-2700x-game-pc


Acties:
  • 0 Henk 'm!

  • DervishD
  • Registratie: Januari 2013
  • Laatst online: 06-08-2023
Sandwalker schreef op zondag 6 augustus 2017 @ 22:45:
Waarom zou je in je code nog moeite doen voor optimalisatie voor AMD als 99% van het marktaandeel nV is.
Dat is een gevolg van gamers die geen AMD kaarten kopen. Ik denk zelf dat als we met Vega een herhaling krijgen van wat we met de 570 en 580 zagen AMD niet veel keuze heeft dan in Navi de mining prestaties te knijpen (voor zover dat mogelijk is) als ze relevant willen blijven voor gamers.

Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Sandwalker schreef op zondag 6 augustus 2017 @ 22:45:
Ik denk dat gamers het probleem niet zijn. Er kopen er genoeg een kaart omdat het prijspeil eventueel in relatie tot de prestatie ze aanspreekt. Het zit voor mijn gevoel meer aan de developerkant. Waarom zou je in je code nog moeite doen voor optimalisatie voor AMD als 99% van het marktaandeel nV is. Nou is het zo erg nog lang niet, maar als een generatie of wat niet in spellen gebruikt, maar alleen in mining rigs, gaat het effectief wel die kant op.
Dat verschil tussen Vega Rx en Vega FE in hashrate snap ik trouwens niet, maar daar heb ik me al eerder over verbaasd.
nV mag dan marktleider zijn (met een grote marge), de toekomst van gaming ligt op het mobiel en console markt, als we de mobiel weglaten (want daar hebben zowel AMD als nV geen -noemenswaardig- aandeel) blijft console over. Alleen de switch heeft (tegra x1)nV gpu, maar is een ARM cpu en dus zijn game developers niet happig om daar op te ontwikkelen (Zie gebrek games switch, skyrim komt wel O-) )
Blijft xbox en ps4 over, nu nog met polaris (scorpio en ps4.5).
Optimalisatie vind dus al plaats en aangezien de polaris GCN4 is, zou het leuk zijn als vega GCN5 was geweest... :+

Steam games hoeven dus niet geoptimaliseerd te zijn natuurlijk, daar kan de maker kiezen wat hij wil doen en voor wie. Maar... altijd een maar, je hebt toch wel een game engine nodig en veel games die mooie graphics willen laten zien gebruiken een game engine van de grote (unreal, frostbite, cryengine,id-tech) deze zijn zeker wel geoptimaliseerd voor AMD, aangezien ze ook allemaal voorkomen op de consoles.

Maak je je eigen game engine ala rimworld of starbound (indy titels) dan maakt gpu optimalisatie geen drol uit aangezien je dat ook kan draaien op een intel HD xxx.

[ Voor 17% gewijzigd door D0gtag op 06-08-2017 23:32 ]

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
Phuncz schreef op zondag 6 augustus 2017 @ 07:59:
Het fenomeen dat hij observeerde bij een veel lager gebruik bij extreme koeling zag ik ook in kleine mate met mijn 290X: als deze idle was en naar 100% verbruik ging, was het verbruik iets lager dan dat ie op de max ingestelde temperatuur was. Nu was het geen 100W bij mij zoals in dit extreme voorbeeld, maar wel een paar tientallen watt.
dat is geen fenomeen, dat is gewoon natuurkunde. Hogere temperaturen betekent hogere weerstand.

Acties:
  • +4 Henk 'm!
Sandwalker schreef op zondag 6 augustus 2017 @ 22:45:
Ik denk dat gamers het probleem niet zijn. Er kopen er genoeg een kaart omdat het prijspeil eventueel in relatie tot de prestatie ze aanspreekt. Het zit voor mijn gevoel meer aan de developerkant. Waarom zou je in je code nog moeite doen voor optimalisatie voor AMD als 99% van het marktaandeel nV is. Nou is het zo erg nog lang niet, maar als een generatie of wat niet in spellen gebruikt, maar alleen in mining rigs, gaat het effectief wel die kant op.
Dat verschil tussen Vega Rx en Vega FE in hashrate snap ik trouwens niet, maar daar heb ik me al eerder over verbaasd.
Tja, behalve dat AMD, en niet Nvidia dus marktleider is als het gaat om gaming graphics.
Ja dat is zo. Zowel de PS4 als XBONE draaien op AMD, dus AMD is ruim marktleider. Verder zijn de revisies al helemaal interessant. De oorspronkelijke consoles draaide effectief op 78xx GPU's, PS4 Pro draait op wat neerkomt op een downclockte RX480, terwijl de Xbox One X die in november uitkomt over een "super" Polaris GPU zal beschikken met 44, waarvan 40 geactiveerde CU's i.p.v 32 voor de RX480/580.

Waarom deze chip niet beschikbaar is voor PC kaarten, al sla je me dood. Zou een mooie GTX1070 tegenhanger kunnen zijn, die er allang had kunnen zijn...

Vervolgens draaien beide consoles op low level API's. Sony was hier veel sneller in, waardoor PS3/PS4 exclusieve titels soms zo uitzonderlijk mooi waren. In het geval van de XBONE is DX12 ondersteunt en komen die titels nu langzaam binnenrollen. DICE was weer eens eerst met Star Wars Battlefront. Naast dat beide consoles nu low level API's ondersteunen, wordt elke game dus al in enige mate geoptimaliseerd voor AMD. Eerst was dat Pitcairn, nu gaat dat Polaris worden. Vervolgens bestaat er niet zoiets als een optimalisatiedriver voor een low level API. Je kan geen driver optimalisaties doorvoeren, zo simpel is het.

Het grote verschil met de PC is dat PC gaming altijd hing op een CPU core, terwijl consoles al jaren afhankelijk zijn van multithreading. De vraag is onderhand wanneer developers en publishers (vanuit kosten oogpunt), DX11 als een baksteen laten vallen omdat een game naar de PC porten simpeler is via DX12, als je die toch al ontwikkeld voor de XBONE, en overzet naar de PS4. Het is moeilijker coderen voor een low level API, omdat je als developer zelf de optimalisaties moet verrichten, maar het gebeurd al jaren voor console games.

Voor Nvidia is deze briljante AMD strategie een nachtmerrie. Pascal/Maxwell kunnen gewoon niet goed omgaan met low level API's, en Nvidia moet het juist hebben van dure driverondersteuning, die AMD dus niet kan betalen, om AMD voor te blijven. Zodra de overslag naar DX12 plaatsvind, blaast AMD, Nvidia uit het water in de meeste titels. Nvidia verliest dan de mogelijkheid om te optimaliseren, en AMD wint omdat haar hardware veel beter geschikt is voor DX12, en zeer vergelijkbaar is met wat in de consoles zit. Niet zozeer Vega, maar wel Polaris.

Entering Gameworks, Nvidia haar sabotageprogramma om de prestaties van AMD kaarten te verminderen, en om kaarten te blijven verkopen. Dat remt de omslag ook omdat de PC markt 70+ vs 30- is, en er enige rekening gehouden moet worden met al die Nvidia gebruikers. Blijft staan dat het inefficiënt gebruik van computerhardware is om een low level API game te porten naar de PC, en de low level API ondersteuning te vervangen voor het traditionele model van driver optimalisaties door de GPU vendor, zeker als beide consoles al op Polaris draaien waardoor je ook weinig speciaals hoeft te doen om een game uitstekend op een RX570/580 te laten draaien. Dat gaat dus een keertje veranderen, en dat zal niet lang meer duren. Meer cores bieden met Ryzen is hier ook een onderdeel van, omdat consoles zeer afhankelijk zijn van meerdere cores voor de rendercalls van de GPU, maar zeker niet de enige motivatie om Intel zo de loef af te steken.

[ Voor 5% gewijzigd door DaniëlWW2 op 07-08-2017 01:03 ]

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Sandwalker
  • Registratie: Juli 2011
  • Laatst online: 20:43
@DaniëlWW2 AMD maakt goede kaarten - heb er zelf ook één, maar mijn betoog was dat als miners alles opkopen er voor PC ports of nog beter PC spellen geen AMD focus overblijft. Jouw argument: eenvoudiger te porten in DX12 is wel valide en ook de basis in consoles zal niet wegvallen. Al is dat geen geldmachine. I stand corrected. Bedankt voor de toelichting.

Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
70MH/s :') nog erger dan verwacht.

Tis dat je niet kan pre-orderen maar wordt dus een clickwar als ze binnen komen (als ze daadwerkelijk ooit op voorraad komen..)

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:00
DaniëlWW2 schreef op maandag 7 augustus 2017 @ 00:53:

Het grote verschil met de PC is dat PC gaming altijd hing op een CPU core, terwijl consoles al jaren afhankelijk zijn van multithreading. De vraag is onderhand wanneer developers en publishers (vanuit kosten oogpunt), DX11 als een baksteen laten vallen omdat een game naar de PC porten simpeler is via DX12, als je die toch al ontwikkeld voor de XBONE, en overzet naar de PS4. Het is moeilijker coderen voor een low level API, omdat je als developer zelf de optimalisaties moet verrichten, maar het gebeurd al jaren voor console games.
Dit zal waarschijnlijk van het marktaandeel afhangen van Windows 7, zolang dit nog significant is zie ik ze DX11 nog niet volledig droppen voor DX12, de potentiële klanten die je uitsluit is gewoon te groot. Zie bijv. Blizzard die pas vanaf oktober Windows XP Support gaat droppen voor haar games. Tot nu was het zelfs het marktaandeel van dat OS nog te groot om die stap te nemen.

Verder ben ik er niet direct van overtuigd dat optimaliseren door de developers wel zo goed is voor de consument. Optimalisaties van de console games vind ik nu niet direct je van het, of wel beknibbeld op GFX kwaliteit en redelijke FPS, of wel lage FPS en redelijke GFX, nooit beide top. Ik heb het gevoel dat developers vooral vanwege de tijd die gaat zitten in optimalisatie, en dus geld kost veel eerder "het wel ok" vinden, waardoor ze lang niet alles uit de hardware willen halen als het maar enigzins acceptabel draait. Op de PC zie je dan dat Nvidia en AMD nog een stukje verder gaan via de drivers. Ik ben echt zeer benieuwd als dat straks niet meer kan, of dan de developers wel tot "het gaatje" willen gaan qua optimalisaties of dat alle games gaan lijken op brakke console ports qua performance.

Acties:
  • 0 Henk 'm!
Dennism schreef op maandag 7 augustus 2017 @ 09:26:
Dit zal waarschijnlijk van het marktaandeel afhangen van Windows 7, zolang dit nog significant is zie ik ze DX11 nog niet volledig droppen voor DX12, de potentiële klanten die je uitsluit is gewoon te groot. Zie bijv. Blizzard die pas vanaf oktober Windows XP Support gaat droppen voor haar games. Tot nu was het zelfs het marktaandeel van dat OS nog te groot om die stap te nemen.
Maar dat is geen argument om DX12 niet te ondersteunen. Dat is een argument om DX11 te blijven ondersteunen, naast DX12. Verder ook voor vooral voor minder veeleisende games. Voor een game zoals de volgende BF, of misschien zelfs Star Wars Battlefront 2 zie ik DICE DX11 al als een baksteen laten vallen. Die game zal je toch niet kunnen spelen met een DX11 only GPU, dus dan is het logisch om DX12 only te gaan. Dat is ook niet zonder precedent. BF3 was DX10 en 11 only. Had je Windows XP, dan pech gehad. 32bit OS wordt nu ook al systematisch gedumpt, DX10 is ook al een dode standaard. De volgende stap is DX11 dumpen.

Dan nog Vulkan. Zou ik graag zien, maar gaat denk ik niet gebeuren dat dit de standaard gaat zijn. :/
Verder ben ik er niet direct van overtuigd dat optimaliseren door de developers wel zo goed is voor de consument. Optimalisaties van de console games vind ik nu niet direct je van het, of wel beknibbeld op GFX kwaliteit en redelijke FPS, of wel lage FPS en redelijke GFX, nooit beide top. Ik heb het gevoel dat developers vooral vanwege de tijd die gaat zitten in optimalisatie, en dus geld kost veel eerder "het wel ok" vinden, waardoor ze lang niet alles uit de hardware willen halen als het maar enigzins acceptabel draait. Op de PC zie je dan dat Nvidia en AMD nog een stukje verder gaan via de drivers. Ik ben echt zeer benieuwd als dat straks niet meer kan, of dan de developers wel tot "het gaatje" willen gaan qua optimalisaties of dat alle games gaan lijken op brakke console ports qua performance.
Je beseft je dat het hier gaat om een zeer trage Jaguar CPU, en een 78xx GPU. Nee, optimalisatie bij consoles is zeker niet slecht. De meeste games zouden daar al helemaal verschrikkelijk op draaien. ;)

Met de nieuwe ronde van consoles gaat het helaas nog wel een jaar duren voordat er gebruik van gemaakt zal worden. Liever had ik aparte consoles gezien, maar deze aanpak heeft ook voordelen. Beide consoles zitten vanwege comptabiliteitsredenen nu vast aan x86 CPU's met veel cores, en een GPU met low level API acces. Tweemaal AMD dus. Het zal geen vetpot zijn, maar wel een gestage omzet. Het is uiteindelijk een soort OEM contract, en ook geen kleintje. Ook is het een breekijzer voor de PC markt voor AMD.
Sandwalker schreef op maandag 7 augustus 2017 @ 06:54:
@DaniëlWW2 AMD maakt goede kaarten - heb er zelf ook één, maar mijn betoog was dat als miners alles opkopen er voor PC ports of nog beter PC spellen geen AMD focus overblijft. Jouw argument: eenvoudiger te porten in DX12 is wel valide en ook de basis in consoles zal niet wegvallen. Al is dat geen geldmachine. I stand corrected. Bedankt voor de toelichting.
Die miners rotten hopelijk wel eens op, en zijn op de lange termijn eigenlijk een non factor. Af en toe kopen ze een kwartaal lang alle kaarten op, en maken alle gamers boos. Qua timing zaten ze nu vrij aardig. Het is zomer, minder kaarten verkocht en ze begonnen pas echt met opkopen waren na de releaseperiode van april/begin mei. Als dit gebeurd in het najaar dan heb je echt een probleem. Vanaf eind september moeten zowel Polaris 20 als Vega 10 kaarten normaal beschikbaar zijn voor het feestseizoen. Qua Polaris 20 zit het helemaal goed qua prestaties in recente games, Vega 10 moeten we nog zien.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • D0gtag
  • Registratie: December 2009
  • Niet online
Dennism schreef op maandag 7 augustus 2017 @ 09:26:
[...]


Dit zal waarschijnlijk van het marktaandeel afhangen van Windows 7, zolang dit nog significant is zie ik ze DX11 nog niet volledig droppen voor DX12, de potentiële klanten die je uitsluit is gewoon te groot. Zie bijv. Blizzard die pas vanaf oktober Windows XP Support gaat droppen voor haar games. Tot nu was het zelfs het marktaandeel van dat OS nog te groot om die stap te nemen.

Verder ben ik er niet direct van overtuigd dat optimaliseren door de developers wel zo goed is voor de consument. Optimalisaties van de console games vind ik nu niet direct je van het, of wel beknibbeld op GFX kwaliteit en redelijke FPS, of wel lage FPS en redelijke GFX, nooit beide top. Ik heb het gevoel dat developers vooral vanwege de tijd die gaat zitten in optimalisatie, en dus geld kost veel eerder "het wel ok" vinden, waardoor ze lang niet alles uit de hardware willen halen als het maar enigzins acceptabel draait. Op de PC zie je dan dat Nvidia en AMD nog een stukje verder gaan via de drivers. Ik ben echt zeer benieuwd als dat straks niet meer kan, of dan de developers wel tot "het gaatje" willen gaan qua optimalisaties of dat alle games gaan lijken op brakke console ports qua performance.
Dit dus, de reden waarom dx11 titels nog in de maak zijn, developers kijken de kat uit de boom en het grootste voordeel van dx12 is dat je betere cpu utilisatie hebt, precies dat gene wat je bij een console niet nodig hebt want cpu utilisatie is meestal al max (zwakke cpu in verhouding tot gpu). Steamsurvey: 50% win 10 vs 32% win 7.
DaniëlWW2 schreef op maandag 7 augustus 2017 @ 00:53:
[...]
Voor Nvidia is deze briljante AMD strategie een nachtmerrie. Pascal/Maxwell kunnen gewoon niet goed omgaan met low level API's, en Nvidia moet het juist hebben van dure driverondersteuning, die AMD dus niet kan betalen, om AMD voor te blijven. Zodra de overslag naar DX12 plaatsvind, blaast AMD, Nvidia uit het water in de meeste titels. Nvidia verliest dan de mogelijkheid om te optimaliseren, en AMD wint omdat haar hardware veel beter geschikt is voor DX12, en zeer vergelijkbaar is met wat in de consoles zit. Niet zozeer Vega, maar wel Polaris.
Welke briljante strategie?
Jij gelooft serieus dat voor dx12 of vulkan geen drivers nodig zijn (althans minder relevant zijn) en dat dus de chipset makers en hun driver ontwikkeling niet van belang is bij dx12 of vulkan?
Think again.
Going into this I was not expecting Vulkan and DX12 overhead to be meaningfully different, so having run the GTX 1060 6GB first, it definitely caught me by surprise that Vulkan’s overhead was so much lower. The net result is that using the Vulkan API, the GTX 1060 can sustain 26.4M draw calls per second, 32% more than DirectX 12. And to be sure, this is consistent across multiple runs.
AMD’s fastest GCN4 card and card most comparable to the GTX 1060 is the Radeon RX 480 8GB. Running the API Overhead test on this card produces something notably different from the GTX 1060. Rather than finding Vulkan well in the lead, we get not quite the inverse: DX12 is holding a small lead at 26M draw calls versus 24.9M draw calls.

The two obvious differences here are the GPU and driver – in other words, the two things that matter the most – and is why cross-GPU results are not directly comparable.
Overall the latest 3DMark API Overhead benchmark proved both reassuring, and more interesting than I was expecting to find. At a high level, neither Vulkan nor DirectX 12 hold a consistent lead with regards to API overhead, which indicates that both AMD and NVIDIA have done a good job optimizing their drivers and runtimes for this API. And more to the point, no matter the API used, it’s still vastly more efficient than DirectX 11, to the point where the draw call throughput is significantly greater than anything a developer could hope to use in the real world.
De focus verlegt met vulkan en dx12 meer naar developers, hoe zij het meeste uit de gpu halen, maar de chipbakkers moeten nog steeds goede drivers maken om de game developers het maximale uit de gpu te kunnen laten halen.

En waar zie jij dat dx12 nV uit het water blaast? Hier laat het toch iets anders zien,
Of hier
maar AOTS geeft toch een gelijk beeld tussen een 1060 en 580 frame tijden zijn ook vergelijkbaar.

Ter vergelijking een 480 vs 1060 rise of the tombraider dx11 vs dx12
Enkele titel gepakt die zowel dx11 als 12 is om appels met appels te vergelijken. Want sommige game titels zijn meer AMD of nV.
Dx11 = 54nV om 47AMD
Dx12= 52nV om 45AMD

Met een 580 zal het eerder 54 om 54 zijn maar kon even niet zo snel benchmarks vinden, maar het mag duidelijk zijn dat de 580 sneller is dan de 480 maar het is gewoon een refresh.

Dus waar blaast AMD nV uit het water met dx12?
Met vulkan wel, totdat nV drivers gaat optimaliseren voor vulkan maar ze hebben weinig motivatie om dat te doen . Misschien wel op het mobile platform als tegra aangezien die meer vulkan titels krijgen (nintendo switch ondersteund vulkan).
Als vulkan mainstream word in professionele markt (workstations) dan zien we een omkeer bij nV.
Vooralsnog gebruikt mijn cad software geen vulkan maar opengl maar aangezien vulkan een opvolger is van opengl verwacht ik wel dat er nog ondersteuning komt. (vooralsnog heeft nV sterke kaarten met CUDA in de professionele markt).

X470+2700x@4.2 DDR4@3200 nV2080ti Founders Edition 2x M2.SSD+ 2xHDD raid 0, α7 +Konica AR, 135/2.5 135/3.2 135/3.5 100/2.8 85/1.8 55/3.5-macro 57/1.2 50/1.4 50/1.7 52/1.8 35/3.5 35/2 28/1.8UC 24/2.8 Jupiter & Industar, Summicron R-2 50/2 Canon (n)FD's


Acties:
  • +1 Henk 'm!

  • Toettoetdaan
  • Registratie: Juni 2006
  • Laatst online: 23-08 15:00
MrCharming schreef op vrijdag 4 augustus 2017 @ 22:46:
Een kerel op reddit zegt dat de hashrate nooit boven de 70, laat staan 100 uit kan komen.

https://www.reddit.com/r/...nlikely_to_exceed_65_mhs/


[...]


En wat ik er van begrijp is dat een theoretisch maximum, dus dat wil niet zeggen dat zoiets in de praktijk gehaald gaat worden. Ik dacht overigens dat Samsung de HBM2 voor Vega maakt? Dus misschien kletst die ook wel uit z'n nek. Ik weet niet meer wat gerucht en feit is ;)
Dit is dus interesant, als het er dus wel bovenuit komt, dan zou AMD indrukwekkende compressie hebben op zijn memory controller. (delta color compression werkt bijvoorbeeld niet op deze data)

[ Voor 3% gewijzigd door Toettoetdaan op 07-08-2017 11:28 ]


Acties:
  • 0 Henk 'm!
ArcticWolf schreef op maandag 7 augustus 2017 @ 09:21:
70MH/s :') nog erger dan verwacht.

Tis dat je niet kan pre-orderen maar wordt dus een clickwar als ze binnen komen (als ze daadwerkelijk ooit op voorraad komen..)
Ze moeten er gewoon eigenlijk maar 1-2 max per klant verkopen per adres.
Want een nieuwe account is zo aangemaakt. Maar nieuwe woonadressen wat lastiger.

Ik ga zelf gewoon meteen op de dag zelf een paar orders uit zetten bij verschillende winkels hopen dat ik er 1 te pakken kan krijgen. Wil graag een Limited air of H2o voor de verzameling hebben.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41
Als je met een AMD kaart van DX11 naar DX12 gaat dan ga je er 9 van de 10 keer op vooruit tenzij het spel duidelijk een Nvidia beestje is (Rise of the Tombraider/Quantum Break en slechte ports zoals Gears of War). AMD wordt gelimiteerd door DX11 omdat ze een hardware schedular hebben, hier kunnen ze heel moeilijke multithreading doen met DX11. Nvidia heeft sinds Kepler geen hardware schedular meer, dit zorgt ervoor dat kaarten zuiniger zijn maar ook dat ze de driver veel beter multithreaded kunnen maken. Opdelen van de workload geeft wel iets meer overhead per thread maar zorgt er wel voor dat ze uiteindelijk meer draw calls kunnen maken.

Waar AMD Nvidia met DX12 het water uit blaast was met name met Kepler en Maxwell, met Pascal heeft Nvidia een goede stap in de juiste richting genomen (met name met Asynchronous Compute loads, middels preemption).
Nvidia heeft ook duidelijk stappen gezet met hun DX12 driver, de verschillen waren eerder groter (wordt ook toegelicht in de volgende review). Zover ik weet de meest recente review met de RX580 vs GTX1060.
Afbeeldingslocatie: https://techspot-static-xjzaqowzxaoif5.stackpathdns.com/articles-info/1393/bench/Total1.png
https://www.techspot.com/...force-gtx-1060/page8.html

Helaas alleen avg en minimum.


Met een goede implementatie van een low level API, zie het al te vaak gebruikte voorbeeld van Doom dan blaast AMD Nvidia inderdaad het water uit (stock RX480 is 10-15% sneller dan een stock GTX1060) waar ze met OpenGL is trager zijn.


Sowieso stellen Kepler kaarten op de GTX780Ti na niks meer voor waar je met de HD7xxx van AMD nog prima mee kan komen.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:00
DaniëlWW2 schreef op maandag 7 augustus 2017 @ 11:12:
[...]

Maar dat is geen argument om DX12 niet te ondersteunen. Dat is een argument om DX11 te blijven ondersteunen, naast DX12. Verder ook voor vooral voor minder veeleisende games. Voor een game zoals de volgende BF, of misschien zelfs Star Wars Battlefront 2 zie ik DICE DX11 al als een baksteen laten vallen. Die game zal je toch niet kunnen spelen met een DX11 only GPU, dus dan is het logisch om DX12 only te gaan. Dat is ook niet zonder precedent. BF3 was DX10 en 11 only. Had je Windows XP, dan pech gehad. 32bit OS wordt nu ook al systematisch gedumpt, DX10 is ook al een dode standaard. De volgende stap is DX11 dumpen.

Dan nog Vulkan. Zou ik graag zien, maar gaat denk ik niet gebeuren dat dit de standaard gaat zijn. :/

[...]
Uiteraard, maar hoe goed is DX12 support wanneer er niet native voor ontwikkeld is maar het er "bij op geknutseld is", ik heb volgens mij nog niet een game gezien waar ik echt een wow! effect had met DX12 in de zin van dit loopt zoveel beter, sure in bijv. Total War: Warhammer was de FPS bijv wat beter op een 480 t.o.v. DX11.
Je beseft je dat het hier gaat om een zeer trage Jaguar CPU, en een 78xx GPU. Nee, optimalisatie bij consoles is zeker niet slecht. De meeste games zouden daar al helemaal verschrikkelijk op draaien. ;)

Met de nieuwe ronde van consoles gaat het helaas nog wel een jaar duren voordat er gebruik van gemaakt zal worden. Liever had ik aparte consoles gezien, maar deze aanpak heeft ook voordelen. Beide consoles zitten vanwege comptabiliteitsredenen nu vast aan x86 CPU's met veel cores, en een GPU met low level API acces. Tweemaal AMD dus. Het zal geen vetpot zijn, maar wel een gestage omzet. Het is uiteindelijk een soort OEM contract, en ook geen kleintje. Ook is het een breekijzer voor de PC markt voor AMD.
Uiteraard, maar ik vraag me daarom dan ook af hoeveel die "optimalisaties" doorwerken in PC games en dan met name voor alle PC gamers. Ik ben niet het fanboy type, en gebruik hardware van alle vendoren (AMD,Intel, Nvidia). Ik wil dus ook graag zien dat developers optimaliseren voor alle hardware voor zover ze kunnen om overal het uiterste uit te halen straks met DX12. Dit zie ik ze echter vanwege hun bottomline niet doen, want kost veel geld. Dit is de hele reden dat ik er niet zeker van ben dat we straks daadwerkelijk over de gehele linie beter optimaliseerde games krijgen. Ik voorzie helaas eerder dev's die er totaal met de pet naar gaan gooien en games gaan releasen als het ook maar enigzins acceptabel draait en helemaal geen moeite willen gaan doen om te zorgen dat hun game optimaal presteerd met alle hardware (dit zie je nu ook al bij sommige dev's, als je de launch kwaliteit van sommige games ziet). Als AMD en Nvidia dan niet of minder via drivers kunnen optimaliseren voor hun specifieke architecturen zie ik niet direct dat DX12 een voordeel gaat zijn voor alle gamers. Tenzij de houding van sommige dev's totaal veranderd.

Al met al zie ik zaken als DX12 / Vulkan zeker als enorm voordeel, en uiteraard ligt de toekomst daar, anderzijds ben ik wel enorm bang voor slackende dev's

Acties:
  • 0 Henk 'm!
Sp3ci3s8472 schreef op maandag 7 augustus 2017 @ 12:22:


Sowieso stellen Kepler kaarten op de GTX780Ti na niks meer voor waar je met de HD7xxx van AMD nog prima mee kan komen.
Ja dat valt mij ook keer op keer weer op hoe goed de GCN 1.0 kaarten het nog doen. Waar kepler toen kon concurreren of zelfs sneller was het het nu helemaal andersom en verslaat een R9 290 de 780 Ti met gemak laat staan de X. Zelfs de 7970 GHz komt een eind vs de 780 non Ti.

In het verleden de X1900 vs 7900 GTX is ook heel extreem. In genoeg gevallen is de X1900 2x zo snel in modernere games.

Ik ben benieuwd hoe het over 2 jaar met de huidige kaarten is. Echter maakt dat niet uit. Want nVidia heeft het gewoon goed voor elkaar en genoeg mensen upgraden en blijven bij nVidia. Lijkt er steeds meer op dat future proof niet zo belangrijk meer is. Als de prestatie's 1-2 jaar goed zijn is het prima.

[ Voor 6% gewijzigd door Astennu op 07-08-2017 12:36 ]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 20:38

flessuh

Set sail for fail!

Sp3ci3s8472 schreef op maandag 7 augustus 2017 @ 12:22:



Sowieso stellen Kepler kaarten op de GTX780Ti na niks meer voor waar je met de HD7xxx van AMD nog prima mee kan komen.
juist om deze reden ben ik over het algemeen tevreden met mijn huidige AMD kaart, en zal denk ik ook Vega over tijd wel praktisch blijven. Kijk naar de dx12 functies die ze ondersteunen, dat zal er zeker mee te maken hebben dat de kaarten langer mee kunnen komen wat performance betreft zoals de oudere generaties eerder

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • Joppiesaus2
  • Registratie: Maart 2009
  • Laatst online: 26-08 17:57
MrVegeta schreef op zondag 6 augustus 2017 @ 22:03:
R.I.P Vega for Gamers. AMD raakt ze wel kwijt. Maareh, krijgen we in Europa niet gewoon de packs? Of zijn we bang dat ook die allemaal worden opgekocht? Het wordt in ieder geval interessant rond de 15e.

//edit. Oh blijkbaar kunnen de Vegas zo goed dat minders ook gewoon de packs kopen...
Vanuit business standpunt begrijp ik de hele discussie eigenlijk helemaal niet. Als die Vega's echt zo top zijn voor mining waarom zet AMD ze niet direct zelf voor 2x de prijs in de markt (neem aan dat retailers nu kans hebben om veel snelheid en marge te draaien)? M.a.w., gezien de grondtoffen beperkt lijken waardoor er nooit voldoende Vega's voor de vraag klaar liggen (gamers+miners), waarom niet de prijs omhoog en volledig de sales focus op deze miners? Lijkt me in ieder geval gouden business wat AMD goed kan gebruiken gezien de vorige jaarcijfers...

Acties:
  • 0 Henk 'm!

  • Stravincy
  • Registratie: April 2010
  • Niet online
Joppiesaus2 schreef op maandag 7 augustus 2017 @ 12:54:
[...]


Vanuit business standpunt begrijp ik de hele discussie eigenlijk helemaal niet. Als die Vega's echt zo top zijn voor mining waarom zet AMD ze niet direct zelf voor 2x de prijs in de markt (neem aan dat retailers nu kans hebben om veel snelheid en marge te draaien)? M.a.w., gezien de grondtoffen beperkt lijken waardoor er nooit voldoende Vega's voor de vraag klaar liggen (gamers+miners), waarom niet de prijs omhoog en volledig de sales focus op deze miners? Lijkt me in ieder geval gouden business wat AMD goed kan gebruiken gezien de vorige jaarcijfers...
Tja. Goede business, maar heel veel boze klanten als ze dat doen denk ik zomaar.
Dat lijkt me ook niet wenselijk als bedrijf.

Acties:
  • 0 Henk 'm!

  • MrVegeta
  • Registratie: September 2002
  • Laatst online: 11-09 20:46

MrVegeta

! Dolf is rechtvaardig !

En er is een kans dat de boel instort waardoor AMD al hun gamers kwijt is.

Geeft steekhoudelijke argumenten terwijl hij niet weet waar het over gaat. BlizzBoys, HD casts van StarCraft II gemaakt door Tweakers! Het begint, Zombiepocalyps


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 13-09 21:12

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Tja, als Vega net zo'n drama wordt als Polaris qua beschikbaarheid dan denk ik dat ik ook overstag ga en naar NVidia stap.

Ik wil enorm graag een AMD only systeem (voornamelijk uit sympathie voor het bedrijf) maar ik wil nog grager überhaupt een videokaart.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Joppiesaus2
  • Registratie: Maart 2009
  • Laatst online: 26-08 17:57
Ik lees vooral 3 boze reacties vanuit een 'gamer klant' optiek. Maar geeft nog steeds niet echt een antwoord. Er is sowieso tekort (ga ik voor het gemak even vanuit), Er is een sub-doelgroep die bereid is enorme bedragen te betalen voor je product. De laatste jaarcijfers waren niet al te best. Waarom niet volle bak focussen op de miners?

Loyaliteit van gamers zal allemaal wel, maar is echt de verwachting dat bij voldoende voorraad gamers AMD links laten liggen als de prijs/kwaliteit beter is dan die van de concurrent?

Wellicht denk ik niet helemaal helder. Zal wel. Maar een goed argument waarom ze de miner markt als een 2e rangs klant zouden moeten schuwen ontgaat me volledig :-)

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 13-09 21:12

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Joppiesaus2 schreef op maandag 7 augustus 2017 @ 13:04:
Ik lees vooral 3 boze reacties vanuit een 'gamer klant' optiek. Maar geeft nog steeds niet echt een antwoord. Er is sowieso tekort (ga ik voor het gemak even vanuit), Er is een sub-doelgroep die bereid is enorme bedragen te betalen voor je product. De laatste jaarcijfers waren niet al te best. Waarom niet volle bak focussen op de miners?

Loyaliteit van gamers zal allemaal wel, maar is echt de verwachting dat bij voldoende voorraad gamers AMD links laten liggen als de prijs/kwaliteit beter is dan die van de concurrent?

Wellicht denk ik niet helemaal helder. Zal wel. Maar een goed argument waarom ze de miner markt als een 2e rangs klant zouden moeten schuwen ontgaat me volledig :-)
Omdat de mining rage tijdelijk is.

Op de lange termijn heb je de trouwe gamers nodig omdat vroeg of laat ETH POS bereikt wordt en alle mining rigs obsolete worden.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • +7 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 17:57
13 klanten in EU krijgen VEGA als eerste vanuit AMD.
2 in UK, 3 DE, namen gokken kun je zelf. Geen in Benelux.
Andere landen boeit jullie niet.

Ik zie enkel de waterkoel versie staan en de zwarte exchaust. Dus die andere is echt limited :)

[ Voor 29% gewijzigd door The Source op 07-08-2017 13:08 ]


Acties:
  • 0 Henk 'm!

  • Joppiesaus2
  • Registratie: Maart 2009
  • Laatst online: 26-08 17:57
Blaat schreef op maandag 7 augustus 2017 @ 13:06:
[...]


Omdat de mining rage tijdelijk is.

Op de lange termijn heb je de trouwe gamers nodig omdat vroeg of laat ETH POS bereikt wordt en alle mining rigs obsolete worden.
Mining rage tijdelijk...waar blijkt dat uit? En waarom is er wel enige indicatie dat pc gaming in zijn huidige vorm een langer bestaansrecht heeft? Dat is toch gewoon niet te zeggen?

Acties:
  • 0 Henk 'm!
Sp3ci3s8472 schreef op maandag 7 augustus 2017 @ 12:22:
Als je met een AMD kaart van DX11 naar DX12 gaat dan ga je er 9 van de 10 keer op vooruit tenzij het spel duidelijk een Nvidia beestje is (Rise of the Tombraider/Quantum Break en slechte ports zoals Gears of War). AMD wordt gelimiteerd door DX11 omdat ze een hardware schedular hebben, hier kunnen ze heel moeilijke multithreading doen met DX11. Nvidia heeft sinds Kepler geen hardware schedular meer, dit zorgt ervoor dat kaarten zuiniger zijn maar ook dat ze de driver veel beter multithreaded kunnen maken. Opdelen van de workload geeft wel iets meer overhead per thread maar zorgt er wel voor dat ze uiteindelijk meer draw calls kunnen maken.

Waar AMD Nvidia met DX12 het water uit blaast was met name met Kepler en Maxwell, met Pascal heeft Nvidia een goede stap in de juiste richting genomen (met name met Asynchronous Compute loads, middels preemption).
Nvidia heeft ook duidelijk stappen gezet met hun DX12 driver, de verschillen waren eerder groter (wordt ook toegelicht in de volgende review). Zover ik weet de meest recente review met de RX580 vs GTX1060.
[afbeelding]
https://www.techspot.com/...force-gtx-1060/page8.html

Helaas alleen avg en minimum.
Je beseft je dat bijna al die games waar Nvidia wint, Gameworks titels zijn hé? :P

Oudere games zoals GTA 5 zijn ook in het voordeel van Nvidia, terwijl recente DX11 titels al naar de RX580 gaan. Verder zijn de resultaten voor de neutrale DX12 titels wel duidelijk. Rond de 10% extra merk je gewoon. Alles bij elkaar is de RX580 in de regel al sneller dan de GTX1060, in DX12 helemaal. Heb je echt een goed geoptimaliseerde game, dan is het helemaal geen discussie meer.

Qua DX12, het zal onderhand toch moeten komen. Het is meer werk voor de developers, maar die lopen allang tegen de limieten van de consoles, met name de XBONE en singlethread van de PC aan. Sony is low level API only met de PS4, terwijl de XBONE een uitgeklede DX11 en een DX12 implementatie heeft. Het duurde even voordat DX12 games verschenen, maar ze komen er nu wel. Het is een kwestie van de developer cyclus volgen. Het duurt gewoon een paar jaar voordat een nieuwe game er is en de beslissing om over te stappen naar een nieuwe API is ook geen gemakkelijke. Het gebeurd alleen wel als het niet anders kan, en dat punt zal voor de meeste consolegames wel bereikt zijn nu.
Sowieso stellen Kepler kaarten op de GTX780Ti na niks meer voor waar je met de HD7xxx van AMD nog prima mee kan komen.
[/small]
Ik denk dat dit ook laat zien hoe belangrijk drivers eigenlijk zijn voor de prestaties van een kaart, en hoe sterk Nvidia hier eigenlijk in is, voor hun huidige generatie. Nieuwe achitectuur, dan laten ze de oude als een baksteen vallen en storten de prestaties bij nieuwe games in.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 13-09 21:12

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

The Source schreef op maandag 7 augustus 2017 @ 13:07:
13 klanten in EU krijgen VEGA als eerste.
2 in UK, 3 DE, namen gokken kun je zelf. Geen in Benelux.
Andere landen boeit jullie niet.
Ok dus tenzij we naar webwinkels kijken die aan grijze import doen (SiComputers :P ) hoeven we geen stock in NL te verwachten. Dat wordt de grote Duitse webshops in de gaten houden.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!
The Source schreef op maandag 7 augustus 2017 @ 13:07:
13 klanten in EU krijgen VEGA als eerste vanuit AMD.
2 in UK, 3 DE, namen gokken kun je zelf. Geen in Benelux.
Andere landen boeit jullie niet.

Ik zie enkel de waterkoel versie staan en de zwarte exchaust. Dus die andere is echt limited :)
Hebben we tenminste niet de mining nonsense bij de eerste ronde. :+

Never argue with an idiot. He will drag you down to his own level and beat you with experience.


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 17:57
Het is gealloceerd naar resellers, niet naar disty.
Dus verwacht op korte termijn geen grijze import.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Alhoewel ik geen "mining kenner" ben, ben ik er nog niet zo van overtuigd dat de mining rage tijdelijk is.

Mining is pas net begonnen en met 7miljard mensen op aarde lijkt me dat er nog een hoop nieuwe miners zouden kunnen komen. Dit alternatieve geldsysteem staat nog maar in de kinderschoenen.

Begrijp ook dat er een aantal nieuwe coins zijn die juist zo ontworpen zijn dat ze niet aantrekkelijk zijn voor de ASIC miners en dus juist leunen op de standaard GPU's.

Ben bang dat de ellende helaas nog lang niet voorbij is.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 13-09 21:12

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Joppiesaus2 schreef op maandag 7 augustus 2017 @ 13:08:
[...]


Mining rage tijdelijk...waar blijkt dat uit? En waarom is er wel enige indicatie dat pc gaming in zijn huidige vorm een langer bestaansrecht heeft? Dat is toch gewoon niet te zeggen?
Dat de slechte beschikbaarheid van de huidige AMD kaarten volledig te wijten valt aan Ethereum en die gaat volgend jaar naar POS status, waardoor er niet meer gemined kan worden.

Laat ik het dan zo zeggen, wil je als noodleidend bedrijf jezelf echt afhankelijk maken van een markt die zo volatiel is als cryptocurrency?

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Joppiesaus2
  • Registratie: Maart 2009
  • Laatst online: 26-08 17:57
The Source schreef op maandag 7 augustus 2017 @ 13:11:
Het is gealloceerd naar resellers, niet naar disty.
Dus verwacht op korte termijn geen grijze import.
Komt er een lijst met resellers beschikbaar zodat ik in iedergeval kans maak met een beetje mazzel er 1 te kunnen bestellen? Geen idee aan welke winkels ik moet denken namelijk.

Acties:
  • 0 Henk 'm!
The Source schreef op maandag 7 augustus 2017 @ 13:07:
13 klanten in EU krijgen VEGA als eerste vanuit AMD.
2 in UK, 3 DE, namen gokken kun je zelf. Geen in Benelux.
Andere landen boeit jullie niet.

Ik zie enkel de waterkoel versie staan en de zwarte exchaust. Dus die andere is echt limited :)
Gokje:
Overclockers.co.uk
Amazon.co.uk

Caseking.de
Mindfactory.de
Alternate.de

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 17:57
-The_Mask- schreef op maandag 7 augustus 2017 @ 13:13:
[...]

Gokje:
Overclockers.co.uk
Amazon.co.uk

Caseking.de
Mindfactory.de
Alternate.de
Geen amazon lijkt me...

Acties:
  • 0 Henk 'm!
Overclockers.co.uk
Alternate.co.uk

Caseking.de
Mindfactory.de
Alternate.de

Twee maal Alternate?

Overigens zijn deze bedrijven naast webshop ook distri

[ Voor 10% gewijzigd door -The_Mask- op 07-08-2017 13:20 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
-The_Mask- schreef op maandag 7 augustus 2017 @ 13:17:
[...]

Overclockers.co.uk
Alternate.co.uk

Caseking.de
Mindfactory.de
Alternate.de

Twee maal Alternate?
Wat is daar vreemd aan?

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41
DaniëlWW2 schreef op maandag 7 augustus 2017 @ 13:09:
[...]

Je beseft je dat bijna al die games waar Nvidia wint, GameworksGimpWorks titels zijn hé? :P
Dat gaf ik ook aan ;).
Oudere games zoals GTA 5 zijn ook in het voordeel van Nvidia, terwijl recente DX11 titels al naar de RX580 gaan. Verder zijn de resultaten voor de neutrale DX12 titels wel duidelijk. Rond de 10% extra merk je gewoon. Alles bij elkaar is de RX580 in de regel al sneller dan de GTX1060, in DX12 helemaal. Heb je echt een goed geoptimaliseerde game, dan is het helemaal geen discussie meer.

Qua DX12, het zal onderhand toch moeten komen. Het is meer werk voor de developers, maar die lopen allang tegen de limieten van de consoles, met name de XBONE en singlethread van de PC aan. Sony is low level API only met de PS4, terwijl de XBONE een uitgeklede DX11 en een DX12 implementatie heeft. Het duurde even voordat DX12 games verschenen, maar ze komen er nu wel. Het is een kwestie van de developer cyclus volgen. Het duurt gewoon een paar jaar voordat een nieuwe game er is en de beslissing om over te stappen naar een nieuwe API is ook geen gemakkelijke. Het gebeurd alleen wel als het niet anders kan, en dat punt zal voor de meeste consolegames wel bereikt zijn nu.


[...]

Ik denk dat dit ook laat zien hoe belangrijk drivers eigenlijk zijn voor de prestaties van een kaart, en hoe sterk Nvidia hier eigenlijk in is, voor hun huidige generatie. Nieuwe achitectuur, dan laten ze de oude als een baksteen vallen en storten de prestaties bij nieuwe games in.
Het laat ook zien dat Nvidia eigenlijk altijd een architectuur bouwt die op dat moment snel is en daarna eigenlijk niks meer voorstelt. AMD doet het tegenovergestelde, maar kan pas later met drivers het maximale uit de kaart halen.

Acties:
  • 0 Henk 'm!

  • Dennism
  • Registratie: September 1999
  • Laatst online: 21:00
Blaat schreef op maandag 7 augustus 2017 @ 13:12:
[...]


Dat de slechte beschikbaarheid van de huidige AMD kaarten volledig te wijten valt aan Ethereum en die gaat volgend jaar naar POS status, waardoor er niet meer gemined kan worden.

Laat ik het dan zo zeggen, wil je als noodleidend bedrijf jezelf echt afhankelijk maken van een markt die zo volatiel is als cryptocurrency?
dat zou inderdaad betekenen dat voor Eth mining stopt, hoeft echter niet te betekenen dat mining stopt. Net als dat Eth opgekomen is kan er zo wederom een andere coin op staan die populair wordt bij de miners. Ook kan het inderdaad zijn dat mining (tijdelijk) instort. Daar valt nu echter helaas nog weinig zinnigs over te zeggen gezien de cryptocoin handel en wandel extreem volatiel is nog.

Acties:
  • 0 Henk 'm!

  • Joppiesaus2
  • Registratie: Maart 2009
  • Laatst online: 26-08 17:57
Blaat schreef op maandag 7 augustus 2017 @ 13:12:
[...]


Dat de slechte beschikbaarheid van de huidige AMD kaarten volledig te wijten valt aan Ethereum en die gaat volgend jaar naar POS status, waardoor er niet meer gemined kan worden.

Laat ik het dan zo zeggen, wil je als noodleidend bedrijf jezelf echt afhankelijk maken van een markt die zo volatiel is als cryptocurrency?
Waarschijnlijk wel als je op korte termijn monstermarges kunt draaien op een significant aandeel van je assortiment? Sta je er direct weer bij in groene cijfers toch? Dan zou het er op neerkomen dat consumenten zeer loyaal zijn. Ik denk dat ik daar wat meer moeite mee heb, ik vermoed dat het gros gewoon kiest voor de beste deal die op dat moment beschikbaar is.

Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
2x Alternate... de 1 is .co.uk en de ander .de ;)

Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Het is eigenlijk wel vreemd dat AMD niet zelf mined, dan snijdt voor hun het mes perfect aan 2 kanten.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 13-09 21:12

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Dennism schreef op maandag 7 augustus 2017 @ 13:21:
[...]


dat zou inderdaad betekenen dat voor Eth mining stopt, hoeft echter niet te betekenen dat mining stopt. Net als dat Eth opgekomen is kan er zo wederom een andere coin op staan die populair wordt bij de miners. Ook kan het inderdaad zijn dat mining (tijdelijk) instort. Daar valt nu echter helaas nog weinig zinnigs over te zeggen gezien de cryptocoin handel en wandel extreem volatiel is nog.
We zijn het met elkaar eens! :)

Wat ik probeer te zeggen dat ik niet geloof dat AMD de prijzen van hun kaarten zal bijstellen a.d.h.v. hun hashrate om lekker van de miners te kunnen cashen. Als de mining gekte even een "dipje" of een "pauze" heeft heb je de enige mogelijke alternatieve kopers flink tegen je in het harnas gejaagd.

Ik denk dat AMD dat risico niet wil nemen.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • ArcticWolf
  • Registratie: Mei 2006
  • Niet online
-The_Mask- schreef op maandag 7 augustus 2017 @ 13:26:
[...]

Ja ik weet wel wat ik zelf heb getypt, maar wat is er vreemd aan?
Eh? jij eindigt toch met een vraag
Twee maal Alternate?
Dus ik vraag aan jou wat daar vreemd aan is...




ik zie dat ik een antwoord heb gemist }:O

[ Voor 7% gewijzigd door ArcticWolf op 07-08-2017 13:28 ]


Acties:
  • 0 Henk 'm!

  • The Source
  • Registratie: April 2000
  • Laatst online: 17:57
Dat is inderdaad vreemd.
Zal wel een andere zijn...
Laatste kans... .

Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 20:38

flessuh

Set sail for fail!

The Source schreef op maandag 7 augustus 2017 @ 13:07:
13 klanten in EU krijgen VEGA als eerste vanuit AMD.
2 in UK, 3 DE, namen gokken kun je zelf. Geen in Benelux.
Andere landen boeit jullie niet.

Ik zie enkel de waterkoel versie staan en de zwarte exchaust. Dus die andere is echt limited :)
Ach, paar honderd extra voor Nvidia/g-sync kan er ook nog wel bij, ik bestel mijn systeem eind deze maand. Niet beschikbaar is klant minder voor ze.. hoe jammer dat dan ook zou zijn. :P

ook al houd ik hoop dat ik weer voor full AMD kan gaan ;)

[ Voor 5% gewijzigd door flessuh op 07-08-2017 14:26 ]

https://www.dutchsolarboat.com

Pagina: 1 ... 3 ... 10 Laatste

Dit topic is gesloten.

Let op:
We krijgen de laatste tijd vanuit verschillende hoeken klachten over de gevoerde toon in deze topicserie. Laten we het een beetje gezellig houden. Probeer alleen op de feiten te reageren en je statements te onderbouwen met bronnen. Laat sneren en op de man teksten achterwege, dan blijft het voor iedereen leuk.