Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
Sp3ci3s8472 schreef op dinsdag 30 augustus 2016 @ 19:12:
[...]


Die extra frames kunnen prima via de driver, dat lijkt mij zelfs ook een betere implementatie dan het in de monitor te doen want hoe weet die module dat hij een frame moet verdubbelen? Juist dat verteld de driver hem dus je hebt extra communicatie.
Die jongens van PC Perspective geloven dat dat best wel eens lastig te implementeren zou zijn omdat verschillende modellen verschillende minimale verversingsfrequenties hebben. Ik zie zelf niet echt een probleem hierin: 1 formule maken die voor elke minimale frequentie werkt of per minimale frequentie 1 formule maken en een waarde voor die parameter invullen, via een database (je kan immers opvragen aan het systeem welke monitor eraan gekoppeld is, dat gebeurt nu ook al voor andere software) of desnoods door het de gebruiker te laten invoeren in een configuratiescherm.

Maar goed, ik ben het met je eens dat het ook via software kan (ik denk alleen niet dat je het dan FreeSync mag noemen omdat er geen FPGA bij betrokken is). Ik heb alleen geen idee of dat NVidia en AMD dit doen. Als iemand hier gamet met een FreeSync-monitor en de RX-480, probeer het eens uit als je wil door een spel belachelijk zwaar te laten draaien (DEMD of Metro op 4k met hoge settings doet het wel :)), als je niets vreemds ziet wanneer de FPS onder de minimale verversingsfrequentie zit dan weten we dat AMD iets dergelijks nu doet via software.
Nvidia had ineens G-Sync in de laptops en in al bestaande modellen. Dat is gewoon de DP1.2a dus.
Ja, dat is duidelijk. Ik had het net nog even opgezocht, het gebeurt inderdaad zonder extra hardware.

[Voor 9% gewijzigd door CHBF op 30-08-2016 19:22]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • enchion
  • Registratie: februari 2002
  • Niet online
CHBF schreef op dinsdag 30 augustus 2016 @ 18:53:
Dat niet maar NVidia een handje helpen door de code te geven zie ik AMD nog wel doen. AMD doet gewoon niet zo moeilijk over die code openbaar maken. Net als dat ze er niet moeilijk over doen dat Microsoft gebruikte als basis voor DX12.
Je mag ervan uitgaan dat Freesync gratis/open is geworden omdat de scherm producenten dat graag wilden, dan kunnen ze de monitoren goedkoop blijven/gaan aanbieden en is de kans op markt acceptatie een stuk groter.

Ga niet gek staan kijken als LG, Samsung enzzz... bij AMD hebben aangeklopt om een alternatief voor GSync te verzinnen dat onderdeel wordt van de standaard.
AMD krijgt geld om het te regelen, belooft (vastgelegd) dat het geen royalties krijgt en mogen het in ruil voor de moeite in de pers brengen alsof ze het helemaal zelf hebben gedaan.

How do you save a random generator ?

CHBF schreef op dinsdag 30 augustus 2016 @ 18:59:
Ik neem het van jou aan maar is het dan wel G-Sync? Het lijkt mij van niet. Een onderdeel van het concept van G-Sync is dat er dubbele of zelfs drievoudige frames worden geplaast wanneer de FPS te laag wordt (beneden de minimale verversingssnelheid van de monitor). Hoe dan ook, als NVidia dit inderdaad al heeft geïmplementeerd voor laptops die gene FPGA-module bevatten dan zou NVidia dat duidelijk per direct ook voor de monitors bij desktops kunnen implementeren. Schimmig. Ik vind het oliedom van NVidia want als ze gewoon FreeSync zouden ondersteunen dan zou de 1070 minder per frame per seconde kosten dan de RX 480. :)
"FreeSync" doet dat ook, dat zit in de AMD driver. En in de Nvidia driver voor laptops met "G-Sync" zit dat ook gewoon in de driver.

G-Sync gebruikt momenteel wel een FPGA in de schermen, maar het enige dat dat ding doet is enkele protocol functies uit eDP naar DP 1.2 brengen (zie hieronder).
Sp3ci3s8472 schreef op dinsdag 30 augustus 2016 @ 19:12:
Nvidia had ineens G-Sync in de laptops en in al bestaande modellen. Dat is gewoon de DP1.2a dus.
Nee, dat is eDP 1.3 uit 2011. Dat werd al langer gebruikt om stroom te besparen.

Adaptive Sync bestaat voor 80% uit dingen die al in DP zaten, samen met een aantal functies uit eDP 1.3 (voornaamste is Panel Self Refresh). AS doet niet veel meer dan een aantal functies van eDP naar DP brengen en er een formeel protocol omheen breien dat al die functies combineert tot wat wij nu als variable refresh rate kennen.

G-Sync gebruikt ook diezelfde features. Dat is hoe AMD binnen een maand of 3 na de release van G-Sync een werkend prototype had met laptops en nog een maand of 2 daarna een standaard klaar had die bij VESA ingediend werd. De G-Sync FPGA ondersteunt alles voor AS al, het enige wat mist is een klein stukje driver code van Nvidia dat de AS specificaties omzet naar hun ongetwijfeld beveiligde protocol. Dat kan 100% in de driver.
sdk1985 schreef op dinsdag 30 augustus 2016 @ 18:11:
Als AMD echt wil doorbreken met Freesync dan zorgen ze dat het ook gaat werken op Nvidia kaarten. In dat geval heeft het voor de Nvidia klanten (lees 80% van de dedicated gpu markt) ook nut om voor een Freesync monitor te gaan. Dat zou dan weleens de doodsteek voor G-sync kunnen betekenen.
sdk1985 schreef op dinsdag 30 augustus 2016 @ 18:20:
Dat is precies wat ik dacht, AMD kan met een tooltje komen. Als Nvidia daar tegen gaat protesteren is dat flink negatieve pr. Of ze hadden FreeSync in een standaard moeten proppen (DX12 of OpenGL oid).
Dit gaat zomaar niet. Dan moeten ze Nvidia's driver op de een of andere manier zien te reverse engineeren; of de firmware in de AS FPGA's van Realtek/Novatek/MStar op de één of andere manier aanpassen zodat deze zich als G-Sync display aanmelden. Beide opties zijn lastig (zoals ik hierboven al zeg twijfel ik er niet aan dat Nvidia's protocol een vorm van encryptie gebruikt) en daarnaast heel eenvoudig door Nvidia te blokkeren.

Waarom zou AMD zich dan die moeite gaan doen?

En nee, het is ook niet zo dat ze Nvidia gewoon die code moeten "geven", die code is namelijk specifiek voor AMD's display controllers. Daar heeft Nvidia geen reet aan.

DX12 en OGL hebben geen reet te maken met de display protocollen. HDMI, DP of wat dan ook hebben die API's geen boodschap aan en dat is maar goed ook (dan zou je ook nog met DX12 compatibele monitors zitten 8)7, alsof we het nog niet erg genoeg hebben). Adaptive Sync ís al een standaard die Nvidia zonder meer kan ondersteunen. Het kost ze geen royalties, VESA's standaarden zijn allemaal royalty-free (ongeacht wat MPEG LA claimed; maar dat zijn sowieso eerste klasse hufters).
enchion schreef op dinsdag 30 augustus 2016 @ 19:37:
Je mag ervan uitgaan dat Freesync gratis/open is geworden omdat de scherm producenten dat graag wilden, dan kunnen ze de monitoren goedkoop blijven/gaan aanbieden en is de kans op markt acceptatie een stuk groter.
Adaptive Sync is open geworden omdat AMD dat wilde. AMD wilde Nvidia daar een hak mee zetten omdat ze al meteen zagen hoe Nvidia het klaarspeelde. En dat is ze gelukt ook, G-Sync heeft totaal geen momentum meer.

Nvidia's eerste G-Sync demo's en producten kwamen van ASUS, die sowieso zelf al niets bouwen voor hun monitors. Dat is niet toevallig, ASUS is al jarenlang een partner van Nvidia met dit soort dingen. Het tijdsbestek waar AMD vervolgens met een prototype kwam is niet lang genoeg voor een Samsung of LG aan te kloppen en iets af te dwingen. Bovengenoemde scaler fabrikanten sloten zich ook pas ruim 4 maanden na de aankondiging van AS aan; dat was dik 8 maanden na AMD's prototype.

  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26
-The_Mask- schreef op maandag 29 augustus 2016 @ 16:40:
[...]

[afbeelding]
Op deze oudere slide stond die ook al op 2017.


[...]

Het was toen andersom, nVidia kwam toen maanden later.
Ja dat bedoelde ik ook :)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26
sdk1985 schreef op dinsdag 30 augustus 2016 @ 15:53:

De RX 480 reference is voor niemand interessant. Meer herrie tijdens het gamen is bijna niet mogelijk: https://tpucdn.com/review.../images/fannoise_load.png . Met een goede koeler erop wordt het een stuk beter. Maar zoals gezegd zitten die boven de grens van €300 euro. Bovendien heb je dan een compromis product (multi monitor power draw bug). Bij een compromis product verwacht ik een compromis prijs en geen premium prijs :). De basis prijs (220) + 25 euro voor de koeler had ik wel gedaan hoor.
Ik ben anders super blij met mijn RX480 refferenced van 230 euro welke nu een 8GB versie is.
Stock is hij redelijk stil maar heb zelf even lopen tweaken en heb nu stock prestaties op 1175Mhz (omdat hij niet meer throtteled is hij even snel) Is zuiniger dan voorheen en draait nog max 1600RPM vs 2200 capped eerst. En dan hoor je hem niet meer.

3th party kaarten kunnen idd wat hoger clocken naar 1350 Mhz maar verbruiken dan ook meer en zijn dan 10-15% sneller at best maar ook meteen 30-40% duurder.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • enchion
  • Registratie: februari 2002
  • Niet online
Werelds schreef op dinsdag 30 augustus 2016 @ 20:54:
Adaptive Sync is open geworden omdat AMD dat wilde. AMD wilde Nvidia daar een hak mee zetten omdat ze al meteen zagen hoe Nvidia het klaarspeelde. En dat is ze gelukt ook, G-Sync heeft totaal geen momentum meer.
Sure, een bedrijf dat maar ongeveer 2 miljard waard is (tov bedrijven waar tientallen tot honderdtallen miljarden in omgaan), en verlies maakt en op de grote markt eigenlijk geen speler is, bepaalt even waar de spec naar toe gaat evolueren.

Stel jezelf nou even de vraag ontwikkelt de industrie voor AMD (want alleen AMD GPU`s supporten tot nog toe Freesync) of ontwikkelt AMD voor de industrie. (en let op de orde van groottes)
Nvidia's eerste G-Sync demo's en producten kwamen van ASUS, die sowieso zelf al niets bouwen voor hun monitors. Dat is niet toevallig, ASUS is al jarenlang een partner van Nvidia met dit soort dingen. Het tijdsbestek waar AMD vervolgens met een prototype kwam is niet lang genoeg voor een Samsung of LG aan te kloppen en iets af te dwingen. Bovengenoemde scaler fabrikanten sloten zich ook pas ruim 4 maanden na de aankondiging van AS aan; dat was dik 8 maanden na AMD's prototype.
Tenzij er natuurlijk Samsung/Sony/MS/IBM/enzzz... medewerkers bij AMD rondliepen in die tijd, dan hoeven die toko`s natuurlijk niet aan te kloppen aangezien ze al binnen zijn.
(je moet btw ook niet vergeten dat de industrie het GSync concept al eerder zag aankomen dan wij, dat maakt dat tijdsbestek ook veel meer uitlegbaar.)

4 maanden om te testen en zeker te maken dat de spec compliance produceerbaar is, winstgevend, geen kinderziektes oplevert, en gelijke verwachtingen levert voor de gebruiker tussen de verschillende merken. (lijkt me een logische hoeveelheid tijd daarvoor.)

Same story met DX12, ben er bewust van MS heeft het niet DX-AMD genoemd ! Maar MS heeft de hele AMD Mantle overgenomen en dat hun in hun native api gestopt en hun eigen api-naam meegegeven en daar hun GPU marktleiders (nVidia + Intel) daar marketingtechnisch mee opzij gezet.
(Vulkan is daarentegen wel AMD-OpenGL geworden aangezien OpenGL niet daarmee totaal aan de kant geschoven is)

Hoe in hemelsnaam krijgt zo`n klein bakkertje dat voor elkaar.
(Lees voor de lol op de frontpage eens over brievenbus bedrijven (bv Apple in Ierland) en shelltoko`s die geen winst maken, en houdt in je achterhoofd dat je van nog lang niet alle financiele/corporate constructies het bestaan van afweet.)

Bij zo weinig bedrijven op 1 markt (2 voor CPU en 2 voor GPU) zijn de belangen tussen de producer en afnemer zo ontzettend groot dat de oorspronkelijke identiteit van een bedrijf met zekerheid 100% verdwenen is.

How do you save a random generator ?


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 26-09 21:44
Astennu schreef op dinsdag 30 augustus 2016 @ 21:50:
[...]


Ik ben anders super blij met mijn RX480 refferenced van 230 euro welke nu een 8GB versie is.
Stock is hij redelijk stil maar heb zelf even lopen tweaken en heb nu stock prestaties op 1175Mhz (omdat hij niet meer throtteled is hij even snel) Is zuiniger dan voorheen en draait nog max 1600RPM vs 2200 capped eerst. En dan hoor je hem niet meer.

3th party kaarten kunnen idd wat hoger clocken naar 1350 Mhz maar verbruiken dan ook meer en zijn dan 10-15% sneller at best maar ook meteen 30-40% duurder.
Ik hang net de GTX 1070 erin en ik scoor, voor overclock, nu een 90e percentiel score terwijl de fans nog niet aan zijn gegaan. Tja :P .



Maar goed ik snap ook wel dat die 2x duurder is. Maar met een custom koeler kun je de RX 480 ook mooi stil krijgen. Reference heb ik persoonlijk echt geen trek in. Laatste herrie ding dat ik had was de blower van de 8800 GTS.

[Voor 10% gewijzigd door sdk1985 op 30-08-2016 23:07]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

enchion schreef op dinsdag 30 augustus 2016 @ 22:28:
Sure, een bedrijf dat maar ongeveer 2 miljard waard is (tov bedrijven waar tientallen tot honderdtallen miljarden in omgaan), en verlies maakt en op de grote markt eigenlijk geen speler is, bepaalt even waar de spec naar toe gaat evolueren.

Stel jezelf nou even de vraag ontwikkelt de industrie voor AMD (want alleen AMD GPU`s supporten tot nog toe Freesync) of ontwikkelt AMD voor de industrie. (en let op de orde van groottes)
Je moet wel de namen eens correct gaan gebruiken. FreeSync is geen standaard en zal dat ook nooit worden. Intel en Nvidia zullen dat ook nooit ondersteunen. Wat ze gaan ondersteunen is Adaptive Sync. Intel in elk geval wel met de volgende generatie GPU; Kaby Lake is gewoon Skylake dus daar kan het nog niet in komen.

Bedrijfskapitaal wil verder niets zeggen met betrekking tot wat een bedrijf wel of niet tot standaarden kan pushen. Kijk naar Mantle, Vulkan en DX12. Kijk naar HBM (tuurlijk, SK Hynix werkt mee, neemt niet weg dat het mede dankzij AMD is...en kapitaal hebben zij in dat partnerschap niet in te brengen ;)). Kijk naar tessellation en tiled resources (eerste is een doorontwikkeling van truform; tweede is een 1:1 kopie van PRT). Kijk naar x64 (AMD draaide in 2000 toen dat uit kwam 4,6 miljard omzet, Intel zat al op bijna 37 miljard; goed voor respectievelijk 1 en 10,5 miljard winst). Kijk naar HSA (ontwikkeld door AMD, vervolgens een stichting omheen opgebouwd, voornamelijk samen met ARM).

Hell, kijk naar GDDR3 (en dus GDDR5). Dat komt van ATI.

Ontwikkelt AMD voor de industrie? Zeker. Maar niet in opdracht ván de industrie, zoals jij impliceert. AMD heeft al meer dan eens standaarden door weten te pushen ondanks het gebrek aan kapitaal, juist omdat ze weten dat ze de industrie mee moeten krijgen. En hoe krijg je die mee? Niet door ze een hoop geld af te troggelen voor een matige FPGA in elk geval ;)
Tenzij er natuurlijk Samsung/Sony/MS/IBM/enzzz... medewerkers bij AMD rondliepen in die tijd, dan hoeven die toko`s natuurlijk niet aan te kloppen aangezien ze al binnen zijn.
(je moet btw ook niet vergeten dat de industrie het GSync concept al eerder zag aankomen dan wij, dat maakt dat tijdsbestek ook veel meer uitlegbaar.)
Je vergist je in hoe lang Nvidia daar "publiek" mee bezig was. Dat is pas vlak voor de eerste demo's geweest; tot dat moment was alleen ASUS op de hoogte. Bedrijven als LG of Samsung met zoiets benaderen is veel te riskant, omdat die in die markt veel te machtig zijn. ASUS is maar een klein spelertje ;)
4 maanden om te testen en zeker te maken dat de spec compliance produceerbaar is, winstgevend, geen kinderziektes oplevert, en gelijke verwachtingen levert voor de gebruiker tussen de verschillende merken. (lijkt me een logische hoeveelheid tijd daarvoor.)

Same story met DX12, ben er bewust van MS heeft het niet DX-AMD genoemd ! Maar MS heeft de hele AMD Mantle overgenomen en dat hun in hun native api gestopt en hun eigen api-naam meegegeven en daar hun GPU marktleiders (nVidia + Intel) daar marketingtechnisch mee opzij gezet.
(Vulkan is daarentegen wel AMD-OpenGL geworden aangezien OpenGL niet daarmee totaal aan de kant geschoven is)

Hoe in hemelsnaam krijgt zo`n klein bakkertje dat voor elkaar.
Tuurlijk, 4 maanden kán zeker. Als er een display of scaler fabrikant bij betrokken was geweest had AMD er echter geen lullige Toshiba laptop voor gebruikt, met een hoop eDP hacks ;)

Waarschijnlijk hebben ze ná die PoC demo wel met bedrijven als LG en Samsung gewerkt, maar eerder dan dat echt niet. Als dat zo was, waren er ook veel sneller AS monitors en scalers verschenen.

  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 26-09 21:44
Werelds schreef op woensdag 31 augustus 2016 @ 00:50:


Bedrijfskapitaal wil verder niets zeggen met betrekking tot wat een bedrijf wel of niet tot standaarden kan pushen. Kijk naar Mantle, Vulkan en DX12. Kijk naar HBM (tuurlijk, SK Hynix werkt mee, neemt niet weg dat het mede dankzij AMD is...en kapitaal hebben zij in dat partnerschap niet in te brengen ;)). Kijk naar tessellation en tiled resources (eerste is een doorontwikkeling van truform; tweede is een 1:1 kopie). Kijk naar x64 (AMD draaide in 2000 toen dat uit kwam 4,6 miljard omzet, Intel zat al op bijna 37 miljard; goed voor respectievelijk 1 en 10,5 miljard winst). Kijk naar HSA (ontwikkeld door AMD, vervolgens een stichting omheen opgebouwd, voornamelijk samen met ARM).

Hell, kijk naar GDDR3 (en dus GDDR5). Dat komt van ATI.
Ben het met je punt eens (dat een kleiner bedrijf best een standaard kan pushen). Echter je voorbeelden zijn een beetje twijfelachtig. In de eerste plaats zijn de uitvindingen van Ati natuurlijk niet de verdienste van AMD. Tesselation valt daar ook onder, daar kwam Ati al in 2001 mee aanzetten. Mantle is gigantisch geflopt (dat heeft tijd en geld gekost en niets opgeleverd) en of Vulkan omarmt gaat worden is voorlopig nog niet duidelijk. DirectX12 is traditioneel meer het ding van Microsoft. Het gaat er bij mij nog steeds niet in dat AMD eind september 2013 Mantle aankondigt, Microsft vervolgens denkt "wow dat is handig, laten we dat ook gaan doen" en daarna in maart 2014 (8 maanden later) ineens alles voor elkaar heeft. Dat geloof toch niemand? Zo snel is Microsoft nu ook weer niet, die waren al jaren bezig... Alleen het pers pakketje maken duurt al minstens een maand ;). Het kan best zijn dat de implementatie van AMD handig was en dat daardoor bepaalde zaken zijn (her)gebruikt maar ook zonder AMD was dat eigenlijk toch wel de volgende logische stap.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

sdk1985 schreef op woensdag 31 augustus 2016 @ 01:13:
Ben het met je punt eens (dat een kleiner bedrijf best een standaard kan pushen). Echter je voorbeelden zijn een beetje twijfelachtig. In de eerste plaats zijn de uitvindingen van Ati natuurlijk niet de verdienste van AMD. Tesselation valt daar ook onder, daar kwam Ati al in 2001 mee aanzetten. Mantle is gigantisch geflopt (dat heeft tijd en geld gekost en niets opgeleverd) en of Vulkan omarmt gaat worden is voorlopig nog niet duidelijk. DirectX12 is traditioneel meer het ding van Microsoft. Het gaat er bij mij nog steeds niet in dat AMD eind september 2013 Mantle aankondigt, Microsft vervolgens denkt "wow dat is handig, laten we dat ook gaan doen" en daarna in maart 2014 (8 maanden later) ineens alles voor elkaar heeft. Dat geloof toch niemand? Zo snel is Microsoft nu ook weer niet, die waren al jaren bezig... Alleen het pers pakketje maken duurt al minstens een maand ;). Het kan best zijn dat de implementatie van AMD handig was en dat daardoor bepaalde zaken zijn (her)gebruikt maar ook zonder AMD was dat eigenlijk toch wel de volgende logische stap.
ATI had op dat moment ook geen geweldig kapitaal, daarom gooi ik het er tussen :)

Vulkan wordt zeker al omarmd. Source 2, UE4, Unity, Serious Engine, Tech 6, CryEngine en Ashes. Resultaat is meer games op Linux dan ooit tevoren, nu al.

En DX12 was in maart 2014 nog niet klaar, verre van. Leek toen ook verdacht veel op Mantle, terwijl als je nu kijkt het dat echt niet meer is, het is nu veel meer DirectX ;)

We zullen het nooit zeker weten, maar wat ze toen lieten zien was gewoon niet DirectX. Ik heb toen ook vast wel gelinkt naar wat passages die echt 1:1 uit de Mantle documentatie kwamen. Is DX12 Mantle of dat ooit geweest? Nee, maar het ontwerp is duidelijk op Mantle gebaseerd, maar dan in DX stijl. Ik denk dat je daarmee echt wel kunt zeggen dat AMD de industrie een specifieke richting in kan duwen als ze willen en daar gaat het hier om. Financieel gewin? Korte termijn niet, daar heb je helemaal gelijk in. Lange termijn is afwachten, Q2 was in elk geval goed voor de verandering, hoewel ik denk dat die trend zich nog niet helemaal door zal zetten ;)

Overigens wil ik niet beweren dat MS dit niet al van plan was, ik denk echter wel dat ze het eerder dan gepland hebben gedaan.

[Voor 3% gewijzigd door Werelds op 31-08-2016 01:37]


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

Voor diegene die het interessant vinden:

HardOCP Forum: Demystifying Asynchronous Compute

Hopelijk klopt het.

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Waar doel je precies op ? Want ik zie vooral uitleg hoe het werkt en dat niemand buiten een handvol mensen dit ooit heeft gesnapt.

  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 26-09 15:04
Het bestaat pas sinds 2011, maar goed nVidia had het niet he...

  • Racing_Reporter
  • Registratie: januari 2012
  • Laatst online: 15:20

Racing_Reporter

Mediaproducent

nieuws: AMD past overeenkomst met GlobalFoundries over leveringen wafers aan

Lijkt me dat ze ook meer flexibiliteit willen om voorraadproblemen op te vangen, én verder te ontwikkelen en backup hebben mocht GF tegenvallen qua prestaties? Ik voorzie een dikke win-win, eigenlijk de enige juiste keuze na de relatieve drama's van de afgelopen jaren met energy efficiency. 14nm voor hen is ook nog niet zoals het wezen moet, getuige de wondertransistoren van nVidia die ongeveer even groot zijn.

Als je dit leest, heb je teveel tijd.

Ik moet eigenlijk een langere post typen, maar hij negeert een aantal dingen. Het is wel een leuke post. Het verschil tussen parallelism en concurrency legt hij redelijk uit, maar dan legt hij asynchronous er als een derde optie naast; terwijl asynchronous juist één van die 2 nodig heeft. Latency en throughput zijn ook onlosmakelijk met elkaar verbonden, terwijl hij het juist over doet komen alsof het volledig losstaande dingen zijn.

Belangrijkste is echter dat hij Nvidia hier probeert te verdedigen (even tussen de regels door lezen ;)); maar veel van de informatie over hoe Nvidia het doet laat hij dan achterwege. Hij negeert het feit dat Nvidia in software scheduled, daardoor latency creëert en dus het doel van async volledig teniet doet. Nvidia's implementatie is overigens primair concurrent, AMD's implementatie is parallel. Zonder die driver latency zou er niets mis zijn met Nvidia's aanpak.

Leukste filmpje over concurrency vs. parallelism dat ik ken: https://blog.golang.org/concurrency-is-not-parallelism (staat ook een link naar de slides).

  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

Phuncz schreef op woensdag 31 augustus 2016 @ 17:31:
[...]

Waar doel je precies op ? Want ik zie vooral uitleg hoe het werkt en dat niemand buiten een handvol mensen dit ooit heeft gesnapt.
Ik bedoel dat ik niet weet of het helemaal klopt en omdat ik niemands tijd wil verspillen hoop ik dus dat de uitleg klopt. :) Als het klopt zou het een mooie mental note/link zijn voor een goede uitleg over de materie.

HardOCP postte op hun frontpage een link naar deze uitleg als zijnde een goede/interessante uitleg. En omdat hier redelijk wat mensen zitten die dit soort dingen volgensmij interessant vinden, er over discussieren en het wel (denken te :P ) snappen vond ik het postwaardig voor dit topic.
Thx. :)

[Voor 92% gewijzigd door Help!!!! op 03-09-2016 10:39]

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |

enchion schreef op dinsdag 30 augustus 2016 @ 19:37:
[...]


Je mag ervan uitgaan dat Freesync gratis/open is geworden omdat de scherm producenten dat graag wilden, dan kunnen ze de monitoren goedkoop blijven/gaan aanbieden en is de kans op markt acceptatie een stuk groter.

Ga niet gek staan kijken als LG, Samsung enzzz... bij AMD hebben aangeklopt om een alternatief voor GSync te verzinnen dat onderdeel wordt van de standaard.
AMD krijgt geld om het te regelen, belooft (vastgelegd) dat het geen royalties krijgt en mogen het in ruil voor de moeite in de pers brengen alsof ze het helemaal zelf hebben gedaan.
Ik had er nog niet zo over gedacht maar het zou best wel kunnen. :)
In het verlengde hiervan, als je via het Youtubekanaal van de Khronos Group een van de laatste lezingen beluistert dan hoor je een van de architecten van Vulkan uitleggen dat Vulkan er vooral op verzoek van de developers is gekomen. 'Toevallig' bleek AMD iets te hebben wat wel aardig zou kunnen werken en zo werd Mantle als basis gebruikt voor Vulkan (en blijkbaar DX12 :)). Dat geeft goede hoop dat Vulkan ook daadwerkelijk veel gebruikt gaat worden.
spoiler:
Ik zie er een aantal voordelen in. De spellen zijn op alle platforms te spelen, wat ik wel fijn vind aangezien ik graag zou willen overstappen naar Linux, en zowel de code die door deze open code (Vulkan) wordt gebruikt als Vulkan zelf zouden in theorie beter geoptimaliseerd moeten kunnen worden (ook omdat heel erg veel mensen de code bestuderen en zodoende foutjes eerder worden opgemerkt) , bovendien kan iedereen die een goed idee heeft om de code verder te verbeteren of die een leuk idee heeft voor een nieuwe functie dit uitwerken en voorstellen en kan het dan in Vulkan worden opgenomen als de leiders van de Khronos Group denken dat het Vulkan verbetert.

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Help!!!! schreef op vrijdag 02 september 2016 @ 08:54:
[...]

Ik bedoel dat ik niet weet of het helemaal klopt en omdat ik niemands tijd wil verspillen hoop ik dus dat de uitleg klopt. :) Als het klopt zou het een mooie mental note/link zijn voor een geode uitleg over de materie.
Ah op die manier ! Maar volgens Werelds lijkt het niet volledig te kloppen of wordt het onhandig uitgelegd, dus dit was alweer een gemiste kans. Het wordt tijd voor een YouTube filmpje van een neutrale ontwikkelaar die het voor eens en altijd duidelijk uitlegt, wat de voor- en nadelen (grofweg) zijn van Nvidia's en AMD's aanpak.
Het klopt wel allemaal, het is alleen niet helemaal compleet; en erg selectief wat betreft de uitleg rondom Nvidia. Als hij het echt zo goed uit had willen leggen had hij ook gekeken naar wat HyperQ is en doet, en wat dat betekent voor async compute in Maxwell en Pascal. Bij AMD duikt hij er een stuk dieper in; ook omdat AMD dit allemaal veel duidelijker uit legt. Ook daarin zie je dat Nvidia alleen de schade heeft kunnen beperken, want normaal gesproken zijn Nvidia's whitepapers op dit soort onderwerpen geweldig leuk om te lezen :)

  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26
sdk1985 schreef op dinsdag 30 augustus 2016 @ 23:06:
[...]


Ik hang net de GTX 1070 erin en ik scoor, voor overclock, nu een 90e percentiel score terwijl de fans nog niet aan zijn gegaan. Tja :P .

[afbeelding]

Maar goed ik snap ook wel dat die 2x duurder is. Maar met een custom koeler kun je de RX 480 ook mooi stil krijgen. Reference heb ik persoonlijk echt geen trek in. Laatste herrie ding dat ik had was de blower van de 8800 GTS.
Die van mij hoor je niet meer dus is totaal geen probleem.
Ik wil gewoon een blower style cooler warme lucht moet de kast uit heb maar een klein kastje. Al kan 150 watt vast wel.

Ben verder happy met dit kaartje. En begin volgend jaar ga ik wel weer voor wat nieuws kijken.
Of ik moet een leuke 2e hands Fury X of R9 295X2 kunnen krijgen (just for the fun of it)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • SG
  • Registratie: januari 2001
  • Laatst online: 15:10

SG

SG surft naar info hardewaren

Mantle geflopt? Mantle is groot sucses lang leve Mantle kindertjes DX12 & lievelings kind Vulkan.
Het doel van AMD is API te moderniseren naar moderne archiecturen GCN is brug te ver. De API industrie wilde niet en ging te moeizaam . Maar Devs stonden paar al te springen Dice.

Ik zie meer dat AMD handeld naar game industrie innoveerd en dat als standaard in de markt wilt zetten.
En nvidea en inlet meer naar markt domminatie ook ten koste van consument en ze ook naait.
INtel havok overname en killen van Havok FX als slag in CPU vs GP_GPU war. G sync iets wat sommige laptops standaard al hadden voor energie zuinigheid misbruiken en lekker duur feature van brouwen. Met custom chip.

Innovatie is geen garantie op sucses.
AMD AMD64 is er te vroeg gekomen om 1 reden ze kunnen geen elke 5 markten specifieke architectuur brouwen. Dus de Hammers hadden server eigenschappen en 64 bit is de opvallenste feature. Want het was toen nog niet nodig nu wel met hoeveelheid ram voor systeem en video.

Ja DX12 en Vulkan twee afstamelingen van Mantle AMD is goed bezig. Alleen commercieel niet. Maar dat ligt meer aan de produce achterstand wat ze niet meer zelf in de hand hebben en dat global foundery eindelijk inloopt.
De voort sukkelende CPU tak trekt ook de executie kracht van gpu tak naar beneden. Beperkter R&D onder AMD dan onder ATI.
Kwa GPU is de concurrentie gezonder tegen nV door de gelijke procede van vaak dezelfde foundry.
Zen zal flinke step up zijn dat komt door grote procede stap. Zo niet dan hebben ze een nog extremere netburst fiasco nodig om procede voordeel omzeep te helpen. Als toen bij iNtel .
Dus ook met iets minder architectuur dan iNtel bij bijna gelijke procédé moet het kwa cores en klok count in de buurt wat iNtel aanbied zijn.
GCN heeft ook voordeel van DX12 of Vulkan achitectuur. Maar ja vaak zijn de ganes GPU bound en bij games denk ik eerder aan Gpu.
CPU bound games zijn er wel en die wild kunnen gaan met drawcalls ook maar zeldzaam. Ik denk ook dat meeste eenheids worst aan games niet cpu bound zijn en met 4 K geweld en VR is het toch de GPU die belangrijkste is.
In de tussen tijd als DX12 en Vulkan gemeengoed wordt onder game rekeases zal nv met tiekomstige gen ook met ACE bij zijn.

Mijn voorkeur is AMD gpu koop sowieso niet de snelste dus wie de kroon herft boeid mij niet AMD prijs hun producten op plek waar ze tussen de concurrenten komen en daarmee goede bang for the buck. Kan altijd wel goeie AMD gpu koop doen.
En met Zen is die situatie terug aks je budged ver onder de €1000 zit maar wel boven de €400,- eindelijk high- end CPU van AMD.

Ik wacht uiteraard op 8 cores van Zen en Vega gpu. Next year ga oriënteren .

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K

Vraagje. Klopt mijn indruk dat de prijzen van de RX-480 omhoog is gegaan sinds de introductie terwijl de prijzen van de 1070 zijn gedaald? Ik heb voor een paar kaarten op Tweakers het prijsverloop bekeken en voor al deze kaarten bleek dat zo te zijn. De aanleiding voor mij om er eens naar te kijken was de Best Buy Guide van deze maand, het viel me op dat de 1070 die daar wordt genoemd inmiddels ongeveer 450 euro kost. Verklaringen? Te schaarse voorraad voor te lang? Price gouging bij Nederlandse winkeltjes en de bedrijven die de grafische kaarten aan deze winkeltjes leveren?

Ik vermoed dat de meeste mensen hier het met me eens zijn dat de prijs van de RX 480 op dit moment verhoudingsgewijs te hoog ligt als je kijkt naar het verschil in performance met de 1070.

[Voor 85% gewijzigd door CHBF op 05-09-2016 11:57]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • LongBowNL
  • Registratie: juni 2009
  • Laatst online: 16:04
http://support.amd.com/en...16-9-1-Release-Notes.aspx
Radeon Software Crimson Edition 16.9.1 Highlights

Support for:
  • Deus Ex™: Mankind Divided (DirectX®12)
New AMD CrossFire profile added for DirectX® 11:
  • DOTA™2
Fixed Issues
  • A small number of 144Hz non-FreeSync enabled displays may exhibit flickering during gaming or on desktop.
  • FreeSync may stay enabled while on desktop causing flickering.
  • Grand Theft Auto V™ may experience an application hang after loading story mode.
  • DiRT™ Rally rain drops may flicker when using high or ultra in game settings.
  • DOOM™ may experience a hang on game exit in some limited AMD PowerXpress configurations.
  • Total War™: Warhammer may experience negative AMD CrossFire scaling on some Radeon RX 400 series configurations.
  • GPU utilization may remain high when idle after running SteamVR performance benchmark.
  • Pixel format options may be missing from Radeon Settings for some limited system configurations on Radeon RX 480 graphics.
  • Radeon Software may intermittently fail to install or hang on some AMD CrossFire configurations. If this happens users can reboot and re-install without issue as a workaround.
  • Some Radeon RX 400 series graphics products may experience high GPU usage when resuming from sleep.
Known Issues
  • A few game titles may fail to launch or crash if the AMD Gaming Evolved overlay is enabled. A temporary workaround is to disable the AMD Gaming Evolved "In Game Overlay".
  • Upgrading from a previous Radeon Software Crimson Edition version may cause user settings in Radeon Settings to reset to defaults.
  • OpenCL applications may run initially on integrated graphics if they are present. Make sure to set the application to the correct device you would like to use.
  • Radeon Settings information tab may report incorrect Open CL or Mantle versions.
  • Radeon Software installer may report driver uninstallation failed even when it was successful.
  • No Man's Sky™ some minor corruption may be experienced when standing close to solid structures inside of caves.
  • Mouse cursor corruption may be experienced very intermittently on the Radeon RX 480.
  • DOTA2™ may experience an application hang when using the Vulkan™ API and changing resolution or game/quality settings.
  • Ashes of the Singularity™ may experience an application crash with "crazy" in game settings and Multi-GPU enabled.

  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Mooi op tijd voor Deus Ex DX12 patch !
http://steamcommunity.com...ons/0/343785574535318768/

Release of DirectX 12 support in Deus Ex: Mankind Divided:

As of today, users are also able to utilize the awaited DirectX 12 Graphics API. To activate this you are required to do the following:
  • Within your Steam Library, right-click on Deus Ex: Mankind Divided.
  • Select 'properties' from the context menu and navigate to the Beta tab.
  • From the dropdown menu, select dx12_preview then close the window.
After the game has downloaded the DirectX 12 supported build you can then toggle DirectX 12 from either the launcher window or from the Display options within the game.
Note that DirectX 12 requires a restart of the game if (de-)activated from within a running Deus Ex: Mankind Divided game session.
  • WARNING: Using the DirectX 12 API can offer better performance on some systems, however, it will not be beneficial on all.
  • Multi-GPU is not yet supported in this patch.
  • If you encounter problems with DirectX 12, we recommend turning it off again. There are no visual or gameplay differences between the two DirectX versions.
  • As always, make sure that your drivers are up to date:
DX12-supporting driver for AMD graphics cards: http://support.amd.com/en...16-9-1-Release-Notes.aspx

DX12-supporting driver for NVIDIA graphics cards: http://www.nvidia.com/dow...Results.aspx/107012/en-us

Known DirectX 12 issue:
- There is a known bug that causes some very high end cards to regress relative to DirectX 11. This bug is being addressed by the development team.
Maar ik ga nog eventjes wachten op de Multi-GPU support, zodat ik hem in 3440x1440 kan spelen.

[Voor 6% gewijzigd door Phuncz op 08-09-2016 16:13]


  • Vipeax
  • Registratie: september 2007
  • Laatst online: 18:07
There is a known bug that causes some very high end cards to regress relative to DirectX 11. This bug is being addressed by the development team.
Wat zien zij als een very high end kaart?
AMD heeft de één na snelste videokaart hoor, alleen de nieuwe Titan Pascal is sneller als AMD snelste kaart. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • LongBowNL
  • Registratie: juni 2009
  • Laatst online: 16:04
Als je kijkt naar benchmarks, gaat het over de GTX 1080. Die verliest inderdaad FPS tov DX11.


Source: http://www.guru3d.com/art...e_benchmark_review,8.html

  • Vipeax
  • Registratie: september 2007
  • Laatst online: 18:07
-The_Mask- schreef op donderdag 08 september 2016 @ 16:31:
AMD heeft de één na snelste videokaart hoor, alleen de nieuwe Titan Pascal is sneller als AMD snelste kaart. :p
Als ik het goed begrijp citeer ik daar de release notes van de ontwikkelaar van Deus Ex zelf. Dat maakt het aantal "very high end" modellen een weinig zeggend begrip.

En ja ik weet dat de Pro Duo iets beter is dan een GTX 1080 in absolute FPS waarden, maar ik kan me niet eens voorstellen dat ze de R&D kosten van die kaart eruit hebben :/.

[Voor 42% gewijzigd door Vipeax op 08-09-2016 16:53]


  • Trygve
  • Registratie: oktober 2009
  • Laatst online: 16:03
Op Reddit:
AMD DX11 API Overhead 16.9.1 VS 16.8.3

De +21% drawcalls in DX11 ST kan ik niet repliceren, maar ik meet over 10 runs gemiddeld inderdaad 4.5% meer drawcalls in DX11 ST en 7% 14.6% meer in DX12 tov 16.8.3.

  • Gundogan
  • Registratie: maart 2010
  • Laatst online: 26-09 22:37

Gundogan

Rip and tear, until it is done

DOOM Vulkan lijkt ook iets stabieler te zijn met deze driver op mijn Fury. In de multiplayer wilde het scorebord nog wel eens raar doen met Vulkan (singleplayer en OpenGL waren altijd al goed), maar dat lijkt nu ook opgelost te zijn en nog steeds lekker 60-70% extra performance ten opzichte van OpenGL. :*)

i7 4790K, 16GB, ASUS Z97-K, R9 Fury


  • Beaudog
  • Registratie: augustus 2015
  • Laatst online: 26-09 23:41
Doom vulkan loopt prima ook op een g processor met een nano
Astennu schreef op dinsdag 30 augustus 2016 @ 21:50:
[...]


Ik ben anders super blij met mijn RX480 refferenced van 230 euro welke nu een 8GB versie is.
Stock is hij redelijk stil maar heb zelf even lopen tweaken en heb nu stock prestaties op 1175Mhz (omdat hij niet meer throtteled is hij even snel) Is zuiniger dan voorheen en draait nog max 1600RPM vs 2200 capped eerst. En dan hoor je hem niet meer.

3th party kaarten kunnen idd wat hoger clocken naar 1350 Mhz maar verbruiken dan ook meer en zijn dan 10-15% sneller at best maar ook meteen 30-40% duurder.
Jij had een 4GB-versie gekocht waarvan alle 8 RAM-chipjes blijken te werken na het flashen? :)

Ik zou puur vanwege het geluid een aftermarket nemen, de rest interesseert me weinig. Ik hoop dat ze straks voor de Vega-kaarten ook grotere modellen maken met joekels van ventilators, en natuurlijk een goede passieve koeling waarbij het koper fatsoenlijk onder de GPU en de RAM-modules loopt. Dat zal wel teveel gevraagd zijn.
Beaudog schreef op donderdag 08 september 2016 @ 23:06:
Doom vulkan loopt prima ook op een g processor met een nano
De 380x volstaat ook prima voor 1080p.
Vanaf de 8ste minuut.
YouTube: Ultra Cheap Gaming PC 2016 - Can you play games for under $400?

Blijkbaar is Doom heel erg weinig belastend voor de CPU en hangt de performance puur van de grafische kaart af.

[Voor 18% gewijzigd door CHBF op 08-09-2016 23:56]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Compizfox
  • Registratie: januari 2009
  • Nu online

Compizfox

I use Arch, btw

Ik ben nog steeds in dubio over of het slim is om een RX480 te kopen of niet.

Ik heb nu een HD7970 Lightning BE en ben wel toe aan iets nieuws. Nieuwere games (The Witcher 3 bijvoorbeeld) kan ik niet meer op hoge settings op 60 fps spelen.

Ik zit vooral te kijken naar de non-reference 4GB RX480s. 8 GB lijkt me niet echt nodig voor op 1080p. Die zijn nu al een stuk beter verkrijgbaar dan een paar weken geleden, maar de prijs is nog steeds niet echt gezakt. Voor mijn gevoel zijn de huidige prijzen (€240 - €270) wat te hoog voor wat een 4GB RX480 waard is.

Ik twijfel ook over of de RX480 wel een voldoende verbetering is op de HD7970 die ik heb. Misschien dat ik beter kan wachten op Vega? Zijn er al dingen bekend over hoeveel Vega ongeveer zal gaan kosten en wanneer we het mogen verwachten?

Ik ben bereid om zo'n €200 - €350 uit te geven aan een videokaart. Of gaat Vega daar ver boven zitten?

There is no system but GNU and Linux is one of its kernels

Compizfox schreef op vrijdag 09 september 2016 @ 00:02:
Ik ben nog steeds in dubio over of het slim is om een RX480 te kopen of niet.

Ik heb nu een HD7970 Lightning BE en ben wel toe aan iets nieuws. Nieuwere games (The Witcher 3 bijvoorbeeld) kan ik niet meer op hoge settings op 60 fps spelen.

Ik zit vooral te kijken naar de non-reference 4GB RX480s. 8 GB lijkt me niet echt nodig voor op 1080p. Die zijn nu al een stuk beter verkrijgbaar dan een paar weken geleden, maar de prijs is nog steeds niet echt gezakt. Voor mijn gevoel zijn de huidige prijzen (€240 - €270) wat te hoog voor wat een 4GB RX480 waard is.
Het viel mij op dat de prijzen van de 1070-kaarten inmiddels fors zijn gezakt maar die van de RX 480 juist zijn gestegen. Ik zou in ieder geval even wachten totdat de voorraad 1-2 maanden goed op peil is geweest, op dat moment gaan de winkels de prijzen wel laten zakken als ze merken dat ze te weinig verkopen. ;)
Op het moment dat 5 klanten om een kaart vragen en een winkelier kan er 1 verkopen dan heeft die geen aansporing om de prijs te laten zakken, op het moment dat die winkelier 10 kaarten heeft liggen terwijl voor die prijs 5 mensen het willen kopen...
Ik twijfel ook over of de RX480 wel een voldoende verbetering is op de HD7970 die ik heb.
http://hwbench.com/vgas/r...adeon-hd-7970-ghz-edition
Voor zo ver ik het kan overzien haal je gemiddeld net boven of net onder de 60 fps voor de zwaarst draaiende spellen van dit moment bij de optimale instellingen, in 1080p. Kwestie van de instellingen op iets minder hoog zetten als je de FPS boven de 60 wil houden.
Misschien dat ik beter kan wachten op Vega? Zijn er al dingen bekend over hoeveel Vega ongeveer zal gaan kosten en wanneer we het mogen verwachten?

Ik ben bereid om zo'n €200 - €350 uit te geven aan een videokaart. Of gaat Vega daar ver boven zitten?
Erboven in ieder geval. Dat sowieso, dat zal niemand hier tegenspreken.
Als de Vega gaat bestaan uit de RX 490 en de Fury van deze generatie dan zou mijn gok zijn dat de RX 490 dezelfde msrp gaat krijgen als dat de R9 390 kreeg. Waar baseer ik dat op? Zie de 280, de 380 en de 480, die waren ongeveer hetzelfde geprijsd. Bovendien gaf Koduri aan dat ze voor elk prijssegment een kaart zouden uitbrengen, misschien lees ik er te veel in maar je zou hieruit kunnen opmaken dat AMD het vasthouden aan de prijzen voor de verschillende categorieën nastreeft.
Worst case scenario, de RX 490 gaat hetzelfde kosten als dat de 1070 kostte. Zoals ik aangaf, dit is speculatie van mij, iedereen hier kan op dit moment enkel speculeren.

[Voor 4% gewijzigd door CHBF op 09-09-2016 00:20]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26
CHBF schreef op donderdag 08 september 2016 @ 23:46:
[...]

Jij had een 4GB-versie gekocht waarvan alle 8 RAM-chipjes blijken te werken na het flashen? :)

Ik zou puur vanwege het geluid een aftermarket nemen, de rest interesseert me weinig. Ik hoop dat ze straks voor de Vega-kaarten ook grotere modellen maken met joekels van ventilators, en natuurlijk een goede passieve koeling waarbij het koper fatsoenlijk onder de GPU en de RAM-modules loopt. Dat zal wel teveel gevraagd zijn.


[...]

De 380x volstaat ook prima voor 1080p.
Vanaf de 8ste minuut.
YouTube: Ultra Cheap Gaming PC 2016 - Can you play games for under $400?

Blijkbaar is Doom heel erg weinig belastend voor de CPU en hangt de performance puur van de grafische kaart af.
Yep I did
Dat is het dus met 1600 rpm hoor je hem niet. Veel. Stiller dan een r9 290x Gaming of trix.
Kaartje werkt op deze manier perfect zelfde performance als een stock kaart maar wel een stuk zuiniger. Volgens mij was het richting de 15-20% heb het wel ergens genoteerd.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Compizfox
  • Registratie: januari 2009
  • Nu online

Compizfox

I use Arch, btw

CHBF schreef op vrijdag 09 september 2016 @ 00:19:
[...]

Het viel mij op dat de prijzen van de 1070-kaarten inmiddels fors zijn gezakt maar die van de RX 480 juist zijn gestegen. Ik zou in ieder geval even wachten totdat de voorraad 1-2 maanden goed op peil is geweest, op dat moment gaan de winkels de prijzen wel laten zakken als ze merken dat ze te weinig verkopen. ;)
Op het moment dat 5 klanten om een kaart vragen en een winkelier kan er 1 verkopen dan heeft die geen aansporing om de prijs te laten zakken, op het moment dat die winkelier 10 kaarten heeft liggen terwijl voor die prijs 5 mensen het willen kopen...
Ga ik doen. Ik snap wel hoe vraag en aanbod werkt natuurlijk ;) Ik had alleen verwacht dat de prijzen sneller zouden zakken aangezien het aanbod ook een stuk verbeterd is.
[...]
http://hwbench.com/vgas/r...adeon-hd-7970-ghz-edition
Voor zo ver ik het kan overzien haal je gemiddeld net boven of net onder de 60 fps voor de zwaarst draaiende spellen van dit moment bij de optimale instellingen, in 1080p. Kwestie van de instellingen op iets minder hoog zetten als je de FPS boven de 60 wil houden.
Tja, dat is wel een dingetje. Als ik een nieuwe kaart koop wil ik een groot verschil zien. Ik ben dus bang dat van een HD7970-->RX480 misschien een net wat te kleine verbetering is. Zeker als je dat vergelijkt met m'n vorige upgrades (HD3850-->HD6950-->HD7970).
[...]

Erboven in ieder geval. Dat sowieso, dat zal niemand hier tegenspreken.
Als de Vega gaat bestaan uit de RX 490 en de Fury van deze generatie dan zou mijn gok zijn dat de RX 490 dezelfde msrp gaat krijgen als dat de R9 390 kreeg. Waar baseer ik dat op? Zie de 280, de 380 en de 480, die waren ongeveer hetzelfde geprijsd. Bovendien gaf Koduri aan dat ze voor elk prijssegment een kaart zouden uitbrengen, misschien lees ik er te veel in maar je zou hieruit kunnen opmaken dat AMD het vasthouden aan de prijzen voor de verschillende categorieën nastreeft.
Worst case scenario, de RX 490 gaat hetzelfde kosten als dat de 1070 kostte. Zoals ik aangaf, dit is speculatie van mij, iedereen hier kan op dit moment enkel speculeren.
Maar er komen meerdere Vega-kaarten uit, toch? Is deze speculatie dan op basis van het top-model of?

There is no system but GNU and Linux is one of its kernels


  • Trygve
  • Registratie: oktober 2009
  • Laatst online: 16:03
r100 schreef op donderdag 08 september 2016 @ 18:25:
Op Reddit:
AMD DX11 API Overhead 16.9.1 VS 16.8.3

De +21% drawcalls in DX11 ST kan ik niet repliceren, maar ik meet over 10 runs gemiddeld inderdaad 4.5% meer drawcalls in DX11 ST en 7% 14.6% meer in DX12 tov 16.8.3.
Ik reageer even op mezelf omdat ik nu pas doorheb dat er met deze driver wel meer veranderd is:

  • Compizfox
  • Registratie: januari 2009
  • Nu online

Compizfox

I use Arch, btw

r100 schreef op vrijdag 09 september 2016 @ 01:14:
[...]
• De driver is gelijk aan de AMF SDK waardoor hardwarematig encoden in o.a. OBS Studio dichterbij komt
Je kunt in OBS Studio toch al lang gebruikmaken van AMD VCE? Of is dit iets anders?

There is no system but GNU and Linux is one of its kernels


  • Trygve
  • Registratie: oktober 2009
  • Laatst online: 16:03
Compizfox schreef op vrijdag 09 september 2016 @ 01:17:
[...]

Je kunt in OBS Studio toch al lang gebruikmaken van AMD VCE? Of is dit iets anders?
In OBS Studio kon je inderdaad al langer encoden met VCE via de Media Foundation, maar daarbij werd alsnog een hoop softwarematig via het framework van Microsoft afgehandeld. Sinds AMD via GPUOpen van alles ge-opensourced heeft, is een ontwikkelaar al met een plugin bezig die (vrijwel) alles hardwarematig in de VCE's afhandelt en veel meer mogelijkheden tot fine-tuning biedt. Waar ik op doelde in mijn vorige post is een toekomstige release van OBS Studio waar een stabiele versie van deze plugin al geïntegreerd zit.
Astennu schreef op vrijdag 09 september 2016 @ 00:27:
[...]


Yep I did
Dat is het dus met 1600 rpm hoor je hem niet. Veel. Stiller dan een r9 290x Gaming of trix.
Kaartje werkt op deze manier perfect zelfde performance als een stock kaart maar wel een stuk zuiniger. Volgens mij was het richting de 15-20% heb het wel ergens genoteerd.
Hoe is het bij volle belasting? Als ik mijn huidige 7850 (Sapphire/PCPartner) met 100% laat werken (temperatuur in de 70 graden Celsius) dan is het net alsof er een stofzuiger aan staat. Vandaar dat ik er bij de volgende kaart op ga letten dat je die zo weinig mogelijk hoort.
Dat geldt trouwens voor heel mijn PC. Fractal Design Define R5, een relatief stille CPU-koeler en zo.
Is het de afgelopen jaren beter geworden met het lawaai die kaarten maken? Misschien door betere ventilators te gebruiken of zo.

[Voor 6% gewijzigd door CHBF op 09-09-2016 08:39]

Zelfcensuur is de meest schadelijke vorm van censuur.

Sorry, even niet aan gedacht om het toe te voegen.
Compizfox schreef op vrijdag 09 september 2016 @ 00:57:
Ik had alleen verwacht dat de prijzen sneller zouden zakken aangezien het aanbod ook een stuk verbeterd is.
Ik ook.
Tja, dat is wel een dingetje. Als ik een nieuwe kaart koop wil ik een groot verschil zien. Ik ben dus bang dat van een HD7970-->RX480 misschien een net wat te kleine verbetering is. Zeker als je dat vergelijkt met m'n vorige upgrades (HD3850-->HD6950-->HD7970).
Vega komt waarschijnlijk uit tussen april en juni.
Maar er komen meerdere Vega-kaarten uit, toch? Is deze speculatie dan op basis van het top-model of?
Veel eerder gaf AMD aan dat er 2 Vega-kaarten (10 en 11 of zo) zouden komen dus je zou minstens twee kaarten moeten krijgen. De RX 490 en de Fury ontbreken nog in het licht bezien van de vorige generatie. Koduri gaf aan dat er in elke prijsklasse een kaart zou uitkomen, dat in combinatie met het vasthouden aan de naamgeving en de consistentie van de prijzen voor de *80-kaarten (steeds ongeveer 200 euro) suggereert voor mij dat er een RX 490 uitkomt die ongeveer dezelfde MSRP gaat krijgen als dat de R9 390 kreeg en dat er een Fury uit zal komen.
Er zijn hier ook mensen die geloven dat de RX 490 niet een van de Vega-kaarten gaat zijn. Zeker is in ieder geval dat de RX 490 volledig los staat van de Polaris chip, de RX 480 bevat de volle Polaris chip.

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26
CHBF schreef op vrijdag 09 september 2016 @ 08:38:
[...]

Hoe is het bij volle belasting? Als ik mijn huidige 7850 (Sapphire/PCPartner) met 100% laat werken (temperatuur in de 70 graden Celsius) dan is het net alsof er een stofzuiger aan staat. Vandaar dat ik er bij de volgende kaart op ga letten dat je die zo weinig mogelijk hoort.
Dat geldt trouwens voor heel mijn PC. Fractal Design Define R5, een relatief stille CPU-koeler en zo.
Is het de afgelopen jaren beter geworden met het lawaai die kaarten maken? Misschien door betere ventilators te gebruiken of zo.
Dat is met volle continue belasting. Max fan speed is 1600 rpm. En hij throttled niet. Clockspeed is dan continu 1175 MHz. Voltage is iets van 0,950mv.

Er zit zeker verschil in hoe stil fans zijn. De echt stille zijn vaak duur. En ondanks dat die stil zijn kunnen ze toch veel lucht verplaatsen.

Ik heb zelf een Prodigy M case dus dan wordt de boel snel warm. Ik gebruik een combinatie van undervolting en overclocking om mijn performance per watt hoger te krijgen. Op die manier is mijn hardware heel efficiënt, stil en toch snel.
Chips hebben altijd een sweetspot. Ipv van de absolute Max zoeken wat ik vroeger deed ga ik nu op zoek naar de sweetspot ook een leuke uitdaging :)

Heb erg veel zin om ZEN en Vega te gaan tweaken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

Astennu schreef op vrijdag 09 september 2016 @ 08:55:
[...]


Dat is met volle continue belasting. Max fan speed is 1600 rpm. En hij throttled niet. Clockspeed is dan continu 1175 MHz. Voltage is iets van 0,950mv , voltage op 1140 mV (default).
Een groot verschil met mijn kaart: 1590-5300
Kloksnelheid op 1050/1300 en power op +5%.
Ik heb zelf een Prodigy M case dus dan wordt de boel snel warm. Ik gebruik een combinatie van undervolting en overclocking om mijn performance per watt hoger te krijgen. Op die manier is mijn hardware heel efficiënt, stil en toch snel.
Chips hebben altijd een sweetspot. Ipv van de absolute Max zoeken wat ik vroeger deed ga ik nu op zoek naar de sweetspot ook een leuke uitdaging :)
AdoredTV ging daar op in, het verlagen van de spanning kan volgens hem erg goed werken voor de RX 480.
Heb erg veel zin om ZEN en Vega te gaan tweaken.
Ik ga sowieso voor Vega kiezen, of dat ik voor Zen kies zal afhangen van benchmarks en de prijs. Ik neem pas een beslissing als ik voor voldoende DX11- en DX12-spellen benchmarks heb gezien en dit in combinatie met de 1080/1080 Ti zodat je goed kan beoordelen of dat er een CPU-bottleneck is en hoe zwaar die is. Je kan tot op zekere hoogte een mindere CPI of een lagere kloksnelheid aanvaarden zolang je bij de bestaande DX11 spellen geen SCP-bottlenmeck hebt. Ik hoop dat Zen een optie gaat zijn.

Heb jij het artikel van PC Perspective meegekregen? Voor de servervariant hebben ze mogelijk nog wat problemen.
http://www.pcper.com/news...-Performance-Extrapolated
Ik hoop dat ze bewust iets hadden uitgeschakeld of dat ze bewust een te laag vermogen hadden gebruikt of zoiets om te testen. Het komt nu onder het niveau van Ivy Bridge uit. -slik-
Van de optimistische kant bekeken: Linus Torvalds (de stichter van Linux, op basis van de GNU van de briljante en onorthodoxe Richard Stallman) vindt de Geekbench een slechte benchmark.

[Voor 19% gewijzigd door CHBF op 09-09-2016 09:20]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26
CHBF schreef op vrijdag 09 september 2016 @ 09:07:
[...]

Een groot verschil met mijn kaart: 1590-5300
Kloksnelheid op 1050/1300 en power op +5%.


[...]

AdoredTV ging daar op in, het verlagen van de spanning kan volgens hem erg goed werken voor de RX 480.


[...]

Ik ga sowieso voor Vega kiezen, of dat ik voor Zen kies zal afhangen van benchmarks en de prijs. Ik neem pas een beslissing als ik voor voldoende DX11- en DX12-spellen benchmarks heb gezien en dit in combinatie met de 1080/1080 Ti zodat je goed kan beoordelen of dat er een CPU-bottleneck is en hoe zwaar die is. Je kan tot op zekere hoogte een mindere CPI of een lagere kloksnelheid aanvaarden zolang je bij de bestaande DX11 spellen geen SCP-bottlenmeck hebt. Ik hoop dat Zen een optie gaat zijn.

Heb jij het artikel van PC Perspective meegekregen? Voor de servervariant hebben ze mogelijk nog wat problemen.
http://www.pcper.com/news...-Performance-Extrapolated
Ik hoop dat ze bewust iets hadden uitgeschakeld of dat ze bewust een te laag vermogen hadden gebruikt of zoiets om te testen. Het komt nu onder het niveau van Ivy Bridge uit. -slik-
Van de optimistische kant bekeken: Linus Torvalds (de stichter van Linux, op basis van de GNU van de briljante en onorthodoxe Richard Stallman) vindt de Geekbench een slechte benchmark.
Ik weet de exacte besparing niet meer met mijn uv. Er zijn wel posts te vinden waar mijn tabel nog in staat. Ik heb hem meer dan 1x gepost. Ik weet wel dat hij daar door lekker zuinig wordt. In het geval van mijn kaart zat 1266 boven de Sweet spot. Ik kon het voltage wel verlagen maar als ik naar 1175 ging kon ik onder de 1,0v en dat scheelde weer veel. Dus ben toen gewoon voor efficiëntie en stilte gegaan :)
Fan speed heb ik opzettelijk gelimiteerd want anders gaat hij toch versnellen als het niet perse nodig is. De kaart throttled in games niet met deze lage voltages en fan speeds.

Dus dat voltage verlaging goed werkte wist ik al. De 2e dag dat ik hem had had ik al aardig wat uv tests gedaan.

Wat betreft zen. Wat to early to tell. Het gaat mij er om dat hij in de buurt van skylake komt of even snel is als haswell welke ik nu heb. Als dat zo is ga ik over. We hebben meer concurrentie nodig enige manier dat dat gebeurd is als AMD blijft bestaan en dat gaat alleen als mensen die producten kopen. Daarnaast geven ik deze setup 2 jaar en is uit getweaked. En tweaken is mijn hobby dus wrl leuk om weer eens met wat nieuws te spelen.

Upgraden naar skylake was ook niet de moeite. Ondanks dat deze 2 generaties nieuwere is dan mijn haswell :/
En een 8 core cpu lijkt mij ook wel interessant. Er komen steeds meer games die meer dan 4 threads kunnen gebruiken. Doom 2016 is er een mooi voorbeeld van.

Over zen kan je ook pas wat zeggen als je Final samples hebt en volledige test sets gedraaid worden. Ik ben het er mee eens dat geekbensch een maatstaaf van niets is. Dus ik hecht daar geen waarde aan.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 26-09 21:44
Ik zou een beetje oppassen van Doom net de nieuwe Ashes of Singularity te maken. Als we even naar de stats kijken dan speelt niemand die game: http://steamcharts.com/app/379720#All

Nuttiger is bijvoorbeeld Battlefield One.


Duiding: Op basis hiervan is zowel een GTX 1060 als een RX480 een prima kaart om dit jaar Battlefield One mee te spelen. Alles onder de 380X zou ik upgraden.

@Astennu
In je profiel staat een ivy bridge, geen haswell :P .

[Voor 18% gewijzigd door sdk1985 op 09-09-2016 17:51]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Snowdog
  • Registratie: maart 2001
  • Laatst online: 17:17
sdk1985 schreef op vrijdag 09 september 2016 @ 17:27:
Ik zou een beetje oppassen van Doom net de nieuwe Ashes of Singularity te maken. Als we even naar de stats kijken dan speelt niemand die game: http://steamcharts.com/app/379720#All

Nuttiger is bijvoorbeeld Battlefield One.

[afbeelding]

@Astennu
In je profiel staat een ivy bridge, geen haswell :P .
Nuttiger waarvoor precies? Ik vind deze benchmarks eigenlijk niet heel bijzonder. Er blijkt niet echt of een snelle cpu (of cpu met veel cores) veel zin heeft en verder is het een dx11 benchmark (van een beta). Ik denk dat een vergelijkbare dx12 benchmark (met de final version) veel interessanter zal zijn?

  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 26-09 21:44
Nuttiger dan Doom en Ashes om uitspraken te doen over gpu prestaties. De game is zo goed als klaar dus daar zou ik niet veel van verwachten. Als je de link volgt kun je ook de DirectX12 benchmark vinden (opnieuw doet het weinig).

Verder ging ik niet op het gpu vraagstuk in want dit is het gpu topic en anders krijg ik daar weer commentaar op ;). Wil jou best een plezier doen: Je hoeft niet gek op te kijken als Zen pas halverwege 2017 verschijnt. Ik zou er persoonlijk niet op wachten als je nu performance tekort komt en gewoon een 6600K of 6700K aanschaffen. Kom je geen performance tekort dan is het een non-issue.

HWI heeft overigens pas een onderzoek geplubliceerd naar cpu kracht in combinatie met AMD en Nvidia gpu's:
Hoewel AMD-drivers bij ‘gewone’ games zonder CPU-bottleneck geen zwaardere last leggen op de processor, gaan de prestaties van AMD-kaarten wel sterker achteruit in CPU-intensieve spellen bij het gebruik van een langzamere processor. De resultaten zijn dus enigszins dubbelzinnig, maar duidelijker kunnen we het helaas niet maken.

In ieder geval is dit iets om rekening mee te houden als je een AMD-videokaart van de huidige generatie wilt nemen. De benchmarks die Hardware.Info en andere hardwaresites uitvoeren worden vrijwel altijd uitgevoerd met de snelste i7 processors (een 5960X of een 6700k), juist om een eventuele CPU-bottleneck te minimaliseren. In de praktijk is het dus mogelijk dat een langzamere of oudere processor slechtere prestaties oplevert in combinatie met een AMD-videokaart dan de benchmarks aangeven. Dit fenomeen zal echter wel beperkt blijven tot CPU-intensieve spellen.
Battlefield One is overigens wel zo'n spel. Ik kwam daar op 100% cpu usage. Ik zit nog op een i5 2500K @ 4.4 Ghz. Maatje van me heeft dezelfde GPU met een i7 6700K en die haalde circa 80%. Dus als je geen i7 van Haswell of nieuwe hebt in combinatie met een K-cpu dan zou ik op basis van het bovenstaande voor de GTX 1060 gaan en niet voor de RX 480. In ieder geval met de huidige prijzen.

[Voor 11% gewijzigd door sdk1985 op 09-09-2016 17:53]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Astennu
  • Registratie: september 2001
  • Laatst online: 24-09 16:26
sdk1985 schreef op vrijdag 09 september 2016 @ 17:27:
Ik zou een beetje oppassen van Doom net de nieuwe Ashes of Singularity te maken. Als we even naar de stats kijken dan speelt niemand die game: http://steamcharts.com/app/379720#All

Nuttiger is bijvoorbeeld Battlefield One.

[afbeelding]
Duiding: Op basis hiervan is zowel een GTX 1060 als een RX480 een prima kaart om dit jaar Battlefield One mee te spelen. Alles onder de 380X zou ik upgraden.

@Astennu
In je profiel staat een ivy bridge, geen haswell :P .
Doe ik ook niet ik geef alleen aan dat Doom veel cpu cores kan gebruiken veel games Kunnen dat niet maar het komt wel steeds vaker voor.

Ik heb een 4790k @ 4,5GHz met slechts 1,15v.

Dat profiel is heel oud. Gebruik die oude systeem pagina van GoT classic nog steeds. Link staat in mijn signature.

[Voor 6% gewijzigd door Astennu op 09-09-2016 17:55]

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 26-09 21:44
O daar ben ik het zeker mee eens. Dat was een kwestie van tijd. Ik ben sinds 2011 gpu limited geweest (na overclock). Het moest een keer gebeuren dat de gpu's zo snel werden dat de cpu bottleneck weer in zicht kwam. Vorig jaar merkte ik dat voor het eerst met Cities Skylines, maar dat was geen representatieve game. Nu met Battlefield One en een GTX 1070 blijkt "mainstream" ook veel cpu power te lusten.

Of Battlefield One nu echt goed multithreaded is durf ik niet te zeggen. Dat kun je pas zien als je cpu kracht over hebt en dan naar de load per core kijkt. Immers als je 90-100% cpu usage hebt dan lijkt vrijwel elke game tegenwoordig goed te multithreaden (gooi je multiplier maar eens omlaag naar x16). Echter heb je kracht over dan zie je toch vrijwel altijd die ene core die pak hem beet 20% meer belasting trekt.

Maar goed quadcores zijn zeker doorgebroken en de 6-core lijkt mij de meest logische volgende stap :).

[Voor 6% gewijzigd door sdk1985 op 09-09-2016 17:59]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Ardjee
  • Registratie: februari 2009
  • Laatst online: 26-09 13:50
sdk1985 schreef op vrijdag 09 september 2016 @ 17:47:
Nuttiger dan Doom en Ashes om uitspraken te doen over gpu prestaties. De game is zo goed als klaar dus daar zou ik niet veel van verwachten. Als je de link volgt kun je ook de DirectX12 benchmark vinden (opnieuw doet het weinig).

Verder ging ik niet op het gpu vraagstuk in want dit is het gpu topic en anders krijg ik daar weer commentaar op ;). Wil jou best een plezier doen: Je hoeft niet gek op te kijken als Zen pas halverwege 2017 verschijnt. Ik zou er persoonlijk niet op wachten als je nu performance tekort komt en gewoon een 6600K of 6700K aanschaffen. Kom je geen performance tekort dan is het een non-issue.

HWI heeft overigens pas een onderzoek geplubliceerd naar cpu kracht in combinatie met AMD en Nvidia gpu's:

[...]

Battlefield One is overigens wel zo'n spel. Ik kwam daar op 100% cpu usage. Ik zit nog op een i5 2500K @ 4.4 Ghz. Maatje van me heeft dezelfde GPU met een i7 6700K en die haalde circa 80%. Dus als je geen i7 van Haswell of nieuwe hebt in combinatie met een K-cpu dan zou ik op basis van het bovenstaande voor de GTX 1060 gaan en niet voor de RX 480. In ieder geval met de huidige prijzen.
Ik ben het vrijwel met je verhaal eens, op het feit na dat Dice al enigsinds bekend is met mantle/dx12/close to the metal APIs. BF4 had al mantle support waarbij je weldegelijk een improvement zag met een zwakke CPU (i5 750 ICM een 7950). Het was weliswaar allemaal experimenteel toen ik het probeerde en het leverde andere random framedrops op, maar de potentie was er.

Ik verwacht dat voor 60 FPS een 2500K met lichte OC genoeg blijft (draai ik zelf ook, en had weinig last tijdens de beta). Wil je naar hogere framerates dan gaat een i7 wenselijk worden. Voor 144 FPS zou er al aan een hexacore intel gedacht moeten worden.

  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 26-09 21:44
Ardjee schreef op vrijdag 09 september 2016 @ 17:59:
[...]


Ik ben het vrijwel met je verhaal eens, op het feit na dat Dice al enigsinds bekend is met mantle/dx12/close to the metal APIs. BF4 had al mantle support waarbij je weldegelijk een improvement zag met een zwakke CPU (i5 750 ICM een 7950). Het was weliswaar allemaal experimenteel toen ik het probeerde en het leverde andere random framedrops op, maar de potentie was er.

Ik verwacht dat voor 60 FPS een 2500K met lichte OC genoeg blijft (draai ik zelf ook, en had weinig last tijdens de beta). Wil je naar hogere framerates dan gaat een i7 wenselijk worden. Voor 144 FPS zou er al aan een hexacore intel gedacht moeten worden.
Laagste wat ik heb gezien is 80 FPS op 4.4 Ghz bij DX12 met 2560x1080 dus dat van die lichte overclock klopt wel ongeveer. In DX11 modus haalde ik overigens 90-130 FPS.

Toch miste ik juist in deze game manieren om de cpu te ontlasten. Ik heb hem namelijk ook op mijn G4400 gedraaid met GTX 660 Ti en daar kwam ik niet boven de 40-60 fps uit, terwijl de gpu slechts 48% werd belast. Verschil tussen low en medium was er eigenlijk niet (in fps). Dus BF One is daarmee nu net een game die gewoon niet zo lekker draait op low end cpu's.

[Voor 4% gewijzigd door sdk1985 op 09-09-2016 18:38]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • LongBowNL
  • Registratie: juni 2009
  • Laatst online: 16:04
CHBF schreef op vrijdag 09 september 2016 @ 08:50:


[...]

Vega komt waarschijnlijk uit tussen april en juni.


[...]
AMD heeft aangegeven dat het H1 2017 wordt, niet Q2 2017. Dus het kan nog beide kanten op.
sdk1985 schreef op vrijdag 09 september 2016 @ 17:27:
Ik zou een beetje oppassen van Doom net de nieuwe Ashes of Singularity te maken. Als we even naar de stats kijken dan speelt niemand die game: http://steamcharts.com/app/379720#All
De MP van de game is niet zo populair; ook niet vreemd, die is dan ook vrij bagger voor een PC game. Het spel heeft echter meer dan een miljoen eigenaren waarvan een deel deze dan ook nog volledig offline gespeeld zal hebben. En daar komt nu een flink aantal piraten bij ;)

Dit soort "concurrent" statistieken zijn leuk en aardig, maar zijn totaal niet representatief.
sdk1985 schreef op vrijdag 09 september 2016 @ 17:47:
Nuttiger dan Doom en Ashes om uitspraken te doen over gpu prestaties. De game is zo goed als klaar dus daar zou ik niet veel van verwachten. Als je de link volgt kun je ook de DirectX12 benchmark vinden (opnieuw doet het weinig).
Hun DX12 test is alleen met een Fury X, waarvan inmiddels is gebleken dat deze in DX12 nog steeds een bottleneck ondervindt om de één of andere reden.
Battlefield One is overigens wel zo'n spel. Ik kwam daar op 100% cpu usage. Ik zit nog op een i5 2500K @ 4.4 Ghz. Maatje van me heeft dezelfde GPU met een i7 6700K en die haalde circa 80%. Dus als je geen i7 van Haswell of nieuwe hebt in combinatie met een K-cpu dan zou ik op basis van het bovenstaande voor de GTX 1060 gaan en niet voor de RX 480. In ieder geval met de huidige prijzen.
i7-4770K op 4.2 zit ook gewoon op 100% ;)

Die 85 van PCGH met een 970 lukt overigens een tijdje (op een rustige server dan, drukke conquest match kom je toch echt lager uit op ultra) en dan begin het geheugen vol te raken. En dan ineens krijg je van Windows een melding dat er niet genoeg geheugen is (terwijl er slechts 6,5 van 8,0 gebruikt wordt...denk je dan). Instellingen iets verlagen (mix van high en ultra) en die melding gaat weg, terwijl het intern geheugen gebruik nog steeds op 6,5 staat. Rara over welk geheugen gaat die melding :+

[Voor 4% gewijzigd door Werelds op 09-09-2016 20:04]


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 26-09 21:44
Werelds schreef op vrijdag 09 september 2016 @ 20:02:
[...]

De MP van de game is niet zo populair; ook niet vreemd, die is dan ook vrij bagger voor een PC game. Het spel heeft echter meer dan een miljoen eigenaren waarvan een deel deze dan ook nog volledig offline gespeeld zal hebben. En daar komt nu een flink aantal piraten bij ;)

Dit soort "concurrent" statistieken zijn leuk en aardig, maar zijn totaal niet representatief.
[...]
Leuke link maar het bevestigd eigenlijk mijn punt :P . De gemiddelde speeltijd is daar namelijk 16 uur (mediaan 10). Doom is weer typisch zo'n game die leuk klinkt omdat het vroeger leuk was (en 1 van de weinige games die je had). Anno 2016 heb je nog 400 andere games in je library staan en kom je er gewoon niet aan toe.

Daar zou ik persoonlijk dus nooit een gpu keuze op gaan baseren. Bij Battlefield One zat ik in de beta al op 15 uur :o .
i7-4770K op 4.2 zit ook gewoon op 100% ;)
Had hem dan ook op 4.4 Ghz gezet dan wisten we tenminste wat :P .
Die 85 van PCGH met een 970 lukt overigens een tijdje (op een rustige server dan, drukke conquest match kom je toch echt lager uit op ultra) en dan begin het geheugen vol te raken. En dan ineens krijg je van Windows een melding dat er niet genoeg geheugen is (terwijl er slechts 6,5 van 8,0 gebruikt wordt...denk je dan). Instellingen iets verlagen (mix van high en ultra) en die melding gaat weg, terwijl het intern geheugen gebruik nog steeds op 6,5 staat. Rara over welk geheugen gaat die melding :+
Van je systeemram want van het vga geheugen ga je van Windows geen melding krijgen :).

Maar jij bent er zo één die aan zijn windows geheugen instellingen gaat rommelen omdat je het beter weet? :+ Ik heb die fout ook ooit gemaakt. Kwam bij mij aan het licht toen ik nog 8 GB ram had bij Planetary Annihilation (game 5.4 GB + Chrome 3GB) en ook eens bij het parsen van combatlogs (ACT). Toen ik in 2011 namelijk 8 GB ram kocht had ik niet verwacht dat ik nog een pagefile nodig zou hebben en had ik hem handmatig op 500MB - 8 GB gezet.

Die foutmelding destijds kunnen oplossen door de pagefile weer op 1.5x je maximale ram te zetten. In mijn geval waren de juiste instellingen 500 MB tot 12 GB. Vervolgens krijg ik de melding niet meer en kon ik Chrome lekker open laten staan. Het is overigens niet zo dat hij daadwerkelijk 12 GB in het swapfile ging plaatsen.

Waarom je eerder dan het geheugen echt vol zit al een melding krijgt is mij ook een raadsel! Die waardes tellen uberhaupt nooit lekker op. Bij Planetary Annihilation waren alle processsen bij elkaar significant minder dan de waarde die Windows (7) aan gaf (ook zonder dat caching gedoe). Ook kreeg ik de melding eerder dan alles daadwerkelijk vol zat. Met name bij de combat parser sloeg het echt nergens op (2 GB vrij ofzo).

Tegenwoordig ben ik geupgrade naar 16GB (kost bijna niks meer). Mijn system ram was tijdens de beta 8600-10.000, dus met 8 GB ga je aardig swappen lijkt me.

[Voor 20% gewijzigd door sdk1985 op 09-09-2016 20:52]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

sdk1985 schreef op vrijdag 09 september 2016 @ 20:39:
Van je systeemram want van het vga geheugen ga je van Windows geen melding krijgen :).
Wel dus. Is niet de eerste keer dat ik dit krijg, maar wel alleen met m'n 970 ;)

Dankzij die 3,5+0,5 gaat er iets fout in de addressering in sommige games, ik heb dit al een paar keer gezien. Shadow of Mordor had dat ook. Hoe het precies in elkaar steekt durf ik je ook niet te zeggen, maar die melding van Windows is puur gebaseerd op wat Vcache aan geeft. Het betekent niet dat je daadwerkelijk geheugen tekort komt, maar dat Vcache niet kan addresseren wat er gevraagd wordt. De melding klopt niet helemaal met het daadwerkelijke probleem :P
Maar jij bent er zo één die aan zijn windows geheugen instellingen gaat rommelen omdat je het beter weet? :+
Neen lieverd :P



Groeit tijdens bijvoorbeeld BF1 naar zo'n 8,5 GB en was niet minder in de sessies nadat ik de instellingen verlaagd had :)

Niets op de achtergrond draaien overigens, afgezien van Origin, Steam en TeamSpeak. Dat hele verhaal van "OMG SSD dus geen pagefile nodig" heb ik nooit aan mee gedaan, ik weet juist wel beter dan dat :P
Tegenwoordig ben ik geupgrade naar 16GB (kost bijna niks meer). Mijn system ram was tijdens de beta 8600-10.000, dus met 8 GB ga je aardig swappen lijkt me.
Intern geheugen wordt net als VRAM volgestouwd als het er is, puur om disk I/O te vermijden.

16 GB kost inderdaad niet veel meer (hoewel het ironisch gezien in verhouding nu wel duurder is dan toen ik deze DDR3 chips kocht..), maar inmiddels zit ik op een punt dat ik eigenlijk geen zin heb om nog geld aan DDR3 uit te geven aangezien ik binnen een jaar waarschijnlijk op DDR4 zit. Beetje zonde.

  • Gundogan
  • Registratie: maart 2010
  • Laatst online: 26-09 22:37

Gundogan

Rip and tear, until it is done

sdk1985 schreef op vrijdag 09 september 2016 @ 20:39:
[...]

Leuke link maar het bevestigd eigenlijk mijn punt :P . De gemiddelde speeltijd is daar namelijk 16 uur (mediaan 10). Doom is weer typisch zo'n game die leuk klinkt omdat het vroeger leuk was (en 1 van de weinige games die je had). Anno 2016 heb je nog 400 andere games in je library staan en kom je er gewoon niet aan toe.

Daar zou ik persoonlijk dus nooit een gpu keuze op gaan baseren. Bij Battlefield One zat ik in de beta al op 15 uur :o .
Ik wel en straks ook nog Quake Champions op dezelfde engine. Een Fury presteert ongeveer zo goed als een 1070 met Vulkan in DOOM, dus dat maakte de keuze bij een nieuwe videokaart wat makkelijker (en een Fury is natuurlijk sowieso geen slechte kaart voor de 300-350 euro tegenwoordig).

Ook is DOOM wel een aardig voorbeeld wat er mogelijk is met goede optimalisatie. Het spel loopt goed op mindere systemen, schaalt goed naar boven en maakt goed gebruik van de nieuwe ontwikkelingen als de hardware dat ook kan. Bij de rest van de games die DX12/Vulkan ondersteunen heb ik nog een beetje van omdat-het-kan in plaats van dat je er echt iets aan hebt.

i7 4790K, 16GB, ASUS Z97-K, R9 Fury


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 26-09 21:44
Werelds schreef op vrijdag 09 september 2016 @ 21:20:
[...]

Wel dus. Is niet de eerste keer dat ik dit krijg, maar wel alleen met m'n 970 ;)

Dankzij die 3,5+0,5 gaat er iets fout in de addressering in sommige games, ik heb dit al een paar keer gezien. Shadow of Mordor had dat ook. Hoe het precies in elkaar steekt durf ik je ook niet te zeggen, maar die melding van Windows is puur gebaseerd op wat Vcache aan geeft. Het betekent niet dat je daadwerkelijk geheugen tekort komt, maar dat Vcache niet kan addresseren wat er gevraagd wordt. De melding klopt niet helemaal met het daadwerkelijke probleem :P


[...]

Neen lieverd :P

[afbeelding]

Groeit tijdens bijvoorbeeld BF1 naar zo'n 8,5 GB en was niet minder in de sessies nadat ik de instellingen verlaagd had :)

Niets op de achtergrond draaien overigens, afgezien van Origin, Steam en TeamSpeak. Dat hele verhaal van "OMG SSD dus geen pagefile nodig" heb ik nooit aan mee gedaan, ik weet juist wel beter dan dat :P


[...]
Apart verhaal! Ik heb een GTX 660 Ti met een soortgelijke geheugen constructie en ik heb echt nog nooit een foutmelding gezien. Die laatste 512 MB is echt weleens volgekomen (bij 2GB is dat tegenwoordig niet zo moeilijk).
Intern geheugen wordt net als VRAM volgestouwd als het er is, puur om disk I/O te vermijden.

16 GB kost inderdaad niet veel meer (hoewel het ironisch gezien in verhouding nu wel duurder is dan toen ik deze DDR3 chips kocht..), maar inmiddels zit ik op een punt dat ik eigenlijk geen zin heb om nog geld aan DDR3 uit te geven aangezien ik binnen een jaar waarschijnlijk op DDR4 zit. Beetje zonde.
Is er binnen het jaar dan iets om naar te upgraden? Op V&A boden ze overigens 15 euro voor mijn 8 GB. Er is vast iemand die het bereid is voor dat bedrag te leveren O-) .

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Damic
  • Registratie: september 2003
  • Laatst online: 16:06

Damic

Afwezig soms

Wel grappig ik heb mijn PF staan tussen 16 en 1024MB, momenteel in Currently allocated16MB. Recomended is trouwen 24207MB (~23GB) en een ssd heeft ook een PF nodig het is pas als je veel ram (16+GB) geheugen hebt dat je het niet echt meer nodig hebt.

Ik kan vanalles en nog wat maar niets te goei, klinkt bekent?? Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag

sdk1985 schreef op vrijdag 09 september 2016 @ 21:53:
Apart verhaal! Ik heb een GTX 660 Ti met een soortgelijke geheugen constructie en ik heb echt nog nooit een foutmelding gezien. Die laatste 512 MB is echt weleens volgekomen (bij 2GB is dat tegenwoordig niet zo moeilijk).
Mja, ik heb er niet echt zin in gehad om het eens uit te zoeken, maar ik gok dat Nvidia's oplossing een stevige tabel bij houdt van wat waar zit en dat het daar mis gaat.

Je kunt een 660 Ti echter niet helemaal vergelijken met een 970. In Kepler was elke partitie gewoon een 8px ROP, 128 KB L2 cache en een MC. In GM204 zijn er 2 van elk maar blijven de MC's intact en wordt er alleen een ROP/L2 unit uitgeschakeld (waarbij dat ook 256 KB L2 is). Met andere woorden, de bus breedte is technisch gezien gewoon 256-bit. Er zijn daadwerkelijk 8 32-bits MC's aanwezig en functioneel. In de GK104 uitvoering voor de 660 (Ti) zijn er maar 3 van de 4 MC's functioneel (elke MC is daar 64-bit).

Bij de 660 gaat het gewoon om clamshelling. Dan kun je ook niet de volledige bandbreedte tegelijkertijd op alle chips op een MC krijgen, maar dat wordt opgevangen door een hoop elektrisch geschakel. Clamshelling kost vooral latency.

In GM204 zit je echter met het probleem dat je nu 2 MC's met maar half zo veel pixel throughput en L2 cache hebt gekoppeld. Daar zit het grote probleem en daarom zijn die laatste 512 MB op een 970 zo tergend traag. Het geheugen is het probleem niet en de MC's ook niet, het zijn de ROP/L2 units. Alles moet door 1 in plaats van 2 van die units van en naar de crossbar; wat dus de helft aan bandbreedte op dat stuk betekent én het dubbele aan latency.

Om het in cijfers neer te zetten: de 660 heeft op de eerste 1,5 GB 144 GB/s beschikbaar en 48 GB/s op de laatste 512 MB. Bij de 970 ligt dat op 192 GB/s voor 3,5 GB en 28 GB/s voor de laatste 512 MB.
Is er binnen het jaar dan iets om naar te upgraden?
Ik hoop het wel, hangt van Zen af. Kaby Lake is niet echt boeiend en Cannonlake verwacht ik eigenlijk niet eens in 2H17. Niet dat ik sta te springen om te upgraden, maar m'n 4770K stamt toch alweer uit 2013 :p

[Voor 3% gewijzigd door Werelds op 10-09-2016 00:29]

YouTube: GTX 1060 3G vs RX 480 vs GTX 1060 6G - GTX 1050 in disguise?
JayzTwoCents heeft nog steeds niet door dat je voor NVidia-kaarten een veel duurdere monitor moet kopen.
Hij vergelijkt de 3GB-'1060' met de 1060 en de RX 480. "The main question you should ask yourself... (DX11 vs. DX12)". Dat de prijs niet vergelijkbaar is omdat je voor de monitor 100-200 euro kwijt bent en dat dit assortiment alleen maar schaler wordt in vergelijking met dat van FreeSync-monitors komt blijkbaar niet bij hem op terwijl het voor mensen die een budgetkaart kopen toch best wel veel invloed heeft hoe duur die monitor is. Onbegrijpelijk.
Is iemand hier het oneens met mijn stelling dat je de G-Sync-premie moet meenemen in een review?

Even iets anders. Iemand beweerde dat AMD een paper launch zou overwegen voor de Vega-kaarten in Q1. Een indianenverhaal of gestaafd met feiten? Ik heb de laatste dagen het nieuws gemist.

[Voor 11% gewijzigd door CHBF op 10-09-2016 19:14]

Zelfcensuur is de meest schadelijke vorm van censuur.

CHBF schreef op zaterdag 10 september 2016 @ 19:12:
YouTube: GTX 1060 3G vs RX 480 vs GTX 1060 6G - GTX 1050 in disguise?
JayzTwoCents heeft nog steeds niet door dat je voor NVidia-kaarten een veel duurdere monitor moet kopen.
Je moet geen FreeSync of G-Sync monitor kopen, dat mag.
Even iets anders. Iemand beweerde dat AMD een paper launch zou overwegen voor de Vega-kaarten in Q1. Een indianenverhaal of gestaafd met feiten? Ik heb de laatste dagen het nieuws gemist.
Iemand die dat op internet plaatst heeft sowieso geen idee waar die over praat. De mensen die het kunnen weten, die gaan zoiets namelijk sowieso niet op het internet plaatsen of delen met anderen die dat zouden doen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

LongBowNL schreef op vrijdag 09 september 2016 @ 19:50:
[...]

AMD heeft aangegeven dat het H1 2017 wordt, niet Q2 2017. Dus het kan nog beide kanten op.
Je gaat er dan alleen wel aan voorbij dat ze voor Summit Ridge Q1 aangaven. Waarom zouden ze voor Vega niet Q1 aangeven als ze verwachten dat het in Q1 uitkomt terwjil ze voor Summit Ridge wel aangeven dat het Q1 wordt. Erg logisch zou dat niet zijn. De meest logische verklaring is dat AMD niet weet of dat ze Q1 halen of weet dat ze Q1 niet halen. Houd er daarom maar rekening mee dat Vega op zijn vroegst debuteert in april en dat de aftermarket-kaarten dus op zijn vroegst debuteren in mei.
-The_Mask- schreef op zaterdag 10 september 2016 @ 19:39:
[...]
Je moet geen FreeSync of G-Sync monitor kopen, dat mag.
Je moet het niet maar dan krijg je veel minder waar voor je geld uit die grafische kaart en FreeSync krijgt je zo goed als gratis bij de monitor, voor G-Sync moet je 100-200 euro extra betalen. :)
Waarom zou je in deze tijd nog zonder FreeSync/G-Sync spelen zogauw je een nieuwe monitor koopt of als je er al een hebt die FreeSync ondersteunt? :?
Iemand die dat op internet plaatst heeft sowieso geen idee waar die over praat. De mensen die het kunnen weten, die gaan zoiets namelijk sowieso niet op het internet plaatsen of delen met anderen die dat zouden doen.
Het hangt ervan af waar hij het vandaan heeft gehaald. Ik vroeg me af of dat ik een mededeling van AMD heb gemist.

[Voor 28% gewijzigd door CHBF op 10-09-2016 19:54]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • aminam
  • Registratie: december 2012
  • Laatst online: 25-09 19:40
CHBF schreef op zaterdag 10 september 2016 @ 19:49:
[...]

Je gaat er dan alleen wel aan voorbij dat ze voor Summit Ridge Q1 aangaven. Waarom zouden ze voor Vega niet Q1 aangeven als ze verwachten dat het in Q1 uitkomt terwjil ze voor Summit Ridge wel aangeven dat het Q1 wordt. Erg logisch zou dat niet zijn. De meest logische verklaring is dat AMD niet weet of dat ze Q1 halen of weet dat ze Q1 niet halen. Houd er daarom maar rekening mee dat Vega op zijn vroegst debuteert in april en dat de aftermarket-kaarten dus op zijn vroegst debuteren in mei.


[...]

Je moet het niet maar dan krijg je veel minder waar voor je geld uit die grafische kaart en FreeSync krijgt je zo goed als gratis bij de monitor, voor G-Sync moet je 100-200 euro extra betalen. :)
Waarom zou je in deze tijd nog zonder FreeSync/G-Sync spelen zogauw je een nieuwe monitor koopt of als je er al een hebt die FreeSync ondersteunt? :?


[...]

Het hangt ervan af waar hij het vandaan heeft gehaald. Ik vroeg me af of dat ik een mededeling van AMD heb gemist.
Freesync aanbod gaat de goeie kant op, mijn ultieme monitor wordt tegenwoordig ook aangeboden. Exact de reden waarom ik hem aan mezelf geschonken heb, heb het over de pricewatch: LG 27UD68-P Zwart

Ga de freesync experience laten weten als ik hem heb, levering is ondertussen al wel weer een week uitgestelt. -_-

x370 Taichi | R5 3600 | Vega 64 Liquid| Phanteks Evolv atx


  • Cid Highwind
  • Registratie: december 2006
  • Laatst online: 25-09 16:51
CHBF schreef op zaterdag 10 september 2016 @ 19:12:
YouTube: GTX 1060 3G vs RX 480 vs GTX 1060 6G - GTX 1050 in disguise?
JayzTwoCents heeft nog steeds niet door dat je voor NVidia-kaarten een veel duurdere monitor moet kopen.
Hij vergelijkt de 3GB-'1060' met de 1060 en de RX 480. "The main question you should ask yourself... (DX11 vs. DX12)". Dat de prijs niet vergelijkbaar is omdat je voor de monitor 100-200 euro kwijt bent en dat dit assortiment alleen maar schaler wordt in vergelijking met dat van FreeSync-monitors komt blijkbaar niet bij hem op terwijl het voor mensen die een budgetkaart kopen toch best wel veel invloed heeft hoe duur die monitor is. Onbegrijpelijk.
Is iemand hier het oneens met mijn stelling dat je de G-Sync-premie moet meenemen in een review?
Ja en nee. Ik denk dat het ten alle tijd vermeld dient te worden om potentiële kopers goed te informeren. Anderszijds, hoe zwaar laat je het meewegen? Voor mij speelde het bij de keuze 480/Fury/1060 een rol, want ik moest nu ook een nieuw beeldscherm kopen. Echter, mijn vorige beeldscherm heb ik 9 jaar mee gedaan en heeft geloof ik 4 generaties aan videokaarten gezien. In dat licht zou die 100-200 Euro neerkomen op een premium van 25-50€ per GPU.

  • Mila1994
  • Registratie: mei 2015
  • Laatst online: 10:45
Voor mij zou het premium voor G-Sync erg zwaar meespelen. Waar je rekening mee moet houden is niet alleen dat G-Sync de monitor duurder maakt, maar er zijn ook maar weinig G-Sync monitoren op de markt, en vrijwel allemaal zijn dat hogere segment monitoren, dus voor mij op mijn studentenbudgetje is een G-Sync monitor exorbitant duur. Freesync is iets dat ik wel kan betalen, en dat gaat bij mijn volgende monitor zeker erin zitten. Als je toch al in het hogere segment monitoren zit, dan maakt de premie voor G-Sync vrij weinig uit, maar juist mensen die in het RX 480/GTX1060 segment van de markt zitten en dus waarschijnlijk ook niet in het hogere monitoren segment, lopen waarschijnlijk tegen de G-sync premie op. Ik weet het, vrij veel aannames, maar het is de situatie waarin ik zelf zit.

  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 15:24

Sp3ci3s8472

@ 12 graden...

Cid Highwind schreef op zondag 11 september 2016 @ 10:09:
[...]
Ja en nee. Ik denk dat het ten alle tijd vermeld dient te worden om potentiële kopers goed te informeren. Anderszijds, hoe zwaar laat je het meewegen? Voor mij speelde het bij de keuze 480/Fury/1060 een rol, want ik moest nu ook een nieuw beeldscherm kopen. Echter, mijn vorige beeldscherm heb ik 9 jaar mee gedaan en heeft geloof ik 4 generaties aan videokaarten gezien. In dat licht zou die 100-200 Euro neerkomen op een premium van 25-50€ per GPU.
Daarom weegd het juist zwaarder mee. Zonder G-Sync kan je al gauw 100-200 euro meer aan beeldscherm kopen wat best significant is bij beeldschermen.
Ik zit liever 9 jaar op een mooier beeldscherm dan op een budget scherm met g-sync module.

Battle.net tag

aminam schreef op zondag 11 september 2016 @ 01:44:
[...]


Freesync aanbod gaat de goeie kant op, mijn ultieme monitor wordt tegenwoordig ook aangeboden. Exact de reden waarom ik hem aan mezelf geschonken heb, heb het over de pricewatch: LG 27UD68-P Zwart

Ga de freesync experience laten weten als ik hem heb, levering is ondertussen al wel weer een week uitgestelt. -_-
Graag. :)
Laat jij dan ook even weten hoe de resolutie en de diagonaal bevallen?
Ik ben in het bijzonder benieuwd hoe het schalen werkt, in twee richtingen. Gaat 1440p gaming lekker op een 4k-scherm van 27'' (het schaalt niet lekker)? Hoe bevalt het om HD-video's te bekijken op dat scherm? Heb jij last van het backlight als je bijvoorbeeld HD-video naar 24'' zou schalen?

Zelf wacht ik nog even. In de eerste plaats omdat mijn huidige grafische kaart al moeite heeft om met 1080p een FPS van >60 te halen. Daarnaast zou ik op dit moment voor 1440p kiezen omdat ik graag een hogere refreshrate dan 60 Hz wil. Ik hoop dat volgend jaar de prijzen van 4k-monitors met >60 Hz fors zijn gedaald. Als in ieder geval de 100 Hz wordt gehaald en de prijs niet boven 500 euro uit zou komen dan zou het al veel aantrekkelijker zijn. Waarschijnlijk koop ik rond de tijd dat ik een Vega-kaart koop een nieuwe monitor.
Mila1994 schreef op zondag 11 september 2016 @ 11:44:
Voor mij zou het premium voor G-Sync erg zwaar meespelen. Waar je rekening mee moet houden is niet alleen dat G-Sync de monitor duurder maakt, maar er zijn ook maar weinig G-Sync monitoren op de markt, en vrijwel allemaal zijn dat hogere segment monitoren, dus voor mij op mijn studentenbudgetje is een G-Sync monitor exorbitant duur. Freesync is iets dat ik wel kan betalen, en dat gaat bij mijn volgende monitor zeker erin zitten. Als je toch al in het hogere segment monitoren zit, dan maakt de premie voor G-Sync vrij weinig uit, maar juist mensen die in het RX 480/GTX1060 segment van de markt zitten en dus waarschijnlijk ook niet in het hogere monitoren segment, lopen waarschijnlijk tegen de G-sync premie op. Ik weet het, vrij veel aannames, maar het is de situatie waarin ik zelf zit.
Precies mijn redenatie. Mensen die niet meer dan 200-250 euro besteden aan een grafische kaart zitten niet te wachten op 100-200 euro meer kosten voor een monitor en dat met een veel kleiner assortiment. Voor een 1080-kaart maak het misschien weinig uit (met de huidige prijzen :)), voor een 1070-kaart verlies je al klanten, voor een 1060 en een valse 1060 werkt dat sterk in je nadeel.
Cid Highwind schreef op zondag 11 september 2016 @ 10:09:
Ik denk dat het ten alle tijd vermeld dient te worden om potentiële kopers goed te informeren.
Zelfs dat doen ze niet. Dat is een van de redenen dat ik ook graag de kanalen van kleinere reviewers (RedGamingTech/Science Studio) volg, zij moeten het allemaal zelf betalen (of ze lenen het eens van een kijker of vriend) in plaats van dat ze het krijgen, dan krijg je toch een net iets andere duiding. :)

[Voor 70% gewijzigd door CHBF op 11-09-2016 18:31]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • RmanX
  • Registratie: juni 2001
  • Laatst online: 25-09 07:44

RmanX

Mario pizza!

Dit weekend maar eens een mooi overzicht gemaakt van de relatieve prestatieniveaus van 6 generaties AMD/ATI Radeon kaarten die ik mijn bezit heb (gehad). Ik heb ook enen tabel met ingebouwd diagram gecreëerd :P :


Voor het gemiddelde prestatieniveau ben ik uitgegaan van Techpowerup reviews waar de relatieve prestaties meestal samengevat zijn voor meerdere generaties (basis 1920x1080 of gemiddelde van alle resoluties). De rood gekleurde cellen in mijn tabel geven het prestatieniveau weer ten opzichte van de R9 Fury afgerond op 5%.

Een paar leuke observaties:
  • Een HD 3850 presteert net minder dan 10% van de R9 Fury
  • Het TDP is een factor 4 gestegen, waarbij opgemerkt kan worden dat zowel de 280x als de Fury (semi) high end kaarten zijn en de rest mainstream/enthusiast. Dit zie je ook een beetje aan de chip grootte.
  • Het aantal transistors is meer dan een factor 10 toegenomen
  • Heb met de HD6870 nog eens Crossfire gedraaid, maar had last van microstuttering. Was op papier ongeveer gelijk aan een 280x wat je ook de tabel ziet
  • Een RX 480 staat niet in de tabel maar zou uitkomen op 89% van de Fury op (ref. 8 GB versie 1920x1080)
Vragen/opmerkingen/suggesties zijn welkom 8)

[Voor 3% gewijzigd door RmanX op 11-09-2016 20:06]

AMD Ryzen 7 2700 | 16 GB DDR4 3200 Mhz | AMD Radeon RX Vega 64 | 2 x SSD | 2 x 5400 RPM HDD | LG 16X DVD RW | LG BD | LG 27" 4K

RmanX schreef op zondag 11 september 2016 @ 18:30:
Dit weekend maar eens een mooi overzicht gemaakt van het relatieve prestatieniveaus van 6 generaties AMD/ATI Radeon die ik mijn bezit heb (gehad). Ik heb ook enen tabel met ingebouwd diagram gecreëerd :P :
[afbeelding]

Voor het gemiddelde prestatieniveau ben ik uitgegaan van Techpowerup reviews waar de relatieve prestaties meestal samengevat zijn voor meerdere generaties (basis 1920x1080 of gemiddelde van alle resoluties). De rood gekleurde cellen in mijn tabel geven het prestatieniveau weer ten opzichte van de R9 Fury afgerond op 5%.

Een paar leuke observaties:
  • Een HD 3850 presteert net minder dan 10% van de R9 Fury
  • Het TDP is een factor 4 gestegen, waarbij opgemerkt kan worden dat zowel de 280x als de Fury (semi) high end kaarten zijn en de rest mainstream/enthusiast. Dit zie je ook een beetje aan de chip grootte.
  • Het aantal transistors is meer dan een factor 10 toegenomen
  • Heb met de HD6870 nog eens Crossfire gedraaid, maar had last van microstuttering
  • Een RX 480 staat niet in de tabel maar zou uitkomen op 89% van de Fury op (ref. 8 GB versie 1920x1080)
Vragen/opmerkingen/suggesties zijn welkom 8)
Eens zien hoe mijn HD-7850 (overklokt) erin past. :)

Iets wat ik me afvraag, wat gaat de TDP van toekomstige grafische kaarten worden?
Wel zo handig als je een voeding uitkiest. ;)
Nu zijn ze eventjes zuiniger omdat we aan begin staan van een nieuwe generatie maar straks ga je weer grotere die-sizes krijgen.

1 kritische kanttekening, het zou interessant zijn als je toevoegt wat voor GDDR5 (snelheid) erin zit. Ik vermoed dat er verschillende snelheden van bestaan, dat is immers zo voor GDDR5X.

[Voor 11% gewijzigd door CHBF op 11-09-2016 18:44]

Zelfcensuur is de meest schadelijke vorm van censuur.

Gundogan schreef op vrijdag 09 september 2016 @ 21:23:
[...]


Ik wel en straks ook nog Quake Champions op dezelfde engine. Een Fury presteert ongeveer zo goed als een 1070 met Vulkan in DOOM, dus dat maakte de keuze bij een nieuwe videokaart wat makkelijker (en een Fury is natuurlijk sowieso geen slechte kaart voor de 300-350 euro tegenwoordig).

Ook is DOOM wel een aardig voorbeeld wat er mogelijk is met goede optimalisatie. Het spel loopt goed op mindere systemen, schaalt goed naar boven en maakt goed gebruik van de nieuwe ontwikkelingen als de hardware dat ook kan. Bij de rest van de games die DX12/Vulkan ondersteunen heb ik nog een beetje van omdat-het-kan in plaats van dat je er echt iets aan hebt.
Een alternatieve verklaring is dat Vulkan een betere API is dan DX12.

Wie zou het beter uitwerken? AMD + NVidia + Intel + tal van developers + de OS-gemeenschap (handig voor het opmerken van bugs en het gebruiken als klankbord) of dat ene team van MS?

Dat de DX12-implementatie in RotTR slecht is geloof ik wel maar bij geen enkel DX12-spel is het resultaat zo indrukwekkend als bij Doom. Een andere alternatieve verklaring zou kunnen zijn dat de OpenGL-implementatie van Doom heel erg slecht was maar hoe geloofwaardig is dat in het geval van ID? :)
Het zou ook kunnen dat ID veel beter omgaat met een op Mantle gebaseerde API dan dat andere developers dat doen maar dat zou wel heel erg negatief zijn m.b.t. de andere developers.

[Voor 18% gewijzigd door CHBF op 11-09-2016 19:04]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 15:24

Sp3ci3s8472

@ 12 graden...

Zou Doom 4 in Vulkan gebruik maken van Partial Resident Textures of maakt Megatextures daar sowieso wel of geen gebruik van?

Ik kwam dit overigens tegen, erg leuk om te zien hoe de render pipeline van Doom 4 eruit ziet. Vooral mooi dat ze nu een mix tussen Forward en Defered rendering hebben gevonden waardoor Anti-Aliasing makkelijker is.
http://www.adriancourrege...doom-2016-graphics-study/

Battle.net tag

Even een vraagje over DX12, ondersteunt DX12 nog steeds slechts maximaal 4 CPU-kernen?
Ik kwam dit overigens tegen, erg leuk om te zien hoe de render pipeline van Doom 4 eruit ziet. Vooral mooi dat ze nu een mix tussen Forward en Defered rendering hebben gevonden waardoor Anti-Aliasing makkelijker is.
http://www.adriancourrege...doom-2016-graphics-study/
Heel erg leuk. :)

[Voor 114% gewijzigd door CHBF op 11-09-2016 19:25]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • RmanX
  • Registratie: juni 2001
  • Laatst online: 25-09 07:44

RmanX

Mario pizza!

CHBF schreef op zondag 11 september 2016 @ 18:32:
[...]

Eens zien hoe mijn HD-7850 (overklokt) erin past. :)

Iets wat ik me afvraag, wat gaat de TDP van toekomstige grafische kaarten worden?
Wel zo handig als je een voeding uitkiest. ;)
Nu zijn ze eventjes zuiniger omdat we aan begin staan van een nieuwe generatie maar straks ga je weer grotere die-sizes krijgen.

1 kritische kanttekening, het zou interessant zijn als je toevoegt wat voor GDDR5 (snelheid) erin zit. Ik vermoed dat er verschillende snelheden van bestaan, dat is immers zo voor GDDR5X.
Je opmerking over TDP is een hele goede. Als je kijkt naar de RX480 dan is deze op papier gelijk aan de HD 6870 met 150 W. Ik verwacht/hoop eigenlijk een beetje dat individuele high-end kaarten niet boven 250-300 W gaan uitkomen i.v.m. warmteontwikkeling. Ben benieuwd wat Vega in dit opzicht zal brengen.

Ik heb de geheugen snelheden er trouwens bijstaan in de tabel inclusief effectieve snelheid. Of bedoel je misschien wat anders?

Ps Ik kom uit op 50,4% voor de 7870 en 43,9% voor de 7850 als ik even snel de 7970 gelijk stel aan de 280x. 😊

[Voor 5% gewijzigd door RmanX op 11-09-2016 21:39]

AMD Ryzen 7 2700 | 16 GB DDR4 3200 Mhz | AMD Radeon RX Vega 64 | 2 x SSD | 2 x 5400 RPM HDD | LG 16X DVD RW | LG BD | LG 27" 4K


  • Beaudog
  • Registratie: augustus 2015
  • Laatst online: 26-09 23:41
Doom loopt super of ik hem op een g processor heb draaien of een i5 2500 k.
Loopt allebij super met vulkan .
Alleen met de g cpu moet je wel even bij steam wat invoeren .
+jobs_numthreads 2 dan gaat het prima 1440 p/ 60 fps
Als je dat niet doet dan loopt het vast als met vulkan wilt draaien .

  • NitroX infinity
  • Registratie: januari 2002
  • Laatst online: 17:28
Beaudog schreef op zondag 11 september 2016 @ 22:55:
Doom loopt super of ik hem op een g processor heb draaien of een i5 2500 k.
Loopt allebij super met vulkan .
Alleen met de g cpu moet je wel even bij steam wat invoeren .
+jobs_numthreads 2 dan gaat het prima 1440 p/ 60 fps
Als je dat niet doet dan loopt het vast als met vulkan wilt draaien .
G processor? Ik neem aan dat je het over Celerons en Pentiums hebt? Niemand noemt het G processoren, dat is niet de naam maar het begin van een modelnummer :Y)

Mijn blog; Floating Points


  • bloodlynx
  • Registratie: december 2009
  • Laatst online: 13:25
Ik heb een probleem met Wattman dat na 2 of 3 keer restarten mijn instellingen gereset zijn, heel Irritant. Ik heb al windows opnieuw geïnstalleerd dit leek even te helpen maar helaas was dit niet de oplossing. Nu unvolt ik mijn 480 maar tijdelijk met msi afterburner. Meer mensen die hier last van hebben?

Daarnaast heb is het ook voorgekomen dat me fans opeens op 100% gingen draaien en na 1 min later uit vielen. Ik kwam gelukkig voortijdig hierachter voordat me pc uitviel vanwege de hitten schijnt een Amd driver bug te zijn :(.

Voor de rest bent ik wel te spreken, de perfomance is gewoon erg goed. En freesync doet zijn werk. Wat ik wel gemerkt heb is dat de fps die je haalt invloed heeft op je freesync. Zo moet ik mijn scherm wat een freesync range heeft tm 120 locken op 119 fps anders werkt het niet.
Voor wie het interessant vindt en toevallig dit spel heeft gespeeld: ik speelde eerder op de avond Homefront: The Revolution met een HD 7850, ik haalde mid 30 FPS op de zwaardere stukken en mid 40 op de hogere stukken met FXAA, temporele aliassing op de default-waarde, een hoge kwaliteit van textures en alle overige instellingen (inclusief 'geavanceerde') op medium. Een console-ervaring, ik zal blij zijn als ik heb geupgrade.
Ik vind het altijd wel leuk om te weten hoe goed/slecht oude kaarten presteren.
RmanX schreef op zondag 11 september 2016 @ 20:16:
[...]


Je opmerking over TDP is een hele goede. Als je kijkt naar de RX480 dan is deze op papier gelijk aan de HD 6870 met 150 W. Ik verwacht/hoop eigenlijk een beetje dat individuele high-end kaarten niet boven 250-300 W gaan uitkomen i.v.m. warmteontwikkeling. Ben benieuwd wat Vega in dit opzicht zal brengen.
Eerst en vooral kudos dat jij die tabel hebt gemaakt.

Een stuk lager dan voor de voor de vorige Fury, een stuk hoger dan die van de 1070 (RX 490) en de 1080 (Fury Y of hoe die ook gaat heten :)), dat is zeker.
De Fury X heeft een TDP van 275 W (in theorie in ieder geval ;)), de RX 480 trekt gemiddeld minstens 164 W.
http://www.tomshardware.c...80-polaris-10,4616-9.html
De Nitro (overgeklokt of geoverklokt :?) komt zelfs op 225 W uit, een hoop extra vermogen voor een bescheiden prestatiewinst als je het mij vraagt. :)
De 1060 (de echte), de 1070 en de 1080 hebben respectievelijk een TDP van 120, 150 en 180 W.
http://www.pcadvisor.co.u...1070-vs-gtx-1060-3640925/

Maar goed, wat het vermogen van deze generatie kaarten wordt is op zichzelf nog niet eens zo'n heikele kwestie, ze gaan straks met een grotere die het vermogen in de hand moeten houden, in ieder geval voor de zwaarst draaiende kaarten. Stel dat we nog twee generaties krijgen met deze FinFET-transistor en in beide generaties moet de prestatie met 1 klasse stijgen...
Ik ben benieuwd in welke mate het HBM-, of eventueel straks GDDR6-geheugen, gaat helpen.
Maar goed, 275W is tot nu toe het hoogste vermogen wat we hebben gehad.
http://www.geeks3d.com/20...esign-power-tdp-database/
Best wel interessant: hoewel de AMD-architectuur een veel hoger vermogen heeft lag het vermogen van de Fury slechts 10% hoger dan die van de 980 Ti, met de kanttekening dat de 980 Ti iets meer geheugen had.
Ik heb de geheugen snelheden er trouwens bijstaan in de tabel inclusief effectieve snelheid. Of bedoel je misschien wat anders?
Ik had het over de datarate, zie de rechter kolom in deze tabel.

Je kan dat natuurlijk wel uitrekenen met de gegevens in die tabel.
Ps Ik kom uit op 50,4% voor de 7870 en 43,9% voor de 7850 als ik even snel de 7970 gelijk stel aan de 280x. 😊
Ik kwam eerder met de Vally-benchmark met een overklok uit op net iets minder dan de helft van de RX 480 dus dat zal wel aardig kloppen. De 7850 overklokt komt ongeveer uit op de basisklok van de 7870.

[Voor 9% gewijzigd door CHBF op 12-09-2016 00:20]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Beaudog
  • Registratie: augustus 2015
  • Laatst online: 26-09 23:41
NitroX infinity schreef op zondag 11 september 2016 @ 23:14:
[...]


G processor? Ik neem aan dat je het over Celerons en Pentiums hebt? Niemand noemt het G processoren, dat is niet de naam maar het begin van een modelnummer :Y)
Pentium g 3258 Ik gebruik gewoon een afkorting net als i5

  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het is wel relevante informatie welke G-series CPU, een G1620T aan 2,4GHz of een overgeclockte G3258 aan bijvoorbeeld 4,8GHz.

  • SG
  • Registratie: januari 2001
  • Laatst online: 15:10

SG

SG surft naar info hardewaren

Vulkan en DX12 de thin layer API moeten het doen zonder driver magic van nV & AMD dus de taak om de API goed te benutten ligt bij de devs en ja je kan DX11 conventioneel om zetten naar DX12 en dan performance hit krijgen.
Of je refactor je DX11 architectuur naar een die wel past bij de nieuwe API en migreerd dan ook naar DX12. Dus je bent nu sterker afhankelijk wat de devs ermee doen en minder van de drivers.
Daarnaast is drawcalls een probleem als de game licht is. Dan heeft een optimalere API minder invloed als je niet verzadigde flessehals hebt en GPU bound bent.
Als de IDtech al moderne architectuur gebruikt gericht op multicore systeem met multithreadin pool met job systeem of Data oriented core engine dan pak je DX12 & Vulkan beter op dan conventionele engine arcgitectuur.

Ik verwacht niet dat veel games wild gaan met drawcall het is juist daar dat performance is 10 voud tussen de ouwe en nieuwe API.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


  • spNk
  • Registratie: mei 2007
  • Laatst online: 24-09 10:43
Phuncz schreef op maandag 12 september 2016 @ 07:21:
Het is wel relevante informatie welke G-series CPU, een G1620T aan 2,4GHz of een overgeclockte G3258 aan bijvoorbeeld 4,8GHz.
Of wat dacht je van deze?

  • aminam
  • Registratie: december 2012
  • Laatst online: 25-09 19:40
RmanX schreef op zondag 11 september 2016 @ 18:30:
Dit weekend maar eens een mooi overzicht gemaakt van de relatieve prestatieniveaus van 6 generaties AMD/ATI Radeon kaarten die ik mijn bezit heb (gehad). Ik heb ook enen tabel met ingebouwd diagram gecreëerd :P :
[afbeelding]

Voor het gemiddelde prestatieniveau ben ik uitgegaan van Techpowerup reviews waar de relatieve prestaties meestal samengevat zijn voor meerdere generaties (basis 1920x1080 of gemiddelde van alle resoluties). De rood gekleurde cellen in mijn tabel geven het prestatieniveau weer ten opzichte van de R9 Fury afgerond op 5%.

Een paar leuke observaties:
  • Een HD 3850 presteert net minder dan 10% van de R9 Fury
  • Het TDP is een factor 4 gestegen, waarbij opgemerkt kan worden dat zowel de 280x als de Fury (semi) high end kaarten zijn en de rest mainstream/enthusiast. Dit zie je ook een beetje aan de chip grootte.
  • Het aantal transistors is meer dan een factor 10 toegenomen
  • Heb met de HD6870 nog eens Crossfire gedraaid, maar had last van microstuttering. Was op papier ongeveer gelijk aan een 280x wat je ook de tabel ziet
  • Een RX 480 staat niet in de tabel maar zou uitkomen op 89% van de Fury op (ref. 8 GB versie 1920x1080)
Vragen/opmerkingen/suggesties zijn welkom 8)
cool, ben in het bezit van x1900xtx,x1950xtx,3850,3870,4870,4890,4870x2,6950,6970,6990 en Fury ga binnenkort denk ik benchmarken als ik tijd over heb. Moet alleen nog een nieuw platform scoren met betere IPC dan een q6600 ;p

x370 Taichi | R5 3600 | Vega 64 Liquid| Phanteks Evolv atx


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 15:24

Sp3ci3s8472

@ 12 graden...

Exclusive: Samsung is in talks with Nvidia and AMD for GPU technologies

Currently, Samsung is using ARM’s Mali series of GPUs in its Exynos chipsets. According to information that we’ve received, Samsung is in talks with both AMD and Nvidia to license their GPU technologies. As of now, Nvidia seems to have an upper hand due to its superior Pascal architecture. However, that doesn’t mean AMD could be ruled out, especially since Sony just announced its PS4 Pro gaming console with 4K gaming that uses AMD’s Polaris architecture.
Tweakers post het niet op de FP dus hier dan maar ;).

In het artikel praten ze ook over HSA, maar is dan AMD dan niet een logischer partij?

Battle.net tag


  • Trygve
  • Registratie: oktober 2009
  • Laatst online: 16:03
RmanX schreef op zondag 11 september 2016 @ 18:30:
Dit weekend maar eens een mooi overzicht gemaakt van de relatieve prestatieniveaus van 6 generaties AMD/ATI Radeon kaarten die ik mijn bezit heb (gehad). Ik heb ook enen tabel met ingebouwd diagram gecreëerd :P
Tof dat je die hier post! :)
Mooi om te zien hoe de ontwikkelingen zijn gegaan. Andere interessante vergelijking (vandaag geplaatst) die hier mooi op aansluit:
Techspot - Then and now: Six Generations of $200 Mainstream Radeons GPUs Compared

  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het is geen iPhone of fok.nl-waardig, dus niet genoeg clicks waard I guess :)

  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 15:24

Sp3ci3s8472

@ 12 graden...

Phuncz schreef op maandag 12 september 2016 @ 17:44:
[...]

Het is geen iPhone of fok.nl-waardig, dus niet genoeg clicks waard I guess :)
Fok is wat technieuws betreft soms nog interessanter dan tweakers, het hele bericht dat Intel geen EUV voor 7nm gaat gebruiken en dus geen machines bij ASML afneemt was wel te lezen op fok.nl maar niet op tweakers :X :'( .
Ze waren blijkbaar vergeten dat ASML Nederlands is :P.

Battle.net tag


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Bij HWI is het ook al wel te lezen.

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Maar goed dat we HWI nog hebben oh wait :X

Nu begrijp ik het wel, artikels over procedeën hebben nu niet de algemene interesse, zeker niet omdat de consument er zeer zelden in zeer beperkte mate mee in aanraking komt.

  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Volgensmij publiceert tweakers hier nog wel degelijk over, echter ze zijn gewoon vaak laat.

Tja, vind het wel jammer dat HWI en Tweakers onder zelfde paraplu komen. Niet dat HWI nou zo goed is maar de diversiteit was prettig. Ben bang dat het nog meer eenheidsworst wordt.

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |


  • RmanX
  • Registratie: juni 2001
  • Laatst online: 25-09 07:44

RmanX

Mario pizza!

[quote]aminam schreef op maandag 12 september 2016 @ 11:23:
[...]

cool, ben in het bezit van x1900xtx,x1950xtx,3850,3870,4870,4890,4870x2,6950,6970,6990 en Fury ga binnenkort denk ik benchmarken als ik tijd over heb. Moet alleen nog een nieuw platform scoren met betere IPC dan een q6600 ;p
[/quote]


Vind het altijd leuk om meer vergelijken te zien! Ik heb er aan gedacht om nog meer historie mee te nemen met o.a. de Geforce 7600gt en 6600gt, maar ik liep tegen het 'probleem' aan dat deze kaarten zich theoretisch minder makkelijk laten vergelijken omdat ten tijde van DirectX9 er nog sprake was van pixel en vertex shaders. Daarnaast is dit natuurlijk het Radeon topic :P

[quote]r100 schreef op maandag 12 september 2016 @ 17:31:
[...]

[small]Tof dat je die hier post! :)
Mooi om te zien hoe de ontwikkelingen zijn gegaan. Andere interessante vergelijking (vandaag geplaatst) die hier mooi op aansluit:
Techspot - Then and now: Six Generations of $200 Mainstream Radeons GPUs Compared
[/quote][/small]


Goede timing van Techspot, ga meteen lezen :)

AMD Ryzen 7 2700 | 16 GB DDR4 3200 Mhz | AMD Radeon RX Vega 64 | 2 x SSD | 2 x 5400 RPM HDD | LG 16X DVD RW | LG BD | LG 27" 4K


  • Damic
  • Registratie: september 2003
  • Laatst online: 16:06

Damic

Afwezig soms

bloodlynx schreef op zondag 11 september 2016 @ 23:28:
Ik heb een probleem met Wattman dat na 2 of 3 keer restarten mijn instellingen gereset zijn, heel Irritant. Ik heb al windows opnieuw geïnstalleerd dit leek even te helpen maar helaas was dit niet de oplossing. Nu unvolt ik mijn 480 maar tijdelijk met msi afterburner. Meer mensen die hier last van hebben?

Daarnaast heb is het ook voorgekomen dat me fans opeens op 100% gingen draaien en na 1 min later uit vielen. Ik kwam gelukkig voortijdig hierachter voordat me pc uitviel vanwege de hitten schijnt een Amd driver bug te zijn :(.

Voor de rest bent ik wel te spreken, de perfomance is gewoon erg goed. En freesync doet zijn werk. Wat ik wel gemerkt heb is dat de fps die je haalt invloed heeft op je freesync. Zo moet ik mijn scherm wat een freesync range heeft tm 120 locken op 119 fps anders werkt het niet.
Wattman crasht nogal vaak zelfs met standaard instellingen, software is toch niet hun sterkste kant bij AMD Radeon Divisie :+

Ik kan vanalles en nog wat maar niets te goei, klinkt bekent?? Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


  • winwiz
  • Registratie: september 2000
  • Laatst online: 16:49
Damic schreef op maandag 12 september 2016 @ 20:32:
[...]
Wattman crasht nogal vaak zelfs met standaard instellingen, software is toch niet hun sterkste kant bij AMD Radeon Divisie :+
Bij mij nog nooit gecrasht. AMD heeft zijn software prima op orde :)


1 zwaluw maakt........ kortom het kan zijn dat er bij jou iets niet lekker loopt

Ryzen 3900X + 32GB GSKILL @3200 op Croshair VI Hero + RX Vega 64 + Philips BDM4065UC + DS1815+ + DS414 + MacbookPro 15" 2016


  • Damic
  • Registratie: september 2003
  • Laatst online: 16:06

Damic

Afwezig soms

winwiz schreef op maandag 12 september 2016 @ 20:58:
[...]


Bij mij nog nooit gecrasht. AMD heeft zijn software prima op orde :)


1 zwaluw maakt........ kortom het kan zijn dat er bij jou iets niet lekker loopt
We zullen maar zwijgen over de CCC zeker, dat ding crashte rnd() de driver 8)7 als je ccc deïnstalleerde geen falende drivers meer :?

Systeem toen:
intel Q9550
HD 5870 later de 6870

Dan een fx8320 met de 6870 en later de 280x maar dan was ik al half gestopt met gamen en heb ik ook een punt achter gezet.

En toch zit ik nog altijd bij AMD Radeon :+ want de kaarten zijn zeer goed in RC5 :9

Ik kan vanalles en nog wat maar niets te goei, klinkt bekent?? Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag

Crashte ook nooit bij mij, meestal zit het probleem ook tussen het scherm en de stoel is mijn ervaring. Of er zit gewoon heel veel andere troep op de PC geïnstalleerd welke ook vaak genoeg roet in het eten gooit, maar dat valt eigenlijk ook weer terug te wijzen naar de andere oorzaak. ;)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • bloodlynx
  • Registratie: december 2009
  • Laatst online: 13:25
Damic schreef op maandag 12 september 2016 @ 20:32:
[...]
Wattman crasht nogal vaak zelfs met standaard instellingen, software is toch niet hun sterkste kant bij AMD Radeon Divisie :+
Nou Wattman Crashed bij mij niet, de instellingen worden niet onthouden na 2 of 3 keer rebooten.

Het enigste punt wat ik toe nu toe aan te merken heb is dat me fan nu al twee keer naar 100% uit het niet is gegaan terwijl mijn pc idle was en de videokaart zo'n 38 graden. Nu lees ik dat veel meer mensen hier last van hebben ongeacht het merk dus ik neem aan dat dit wel een driver issue is. Toevallig iemand die hier ook last van heeft?

  • Vipeax
  • Registratie: september 2007
  • Laatst online: 18:07
winwiz schreef op maandag 12 september 2016 @ 20:58:
[...]
AMD heeft zijn software prima op orde :)
De API (ADL) valt wel een beetje tegen t.o.v. 'N API. Hier valt wel omheen te werken, maar sommige calls hebben eisen die niet volledig goed gedocumenteerd zijn.

Komisch genoeg heeft zelfs GPU-Z moeite met een AMD mobo icm een Pascal(!) GPU. Dit vind ik persoonlijk dan weer een issue van NVAPI, maar veel developers (waaronder die van MSI) lijken (onterecht) naar AMD te wijzen hiervoor.

[Voor 52% gewijzigd door Vipeax op 13-09-2016 00:34]


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Bij mij is het zeer stabiel op AMD vlak, enkel kan ik wel eens een driver crash krijgen als ik Firefox met HW acceleration open heb in de achtergrond. Ik heb wel wat werk gehad om onstabiele drivers van mijn systeem te weren, dmv. Driver Verifier functie binnen Windows. Zo kwam de driver van AIDA64 bijvoorbeeld niet door de Driver Verifier testen heen. Nadat ik een aantal van deze softwarepakketten verwijderd had, was mijn stabiliteit ineens véél beter.

  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Opmerkelijk dat ze bijna terug bij hun gemiddelde GPU markt aandeel van 35% zijn, ik verwacht wel dat dit weer een flinke tik krijgt in Q3 met de op het zicht populaire GTX 1060 die behoorlijk wat marktaandeel zal afsnoepen. Toch verdienen ze dit, ze zijn goed bezig in mijn ogen, met redelijke producten voor redelijke prijzen. Maar het kan wel beter, ik vond de Radeon 200 en 300 series interessanter dan de huidige 400 series.
AMD heeft dat aandeel in Q2 terug gepakt zonder Polaris, tenminste ik neem aan dat die ene dag voor het einde van Q2 wanneer de RX 480 launchte weinig invloed op de verkoop heeft gehad. :p In Q2 heeft juist nVidia de helft van dat kwartaal een GTX 1080 "beschikbaar" gehad en de GTX 1070 launch was drie weken voor het einde van Q2. Dus je zou juist verwachten dat nVidia weer wat marktaandeel terug zou pakken doordat ze eerder kwamen met de eerste Pascal kaarten.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

Pagina: 1 2 3 ... 11 Laatste

Dit topic is gesloten.



Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True