CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 138 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 7 ... 11 Laatste
Acties:
  • 71.239 views

Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:20
flessuh schreef op woensdag 23 november 2016 @ 13:11:
Ik zou gokken op Polaris, als tijd-vuller met vega laat in H1 2017 dan..
wat ik persoonlijke wel jammer zou vinden.
Dat denk ik dus zelf ook al een paar maanden op basis van dit document.
Will launch “Vega” for the enthusiast market in 1H 2017
Returning to high performance computing with “Summit Ridge” shipping in volume in Q1 2017 for desktop and notebook offerings to follow in 2H 2017
Tja, dan zijn er altijd mensen die dus zeggen "blijven wachten joh! Die prijzen gaan zeer binnenkort omlaag door concurrentie", maar we weten inmiddels allemaal dat de prijzen amper zijn verandert (alleen meer richting de MSRP, omdat winkels niet meer grote hoeveelheden cashen).

Toch had ik graag geweten waarom AMD er zo lang over doet deze ronde...

Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 13-09 23:25
Paprika schreef op woensdag 23 november 2016 @ 13:15:

Tja, dan zijn er altijd mensen die dus zeggen "blijven wachten joh! Die prijzen gaan zeer binnenkort omlaag door concurrentie", maar we weten inmiddels allemaal dat de prijzen amper zijn verandert (alleen meer richting de MSRP, omdat winkels niet meer grote hoeveelheden cashen).

Toch had ik graag geweten waarom AMD er zo lang over doet deze ronde...
Prijzen gaan op dit moment waarschijnlijk eerder stijgen, al komt dat meer door de dollar.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41
flessuh schreef op woensdag 23 november 2016 @ 13:11:
Ik zou gokken op Polaris, als tijd-vuller met vega laat in H1 2017 dan..
wat ik persoonlijke wel jammer zou vinden.
Als in Polaris op steriods? Vraag het mij af, het zou wel kunnen aansluiten bij de geruchten van het verbeterde procede.

Acties:
  • +1 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 22:17

flessuh

Set sail for fail!

Sp3ci3s8472 schreef op woensdag 23 november 2016 @ 14:58:
[...]


Als in Polaris op steriods? Vraag het mij af, het zou wel kunnen aansluiten bij de geruchten van het verbeterde procede.
Als het enkel verbeterd procede is, is het de vraag hoe groot de winst is... als het zowel verbeterd procede als dual kaart wordt kan het nog leuk worden.
Ook al houd ik altijd mijn twijfels bij dual kaartjes..

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

Verwijderd

Compizfox schreef op dinsdag 22 november 2016 @ 21:27:
[...]

Coil whine is inderdaad geluid wat door spoelen wordt veroorzaakt. Als het geluid over je speakers komt, gaat het om EMI.
Dat was ook mijn gedachte maar ik durfde het niet met 100% zekerheid te stellen. Echter, gezien het feit dat het net gebeurde na het installeren van die kaart lijkt me dat wel de oorzaak. Mijn algemeen geldende advies voor geluid bij een desktopcomputer: gebruik een externe DAC en versterker. Als het even kan ook fatsoenlijke speakers, het bepaalt voor 50% het plezier wat je beleeft met gamen, films en series en zo, voor 100% het plezier bij muziek. Dat rechtvaardigt best wel een investering van tot 200 euro (meer mag ook maar je hoeft niet hoger te gaan :)) voor een goede headphone of wat meer voor boxen, en natuurlijk nog een paar honderd euro voor de DAC en versterker. Je kan het blijven gebruiken voor het volgende systeem, zulk spul gaat gemakkelijk 10 jaar mee dus per jaar valt het mee met de kosten (een paar euro per maand). Nu we toch bezig zijn met hem te helpen. ;)
alaintje schreef op dinsdag 22 november 2016 @ 22:08:
Alsnog bedankt. Het komt sowieso door de rx480. Want het begon direct na het inbouwen van de kaart. Zal nog eens aansluitingen checken.
Het geluid van de game gaat er toch makkelijk overheen.
/offtopic
Sluit niet uit dat de grafische kaart electromagnetische interferentie veroorzaakt met jouw geluidskaart. ;)

[ Voor 20% gewijzigd door Verwijderd op 23-11-2016 21:44 ]


  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41
Externe versterker is echt aan te raden, geen gezeur meer met brakke pc speakers; je hebt ineens veel meer keuze en ook veel beter geluid dan de standaard Logitech sets (meuk).
Enige nadeel is dat je met HDMI zit opgescheept voor geluid aangezien de meeste mobo's geen coax meer hebben. Dit gaat overigens prima via de onboard Intel gpu :D.

  • ParaVince
  • Registratie: Augustus 2015
  • Laatst online: 08-04 15:08
Sluit ik mij volledig bij aan. Externe versterker met optische aansluiting in mijn geval. Had zelf helaas maar keuze uit een enkele versterker, de rest was ruim 3x duurder dan wat ik nu heb. Maar ja, je moet wat als je eist dat er optisch én een elpee speler op moet kunnen ;)

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
flessuh schreef op woensdag 23 november 2016 @ 13:11:
Ik zou gokken op Polaris, als tijd-vuller met vega laat in H1 2017 dan..
wat ik persoonlijke wel jammer zou vinden.
Ik zie Polaris on steroids geen 4K doen.
Of ze moeten ineens veel hogere shaders counts hebben en een grotere bus. Polaris is een super 1080p kaart maar schiet bij 1440p al net wat te kort. Niet alles kan dan max. 4K is wel een grote stap.

Eigenlijk wil je dus wel HBM2.0 hebben.
het zou best kunnen dat de RX490 gewoon Vega is als die kaart echt 4K in het vizier heeft.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 22:17

flessuh

Set sail for fail!

Astennu schreef op donderdag 24 november 2016 @ 15:47:
[...]


Ik zie Polaris on steroids geen 4K doen.
Of ze moeten ineens veel hogere shaders counts hebben en een grotere bus. Polaris is een super 1080p kaart maar schiet bij 1440p al net wat te kort. Niet alles kan dan max. 4K is wel een grote stap.

Eigenlijk wil je dus wel HBM2.0 hebben.
het zou best kunnen dat de RX490 gewoon Vega is als die kaart echt 4K in het vizier heeft.
nou ja, 2x 480 op 1 board, bij 75% scaling ofzo zou voor 1440p wel prima zijn, voor 4k net... maar inderdaad, ik hoop ook echt op vega. Aangezien ik voor 1440p 144hz wil gaan en freesync flink goedkoper is dan gsync :P

https://www.dutchsolarboat.com


Verwijderd

Wccftech had recentelijk een potentiële leak dat de rx490 in december uitkomt, in welk geval het hoogstwaarschijnlijk een soort dubbele rx480 zou zijn met wat kleine wijzigingen. In dit artikel (http://www.pcgamesn.com/a...-release-date-specs-price) staat iets interessants:

"And the report still isn't sure whether the mythical RX 490 is going to be a dual-GPU Polaris card or a brand new Vega 10 option. My money's on neither, with AMD focusing on a 500-series Vega launch early next year instead."

Als de leak klopt, zou de schrijver van dit artikel best wel eens gelijk kunnen hebben. Dual-gpu support is aan het verminderen, dus zou AMD nauwelijks een dual-gpu kwijt kunnen aan gamers. Extra bandbreedte en wat optimalisaties, en een rx490 zou, zeker als hij met een goede koeler flink over te klokken is, tussen de gtx1080 en titan xp in kunnen komen qua prestaties. Ging toch wachten tot december om een pc te kopen, dus kan ik net zo goed wachten om erachter te komen of de rx490 januari 2017 in de winkels ligt, welke versies er dan zijn en natuurlijk hoe goed hij presteert!

  • evEndzhar
  • Registratie: Juli 2006
  • Niet online
Verwijderd schreef op donderdag 24 november 2016 @ 18:18:
Als de leak klopt, zou de schrijver van dit artikel best wel eens gelijk kunnen hebben. Dual-gpu support is aan het verminderen, dus zou AMD nauwelijks een dual-gpu kwijt kunnen aan gamers. Extra bandbreedte en wat optimalisaties, en een rx490 zou, zeker als hij met een goede koeler flink over te klokken is, tussen de gtx1080 en titan xp in kunnen komen qua prestaties.
Eh, de schrijver denkt dat als er dit jaar nog een RX 490 uitkomt, deze op een enkele Polaris (10) gpu gebaseerd zal zijn. Voor GTX 1080 prestaties bij AMD zal je dan dus nog langer moeten wachten.

  • alaintje
  • Registratie: April 2009
  • Laatst online: 14-09 13:00
Verwijderd schreef op donderdag 24 november 2016 @ 18:18:
Wccftech had recentelijk een potentiële leak dat de rx490 in december uitkomt, in welk geval het hoogstwaarschijnlijk een soort dubbele rx480 zou zijn met wat kleine wijzigingen. In dit artikel (http://www.pcgamesn.com/a...-release-date-specs-price) staat iets interessants:

"And the report still isn't sure whether the mythical RX 490 is going to be a dual-GPU Polaris card or a brand new Vega 10 option. My money's on neither, with AMD focusing on a 500-series Vega launch early next year instead."

Als de leak klopt, zou de schrijver van dit artikel best wel eens gelijk kunnen hebben. Dual-gpu support is aan het verminderen, dus zou AMD nauwelijks een dual-gpu kwijt kunnen aan gamers. Extra bandbreedte en wat optimalisaties, en een rx490 zou, zeker als hij met een goede koeler flink over te klokken is, tussen de gtx1080 en titan xp in kunnen komen qua prestaties. Ging toch wachten tot december om een pc te kopen, dus kan ik net zo goed wachten om erachter te komen of de rx490 januari 2017 in de winkels ligt, welke versies er dan zijn en natuurlijk hoe goed hij presteert!
Wachten op een gpu gaat nooit werken want niks is zeker. En als je dan weer 3 maanden wacht komt er wellicht weer iets nieuws uit ;) .

Absoluut relatief, relatief absoluut.


  • prutser001
  • Registratie: Oktober 2004
  • Laatst online: 11-09 22:54

prutser001

Vaak zit het tegen en soms zi

alaintje schreef op donderdag 24 november 2016 @ 23:27:
[...]


Wachten op een gpu gaat nooit werken want niks is zeker. En als je dan weer 3 maanden wacht komt er wellicht weer iets nieuws uit ;) .
Ja helaas, na jaren in het rode kamp gezeten te hebben, nu toch over naar het groene kamp. Het duurt gewoon te lang.... Van 2 x 290x naar GTX1080. Heb nog geen spijt van deze keuze.

Ik had gehoopt wat nieuws over de Vega te krijgen, of in ieder geval iets wat mijn 2 x 290x kon vervangen, RX480 was dat gewoon niet.

Asus Z390 Maximus IX Hero, Intel 9900K, RTX3080, 64GB DDR4 3000, 2TB NVME, Samsung 850Evo 1TB, 4 x 14TB Toshiba, Be Quiet SB 801, Samsung 34"


  • Kuusj
  • Registratie: April 2012
  • Laatst online: 14-09 16:24

Kuusj

Ofwel varken in 't Limburgs

prutser001 schreef op donderdag 24 november 2016 @ 23:34:
[...]


Ja helaas, na jaren in het rode kamp gezeten te hebben, nu toch over naar het groene kamp. Het duurt gewoon te lang.... Van 2 x 290x naar GTX1080. Heb nog geen spijt van deze keuze.

Ik had gehoopt wat nieuws over de Vega te krijgen, of in ieder geval iets wat mijn 2 x 290x kon vervangen, RX480 was dat gewoon niet.
Dat heb ik nu een jaar geleden gedaan, van een 280X naar een GTX970 omdat er bij AMD niks interessant te krijgen was.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • +2 Henk 'm!
kuusj98 schreef op donderdag 24 november 2016 @ 23:35:
[...]

Dat heb ik nu een jaar geleden gedaan, van een 280X naar een GTX970 omdat er bij AMD niks interessant te krijgen was.
Een R9 290 was er eerder dan een GTX 970, bijna een jaar eerder.

[ Voor 3% gewijzigd door -The_Mask- op 24-11-2016 23:44 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Kuusj
  • Registratie: April 2012
  • Laatst online: 14-09 16:24

Kuusj

Ofwel varken in 't Limburgs

-The_Mask- schreef op donderdag 24 november 2016 @ 23:43:
[...]

Een R9 290 was er eerder dan een GTX 970, bijna een jaar eerder.
En je punt is?
De 290 en de 970 liggen dicht bij elkaar, echter ga ik geen GPU kopen die idle triple screen een aantal keer zo veel energie verstookt en onder load nog eens 200W (uit de lucht gegrepen) meer zuipt dan de concurrent die even snel is. Dat is gekkenwerk en daar zeg ik graag het stukje fanboi-ism voor de underdog voor op ;)
Dat de 290 een maand of 10 ouder is is voor mij geen argument om voor een bepaalde kaart te gaan, ik kies gewoon de beste op dat moment :)

Als ik komende zomervakantie weer een GPU upgrade doe en AMD loopt nog steeds achter de feiten aan vind ik het heel jammer maar dan zal de kas van nVidia weer gespekt gaan worden. Een beetje hetzelfde verhaal als met de CPU's. Wat kwam begin dit jaar qua performance na de FX8xxx? Juist, helemaal niks. Dan ga ik eerlijk is eerlijk niet hoog in de fanboy boom blijven zitten maar dan koop ik gewoon spul waarmee ik wel verder kan. Dat AMD Zen misschien wel mee kan is dan heel leuk, maar wel 2 jaar te laat.

[ Voor 16% gewijzigd door Kuusj op 24-11-2016 23:56 ]

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!
Dat AMD wel degelijk iets had en eerder, het verbruik mag dan wel zo'n 75W hoger liggen tijdens games, maar dat is ook het enige nadeel voor de rest was het een niks mindere game videokaart. Daarnaast was die dus bijna een jaar eerder, dus nVidia had ook even tijd om een betere kaart te maken.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op donderdag 24 november 2016 @ 18:18:
Wccftech had recentelijk een potentiële leak dat de rx490 in december uitkomt, in welk geval het hoogstwaarschijnlijk een soort dubbele rx480 zou zijn met wat kleine wijzigingen. In dit artikel (http://www.pcgamesn.com/a...-release-date-specs-price) staat iets interessants:

"And the report still isn't sure whether the mythical RX 490 is going to be a dual-GPU Polaris card or a brand new Vega 10 option. My money's on neither, with AMD focusing on a 500-series Vega launch early next year instead."

Als de leak klopt, zou de schrijver van dit artikel best wel eens gelijk kunnen hebben. Dual-gpu support is aan het verminderen, dus zou AMD nauwelijks een dual-gpu kwijt kunnen aan gamers. Extra bandbreedte en wat optimalisaties, en een rx490 zou, zeker als hij met een goede koeler flink over te klokken is, tussen de gtx1080 en titan xp in kunnen komen qua prestaties. Ging toch wachten tot december om een pc te kopen, dus kan ik net zo goed wachten om erachter te komen of de rx490 januari 2017 in de winkels ligt, welke versies er dan zijn en natuurlijk hoe goed hij presteert!
Ik mag hopen dat het geen Dual GPU kaart is want dat gaat falen vs een Titan X P or een 1080 Ti. Te veel moderne games hebben problemen met CF setups omdat dev's er simpelweg geen support voor inbakken. Dus in die games ga je het dik verliezen in andere zal de score best redelijk zijn maar ik denk niet dat mensen daar dan voor zullen gaan zeker niet als de prijzen vergelijkbaar zijn. Er is een grote voorkeur voor single gpu vs dual gpu kaarten zolang het kan en je dan voldoende performance hebt. Eerlijk gezegd deel ik die mening. Zowel Sli als CF werken gewoon minder lekker dan een snelle Single GPU kaart.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

  • Paprika
  • Registratie: September 2007
  • Laatst online: 17:20
Het grootste nadeel van dual GPU is denk ik nog wel dat je FPS niet evenredig is als dezelfde hoeveelheid FPS met een enkele GPU. Zeker met AGR etc heb je ook het issue dat het frame wat je als tweede volgende frame gaat zien al wordt gerendert voordat de andere GPU klaar is met zijn frame wat de echte volgende frame gaat zijn. Dit zorgt dus altijd voor meer input lag (onder dezelfde hoeveelheid FPS) als met een enkele GPU. Daarom zal een snelle GPU voor normale toepassingen altijd in het voordeel zijn. Nu hebben ze het in de artikelen over een kaart gemikt op de VR markt, maar daar ga je de R&D kosten waarschijnlijk niet eens mee behalen gezien de huidige markt....

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 22:11

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Ik hoop echt van harte dat het een single GPU kaart is die de GTX 1080 kan bijbenen in dx11.

Zodra die kaart er is van AMD lepel ik mijn Titan XP eruit en gaan er 2 van die kaarten voor terug.

Ik wil de underdog graag sponseren en ik ben het niet eens met de marktstrategie van NVIDIA.

Bovendien denk ik dat freesync de toekomst is en dat wil ik graag eens proberen. 8)

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 22:11

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Geloof ik zomaar.

Een mens mag hopen toch? :P

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Hoop op een Vega die mee kan met de 1080 Ti die ongetwijfeld komt maar verwacht een dubbele Polaris in December.

Heb zelf wisselende ervaringen gehad met CF/SLI. De laatste jaren en zeker met frametimes ben ik er wel van teruggekomen en kies nu toch voor single gpu.
Waarbij ook meespeelt dat de prestaties van de highend gpu's (bijv. 1070) erg hoog liggen. Hoge framerates en hoge IQ is haalbaar op alles tm 1440p. Alleen 4k is nog een brug te ver.

AMD echter ziet hier (multigpu als in 2 of meer GPU's) dacht ik toch wel veel toekomst in (icm met DX12 ?). Althans, er was volgensmij een interview/presentatie iets voor of rondom de Polaris launch waarin dit gezegd werd.

Moet nog wel heel veel gaan gebeuren wil dat denk ik gaan vliegen.

[ Voor 9% gewijzigd door Help!!!! op 25-11-2016 12:26 ]

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Relax, dual, triple en quad GPU en het gebruik ervan komt nog wel goed.

Geef AMD even wat tijd om dit eerst in consoles te introduceren ;) Navi krijgt als "plus" punt 'scalability'.

Enfin, ik hoop dan wel dat Sony en/of MS en wellicht Nintendo (als ze terug zijn gekomen van de koude kermis met nVidia) het concept tot zijn volledige potentie benutten.

Wat ik hiermee bedoel is dat ze hopelijk niet meer één of andere goedkope SoC bouwen en het daar bij laten, maar ervoor kiezen om de SoC samen met nog een dGPU chip te gebruiken waardoor je niet één dikke reuzachtige chip hebt van >600mm2, maar twee chips van 400mm2 en 300mm2. Ja het blijft een duur grapje zo, maar dan kan z'n console langer mee dan één revisie. Zoals de PS3 voor >600 euro verkopen met nog flink wat

Immers genoeg potentie om die SoC en dGPU weer tot één SoC te maken en er vervolgens weer een dGPU naast te zetten om weer door te kunnen groeien.

Zie kiezen er bijvoorbeeld voor om één GPU "blok" uit 32CU's te laten bestaan. Dus 32CU's in de SoC, 32 in de dGPU los daarvan. Dat weer samenbrengen in één SoC en een dGPU ernaast van 64CU's enzovoort.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het probleem ligt echt niet bij de hardwarefabrikanten maar de softwareontwikkelaars: geen support voor multi-GPU betekent meestal geen of slechte multi-GPU ondersteuning. En aangezien meerdere chips meer geld kost, zie ik een console niet ineens daar gebruik van maken als er gewoon krachtigere chips klaar liggen. DX12 kan hier misschien iets aan doen, maar tot nu toe valt op dat het niet zo evident is. Kijk maar naar Deus Ex, daar heeft het maanden geduurd na release voordat DX12 multi-GPU ook nog maar experimenteel voorzien was.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Geruchten en speculatie :) Als een console gebruik gaat maken van twee fysieke GPU's die d.m.v. de nieuwe API's als zijnde één GPU gezien en aangesproken wordt dan komt het goed. Ditzelfde kan ook voor drie, vier of vijf fysieke GPU's.

Dit laatste is enorm interresant voor de productie kosten omdat de yields relatief toenemen naarmaten de chips kleiner worden. Het is dus veel goedkoper om vijf chips te bakken die samen 500mm2 zijn dan ééntje van 500mm2 te bakken. In theorie qua performance precies hetzelfde. In de praktijk dus een hoop gezeik met schaling, stuttering bla bla bla.

Hierbij moet men dus wel niet vergeten dat er gewerkt moet worden met een soort van Master en Slave systeem (ja ja verkeerde naam, heel ander concept). Het heeft weinig zin om bijvoorbeeld vijf chips te bakken met UVD. Eentje met UVD en de andere vier zonder UVD is dan dus de oplossing. Dingen die maar één keer aanwezig hoeven te zijn (TrueAudio bijvoorbeeld, nog zo één) hoeven ook maar in één van die vijf chips aanwezig te zijn. Daarnaast is power management met een dergelijk systeem vrij simpel, gewoon de chips die niet nodig zijn (die wat dus puur aanwezig zijn voor zware 3D loads) helemaal uitschakelen: nul spanning, nul stroom, nul verbruik.

Dit idee speelt al heel lang, al vanaf de HD48xx serie speculeert men over dergelijke schaalbaarheid. Vergeet daarbij niet dat AMD hier dan ook al heel, heel, heel erg lang over nagedacht heeft. Mantle was niet alleen om de API draw call overhead ellende te verhelpen ;) Dat is ook nodig om een dergelijk concept goed te laten werken :) Zo zijn er wellicht nog wel een aantal hordes genomen die bijdragen aan de ontwikkeling hiervan zoals bijvoorbeeld MCM en HBM.

Enfin, zoals ik al zei, speculatie en geruchten.

[ Voor 7% gewijzigd door madmaxnl op 25-11-2016 14:03 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41
Blaat schreef op vrijdag 25 november 2016 @ 09:22:
Ik hoop echt van harte dat het een single GPU kaart is die de GTX 1080 kan bijbenen in dx11.

Zodra die kaart er is van AMD lepel ik mijn Titan XP eruit en gaan er 2 van die kaarten voor terug.

Ik wil de underdog graag sponseren en ik ben het niet eens met de marktstrategie van NVIDIA.

Bovendien denk ik dat freesync de toekomst is en dat wil ik graag eens proberen. 8)
De DX11 prestaties maken mij voor Vega weinig uit, als die voldoende zijn voor een goede framerate dan hoor je mij niet klagen. Het is een achterhaalde API en gezien de adoptie van DX12/Vulkan zullen de prestaties in DX11 er steeds minder toe doen.

Tot Vega uit is blijf ik lekker bij Polaris.

Acties:
  • 0 Henk 'm!
madmaxnl schreef op vrijdag 25 november 2016 @ 13:57:
[...]


Enfin, zoals ik al zei, speculatie en geruchten.
Weinig interessant, aangezien je heel veel dubbel moet uitvoeren, wat het alleen maar duurder maakt. Daarnaast zouden alle chips ook met elkaar in verbinden moeten staan en moet je heel veel bandbreedte hebben om met elkaar te communiceren. Maakt het allemaal erg duur en complex. Dat terwijl consoles juist goedkoop moeten zijn en prestaties vaak wat van ondergeschikt belang is.

Waar elke fabrikant mee bezig is, is zoveel mogelijk integreren, om zo weinig mogelijk chips te krijgen, omdat dit goedkoper en zuiniger is. Tegenwoordig zit al zoveel geïntegreerd in de CPU/APU/SOC, geheugencontroller, PCI Express controller, USB controller, SATA controller, NVMe, IGP alles gaat erin. Volgende AM4 APU zal dit allemaal geïntegreerd hebben, de volledige vroegere north- en southbridge zit hier helemaal in.

Is dan erg onlogisch om dingen weer los te gaan trekken, want dit zorgt alleen maar voor extra kosten.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Ik weet niet wat ik hiervan moet denken.
1. Als het een concurrent van de 1080 zou heten dan zou de naam 490 niet zo logisch zijn, dan zou het eerder een 490X of 495 zijn.
2. Dubbele grafische kaart met een middenmodel? In het verleden was dat toch weggelegd voor het topmodel?
3. Als de Polaris 200-270 euro kost, ligt dan een prijs van 400-500 euro niet meer voor de hand? Ik kan me bovendien niet voorstellen dat AMD juist dit interessante gaat tussen performance en enthusiast overslaat. Voor veel mensen die graag 1440p willen gamen (altijd >60 FPS met zeer hoge instellingen op niet merkbare dipjes na) is een RX 480 te min en een 1080-achtige kaart te duur.

Hoe wordt zo'n dubbele kaart door de software (DX11) gezien? Als je net als bij twee kaarten die scaling-problemen hebt en volledig afhankelijk bent van de ondersteuning van de developer dan kan je beter 1 1070 hebben (qua klasse, dat mag natuurlijk ook een toekomst AMD-equivalent zijn) dan 1 zo'n dubbelkaart.
flessuh schreef op woensdag 23 november 2016 @ 13:11:
Ik zou gokken op Polaris, als tijd-vuller met vega laat in H1 2017 dan..
wat ik persoonlijke wel jammer zou vinden.
Anders ik wel. Ik moet het met een HD 7850 doen, daar kan je de spellen van de laatste paar jaar echt niet mee spelen. Het zou zonde zijn als ik daarmee Rise of the Tomb Raider of Metro (al wat ouder maar wel een zeer zwaar draaiend spel) zou gaan spelen, ik wil graag dat de eerste keer dat ik dat speel de FPS goed is. Tegen de tijd dat zo'n kaart uitkomt mag je nog eens minstens 2 maanden wachten, als het niet 6 is, voordat er fatsoenlijke modellen zijn uitgekomen en iemand die er een beetje verstand van heeft de PCB heeft bekeken. Gigbayte, MSI en Powercolor maakten er een zooitje van bij de RX 480. In het geval van de eerste twee: wel het A-klasse label erop plakken maar ondertussen flink bezuinigen op de PCB. AMD en Nvidia stoppen er dan weer zo'n blowerkoeler op. |:(

[ Voor 41% gewijzigd door Verwijderd op 25-11-2016 19:31 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Zoals ik al schreef geloof ik op dit moment niet zo in CF/SLI. Een dubbele Polaris lijkt mij inderdaad tussen E400-E500 te moeten komen en dan ben je grosso modo zeer waarschijnlijk beter af met een 1070.

Helaas, moet ik daarbij zeggen. De (high end) AMD fans moeten hun hoop denk ik toch echt vestigen op Vega.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 22:17

flessuh

Set sail for fail!

Ik zit hier zelf aan een 280x.. op zich prima aangezien mijn huidige beeldscherm 1680x1050 is, maar die wordt hard minder (bepaalde plaatsen donkerder) dus ik zit serieus te kijken naar 1440p, liefst 144hz. Daar is de huidige AMD generatie gewoon in single card nog niet voldoende voor

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!
Verwijderd schreef op vrijdag 25 november 2016 @ 19:22:
1. Als het een concurrent van de 1080 zou heten dan zou de naam 490 niet zo logisch zijn, dan zou het eerder een 490X of 495 zijn.
Zie de topicstart, de X wordt niet meer gebruikt en de 5 zou alleen gebruikt worden voor een tweede revisie van een 490.
2. Dubbele grafische kaart met een middenmodel? In het verleden was dat toch weggelegd voor het topmodel?
Er zijn ook dubbele niet high-end GPU's geweest, al kwam dit veel minder vaak voor.
3. Als de Polaris 200-270 euro kost, ligt dan een prijs van 400-500 euro niet meer voor de hand?
Aan de hand van de prestaties is altijd een goede schatting van de prijs te maken. Maar aangezien niks van een RX 490 bekend is is dat ook niet van de prijs.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op vrijdag 25 november 2016 @ 19:31:
[...]

Zie de topicstart, de X wordt niet meer gebruikt en de 5 zou alleen gebruikt worden voor een tweede revisie van een 490.
Dat is niet het punt, het gaat erom dat de *90 de concurrent van de *70 is. AMD heeft heel erg strak vastgehouden aan de plaats in de pikorde (qua prijs en performance) voor de 480 en de 470 in vergelijking met de vorige generatie, net als Nvidia, de 490 zou de concurrent van de 1070 moeten worden. Of misschien 1080-prestaties voor de 1070 prijsklasse aangezien ze een jaar later ermee komen, dat rechtvaardigt wel een klasse hoger voor dezelfde prijs als je het mij vaagt.
Er zijn ook dubbele niet high-end GPU's geweest, al kwam dit veel minder vaak voor.
Ik neem het van jou aan.
Aan de hand van de prestaties is altijd een goede schatting van de prijs te maken. Maar aangezien niks van een RX 490 bekend is is dat ook niet van de prijs.
Uiteraard, we gaan nu op de door WCCF gepresenteerde speculatie af en ik wijs op het gebrek aan interne consistentie bij die speculatie. Als het een dubbele RX 480 zou zijn dan hoort daar een prijs van 400-500 euro bij aangezien 1 RX 480 voor $200 wordt verkocht.
flessuh schreef op vrijdag 25 november 2016 @ 19:31:
Ik zit hier zelf aan een 280x.. op zich prima aangezien mijn huidige beeldscherm 1680x1050 is, maar die wordt hard minder (bepaalde plaatsen donkerder) dus ik zit serieus te kijken naar 1440p, liefst 144hz. Daar is de huidige AMD generatie gewoon in single card nog niet voldoende voor
Inderdaad, terwijl Nvidia al vanaf mei een kaart hiervoor verkoopt.
De 280X verslaat de HD 7850. ;)
Ik heb een HD-monitor, de kaart volstaat er net wel of net niet voor voor oudere spellen als je de instellingen terugschroeft (met name AA) maar de spellen van de laatste paar jaar kan ik er echt niet mee spelen, dan zou ik de eerste ervaring met het spel bederven. AMD laat ons nu al een half jaar lang wachten, het is dat ik zo'n hekel heb aan Nvidia (al die streken; PhysX, Gameworks, geen FreeSync-monitors ondersteunen), anders zou ik een 1070 kopen als ze niet binnen een paar maanden de Vega-kaarten bekend maken.
Help!!!! schreef op vrijdag 25 november 2016 @ 19:30:
^
Zoals ik al schreef geloof ik op dit moment niet zo in CF/SLI. Een dubbele Polaris lijkt mij inderdaad tussen E400-E500 te moeten komen en dan ben je grosso modo zeer waarschijnlijk beter af met een 1070.

Helaas, moet ik daarbij zeggen. De (high end) AMD fans moeten hun hoop denk ik toch echt vestigen op Vega.
Nog een reden dat ik niet geloof in een dubbele RX 480, die Vega-kaart kan niet meer zo heel erg lang duren. Veel te lang natuurlijk in vergelijking met Nvidia maar minder dan een half jaar. Bovendien, wat voegt zo'n dubbele kaart toe als je al twee kaarten in je systeem kan plaatsen? :?

Voor het geval ik een beetje opgewonden overkom, ik zou willen dat AMD er beter over zou communiceren. Geef aan hoe ver je staat, geef aan of wat de redenen zijn dat het project vertraging oploopt, geef aan of dat het aan AMD ligt en waar precies (ontwerp, bugs, fabricageproces) of aan het wachten op HBM2-geheugen...
Mensen hebben er meer begrip voor dat het zo lang duurt als er een beetje over wordt gecommuniceerd.

[ Voor 47% gewijzigd door Verwijderd op 25-11-2016 19:51 ]


Acties:
  • 0 Henk 'm!

  • nero355
  • Registratie: Februari 2002
  • Laatst online: 28-02 22:21

nero355

ph34r my [WCG] Cows :P

Ben ik de enige die Crimson alleen maar een achteruitgang vindt :?

De GUI is verschrikkelijk : Alsof het voor een tablet is gemaakt.
En wil je "Advanced Settings" dan komt er toch iets van een CCC tevoorschijn! 8)7

Maar het ergste van allemaal is het verdwijnen van een simpel stukje gemak waar ik echt niet zonder kan :

Crimson sucks!

Nou hebben ze wel weer gelukkig na een tijdje Profiles weer toegevoegd, maar die moet je via een snelkoppeling oproepen zoals een programma... W-T-F :/


Dus mijn vraag is : Zijn er plannen om iets van een grote overhaul van de driver te doen met nieuwe verbeteringen wat dit soort dingen betreft ?

De enige reden om geen nVidia videokaart te kopen was deze feature zo'n beetje. Bij het groene kamp ben je namelijk elke keer een paar minuten aan het rondclicken als je wil switchen tussen Eyefinity/Surround Gaming en de normale Extended Desktop! :X


Als tijdelijke workaround heb ik de laatste oude Catalyst Driver + alleen de laatste driver uit de Crimson reeks. Echter lijkt dit niet helemaal lekker te draaien af en toe helaas...

|| Stem op mooiere Topic Search linkjes! :) " || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


Acties:
  • 0 Henk 'm!

  • legendareN
  • Registratie: April 2009
  • Laatst online: 05-09 23:14
https://twitter.com/CatalystMaker/status/798534189532336128

Misschien? Ik heb geen idee :P

[ Voor 5% gewijzigd door legendareN op 25-11-2016 20:58 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41
flessuh schreef op vrijdag 25 november 2016 @ 19:31:
Ik zit hier zelf aan een 280x.. op zich prima aangezien mijn huidige beeldscherm 1680x1050 is, maar die wordt hard minder (bepaalde plaatsen donkerder) dus ik zit serieus te kijken naar 1440p, liefst 144hz. Daar is de huidige AMD generatie gewoon in single card nog niet voldoende voor
Tot op heden doet mijn RX480 het prima op 1440p, die 144hz tjah dat is een ander verhaal :P. Framerates flink boven de 60 met een goed geoptimaliseerd spel zoals Doom met de Vulkan API met alles maxed gaat prima.

Goede keuze dat je met de 280x zit, met een GTX680/GTX770 is het tegenwoordig een stuk minder prettig gamen.
nero355 schreef op vrijdag 25 november 2016 @ 20:09:
Ben ik de enige die Crimson alleen maar een achteruitgang vindt :?

De GUI is verschrikkelijk : Alsof het voor een tablet is gemaakt.
En wil je "Advanced Settings" dan komt er toch iets van een CCC tevoorschijn! 8)7

Maar het ergste van allemaal is het verdwijnen van een simpel stukje gemak waar ik echt niet zonder kan :

[afbeelding]

Nou hebben ze wel weer gelukkig na een tijdje Profiles weer toegevoegd, maar die moet je via een snelkoppeling oproepen zoals een programma... W-T-F :/


Dus mijn vraag is : Zijn er plannen om iets van een grote overhaul van de driver te doen met nieuwe verbeteringen wat dit soort dingen betreft ?

De enige reden om geen nVidia videokaart te kopen was deze feature zo'n beetje. Bij het groene kamp ben je namelijk elke keer een paar minuten aan het rondclicken als je wil switchen tussen Eyefinity/Surround Gaming en de normale Extended Desktop! :X


Als tijdelijke workaround heb ik de laatste oude Catalyst Driver + alleen de laatste driver uit de Crimson reeks. Echter lijkt dit niet helemaal lekker te draaien af en toe helaas...
Ik vind de GUI op zich wel mooi, hij is wel minder functioneel. Die advanced opties worden er steeds minder in het oude CCC, volgens mij worden ze stuk voor stuk overgezet naar Crimson. Zowel Crimson als het CCC vind ik qua GUI mooier dan het control pannel van Nvidia, dat lijkt nog steeds op een Internet Explorer 6 pagina 8)7.

[ Voor 52% gewijzigd door Sp3ci3s8472 op 26-11-2016 14:22 ]


Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 22:17

flessuh

Set sail for fail!

Ach ja, ik ben gewoon van plan voor het rode kamp te gaan.., straks ff freesync scherm(en).. twijfel alleen nog of ik extra uit ga geven voor 2x 144hz of 1x 144 en 1x 60. schijnt dat 2e wel eens last wil geven. Enige spel dat ik op beide zal spelen is EVE online.. niet iets waar je veel fps nodig hebt.

Dan eerst schermen en later Vega upgrade er overheen, daarna CPU etc upgrade.. mogelijk naar Zen, afhankelijk van prestaties.
Die laatste leak lijkt me echt zo sterk dat het vega is.. dan laten ze hun kaarten al deels zien en geven ze Nvidia meer kans er op te reageren..

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op zaterdag 26 november 2016 @ 14:18:
[...]


Tot op heden doet mijn RX480 het prima op 1440p, die 144hz tjah dat is een ander verhaal :P. Framerates flink boven de 60 met een goed geoptimaliseerd spel zoals Doom met de Vulkan API met alles maxed gaat prima.
Zelfs 4k lukt voor Doom, het spel eist niet zoveel van de hardware. :)
Dat maakt het geen 1440p-kaart. Het is een semantische discussie of dat het wel of niet een 1440p-kaart is. Enerzijds wel omdat je met hoge instellingen voor veel spellen >60 FPS zal halen @ 1440p, anderzijds niet omdat het met zeer hoge instellingen niet zal lukkken.
Relevanter dan dat naar mijn mening: wil je nu 260-270 euro betalen voor een RX 480 en die over 2 jaar upgraden of wil je straks 400-500 euro betatlen voor een RX 490 of hoe die ook gaat heten (een cut van de Vega-kaart) en die over 4 jaar upgraden? Aangezien we op de drempel staan van 1440p en 4k wat normaal wordt en we net begonnen zijn aan een nieuwe generatie transistors heb ik nu liever al wat eerder wat meer power, als ik nu een RX 480 zou kopen dan zou ik die volgend jaar waarschijnlijk alweer upgraden terwijl een klasse hoger nog een paar jaar langer meekan. Het blijft natuurlijk altijd een gok, hoe geïnformeerd je ook gokt. :)
Goede keuze dat je met de 280x zit, met een GTX680/GTX770 is het tegenwoordig een stuk minder prettig gamen.
Of een HD 7850. :/
Ik vind de GUI op zich wel mooi, hij is wel minder functioneel. Die advanced opties worden er steeds minder in het oude CCC, volgens mij worden ze stuk voor stuk overgezet naar Crimson. Zowel Crimson als het CCC vind ik qua GUI mooier dan het control pannel van Nvidia, dat lijkt nog steeds op een Internet Explorer 6 pagina 8)7.
Het belangrijkste is dat alle opties erin zitten en gemakkelijk toegankelijk zijn maar ik ben net als hem geen liefhebber van een 'moderne' GUI. Het maakt het niet overzichtelijker naar mijn mening. Veel te grote knoppen waardoor er te weinig op 1 beeld past en je meer moet zoeken naar de opties die je nodig hebt. Net als bij die ribbon-GUI van MS Office sinds 2007 of zo. Niet aan mij besteed. Functie boven vorm!

Acties:
  • 0 Henk 'm!

Verwijderd

flessuh schreef op zaterdag 26 november 2016 @ 15:04:
Ach ja, ik ben gewoon van plan voor het rode kamp te gaan.., straks ff freesync scherm(en).. twijfel alleen nog of ik extra uit ga geven voor 2x 144hz of 1x 144 en 1x 60. schijnt dat 2e wel eens last wil geven. Enige spel dat ik op beide zal spelen is EVE online.. niet iets waar je veel fps nodig hebt.

Dan eerst schermen en later Vega upgrade er overheen, daarna CPU etc upgrade.. mogelijk naar Zen, afhankelijk van prestaties.
Die laatste leak lijkt me echt zo sterk dat het vega is.. dan laten ze hun kaarten al deels zien en geven ze Nvidia meer kans er op te reageren..
Ik zou eerder voor 1 beter scherm gaan dan voor 2 minder goede schermen of 1 goed scherm en 1 minder goed scherm. Of ga voor 1 scherm en houd geld achter voor wanneer HDR en 4k met een hoge refreshrate eindelijik eens gaan doorbreken. ;)
Anyway, laat me wat weten als je wil, ik ben ook op zoek naar zo'n scherm. Voor zo ver ik het overzie heb je als je niet bereid bent om >1000 euro eraan te besteden de keuze tussen Asus, Acer en een merk wat in Nederland helaas nog steeds niet verkrijgbaar is; Pixio. Asus maakt een zooitje van de kleuren, ik weet nog niet of dat Acer die kleurinstellingen wel goed regelt. Pixio schijnt goed te zijn maar die zou je moeten bestellen met Amazon en dan moet je dus ook zo'n paypal-account aanmaken etc.
Het is wel iets meer een gok aangezien het een nieuw merk is. Ze geven aan A-kwaliteit te gebruiken maar goedkoper te zijn doordat er geen tussenhandel wordt gebruikt op een dienst zoals Amazon na.

Misschien wacht ik nog een jaartje in de hoop dat 4k met een hoge refreshrate volgend jaar beschikbaar komt (de nieuwe DP kan dat aan) en in de hoop dat ook merken zoals LG en Samsung ze gaan verkopen. Als ze nu wat meer zouden communiceren over wat in de pipeline zit...
Dan eerst schermen en later Vega upgrade er overheen, daarna CPU etc upgrade.. mogelijk naar Zen, afhankelijk van prestaties.
Die laatste leak lijkt me echt zo sterk dat het vega is.. dan laten ze hun kaarten al deels zien en geven ze Nvidia meer kans er op te reageren..
Ik keek gisteren toevallig naar een gesprekje wat Joker in de tweede week van september had met twee vertegenwoordigers van AMD op zo'n beurs, een van hen gaf aan dat er voor het einde van het jaar een mededeling over Vega zou worden gedaan. Wie weet, misschien gaat het wel echt om een Vega-kaart en niet om een dubbele Polaris.

[ Voor 21% gewijzigd door Verwijderd op 27-11-2016 23:00 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik twijfelde ook voor 2 schermen, ben uiteindelijk voor een 34" ultra-wide gegaan, dat is een mooie tussenstap. Als je aan streaming doet of continu een applicatie zichtbaar moet hebben tijdens gamen lijkt me een tweede scherm wel een goede keuze.

Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 22:17

flessuh

Set sail for fail!

Ik kijk ook vaak serie als ik een wat relaxter spel doe, dus dan is 2e scherm wel handig. Ultrawide zou ook nog kunnen, maar ben nou eenmaal gewend aan 2 schermen (momenteel beide met verschillende resolutie).

4k heb ik te weinig vertrouwen in dat daar videokaarten snel genoeg voor zijn om dat een paar jaar op maximale of hoge instellingen vol te houden. Daarom leek 1440p mij mooie tussenoplossing. Misschien toch maar weer eens een winkel in om te kijken wat mooi is :P
Voor mijn werk heb ik vaak 2 of 4 vensters open staan, dus dan is 2 schermen ook wel handig, ook al kun je dat bij een ultrawide geloof ik ook naast elkaar gooien

wat de aankondiging eind dit jaar betreft.. misschien bij de video game awards? Komt AMD ook, en dat is natuurlijk een mooi evenement om iets voor gamers aan te kondigen :+

[ Voor 26% gewijzigd door flessuh op 26-11-2016 17:08 ]

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dan zou ik inderdaad voor twee schermen gaan.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41
Gaat een beetje offtopic dit.. :P

Ik zou Acer overigens mijden, het is een B merk. Het is goedkoop maar daardoor kan je ook niet het beste verwachten, verwacht driver/firmware bugs, mindere materiaal kwaliteit etc...
Maar dat is mijn ervaring met hun laptops en telefoons :P.

Indien Vega op de markt is dan ga ik waarschijnlijk voor een ultrawide scherm met Freesync, hoge resolutie van 1440p of hoger, 75hz of hoger een goed paneel (geen TN) en wellicht HDR als dat betaalbaar wordt.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

99 keren op de 100 geef ik je gelijk met de statement om Acer te vermijden. Maar ik heb zelf de pricewatch: Acer Predator XR341CK Zilver, Zwart gehaald, omdat dit de enige monitor was die al mijn checkboxes aantikte en er qua beeldkwaliteit bovenuit stond. Ik ben er ook tevreden mee ondanks de kleine issues:

- interne speakers heben coilwhine EMI --> monitor speaker volume op 0 lost dat op
- 30Hz soms als je Windows resumed of opstart --> stekker uit en terug in fixed dat

Perfect is hij niet, maar tot nu toe heb ik nog geen enkel FreeSync 3440x1440 scherm gezien dat geen fouten heeft, maar de anderen hebben vaak technische beperkingen ipv. bugs zoals geen LFC. Voor non-ultrawide schermen zou ik wel de concurrentie checken, maar toen ik deze een tijd geleden kocht, was er helaas geen beter scherm dan de Acer, als FreeSync, IPS, 3440x1440 op 75Hz of meer, LFC en wallmount van belang zijn.

[ Voor 5% gewijzigd door Phuncz op 27-11-2016 10:05 ]


Acties:
  • 0 Henk 'm!
Acer is een merk als zo velen, ze verkopen alles van lowend tot highend.

Coil whine los je trouwens niet op met de volume naar standje nul, EMI wel, dus je zal last hebben gehad van EMI. Wikipedia: Electromagnetic interference

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

ja correct ivm. coilwhine/EMI, het staat wat hoger in het topic inderdaad :D
Het is blijkbaar geen probleem met het scherm op 100% helderheid maar zelfs op 25% vind ik het nog een lichtbak.

[ Voor 5% gewijzigd door Phuncz op 27-11-2016 10:07 ]


Acties:
  • 0 Henk 'm!

  • Jorruchie
  • Registratie: September 2010
  • Laatst online: 24-12-2024

Jorruchie

strikes and gutters...

Phuncz schreef op zondag 27 november 2016 @ 10:06:
Het is blijkbaar geen probleem met het scherm op 100% helderheid maar zelfs op 25% vind ik het nog een lichtbak.
Hetzelfde heb ik met de LG 27MU67-B. De monitor bevalt verder prima, maar die helderheid is niet normaal.
Ik heb de brightness maar op 0 gezet en gebruik Pangobright op 70%.

“And so castles made of sand fall in the sea, eventually....”


Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op zondag 27 november 2016 @ 00:53:
Gaat een beetje offtopic dit.. :P

Ik zou Acer overigens mijden, het is een B merk. Het is goedkoop maar daardoor kan je ook niet het beste verwachten, verwacht driver/firmware bugs, mindere materiaal kwaliteit etc...
Maar dat is mijn ervaring met hun laptops en telefoons :P.

Indien Vega op de markt is dan ga ik waarschijnlijk voor een ultrawide scherm met Freesync, hoge resolutie van 1440p of hoger, 75hz of hoger een goed paneel (geen TN) en wellicht HDR als dat betaalbaar wordt.
Voor 1440p en een hogere pixeldensiteit heb je helaas erg weinig keuze: Acer, Asus (zooi met de kleurinstellingen, games die niet jouw profiel volgen) en het belachelijk dure Eizo. Ik overweeg dan ook om nog maar een ronde te wachten met het kopen van een 1440p scherm of toch maar voor 4k 60 Hz te gaan (en dan later eens upgraden wanneer de hogere frequentie en HDR de standaard worden). Het is niet dat een spel niet goed speelbaar is met 60 Hz, hoe leuk het ook zou zijn als je hoger kan halen. Wel alvast een kaart die het aankan zo gauw Vega eindelijk eens uitkomt.
Ik zou graag willen weten hoe lang de monitorfabrikanten ons laten wachten op een hoge refresh rate, 4k en HDR. Erg ecologisch verantwoord is het niet om tussendoor nog eens een andere monitor te moeten kopen. :/
flessuh schreef op zaterdag 26 november 2016 @ 17:05:
wat de aankondiging eind dit jaar betreft.. misschien bij de video game awards? Komt AMD ook, en dat is natuurlijk een mooi evenement om iets voor gamers aan te kondigen :+
Ja, ze zullen daar vast wel iets gaan aankondigen. Hopelijk de datum voor Summit Ridge en Vega en de exacte specs van de Vega-kaarten die het eerst aan de beurt zijn.

[ Voor 19% gewijzigd door Verwijderd op 27-11-2016 23:02 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Verwijderd schreef op zondag 27 november 2016 @ 22:54:
[...]
Ik zou graag willen weten hoe lang de monitorfabrikanten ons laten wachten op een hoge refresh rate, 4k en HDR. Erg ecologisch verantwoord is het niet om tussendoor nog eens een andere monitor te moeten kopen.
Sowieso heb je daar DisplayPort 1.4 voor nodig, gecombineerd met bakken aan performance. Eén Vega kaart zal echt niet voldoende zijn als een GTX 1080 nog niet consistent voldoende is voor 4K @ 60fps. Dus de verwachtingen bijstellen of bereid zijn € 3.000 ineens neer te plempen als de juiste producten tenminste op tijd uitkomen, lijkt me wel raadzaam.

Acties:
  • 0 Henk 'm!

Verwijderd

Phuncz schreef op maandag 28 november 2016 @ 07:46:
[...]

Sowieso heb je daar DisplayPort 1.4 voor nodig, gecombineerd met bakken aan performance. Eén Vega kaart zal echt niet voldoende zijn als een GTX 1080 nog niet consistent voldoende is voor 4K @ 60fps. Dus de verwachtingen bijstellen of bereid zijn € 3.000 ineens neer te plempen als de juiste producten tenminste op tijd uitkomen, lijkt me wel raadzaam.
Dat is een misverstand. Zet die AA uit of op een lage stand en een 1070 kan het ook nog wel aan, een 1080 zeker. AA dient voor het compenseren van een te lage resolutie, met zoveel meer pixels hoef je helemaal niet een zware AA-stand te kiezen. De testen die je ziet zijn uitgevoerd met AA op een belachelijk hoge stand. Ik merk het bij mijn eigen gedateerde kaart ook hoeveel verschil dat maakt, AA geeft een hele lage grafische winst ten koste van erg veel resources; een lapmiddel om artefacten ten gevolge van een te lage resolutie met te grote pixels te camoufleren.

Of dat het nu wel of niet kan doet er wenig toe, de monitor moet een beetje futureproof zijn. Of dat ik nu al continue >75 FPS haaal op een 4k monitor doet er niet toe, over 2 of 3 jaar heb ik er misschien wel een die dat aankan. De fabrikanten hebben nu een poort gekregen die dit aankan, gebruik het! Wacht niet totdat AMD en Nvidia kaarten uitbrengen die het kunnen. Nogmaals, mijn grote bezwaar is dat het een enorme verspilling is. Wat moeten mensen met al die oude montors? Allemaal straks op de afvalhoop.
Moet ik nu 2 monitors kopen? Een voor gamen en een voor video's en dan over 3-4 jaar weer een die OLED en HDR bevat, dat is waanzin. Hopelijk doet AMD DP 1.4 op de eerste nieuwe kaarten, dan komen die monitors tenminste ook eindelijk eens.

[ Voor 15% gewijzigd door Verwijderd op 29-11-2016 15:40 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Verwijderd schreef op maandag 28 november 2016 @ 13:39:
[...]

Dat is een misverstand. Zet die AA uit of op een lage stand en een 1070 kan het ook nog wel aan, een 1080 zeker. AA dient voor het compenseren van een te lage resolutie, met zoveel meer pixels hoef je helemaal niet een zware AA-stand te kiezen. De testen die je ziet zijn uitgevoerd met AA op een belachelijk hoge stand. Ik merk het bij mijn eigen gedateerde kaart ook hoeveel verschil dat maakt, AA geeft een hele lage grafische winst ten koste van erg veel resources; een lapmiddel om artefacten ten gevolge van een te lage resolutie met te grote pixels te camoufleren.
Daar heb je gelijk in dat AA en Ultra settings het zwaar vertekenen, zelf zet ik AA ook al uit op 3440x1440 omdat op een meter afstand het weinig invloed heeft op de beeldkwaliteit. Maar toch, met de hedendaagse niet-geoptimaliseerde PC games mag je toch niet te hoopvol zijn voor vlotte 4K performance.Ook correcte HDR weergave zal performance kosten vermoed ik.
Of dat het nu wel of niet kan doet er wenig toe, de monitor moet een beetje futureproof zijn. Of dat ik nu al continue >75 FPS haaal op een 4k monitor doet er niet toe, over 2 of 3 jaar heb ik er misschien wel een die dat aankan. De fabrikanten hebben nu een poort gekregen die dit aankant, gebruik het! Wacht niet totdat AMD en Nvidia kaarten uitbrengen die het kunnen. Nogmaals, mijn grote bezwaar is dat het een enorme verspilling is. Wat moeten mensen met al die oude montors? Allemaal straks op de afvalhoop.
Moet ik nu 2 monitors kopen? Een voor gamen en een voor video's en dan over 3-4 jaar weer een die OLED en HDR bevat, dat is waanzin. Hopelijk doet AMD DP 1.4 op de eerste nieuwe kaarten, dan komen die monitors tenminste ook eindelijk eens.
Ik vermoed dat OLED en QDLED (Quantum Dot LED) (*) schermen de zelfde richting uit gaan als Plasma en LCD eerder deze eeuw: OLED is technisch superieur, maar door patenten en prijs zal deze op de markt moeten plaatsmaken voor QDLED omdat deze goedkoper is. Daarom heb ik dit jaar geen "tijdelijk" scherm gekocht: de eerste OLED monitor (van Dell) ging richting de 5000€ en Quantum Dot is nog niet echt op het punt waar je het wilt met complete ondersteuning voor HDR, in 4K, met een goed beeldpaneel.

Het kan dus nog wel een paar jaren duren voordat een goed QDLED scherm beschikbaar komt voor een prijs onder de € 1.000, met DisplayPort 1.4, met een IPS of VA LCD beeldpaneel, 4K resolutie, complete HDR ondersteuning met support voor de grotere color spaces en in een fatsoenlijk formaat (28" en hoger).

(*) het kan ook "QLED" worden, het ligt eraan welke briljante uitspatting de marketingafdelingen van de grote merken hebben, het bekt makkelijker en op correctheid is men zelden gebrand.
Neem bijvoorbeeld 3840x2160, in de volksmond 4K, maar om correct te zijn zou het 4K UHD moeten genoemd worden want 4K slaat op 4096x2160.

[ Voor 6% gewijzigd door Phuncz op 28-11-2016 17:34 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41


Discrete Desktop GPU Market Trends Q3 2016: GPU Shipments Hit Two-Year High

Shipments of discrete graphics processing units (GPUs) are traditionally high in the third quarter as PC makers and retailers gear up for the holiday season and build up stocks of components. Q3 2016 was particularly good for standalone GPUs because both AMD and NVIDIA introduced a number of new products for different market segments from May to August. Sales of discrete graphics cards for desktop PCs hit a two-year high in the third quarter, according to data released by Jon Peddie Research. What is important is that standalone GPUs performed very well despite a shrink of PC sales.
AMD lijkt een stuk meer te verkopen, Nvidia blijft wel zijn marktaandeel vasthouden. Jammer dat AMD nu weinig heeft in de highend want dat had wellicht de situatie op 40/60 kunnen brengen.

[ Voor 10% gewijzigd door Sp3ci3s8472 op 28-11-2016 18:37 ]


Acties:
  • 0 Henk 'm!

  • bertp1
  • Registratie: Maart 2011
  • Niet online
Phuncz schreef op maandag 28 november 2016 @ 17:30:
[...]

Daar heb je gelijk in dat AA en Ultra settings het zwaar vertekenen, zelf zet ik AA ook al uit op 3440x1440 omdat op een meter afstand het weinig invloed heeft op de beeldkwaliteit. Maar toch, met de hedendaagse niet-geoptimaliseerde PC games mag je toch niet te hoopvol zijn voor vlotte 4K performance.Ook correcte HDR weergave zal performance kosten vermoed ik.


[...]

Ik vermoed dat OLED en QDLED (Quantum Dot LED) (*) schermen de zelfde richting uit gaan als Plasma en LCD eerder deze eeuw: OLED is technisch superieur, maar door patenten en prijs zal deze op de markt moeten plaatsmaken voor QDLED omdat deze goedkoper is. Daarom heb ik dit jaar geen "tijdelijk" scherm gekocht: de eerste OLED monitor (van Dell) ging richting de 5000€ en Quantum Dot is nog niet echt op het punt waar je het wilt met complete ondersteuning voor HDR, in 4K, met een goed beeldpaneel.

Het kan dus nog wel een paar jaren duren voordat een goed QDLED scherm beschikbaar komt voor een prijs onder de € 1.000, met DisplayPort 1.4, met een IPS of VA LCD beeldpaneel, 4K resolutie, complete HDR ondersteuning met support voor de grotere color spaces en in een fatsoenlijk formaat (28" en hoger).

(*) het kan ook "QLED" worden, het ligt eraan welke briljante uitspatting de marketingafdelingen van de grote merken hebben, het bekt makkelijker en op correctheid is men zelden gebrand.
Neem bijvoorbeeld 3840x2160, in de volksmond 4K, maar om correct te zijn zou het 4K UHD moeten genoemd worden want 4K slaat op 4096x2160.
QLED != QD LCD
Ik ben helemaal geen kenner, maar het laaste (wat men tegenwoordig op al dan niet high end lcd's gebruikt) is een techniek om een lcd te maken met een ander soort kleurenfilter (quantum dots) en backlight (blauwe leds als ik me niet vergis).
QLED daarentegen is een soort combinatie (technisch gezien niet helemaal correct) van OLED met quantum dots. Deze techniek moet je niet voor 2020 verwachten, maar is in theorie niet per definitie beter of slechter dan oled.

Misschien iemand die hier een wat duidelijkere uitleg over kan geven?

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik geef je geen ongelijk, maar ik bedoelde niet dat de LCD techniek die Quantum Dot LED verlichting gebruikt (zoals ik al zei QDLED) gelijk is aan QD + OLED, maar dat de marketingafdelingen misschien "QLED" van gaan maken ipv "QDLED". Eigenlijk moet het "LCD scherm met QDLED-backlighting" zijn, maar dat is te moeilijk dus wordt het sowieso iets veel korter en onduidelijker.

Sowieso zijn ook de meeste "LED" schermen gewoon LCD schermen met LED verlichting, waar dat vroeger CCFL verlichting was, daar mogen we ook de marketingafdelingen voor bedanken voor die technische incorrectheid. Bizar dat ze zich hier niet aan wagen voor monitoren, enkel TV's.

[ Voor 20% gewijzigd door Phuncz op 28-11-2016 23:14 ]


Acties:
  • +1 Henk 'm!

Radeon Software Crimson Edition 16.11.5 Release Notes

Support For:
  • Watch Dogs®2
New AMD CrossFire profile added for DirectX® 11:
  • Dishonored™2
Fixed Issues
  • The Division™ game world may flicker during game play when using AMD CrossFire technology.
  • Battlefield™1 flickering may be experienced while using AMD CrossFire technology mode.
Known Issues
  • A few game titles may fail to launch, experience performance issues or crash if the third party application "Raptr" has its game overlay enabled. A workaround is to disable the overlay if this is experienced.
  • AMD CrossFire technology mode is currently disabled for Windows®7 configurations with Dishonored™2
  • Watch Dogs®2 may experience flickering or a game crash when using AMD CrossFire technology mode with Dual Radeon RX 480s.
  • DOOM™ may experience a crash when launched using the Vulkan™ API on some Graphics Core Next products.
  • DOTA™2 may experience a crash when launched using the Vulkan™ API on some Graphics Core Next products.
  • Flickering may be experienced while playing Overwatch™ in the main menu or viewing character models using AMD CrossFire mode.
  • FIFA 17™ may experience an application hang or black screen on launch for some select Hybrid Graphics or AMD PowerXpress mobile configurations.
  • H.264 content may experience blocky corruption when streaming using P2P content players on some Radeon RX 400 series graphics products.
Bron: http://support.amd.com/en...6.11.5-Release-Notes.aspx

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Zou Dishonored 2 eindelijk speelbaar worden zonder een Titan XP te hebben? :')

Acties:
  • 0 Henk 'm!

  • Tadream
  • Registratie: Augustus 2002
  • Laatst online: 14-09 14:26
Verwijderd schreef op vrijdag 25 november 2016 @ 19:35:
[...]
Dat is niet het punt, het gaat erom dat de *90 de concurrent van de *70 is. AMD heeft heel erg strak vastgehouden aan de plaats in de pikorde (qua prijs en performance) voor de 480 en de 470 in vergelijking met de vorige generatie, net als Nvidia, de 490 zou de concurrent van de 1070 moeten worden. Of misschien 1080-prestaties voor de 1070 prijsklasse aangezien ze een jaar later ermee komen, dat rechtvaardigt wel een klasse hoger voor dezelfde prijs als je het mij vaagt.
Ik volg niet op de voet de AMD thread, maar af en toe check ik het eens.
Heb een half jaartje de GTX1070 en prima tevreden erover maar zit erover te denken om m'n PC door te schuiven naar de kids en dat papa iets nieuws gaat halen. :)
Ik sta open voor zowel AMD als Nvidia, had speciaal op de 480 gewacht maar die kwam tekort op 3440x1440. Hoop toch wel dat de nieuwe AMD kaarten de 1070/1080 voorbij gaan eigenlijk, anders doen ze nog steeds niet mee in de hogere regionen (Titan X is er al en binnenkort 1080Ti). Of wat je zegt, 1080 prestaties voor een 1070 prijs. Laat ze iedereen maar eens versteld staan.

Acties:
  • 0 Henk 'm!

Verwijderd

Tadream schreef op dinsdag 29 november 2016 @ 17:16:
[...]


Ik volg niet op de voet de AMD thread, maar af en toe check ik het eens.
Heb een half jaartje de GTX1070 en prima tevreden erover maar zit erover te denken om m'n PC door te schuiven naar de kids en dat papa iets nieuws gaat halen. :)
Ik sta open voor zowel AMD als Nvidia, had speciaal op de 480 gewacht maar die kwam tekort op 3440x1440. Hoop toch wel dat de nieuwe AMD kaarten de 1070/1080 voorbij gaan eigenlijk, anders doen ze nog steeds niet mee in de hogere regionen (Titan X is er al en binnenkort 1080Ti). Of wat je zegt, 1080 prestaties voor een 1070 prijs. Laat ze iedereen maar eens versteld staan.
Ik hoop het. Ze kunnen het niet maken om een 1070-concurrent voor de 1070 prijs te verkopen na zoveel tijd. Toch zou ik die waarschijnlijk kopen om meerdere redenen.
Ik heb een pokkehekel gekregen aan Nvidia omwille van al die kinderachtige spelletjes (geen AMD-fanboy, gewoon een hekel aan Nvidia), toekomstbestendigheid weegt voor mij zwaarder dan DX11-performance en natuurlijk speelt FreeSync een rol.

Acties:
  • 0 Henk 'm!

Verwijderd

Zelfs als ze een 1070 concurrent voor pakweg de zelfde prijs doen is het nog steeds goedkoper door freesync vergeleken met g-sync scherm wat meestal 100-200 euro duurder is.

Het ligt er erg aan uit wiens perspectief je het bekijkt maar ik raad mensen gewoon aan om de prijs van een g-sync scherm mee te rekenen bij je kosten van je gpu waardoor bevoorbeeld een rx 470/480 een veel betere keuze is dan de 1060.

Bij de 1070 prijsklasse is die 100-200 euro natuurlijk al kleiner verschil maar nog steeds een redelijke prijsverhoging en je hebt meer keuze in freesync schermen.

En amd is niet echt te laat want je kunt niet verwachten dat bedrijven tegelijk hun spullen uitbrengen doen ze in de mobieltjes/tablets/auto's etc industrie ook niet.

Hoor ook iets te vaak dat amd altijd met goedkopere prijs toch een betere prestatie moet brengen.

Tadream je kunt niet verwachten dat ze 1080 prestaties voor 1070 brengen te vaak willen mensen dat natuurlijk zou het mooi zijn ( voor ons de consumer )

Ik verwacht dat de vega kaarten met HBM2 het erg goed zullen doen in 4k+

Als je kijkt naar de fury en fury-x doen ze erg goed mee in dx12/vulcan en dat was eigenlijk gewoon een testproduct van amd ( net zoals amd gddr5 als eerste uitbracht doen ze de volgende next gen techs ook )

Marja prijs/performance is erg belangrijk maar ook zelfs als ze een 1070 vergelijkbare vega kaart uitbrengen met zelfde prijs is die meer waard uit mijn perspectief waarom?

Omdat je gewoon al jaren de trend ziet dat amd kaarten beter en beter worden naarmate ze ouder worden

Acties:
  • 0 Henk 'm!

  • flessuh
  • Registratie: Maart 2005
  • Laatst online: 22:17

flessuh

Set sail for fail!

Vraag is dan hoe goed je de 1070 vindt voor 4k.. dat is toch iets waar veel naar kijken.
Als ze een kaart uitbrengen die goed mee gaat met de 1070 en door HBM2 op 4k dichter bij de 1080 komt zouden ze een ideale kaart hebben denk ik..

Nou durf ik niet te zeggen of HBM2 dat verschil kan en gaat maken, maar hopen kan altijd :)

Vraag me af of ze stiekem bij het Zen event een vega kaart er in hebben

https://www.dutchsolarboat.com


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 22:11

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Verwijderd schreef op woensdag 30 november 2016 @ 11:39:
Zelfs als ze een 1070 concurrent voor pakweg de zelfde prijs doen is het nog steeds goedkoper door freesync vergeleken met g-sync scherm wat meestal 100-200 euro duurder is.

Het ligt er erg aan uit wiens perspectief je het bekijkt maar ik raad mensen gewoon aan om de prijs van een g-sync scherm mee te rekenen bij je kosten van je gpu waardoor bevoorbeeld een rx 470/480 een veel betere keuze is dan de 1060.

[...]
Vreemd advies aangezien adaptive sync schermen geen verplichting en zelfs verre van ingeburgerd zijn op dit moment.

Dat is hetzelfde als zeggen dat een auto met trekhaak geen goed idee is omdat een aanhanger ook geld kost. |:(

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • +3 Henk 'm!

  • Defector
  • Registratie: December 2005
  • Niet online
Niet verplicht maar wanneer je een auto met een trekhaak koopt is het misschien ook slim om te kijken hoeveel een compatible aanhanger kost. En dus de totale kosten.

Dat is zeker iets waar ik met mijn volgende videokaart rekening mee hou.

[ Voor 40% gewijzigd door Defector op 30-11-2016 13:41 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Blaat als je nu een scherm gaat kopen van 250-300+ is het niet een vreemd advies om te gaan voor adaptive sync schermen het heeft zeker zijn voordelen.

Verplichting is het niet en er is geen 1 antwoord op een vraag omdat er zoveel externe dingen meetellen.

Ben je van plan nieuwe scherm te halen ja of nee?
Hoeveel geld heb je te besteden of nog beter hoeveel geld wil je besteden omdat er ook mensen zijn die ''grote balen'' geld ergens anders in stoppen aka andere hobbies of je kinderen etc.
Ben je content met je huidige scherm voor 1-3 jaren zonder adaptive sync en ga je over 1-3 jaren toch je gpu weer verkopen en nieuwe kopen met mischien nieuw scherm?

Etc etc I think you get my drift?

En daarbij is een trekhaak '' niet echt '' een meerwaarde als je het nooit gebruikt het geeft geen beter rijgedrag voor je auto of zicht.

Maar adaptive sync geeft wel meerwaarde voor je '' rijgedrag en zicht ''

Maar ja alles heeft ze voor en nadelen en simpel gezegt 1080p zou je kunnen zeggen dat het net pas is ingeburgerd is als je ook consoles meerekent. ( zelfs als je ze niet meerekent )

En dan reken ik afrika natuurlijk niet mee of het al ingeburgerd is want meeste landen daar heeft de gewone burger als die al een pc heeft 720p of beeldschermen wat wij hier top-end vonden 10-20 jaar terug.


Zou wel leuke verassing zijn als ze ook een vega kaart erin hebben gepropt hoop alleen dat ze dan niet zoals nvidia mensen voorliegen zoals met de 1080 kwa prestaties en temps :)

[ Voor 6% gewijzigd door Verwijderd op 30-11-2016 14:41 ]


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Sp3ci3s8472 schreef op maandag 28 november 2016 @ 18:35:


Discrete Desktop GPU Market Trends Q3 2016: GPU Shipments Hit Two-Year High

[...]


AMD lijkt een stuk meer te verkopen, Nvidia blijft wel zijn marktaandeel vasthouden. Jammer dat AMD nu weinig heeft in de highend want dat had wellicht de situatie op 40/60 kunnen brengen.
Ik verwacht dat Q4 minder zal zijn. nVidia kan alle segementen nu bedienen en AMD high end nog niet. Eerst was het nog geen probleem omdat nVidia de 1050 en 1060 nog niet had maar die zijn er inmiddels. Vega is nog niet gesignaleerd.... Hopelijk gaat die snel komen en zijn de geruchten dat de RX 490 een dual Polaris 10 is niet waar.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

Verwijderd

Even een klein vraagje tussendoor. Kan iemand de fijne details uitleggen (of een goede link geven, ik heb nog niets geschikts kunnen vinden) over waarom je bij een synthetische benchmark niet de volle 100% load haalt? Niet om een probleem op te lossen, ik ben er gewoon nieuwsgierig naar. Ik haal bij Valley 98/99% GPU-load met dipjes die tot 5 procentpunt (laden?) lager liggen terwijl de CPU niet zwaar wordt belast (gekeken naar de CPU load). Ik kan me er iets bij voorstellen (de GPU die moet wachten op de aanvoer van data waarmee gewerkt wordt etc.) maar dan ben ik aan het speculeren.
Blaat schreef op woensdag 30 november 2016 @ 13:37:
[...]


Vreemd advies aangezien adaptive sync schermen geen verplichting en zelfs verre van ingeburgerd zijn op dit moment.

Dat is hetzelfde als zeggen dat een auto met trekhaak geen goed idee is omdat een aanhanger ook geld kost. |:(
Zoals anderen hier ook al aangaven, als je toch al van plan bent om de komende jaren een nieuwe monitor te kopen (lees: voordat je de grafische kaart afdankt/verkoopt) dan is het logisch om mee te wegen dat je min of meer gratis FreeSync krijgt bij een monitor terwijl je voor G-Sync flink extra mag betalen. Het is een feit dat FreeSync (en G-Sync) de gamplay verbetert, dat je met eenzelfde FPS een meer vloeiend beeld hebt.

[ Voor 27% gewijzigd door Verwijderd op 01-12-2016 13:18 ]


Acties:
  • +1 Henk 'm!

Verwijderd

Een nieuwe video van AdoredTV. Hij dook eens in de cijfers (financiën, marktaandeel) De boodschap is niets iets om vrolijk van te worden. Samenvatting: AMD had gedurende een lange tijd een technische voorsprong maar Nvdia verkocht veel meer kaarten omdat de leken automatisch voor Nvidia kiezen en het onvoldoende is dat de meer technisch bewuste mensen voor de beste performance/prijs kiezen. Nu de laatste jaren het aantal gamers flink is gegroeid en het aandeel van leken groter is geworden heeft Nvidia veel geld binnen geharkt waardoorhet gat nog groter is geworden, AMD komt een jaar later met Vega uit omdat ze ervoor kozen om 100% zeker met consoles wat winst te maken in plaats van een groot risico te lopen om weer verlies te maken met de hogere segmenten van de discrete grafische kaarten.
YouTube: The GPU War is Over + Win a Copy of Star Wars Battlefront!

Mijn mening? In het beste geval keert de arrogantie en het kinderachtige gedrag van Nvidia zich op een gegeven moment tegen Nvidia. Alleen hoe lang duurt het voordat de leken het ook in de gaten krijgen. Als iemand voor het eerst een computer heeft gekocht en hij gaat voor het eerst een fatsoenlijke grafische kaart uitzoeken, weet die persoon dan wel wat G-Sync en FreeSync zijn, wat een API is, welke kaarten beter presteren bij welke API's? Dit zijn retorische vragen.

Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

Verwijderd schreef op donderdag 1 december 2016 @ 18:29:
Een nieuwe video van AdoredTV. Hij dook eens in de cijfers (financiën, marktaandeel) De boodschap is niets iets om vrolijk van te worden. Samenvatting: AMD had gedurende een lange tijd een technische voorsprong maar Nvdia verkocht veel meer kaarten omdat de leken automatisch voor Nvidia kiezen en het onvoldoende is dat de meer technisch bewuste mensen voor de beste performance/prijs kiezen. Nu de laatste jaren het aantal gamers flink is gegroeid en het aandeel van leken groter is geworden heeft Nvidia veel geld binnen geharkt waardoorhet gat nog groter is geworden, AMD komt een jaar later met Vega uit omdat ze ervoor kozen om 100% zeker met consoles wat winst te maken in plaats van een groot risico te lopen om weer verlies te maken met de hogere segmenten van de discrete grafische kaarten.
YouTube: The GPU War is Over + Win a Copy of Star Wars Battlefront!

Mijn mening? In het beste geval keert de arrogantie en het kinderachtige gedrag van Nvidia zich op een gegeven moment tegen Nvidia. Alleen hoe lang duurt het voordat de leken het ook in de gaten krijgen. Als iemand voor het eerst een computer heeft gekocht en hij gaat voor het eerst een fatsoenlijke grafische kaart uitzoeken, weet die persoon dan wel wat G-Sync en FreeSync zijn, wat een API is, welke kaarten beter presteren bij welke API's? Dit zijn retorische vragen.
Don't worry, leken krijgen het niet door.

Als je dit leest, heb je teveel tijd.


Acties:
  • +4 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 22:25
Verwijderd schreef op donderdag 1 december 2016 @ 18:29:
Een nieuwe video van AdoredTV. Hij dook eens in de cijfers (financiën, marktaandeel) De boodschap is niets iets om vrolijk van te worden. Samenvatting: AMD had gedurende een lange tijd een technische voorsprong maar Nvdia verkocht veel meer kaarten omdat de leken automatisch voor Nvidia kiezen en het onvoldoende is dat de meer technisch bewuste mensen voor de beste performance/prijs kiezen. Nu de laatste jaren het aantal gamers flink is gegroeid en het aandeel van leken groter is geworden heeft Nvidia veel geld binnen geharkt waardoorhet gat nog groter is geworden, AMD komt een jaar later met Vega uit omdat ze ervoor kozen om 100% zeker met consoles wat winst te maken in plaats van een groot risico te lopen om weer verlies te maken met de hogere segmenten van de discrete grafische kaarten.
YouTube: The GPU War is Over + Win a Copy of Star Wars Battlefront!

Mijn mening? In het beste geval keert de arrogantie en het kinderachtige gedrag van Nvidia zich op een gegeven moment tegen Nvidia. Alleen hoe lang duurt het voordat de leken het ook in de gaten krijgen. Als iemand voor het eerst een computer heeft gekocht en hij gaat voor het eerst een fatsoenlijke grafische kaart uitzoeken, weet die persoon dan wel wat G-Sync en FreeSync zijn, wat een API is, welke kaarten beter presteren bij welke API's? Dit zijn retorische vragen.
Daarmee zeg je min of meer dat elke persoon die een Nvidia kaart heeft gekocht een leek is. Kwaliteit van dit nieuwstopic is er niet op vooruit gegaan in mijn afwezigheid (itt tot wat hier wellicht verwacht werd :P ).

Hele verhaal is verder natuurlijk op onzin gebaseerd aangezien Raja Koduri zelf heeft aangegeven dat Radeon 2-3 jaar achter ligt.

Ik heb dit al veel vaker gemeld dus ik zal het kort houden... Er zit een verschil tussen technisch succes en financieel succes. Dat laatste heeft AMD nog nooit weten te behalen en uiteindelijk is dat wel belangrijk om op de lange termijn succesvol te zijn als bedrijf. Als je een mooie Athlon maakt en die is gewoon beter dan wat Intel heeft te bieden, maar je verkoopt hem voor een prijs waarbij je geen winst maakt terwijl de top van je bedrijf niet beseft dat het ding uberhaupt sneller is, dan gaat er ergens iets goed mis. Met dat geld wat uit het succes volgt kun je namelijk investeren in je toekomst. Nu is het vooral een aflopende zaak en dan wordt het gewoon erg moeilijk, hoe vaak je ook van CEO wisselt.

Als je de vraag waarom AMD niet meer kaarten heeft verkocht heel algemeen trekt dan is het antwoord in de jaarverslagen van AMD te vinden; keer op keer schiet de productie capaciteit tekort. Dat ging eigenlijk vrij snel naar de inlijving van Ati al mis, pas rond 2011 is het iets verbeterd door simpelweg wat duurder te worden (southern islands).

De laatste jaren gaat het nog harder mis doordat de time-to-market is opgelopen. Dit is dan weer bevestigd door Raja Koduri (VP RTG) die vrij vertaald zei "we hadden niet de producten die de gamers wilden". Ook dat is niet de schuld van Nvidia maar terug te leiden op de beslissing om het R&D budget 6 jaar achter elkaar te laten dalen. Op een gegeven moment mis je talent (wat in het zelfde interview is bevestigd). Verder was Raja Koduri ook duidelijk dat AMD de focus op pc gaming ergens tussen de apu's en console deals is verloren.



Zeer interessante video die veel pijnpunten (gebrek aan focus, achterlopen, te weinig producten, strijd om talent) gewoon benoemt zonder schaamte. Dat is de manier waarop je wat aan je tekortkomingen kan doen. Met je vinger naar Nvidia wijzen gaat niet helpen (wat AMD ook minder gaat proberen te doen).

Deze man in combinatie met het recent verhoogde R&D budget maken mij weer positief over AMD Radeon. Ik kijk er echter niet raar van op als dit 3 jaar aanmodderen blijft. De foute keuzes uit het verleden zet je niet in een dag recht. Wat dat betreft ben ik nog altijd voorstander van een onafhankelijk Radeon bedrijf. Laat AMD de gpu techniek maar in licentie afnemen.

[ Voor 3% gewijzigd door sdk1985 op 01-12-2016 23:22 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +1 Henk 'm!

Verwijderd

sdk1985 schreef op donderdag 1 december 2016 @ 23:09:
[...]

Daarmee zeg je min of meer dat elke persoon die een Nvidia kaart heeft gekocht een leek is.
Nee. Om te beginnen stelde ik dat niet, AdoredTV stelde dat. Hij onderbouwde die stelling ook: op fora kiezen veel mensen (de meerderheid in het geval van 480 vs 1060) voor de AMD-kaart, de verkoopcijfers blijven ver achter. Je kan stellen dat AMD keer op keer te weinig produceert maar als de vraag 10 keer zo groot zou zijn als het aanbod dan zou de productie toch zeker wel verhoogd worden? :?

Dat interview was zeker rond mei bij PC Perspective? Zo ja, dan heb ik die al gezien.
Ik ben het met jou eens dat het beter zou zijn als Radeon zo onafhankelijk mogelijk functioneert, ik kreeg uit dat interview de indruk dat ze wel aardig wat vrijheid en steun kregen. Het zorgpunt is natuurlijk dat Nvidia in een paar maanden tijd zoveel winst maakt als AMD in jaren. Met het R&D-budget wat nodig is...
Ik hoop uiteraard dat AMD het redt want een toekomst met enkel Nvidia is een slechte toekomst voor gamers, totdat er weer eens een concurrent opstaat. Bovendien heeft Nvidia een gamervijandige houding met al die kinderachtige spelletjes (PhysX, Gameworks, G-Sync).

[ Voor 57% gewijzigd door Verwijderd op 02-12-2016 21:27 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:45
gamervijandige houding?

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41
Woord van 2016 ;).

De houding van Nvidia is minder positief voor gamers dan die van AMD. AMD heeft het alleen wel voor een deel aan zichzelf te danken dat ze het zover hebben laten komen en dat de verhouding nu 30/70 is in de markt. Daar kan je Nvidia moeilijk de schuld van geven, het is juist door die verhouding dat Nvidia de kans krijgt om vaker minder plezante dingen te doen.

Acties:
  • +13 Henk 'm!

Verwijderd

Stel jij hebt een 1070 gekocht, jij hebt ook nog een 760 of zo liggen dus jij wil PhysX gebruiken.
Stel jij hebt een RX 480 en jij hebt ook nog een 760 of zo liggen dus jij wil PhysX gebruiken.
Nvidia staat dit niet toe. => gamervijandig

Iedereen die Borderlands 2 heeft gespeeld zou moeten weten dat PhysX prima gedraaid kan worden op hoge instellingen als je een AMD-kaart en een niet al te oude Intel-CPU hebt. Desalniettemin kan je die optie enkel activeren via een geheim gehouden commando in het bestand wat de waardes voor diverse variabelen bevat. De fout van de developers? Ik vermoed dat de developer dat deed in opdracht van Nvidia.
spoiler:
Ze spraken af om PhysX te implementeren, de programmeurs bouwden een betere methode in (CPU + heel de grafische kaart, ongeacht welk merk er wordt gebruikt) omdat dit de ontwikkeling gemakkelijker maakte (testen en zo) maar ze konden die optie niet in het menu opnemen omdat Nvidia dan boos zou worden. Speculatie maar kom maar eens met een betere verklaring waarom die optimalisatie niet in het menu is opgenomen.


AMD had een uitstekende techniek ontwikkeld voor haareffecten, Nvidia pusht een techniek die zelfs door de 1080 niet fatsoenlijke gerenderd kan worden terwijl het spel in kwestie ten tijde van de 900-serie (en 300-serie) uitkwam. => gamervijandig

Nvidia zet de tessellataion op niveau 100 terwijl je op niveau 20 al geen verschil meer ziet, omdat Nvidia weet dat AMD-kaarten er wat zwakker in zijn (voor de 400-serie een veel minder groot probleem maar dat doet er nu even niet toe) => gamervijandig

Nvidia pusht een of andere nieuwe belichtingstechniek of iets dergelijks (waarbij het nog maar de vraag is of dat Nvidia het wel zelf heeft ontwikkeld maar let's not open that can of worms), Nvidia houdt de code geheim waardoor het voor AMD-kaarten niet gebruikt kan worden. => gamervijandig
In contrast hiermee gaf AMD alle medewerking aan Nvidia om TressFX te implementeren toen Tomb Raider uitkwam, of daarvoor al.

Nvidia zou zeer eenvoudig FreeSync-monitors kunnen ondersteunen (kwestie van wat software in de drivers) maar Nvidia weigert om dat te doen. => gamervijandig

We kunnen het ook nog over planned obsolescence hebben. Als allerlei Nvidia-kaarten die even oud zijn als bepaalde AMD-kaarten zijn ingelopen door die AMD-kaarten doordat die laatste betere ondersteuning krijgen X jaar na het debuut....

Mensen kunnen nu gaan muggenziften over details maar dat Nvidia gamervijandig handelt lijkt me wel duidelijk gestaafd.
Iedereen mag er het zijne van vinden, alleen al omwille van dit soort gedrag koop ik sowieso geen Nvidia-kaarten. Het begon voor mij bij die PhysX-onzin, op dat punt besloot ik om geen Nvidia-kaarten meer te kopen.
Sp3ci3s8472 schreef op zaterdag 3 december 2016 @ 13:16:
De houding van Nvidia is minder positief voor gamers dan die van AMD. AMD heeft het alleen wel voor een deel aan zichzelf te danken dat ze het zover hebben laten komen en dat de verhouding nu 30/70 is in de markt. Daar kan je Nvidia moeilijk de schuld van geven, het is juist door die verhouding dat Nvidia de kans krijgt om vaker minder plezante dingen te doen.
Het lijkt me meer een kwestie van cultuur. AMD hoefde bijvoorbeeld niet TressFX te delen maar dat deden ze wel. Hoe dan ook, als AMD hezelfde zou doen dan zou ik uiteraard AMD links laten liggen.

[ Voor 12% gewijzigd door Verwijderd op 04-12-2016 02:38 ]


Acties:
  • +1 Henk 'm!

  • NINjak
  • Registratie: April 2000
  • Laatst online: 14-08 15:29
Verwijderd schreef op zondag 4 december 2016 @ 01:53:
[...]

Stel jij hebt een 1070 gekocht, jij hebt ook nog een 760 of zo liggen dus jij wil PhysX gebruiken.
Stel jij hebt een RX 480 en jij hebt ook nog een 760 of zo liggen dus jij wil PhysX gebruiken.
Nvidia staat dit niet toe. => gamervijandig

Iedereen die Borderlands 2 heeft gespeeld zou moeten weten dat PhysX prima gedraaid kan worden op hoge instellingen als je een AMD-kaart en een niet al te oude Intel-CPU hebt. Desalniettemin kan je die optie enkel activeren via een geheim gehouden commande in het bestand wat de waardes voor diverse variabelen bevat. De fout van de developers? Ik vermoed dat de developer dat deed in opdracht van Nvidia.
spoiler:
Ze spraken af om PhysX te implementeren, de programmeurs bouwden een betere methode in (CPU + heel de grafische kaart, ongeacht welk merk er wordt gebruikt) omdat dit de ontwikkeling gemakkelijker maakte (testen en zo) maar ze konden die optie niet in het menu opnemen omdat Nvidia dan boos zou worden. Speculatie maar kom maar eens met een betere verklaring waarom die optimalisatie niet in het menu is opgenomen.


AMD had een uitstekende techniek ontwikkeld voor haareffecten, Nvidia pusht een techniek die zelfs door de 1080 niet fatsoenlijke gerendered kan worden terwijl het spel in kwestie ten tijde van de 900-serie (en 300-serie) uitkwam. => gamervijandig

Nvidia zet de tessellataion op niveau 100 terwijl je op niveau 20 al geen verschil meer ziet, omdat Nvidia weet dat AMD-kaarten er wat zwakker in zijn (voor de 400-serie een veel minder groot probleem maar dat doet er nu even niet toe) => gamervijandig

Nvidia pusht een of andere nieuwe belichtingstechniek of iets dergelijks (waarbij het nog maar de vraag is of dat Nvidia het wel zelf heeft ontwikkeld maar let's not open that can of worms), Nvidia houdt de code geheim waardoor het voor AMD-kaarten niet gebruikt kan worden. => gamervijandig
In contrast hiermee gaf AMD alle medewerking aan Nvidia om TressFX te implementeren toen Tomb Raider uitkwam, of daarvoor al.

Nvidia zou zeer eenvoudig FreeSync-monitors kunnen ondersteunen (kwestie van wat software in de drivers) maar Nvidia weigert om dat te doen. => gamervijandig

We kunnen het ook nog over planned obsolescence hebben. Als allerlei Nvidia-kaarten die even oud zijn als bepaalde AMD-kaarten zijn ingelopen door die AMD-kaarten doordat die laatste betere ondersteuning krijgen X jaar na het debuut....

Mensen kunnen nu gaan muggenziften over details maar dat Nvidia gamervijandig handelt lijkt me wel duidelijk gestaafd.
Iedereen mag er het zijne van vinden, alleen al omwille van dit soort gedrag koop ik sowieso geen Nvidia-kaarten. Het begon voor mij bij die PhysX-onzin, op dat punt besloot ik om geen Nvidia-kaarten meer te kopen.

[...]

Het lijkt me meer een kwestie van cultuur. AMD hoefde bijvoorbeeld niet TressFX te delen maar dat deden ze wel. Hoe dan ook, als AMD hezelfde zou doen dan zou ik uiteraard AMD links laten liggen.
Mooie opsomming en het is (jammer genoeg) nog waar ook.

Acties:
  • +1 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 21:30

Trygve

Redacteur
Verwijderd schreef op zondag 4 december 2016 @ 01:53:
[...]
Nvidia zet de tessellataion op niveau 100 terwijl je op niveau 20 al geen verschil meer ziet, omdat Nvidia weet dat AMD-kaarten er wat zwakker in zijn (voor de 400-serie een veel minder groot probleem maar dat doet er nu even niet toe) => gamervijandig
Nog even in aanvulling hierop, AMD heeft tesselation over de generaties heen al verbeterd, GCN1 was hier destijds in vergelijking met nVidia niet zo sterk in.

TessMark, Image Set 4, 64x Tessellation. Frames Per Second - Higher Is Better
R9 280 (GCN1): 766 fps
GTX960: 1418 fps
R9 290 (GCN2): 1461 fps
R9 380 (GCN3): 1661 fps
RX480 (GCN4): 2240 fps
http://www.anandtech.com/bench/product/1751?vs=1750

Neemt inderdaad niet weg dat er een overkill aan tesselation is gebruikt in sommige spellen (Witcher 3 en Project Cars kan ik zo alleen bedenken, maar er zijn er zeker meer).

Acties:
  • 0 Henk 'm!

  • Keyser
  • Registratie: September 2001
  • Laatst online: 25-06-2024
Geen idee of het hier de goede plek is, maar ik dacht laat ik het even posten:

Heb net een Sapphire RX 480 Nitro + OC 4GB gekocht (€230 via amazon-de).
Deze blijkt te zijn voorzien van snel Samsung geheugen.
Hen hem nu draaien zonder issues op:
GPU: 1306 Mhz (standaard) op 1006mV (undervolted)
Mem: 2250 Mhz (std. 1750 - OC kan niet hoger met wattman) op 1006mV

Draait nu lekker koel, snel en stil.
http://gpuz.techpowerup.com/16/12/04/38n.png
http://gpuz.techpowerup.com/16/12/04/dje.png
https://www.techpowerup.com/gpuz/details/8swv4

Plaatjes zijn genomen tijdens het draaien van de Heaven Benchmark 4.0

[ Voor 6% gewijzigd door Keyser op 04-12-2016 20:02 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Meer mensen moeten is kijken naar beetje underclocken/undervolting want meestal verlies je mischien op de 80 fps maar 2-4 fps maar daalt de watt wat je trekt ( van de muur in totaal verlies naar warmte omgezet meegerekent ) zo met 20-40% vooral omdat de 4xx serie en helemaal de 480 op een wat te hoge voltage zitten dan nodig omdat het nieuwe productie proces was.

En waarom ik dat zeg is omdat zoveel mensen zeuren om 30-40 watt meer hoewel je daar dus maar een '' happy meal '' aka '' happy karton '' van kan kopen per jaar x]

En ja het is jammer dat het niet beter bekend was onder de leken bij de 2xx/4xx serie van nvidia dat amd gewoonweg een veel betere keuze was met performance en ook nog prijs want als amd toen een mooie cashinjectie hadden gehad stonden ze er veel beter voor.

Maar als je ook ziet amd bezuinigd niet echt op de onderdelen van hun gpu's ( reference blower style gpu's blijven zuigen als je ze niet persee koopt voor crossfire/kleine kast/ of dat je zelf koeler erop wil doen )

Maar ik koop nvidia/intel/amd alleen nvidia valt gewoonweg bij me af de laatste jaren met wat ze allemaal uitspoken.

Maar meeste mensen zijn gewoonweg dom, zoals uitspraken dat amd snelste kaart is 480 en dat ze zuigen. fury(x) en nano zijn de snellere kaarten kunt er nog de 390(x) en de 290x ( goede aftermarket koeler zoals tri fan van sapphire ofzo ) meerekenen die meestal even snel -/+ zijn dan de 480, hoewel nu de fab proces beter is geworden de 480 wel een veel betere keuze is dan de 390(x) of 290x.

[ Voor 62% gewijzigd door Verwijderd op 04-12-2016 23:23 ]


Acties:
  • 0 Henk 'm!

  • Keyser
  • Registratie: September 2001
  • Laatst online: 25-06-2024
Sterker nog, met undervolten kan je bij de RX480 juist vaak een betere performance verwachten.

zie:
http://www.legitreviews.c...olting-performance_183699

Acties:
  • 0 Henk 'm!

  • Keyser
  • Registratie: September 2001
  • Laatst online: 25-06-2024
Hi Mask,

Ik begrijp dat het kan verschillen per kaart en dat de ene kaart meer issues heeft met thermal throttling dan de ander, maar ik heb wel gelezen dat meer rx480 kaarten er moeite mee hebben om hun "stage 7" (turbo mode) vast te houden.

Dus geld de evt. performance winst enkel voor alle kaarten welke moeite hebben om stage 7 vast te houden ivm thermal throttling.

P.s. De oorzaak van thermal throtteling kan natuurlijk ook liggen aan andere externe factoren (bijv. slechte airflow in je kast).

[ Voor 28% gewijzigd door Keyser op 05-12-2016 16:40 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Verwijderd schreef op zondag 4 december 2016 @ 23:10:
En ja het is jammer dat het niet beter bekend was onder de leken bij de 2xx/4xx serie van nvidia dat amd gewoonweg een veel betere keuze was met performance en ook nog prijs want als amd toen een mooie cashinjectie hadden gehad stonden ze er veel beter voor.
Yep. AMD was eerder naar kleinere transistors overgestapt waardoor het toen een voorsprong had, helaas wisten de meeste klanten het niet.
Maar als je ook ziet amd bezuinigd niet echt op de onderdelen van hun gpu's ( reference blower style gpu's blijven zuigen als je ze niet persee koopt voor crossfire/kleine kast/ of dat je zelf koeler erop wil doen )
Als AMD nu eens een keer een goede stille koeler voor ATX-kasten op het referentiemodel zou plaatsen dan koop ik de referentiekaart van de '490'-achtige kaart, hoe die ook gaat heten. Een blowerkoeler komt er bij mij niet in, ik ga juist een stille kast (Fractal R5/S of iets soortgelijks ) kopen.

[ Voor 34% gewijzigd door Verwijderd op 05-12-2016 17:47 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Ja bedoelde ook dat eigenlijk zogoed als alles van de amd kaarten van de kleinste onderdelen van de reference moddelen niet op bezuinigdt zijn alleen de meeste mensen zullen er weinig van zien en niet de kennis hebben om het te kunnen zien.

Enigste echte probleem is jep de reference blower koelt eigenlijk gewoon maar net genoeg als je geen jetengine in je kast wilt hebben.

Dat blijft altijd nu een probleem met blowerstyle koelers hoewel nvidia bij de 10xx serie blowersyle wel iets beter is geworden ten opzichte van eerst maar ja dat krijg je als je dus reference ver boven je eigen prijs msrp gaat zetten en daardoor de prijzen omhoog drukt.

Stel dat amd met een soortgelijke founders edition als nvidia komt die ze zelf ook zo ver boven hun eigen msrp zetten dan word het amd niet in dank afgenomen hoewel bij nvidia vind ik persoonlijk zelf dat te weinig mensen er om hebben gekraait van de 1070 en 1080 hadden gewoonweg vele malen goedkoper kunnen zijn ook met aftermarket. ( Dus betekende I vote with my wallet geen 1070/1080 kaart hier wel een leuke 1050ti gekocht laats voor een oud dual coretje waar ik niks meer mee deed en als cadeau gedaan aan een vriend :)

Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 20:35

Compizfox

Bait for wenchmarks

Verwijderd schreef op maandag 5 december 2016 @ 17:45:
[...]
Als AMD nu eens een keer een goede stille koeler voor ATX-kasten op het referentiemodel zou plaatsen dan koop ik de referentiekaart van de '490'-achtige kaart, hoe die ook gaat heten. Een blowerkoeler komt er bij mij niet in, ik ga juist een stille kast (Fractal R5/S of iets soortgelijks ) kopen.
Ik zou er niet teveel op rekenen, referencekaarten zijn negen van de tien keer vrij goedkoop qua koelerdesign.

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Compizfox schreef op maandag 5 december 2016 @ 19:49:
[...]

Ik zou er niet teveel op rekenen, referencekaarten zijn negen van de tien keer vrij goedkoop qua koelerdesign.
Wie weet doen ze voor Vega wat meer moeite. De Fury X cooler was mooi gemaakt. Vond het deels wel jammer dat het een H2O oplossing was maar daardoor is hij wel mooi compact en kan hij in hele kleine kasten.

Ik hoop zelf op een goede blower cooler. nVidia heeft laten zien dat het wel kan. Al heb ik horen zeggen dat die van de 1080 niet zo best was. Die van de 980 Ti was wel erg mooi gemaakt.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +3 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 21:30

Trygve

Redacteur
Hardware Canucks heeft nogmaals de RX480 en GTX1060 bekeken en vergeleken. Zoals wel vaker heeft AMD even tijd nodig om met geoptimaliseerde drivers voor nieuwe kaarten te komen:

Afbeeldingslocatie: http://images.hardwarecanucks.com/image//skymtl/GPU/GTX-1060-UPDATE/GTX-1060-UPDATE-100.jpg

Afbeeldingslocatie: http://images.hardwarecanucks.com/image//skymtl/GPU/GTX-1060-UPDATE/GTX-1060-UPDATE-101.jpg

Volgens Hardware Canucks gaat de RX480 inmiddels vrijwel gelijk op met de GTX1060 in DX11, en is de voorsprong in DX12/VK iets vergroot.
Bron

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41
Een van de redenen dat ik liever voor een AMD kaart koop, werken prima en zijn vaak even snel als hun tegenhanger als ze uitkomen totdat AMD (wat wat langer duurt dan bij Nvidia) de volle potentie kan benutten. Het maakt mij persoonljik weinig uit dat het iets langer duurt voordat een kaart zijn potentie kan laten zien, zeker als hij sneller wordt dan die van de concurrent.

Acties:
  • 0 Henk 'm!

  • R.G
  • Registratie: Januari 2009
  • Laatst online: 02:10

R.G

mmm, een punt wat ik jammer vind van amd is, dat ze driver updates snel stoppen en het dan de naam legacy geven.

Zo heb ik nog een oude 260gtx bijvoorbeeld liggen daarvoor komen nog steeds nvidia drivers uit. Tenminste ik kan ze installeren.

Terwijl een amd 6950 die ik ook heb liggen, geen driver updates meer krijgt. Hier heb ik ook een probleem mee doordat bijvoorbeeld de game doom van bethesda, ik heb 2 identieke computers zeflde os zeflde software alles identiek enige verschil is de cpu, amd 945 x4 phenom II en een amd fx 8 cpu .

Zelfde amd kaart, zelfde driver, elk nr is identiek.
om de phenom II goede prestatie.
op het fx systeem is het een verdomde slide show.., betekent dit dat de kaart misschien kapot is?
andere games draaien wel oke. alle game files gechecked met sfv en alles identiek..

je wordt zo gebruikt om toch een nieuwe kaart aan te schaffen omdat de nieuwe games toch weer een driver optimalisatie nodig hebben. Zo merk ik dat een 560gtx door de nieuwe driver updates bijvoorbeeld w3 gewoon goed speelt terwijl op mijn 6950 is het gewoon net te doen.

Acties:
  • +3 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41
De 260GTX zit al heel lang in legacy, Kepler kaarten krijgen tegenwoordig ook legacy drivers zover ik weet.De nieuwe Nvidia drivers zijn niks meer dan waarschijnlijk bug fixes.
Dus dat is niets meer dan een illusie die Nvidia schept :P.

Als je nu kijkt naar de R9 280x vs de GTX770 of GTX780 dan kan je gelijk zien welke nog wel performance updates krijgt en welke niet. De 280x verslaat de GTX770 tegenwoordig met gemak en komt heel dicht in de buurt van de GTX780 die vroeger vergelijkbaar was met de R9 290.
Afbeeldingslocatie: https://tpucdn.com/reviews/ASUS/R9_380X_Strix/images/perfrel_2560_1440.png

Het is dus juist andersom.
offtopic:
Voor de frequende bezoeker is dit oude koek, dit moet te vaak worden herhaald...

[ Voor 7% gewijzigd door Sp3ci3s8472 op 06-12-2016 14:53 ]


Acties:
  • 0 Henk 'm!

  • R.G
  • Registratie: Januari 2009
  • Laatst online: 02:10

R.G

Ah thank you ^^

edit:

als ik kijk op de nvidia website en de 260gtx kies,
krijg ik dit

GeForce 342.00 Driver - WHQL

Version: 342.00 - Release Date: Thu Oct 27, 2016
zit daar dan gewoon de legacy bij in? met bug fixes?

[ Voor 87% gewijzigd door R.G op 06-12-2016 14:55 ]


Acties:
  • 0 Henk 'm!
nVidia is al bij driver versie 376.19, 340 is zo'n 2,5 jaar oud.
downloads: Nvidia GeForce/Ion 340.43 bèta

Dus ik neem aan dat 342 vergelijkbaar is met die 2,5 jaar oude driver.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • R.G
  • Registratie: Januari 2009
  • Laatst online: 02:10

R.G

GeForce Game Ready Driver - WHQL

Version: 376.19 - Release Date: Mon Dec 05, 2016 , gtx 470

Acties:
  • 0 Henk 'm!

Verwijderd

Compizfox schreef op maandag 5 december 2016 @ 19:49:
[...]

Ik zou er niet teveel op rekenen, referencekaarten zijn negen van de tien keer vrij goedkoop qua koelerdesign.
Als AMD er een goede koeler (non-blower) op zou stoppen en een goede passieve afvoer van warmte dan zou een prijsverhoging met 20-30 euro of wat dan ook volgens mij niet de verkoop negatief beïnvloeden. ;)
Astennu schreef op maandag 5 december 2016 @ 21:10:
[...]


Wie weet doen ze voor Vega wat meer moeite. De Fury X cooler was mooi gemaakt. Vond het deels wel jammer dat het een H2O oplossing was maar daardoor is hij wel mooi compact en kan hij in hele kleine kasten.
Moet dat voor een highend-kaart de primaire doelgroep zijn? Ik weet dat het een hype is om zoveel mogelijk spul in zo'n klein mogelijk kastje te stoppen en dan maar lawaai en throttling voor lief te nemen (ik heb het nu niet over mensen die dat om functionele redenen doen, bijv. voor een LAN-party setup) maar zo'n kaart kan je beter in een fatsoenlijke ATX-kast stoppen die goede, grote en stile ventilators bevat. Een paar grote kastventilators kunnen beter de warmte afvoeren dan 1 kleine blowerkoeler die op zo'n kaart gestopt kan worden.
Ik heb natuurlijk niets tegen een watergekoelde kaart op zichzelf, het hangt er maar van af hoe goed het koelt en hoeveel lawaai het geeft.
Ik hoop zelf op een goede blower cooler. nVidia heeft laten zien dat het wel kan. Al heb ik horen zeggen dat die van de 1080 niet zo best was. Die van de 980 Ti was wel erg mooi gemaakt.
Het is toch nog steeds lawaaieriger en minder goed in het koelen in een ATX-kast, hoe goed die ook is?
r100 schreef op dinsdag 6 december 2016 @ 14:24:
Hardware Canucks heeft nogmaals de RX480 en GTX1060 bekeken en vergeleken. Zoals wel vaker heeft AMD even tijd nodig om met geoptimaliseerde drivers voor nieuwe kaarten te komen:

[afbeelding]

[afbeelding]

Volgens Hardware Canucks gaat de RX480 inmiddels vrijwel gelijk op met de GTX1060 in DX11, en is de voorsprong in DX12/VK iets vergroot.
Bron
Typisch. We kunnen nu iedereen de RX 480 aanbevelen in plaats van de GTX 1060 zonder een DX11 vs. DX12 + Vulkan verhaal te hoeven houden. ;)

[ Voor 88% gewijzigd door Verwijderd op 06-12-2016 16:42 ]


Acties:
  • +3 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 20:35

Compizfox

Bait for wenchmarks

R.G schreef op dinsdag 6 december 2016 @ 14:42:
mmm, een punt wat ik jammer vind van amd is, dat ze driver updates snel stoppen en het dan de naam legacy geven.

Zo heb ik nog een oude 260gtx bijvoorbeeld liggen daarvoor komen nog steeds nvidia drivers uit. Tenminste ik kan ze installeren.
In wezen is er geen verschil. Je oude Nvidia-kaart is dan misschien wel supported door de laatste driver, er zijn al jaren geen changes meer voor uitgekomen. Het heeft dus in feite geen enkel nut voor die kaart om je driver te updaten.

Nvidia wekt dus de schijn dat er nog driverupdates voor die kaart uitkomen, terwijl AMD gewoon duidelijk is over het feit dat oude kaarten (pre-GCN) geen updates meer krijgen.

Sterker nog, ik zou het eerder omdraaien: bij AMD neemt de performance van kaarten over het algemeen toe, omdat tijdens de levensduur van de kaart nieuwe drivers uitkomen die veel aan de performance verbeteren. Nvidia doet exact het omgekeerde: het gerucht gaat dat die hun oudere series 'saboteren' om mensen nieuwe series te laten kopen (kon zo snel geen goede bron vinden, dus correct me if I'm wrong).

Gewoon een heel grote verzameling snoertjes


Acties:
  • 0 Henk 'm!

  • Compizfox
  • Registratie: Januari 2009
  • Laatst online: 20:35

Compizfox

Bait for wenchmarks

Astennu schreef op maandag 5 december 2016 @ 21:10:
[...]


Wie weet doen ze voor Vega wat meer moeite. De Fury X cooler was mooi gemaakt. Vond het deels wel jammer dat het een H2O oplossing was maar daardoor is hij wel mooi compact en kan hij in hele kleine kasten.

Ik hoop zelf op een goede blower cooler. nVidia heeft laten zien dat het wel kan. Al heb ik horen zeggen dat die van de 1080 niet zo best was. Die van de 980 Ti was wel erg mooi gemaakt.
Verwijderd schreef op dinsdag 6 december 2016 @ 16:26:
[...]

Als AMD er een goede koeler (non-blower) op zou stoppen en een goede passieve afvoer van warmte dan zou een prijsverhoging met 20-30 euro of wat dan ook volgens mij niet de verkoop negatief beïnvloeden. ;)
Tja, zou kunnen, maar het punt is dat dat niet echt de bedoeling is van referencekaarten. Het verkopen van referencekaarten is niet het hoofddoel van AMD. Die kaart is er eigenlijk puur als, tja, referentie. Het hoofddoel is het verkopen van GPUs aan fabrikanten als Asus, Sapphire, XFX, MSI, enz.

Daarom wordt er meestal niet veel geld en moeite gestoken in het design van de koeler van een referencekaart. Dat doen de fabrikanten van non-referencekaarten wel.

De Fury X is een beetje een geval apart, omdat daar, zover ik weet, helemaal geen non-referencemodellen van zijn uitgekomen.

[ Voor 4% gewijzigd door Compizfox op 06-12-2016 17:55 ]

Gewoon een heel grote verzameling snoertjes


Acties:
  • +6 Henk 'm!

AMD Readies Massive Radeon Software Update with Crimson Relive Drivers – Performance Increases For Radeon GCN Cards Across The Board

Afbeeldingslocatie: https://cdn.wccftech.com/wp-content/uploads/2016/12/Radeon-Software-Crimson-ReLive-NDA-Only-Confidential-v4-page-076-copy-840x473.jpg

http://wccftech.com/amd-r...imson-relive-driver-leak/

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Verwijderd schreef op dinsdag 6 december 2016 @ 16:26:
[...]

Als AMD er een goede koeler (non-blower) op zou stoppen en een goede passieve afvoer van warmte dan zou een prijsverhoging met 20-30 euro of wat dan ook volgens mij niet de verkoop negatief beïnvloeden. ;)


[...]

Moet dat voor een highend-kaart de primaire doelgroep zijn? Ik weet dat het een hype is om zoveel mogelijk spul in zo'n klein mogelijk kastje te stoppen en dan maar lawaai en throttling voor lief te nemen (ik heb het nu niet over mensen die dat om functionele redenen doen, bijv. voor een LAN-party setup) maar zo'n kaart kan je beter in een fatsoenlijke ATX-kast stoppen die goede, grote en stile ventilators bevat. Een paar grote kastventilators kunnen beter de warmte afvoeren dan 1 kleine blowerkoeler die op zo'n kaart gestopt kan worden.
Ik heb natuurlijk niets tegen een watergekoelde kaart op zichzelf, het hangt er maar van af hoe goed het koelt en hoeveel lawaai het geeft.


[...]

Het is toch nog steeds lawaaieriger en minder goed in het koelen in een ATX-kast, hoe goed die ook is?


[...]

Typisch. We kunnen nu iedereen de RX 480 aanbevelen in plaats van de GTX 1060 zonder een DX11 vs. DX12 + Vulkan verhaal te hoeven houden. ;)
Bij de Fury X heb je dat dus niet. Die werkt ook in een kleine behuizing goed zonder throttlen.

Ik heb wel eens tri-X en msi gaming kaarten in mijn kleine kast gehad (Prodigy M) maar die moeten dan heel hard werken. Warmte kan niet goed weg. Dus nee dan werkt een blower beter qua systeem Temp geluid productie is vergelijkbaar. Vergeleken met de 980 Ti.

Undervolten doet voor zowel de 290X, Fury Nano, RX480 als de 980 Ti wonderen. Prestaties blijven vergelijkbaar alleen worden ze veel stiller en zuiniger.

Ik tweak zelf op performance per watt. Niet meer op Max snelheid.
Ik weet dat er genoeg mensen zijn die daar niet echt om geven. Dus die hebben liever Dual en tripple fans. Doe mij maar een mooie blower.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Verwijderd

Astennu schreef op dinsdag 6 december 2016 @ 17:52:
Ik tweak zelf op performance per watt. Niet meer op Max snelheid.
Ik weet dat er genoeg mensen zijn die daar niet echt om geven. Dus die hebben liever Dual en tripple fans. Doe mij maar een mooie blower.
Ook als je de spanning verlaagt is een dual/triple fan ceteris paribus stiller. Het voornaamste is dat je het aan de kastventilators overlaat om de warmte uit je kast te werken en die zijn nu eenmaal heel wat groter dan zo'n blowerventilatortje; dus ceteris paribus (zelfde vorm, zelfde lagers) minder geluidsproductie bij dezelfde luchtverplaatsing en zelfs een grotere luchtverplaatsing met minder lawaai.
Ja, bij kleine kastjes en misschien ook met meerdere kaarten in een ATX-kast zal je beter de warmte afvoeren maar als je gewoon 1 krachtige kaart in een ATX-kast plaatst dan krijg je en een betere koeling en minder lawaai. Nu begrijk ik heus wel dat je voor LAN-parties graag een klein kastje wil hebben wat je mee kan nemen. Voor thuis is er m.i. geen valide reden om niet voor het ATX-formaat (of groter) te kiezen. Zoveel scheelt het niet qua oppervlakte en gelukkig maken ze tegenwoordig ook mooie kasten (voor iedere smaak is er wat).

Maar goed, minstens zo belangrijk is dat ze eens stoppen met die onzin om 1 ontwerp te gebruiken voor tal van kaarten waardoor de metalen pijpjes niet netjes onder de GPU en het RAM lopen. ;)

Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 30-08 19:58
Tja en dat lukt in die Prodigy M dus niet. Dus een blower werkt daar beter omdat de hitte de kast uit gaat.
Daarnaast kan je met die blower coolers in die kast gewoon CF of SLi draaien. Hoef je met die andere helemaal niet te proberen.

PC kast is gekozen voor de ruimte en makkelijk mee te nemen. Ik pak deze zo op om even een middag mee te nemen om ergens te gamen. Daarnaast staat hij in de woonkamer in de hoek dus neemt hij ook weinig ruimte in.

Hij is meer dan snel genoeg en stil in zijn huidige vorm dus hoef zelf echt geen grote kast meer.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 13-09 10:41
-The_Mask- schreef op dinsdag 6 december 2016 @ 17:46:

AMD Readies Massive Radeon Software Update with Crimson Relive Drivers – Performance Increases For Radeon GCN Cards Across The Board

[afbeelding]

http://wccftech.com/amd-r...imson-relive-driver-leak/
Die nieuwe "Chill" feature is best interessant, in feite dynamisch de framerate limiteren als een user niks doet (bijvoorbeeld still staat en geen input genereert) en als er niks op het scherm gebeurt.

Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 21:30

Trygve

Redacteur
Wauw ik sta wel echt even te kijken van de nieuwe features, erg mooie lijst! Kijk er naar uit om los te gaan met WattMan op m'n 380 en om ReLive opnames te testen en vergelijken met OBS Studio.
Pagina: 1 ... 7 ... 11 Laatste

Dit topic is gesloten.