CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 131 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 10 11 Laatste
Acties:
  • 40.383 views

Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 15:57
Hoger gemiddelde komt hier door een hoger minimum waarschijnlijk. Daarvoor is meestal de single-threaded prestatie van een cpu voor verantwoordelijk en die is bij elke Haswell, ook de dual-cores, beter dan AMD's single-threaded prestatie.

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 21-05 18:47
Ik meen ergens gelezen te hebben dat AMD's GPU's altijd wel qua brute rekenkracht erg sterk zijn, maar dat de drivers kuren vertonen, dat lijkt imo hier wel te kloppen.
Devs moeten directer op de GPU programmeren en voilla, de Fury X matched een 980 Ti in bijna alle gevallen en zelfs de 390X matched/verslaat de 980.

Ik ben blij dat ik mijn Fury X weer heb :)
Nu nog een programma/executable vinden om de privacy settings automatisch goed te stellen en dan kan ik Windows 10 eens gebruiken.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16

Sp3ci3s8472

@ 12 graden...

DCG909 schreef op maandag 17 augustus 2015 @ 22:24:
Ik meen ergens gelezen te hebben dat AMD's GPU's altijd wel qua brute rekenkracht erg sterk zijn, maar dat de drivers kuren vertonen, dat lijkt imo hier wel te kloppen.
Devs moeten directer op de GPU programmeren en voilla, de Fury X matched een 980 Ti in bijna alle gevallen en zelfs de 390X matched/verslaat de 980.

Ik ben blij dat ik mijn Fury X weer heb :)
Nu nog een programma/executable vinden om de privacy settings automatisch goed te stellen en dan kan ik Windows 10 eens gebruiken.
Je bedoelt deze? :P
http://www.extremetech.co...nd-nvidia-go-head-to-head

Inderdaad gaan de Fury X en 980 Ti nek aan nek. Goed nieuws voor AMD dat DX12 inderdaad relatief meer performance krijgt dan Nv met DX12.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21-05 20:38
haarbal schreef op maandag 17 augustus 2015 @ 21:15:
[...]

Nog steeds cpu limited zo te zien.
Deze test is bedoeld om CPU limited te zijn.

Nog een linkje: http://www.eurogamer.net/...ity-dx12-benchmark-tested

Acties:
  • 0 Henk 'm!

Anoniem: 58485

DCG909 schreef op maandag 17 augustus 2015 @ 22:24:
Ik meen ergens gelezen te hebben dat AMD's GPU's altijd wel qua brute rekenkracht erg sterk zijn, maar dat de drivers kuren vertonen, dat lijkt imo hier wel te kloppen.
Ga er maar vanuit dat het hele DX11 al veel eerder op de schop moest en driverontwikkelaars vaker 'hacks' schrijven dan optimalisaties. Beetje de rommel opruimen van een game-ontwikkelaar die niet op de juiste manier een game goed kan krijgen op een bepaalde GPU.

Nvidia's aanpak is 'fewer is less' en AMD's 'more is better'. Het laat in DX12 ook goed zien waarom AMD ook beter scoort. Hun hardware is beter dan dat je denkt. Echter als API's in de loop der jaren niet 'migreren' dan kan je nog zulk mooie hardware bouwen, het moet ook benut worden.

De singlethread van AMD blijft echt aan de zwakke kant. Maar een vishera doet het slechter dan een Thuban. Ik ben daarom eerlijk gezegd ook benieuwd naar de prestaties op DX12 met een Thuban CPU (X6) op 4GHz ipv Vishera (X8).

Klok voor klok is de thuban toch 10% sneller in single threaded applicaties. Maar mooi resultaat. Dat hele DX12 laat nu ook zien dat AMD veel meer in huis heeft dan dat men jaren dacht.

[ Voor 13% gewijzigd door Anoniem: 58485 op 18-08-2015 01:18 ]


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Een benchmark met 17 FPS als laag en ~30 als hoog, ookal ongeveer het dubbele is eigenlijk compleet irrrelevant aangezien het beide gemiddelde FPS waardes zijn dus zelfs bij de ~30 waarde de minimum FPS regelmatig daar een stuk onder gaat zitten op bv 22 FPS.

Alle situaties zijn dus 100% onspeelbaar, en om dat speelbaar te maken moeten dus functies/instellingen lager/uit gezet worden.

Als 1 van die functies een bepaalde tech is van 1 specifieke vendor (Physx of bv TressFX) blijft van de hele informativiteit van de benchmark niks meer over.

Als allebei de waardes (Min en Max) beneden de 45 FPS zitten (liever nog 60 eigenlijk) dan is imho de test niet geldig/onspeelbaar en ook niet geldig als beide gevallen boven de 150FPS zitten.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • mitsumark
  • Registratie: Juni 2009
  • Nu online
Ik zie dat toch iets anders, dezelfde gedachtegang maar andere getallen.
Als alle setups boven de 40 fps zitten zie ik het verschil niet meer, dan zijn ze voor mij dus 'gelijkwaardig'.
Een tussenweg als 60 fps valt nog over te praten, maar 8/10 mensen heeft niks aan meer dan 60fps.

Ik vraag me af hoe lang mn 9370 nog mee kan :)

[ Voor 13% gewijzigd door mitsumark op 18-08-2015 08:14 ]


Acties:
  • 0 Henk 'm!

Anoniem: 668222

Sp3ci3s8472 schreef op dinsdag 18 augustus 2015 @ 00:03:
[...]


Je bedoelt deze? :P
http://www.extremetech.co...nd-nvidia-go-head-to-head

Inderdaad gaan de Fury X en 980 Ti nek aan nek. Goed nieuws voor AMD dat DX12 inderdaad relatief meer performance krijgt dan Nv met DX12.
Goed nieuws voor AMD, hier komt de rekenkracht er pas echt goed uit en ik vermoed het het nog beter word. Maar goed dit is wel een AMD titel dus daar op werk AMD sowieso iets beter.

Acties:
  • 0 Henk 'm!

  • Pure_evil
  • Registratie: Februari 2005
  • Laatst online: 04-05 11:35
Allemaal heel leuk en boeiend hoor deze benchmarks maar tegen de tijd dat we werkelijk DX12 nodig gaan hebben wordt er niet veel meer over de Fury X en 980ti gepraat denk ik.

De fanboys hebben alvast weer iets om te gebruiken in de eeuwigdurende zinloze strijd :p

Om dan nog iets meer offtopic te gaan, ik zie benches graag in realistische scenario's.
Geen sub 45 fps ed toestanden dus, heel leuk dat je mss van 15 naar 25 fps springt, daar heeft geen hond wat aan en biedt ook geen zekerheid dat je op (bvb) lagere settings nog steeds dezelfde procentuele verbetering ziet.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16

Sp3ci3s8472

@ 12 graden...

Pure_evil schreef op dinsdag 18 augustus 2015 @ 18:18:
Allemaan heel leuk en boeiend hoor deze benchmarks maar tegen de tijd dat we werkelijk DX12 nodig gaan hebben wordt er niet veel meer over de Fury X en 980ti gepraat denk ik.

De fanboys hebben alvast weer iets om te gebruiken in de eeuwigdurende zinloze strijd :p

Om dan nog iets meer offtopic te gaan, ik zie benches graag in realistische scenario's.
Geen sub 45 fps ed toestanden dus, heel leuk dat je mss van 15 naar 25 fps springt, daar heeft geen hond wat aan en biedt ook geen zekerheid dat je op (bvb) lagere settings nog steeds dezelfde procentuele verbetering ziet.
Dat kan zo zijn, maar ik koop echt niet om het jaar een highend kaart. Ik denk dat de adoptie van DX12 en Vulkan een heel stuk sneller is dan die van DX10 of DX11 destijds.

Dus er zullen vast mensen zijn die weinig hebben aan deze resultaten omdat ze dan toch weer op het nieuwste van het nieuwste zitten, maar mensen die wat langer met hardware doen zullen het erg leuk vinden.

Ze hebben de benchmark toch op de hoogste settings gedraait? Denk dat het interessant is als er benchmarks worden gedraait zoals HardOCP doet, op speelbare settings dus.

@Spliffire
Als je de developper blog leest zie je dat zowel Nv als AMD meewerkt aan het spel. NV heeft bijvoorbeeld een shader aangeleverd die de performance voor hun kaarten een stuk beter maakt. De source code van het spel is al een jaar beschikbaar voor IHV's (Intel, AMD en Nv).
Bron :p :
http://oxidegames.com/2015/08/16/the-birth-of-a-new-api/

Denk dat je hier vooral ziet wat AMD geleerd heeft van Mantle en de daarvoor geschreven drivers. Deze zijn waarschijnlijk vergelijkbaar met de DX12 drivers en daar plukken ze dus nu de vruchten van.

Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 21-05 18:47
Wat ik ook frapant vind is dat nVidia ineens begint te zeuren dat het eigenlijk geen goede benchmark is en dat er bij hun bugs in de engine plaatsvinden waardoor de prestaties geremd worden :/

Eerst waren ze zo blij dat ze net op tijd waren met het afleveren van hun DX12 driver, op het moment dat het bij dit spel geïmplementeerd werd.

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Ja, AMD's DX11 drivers zijn ruk. What's new?

Dit is toch allang bekend. Genoeg testen te vinden waarbij je zelfs beter een zwakkere Nvidia GPU met een zwakke CPU kan combineren, omdat een zwaardere AMD gpu toch alleen maar bottlenecked op de zwakkere CPU...

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

Anoniem: 668222

Sp3ci3s8472, thnx voor de info, ik kom er op omdat alleen het logo van AMD gebruikt word vandaar.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 15:26
r100 schreef op maandag 17 augustus 2015 @ 21:57:
Wow! Zeer interessant om te zien dit. Dit is weliswaar nog maar één voorbeeld, maar het ziet er goed uit voor AMD.

Er viel mij nog iets anders op:

[afbeelding]

[afbeelding]

Dat AMD met DX12 hier een inhaalslag maakt is wel duidelijk. Maar opmerkelijk is het om te zien dat de GTX980 nog steeds een hogere gemiddelde FPS voor elkaar krijgt op een i3-4330 dan op een FX-8370. Van wat ik begreep zou DX12 juist goed gebruik kunnen maken van meerdere cpu-cores (in ieder geval 6 cores), maar hier zien we dat ook in DX12 een dualcore met HyperThreading van Intel wint van een octacore van AMD :?
Dat is niet heel vreemd. Er stond ooit een hele gedetailleerde uitleg op het Need for Speed shift forum maar die kan ik zo 1,2,3 even niet meer vinden. Het komt er in ieder geval op neer dat die game ook tientallen threads had maar dat één zware thread de rest aan stuurt. Oneindig cores toevoegen heeft voorlopig gewoon weinig nut voor gaming.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • prutser001
  • Registratie: Oktober 2004
  • Laatst online: 10:38

prutser001

Vaak zit het tegen en soms zi

Ik ben juist erg benieuwd wat de oudere DX12 'compatible' kaarten er op vooruit gaan, dat nieuwe kaarten 'goed' presteren had ik wel verwacht.

Maar is het niet zo dat in 3DMark ook al een DX12 benchmark zat? Dan wel de PRO versie en niet de gratis versie. Je moet dan wel de laatste versie hebben.

Asus Z390 Maximus IX Hero, Intel 9900K, RTX3080, 64GB DDR4 3000, 2TB NVME, Samsung 850Evo 1TB, 4 x 14TB Toshiba, Be Quiet SB 801, Samsung 34"


Acties:
  • 0 Henk 'm!

Anoniem: 59888

sdk1985 schreef op dinsdag 18 augustus 2015 @ 18:42:
Dat is niet heel vreemd. Er stond ooit een hele gedetailleerde uitleg op het Need for Speed shift forum maar die kan ik zo 1,2,3 even niet meer vinden. Het komt er in ieder geval op neer dat die game ook tientallen threads had maar dat één zware thread de rest aan stuurt. Oneindig cores toevoegen heeft voorlopig gewoon weinig nut voor gaming.
Beide consoles hebben een octacore aan boord, games die daar voor geoptimaliseerd worden zijn dus wel geschikt voor veel cores. Het zou mij niets verbazen als we dat in PC games ook terug gaan zien, is het niet door brakke ports danwel omdat developers er dankzij de cores al ervaring mee opdoen en dat op de PC ook toe kunnen passen.

Vergeet ook niet dat Need for Speed Shift alweer 6 jaar oud is, er is in de tussentijd het e.e.a. veranderd. Die architectuur doet mij erg denken aan de architectuur van de PS3, en daar worden games inmiddels niet meer voor ontworpen.



Verder is het weinig verrassend dat op het moment dat AMD goed uit een serie benchmarks komt Nvidia fans ons komen vertellen dat die benchmarks niet relevant zijn en dat DX12 er (nog) niks toe doet en zeker niet op de huidige kaarten en bla, bla, bla. Allemaal argumenten die we dan weer nooit horen als Nvidia ergens goed uit komt...

[ Voor 47% gewijzigd door Anoniem: 59888 op 18-08-2015 19:41 ]


Acties:
  • 0 Henk 'm!

  • NitroX infinity
  • Registratie: Januari 2002
  • Laatst online: 15:57
Meer DirectX 11 vs 12;
Afbeeldingslocatie: http://pic.yupoo.com/ztwss/ESWzZX8p/TDPhX.png

Niet alleen de 390 gaat er stevig op vooruit maar ook de 280X.

Eigenaren van de 79x0 kaarten mogen volgens mij ook wel blij zijn met de levensduur van hun kaarten.

Wat mij voornamelijk opvalt in deze grafiek is dat de 370 (1024sp's) in DX12, de 280X (2048sp's) in DX11 zeer dicht benadert en dat de 280X een stuk dichter bij de GTX 970 zit in DX12.

4K, Fury X vs 980Ti;
Afbeeldingslocatie: http://i.imgur.com/radsBii.jpg

Via; https://www.reddit.com/r/...so_ill_do_it_amd_getting/
Bron; Computerbase.de

[ Voor 4% gewijzigd door NitroX infinity op 19-08-2015 11:09 ]

Graphene; a material that can do everything, except leave the lab. - Asianometry


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 14:46

XanderDrake

Build the future!

Ik vind het goed om te zien dat AMD bij DX12 een mooie winst kan neerzetten. Ze hebben er op ingezet, en het werkt. Maar goed, dit is één benchmark voor een spel, één zwaluw maakt nog geen zomer. En daarnaast gaat AMD het erg nodig hebben, deze efficiëntie winst. Want ondanks dat AMD zijn Fury serie heeft gelanceerd, blijft nVidia de dGPU markt domineren in het afgelopen kwartaal: http://www.fudzilla.com/n...nues-to-lose-market-share

Het is niet zozeer dat de Fury serie slecht verkoopt, maar de yield van de productie is gewoon laag. In heel 2015 zijn er maar 30.000 Fury X GPUs geproduceerd, terwijl nVidia genoeg GM200 heeft liggen.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • marcop82
  • Registratie: Maart 2013
  • Niet online
Niet om Nvidia slecht te spreken maar het valt op dat enkel de GTX 980 (Ti) prestatievoordeel haalt uit DX12 in deze game. De prestaties met de andere kaarten zijn zelfs slechter. Er moet dus nog serieus gehacked worden om prestaties op het verwachte niveau te krijgen, zelfs in DX12.

Acties:
  • 0 Henk 'm!

  • Adel_F16
  • Registratie: Mei 2009
  • Laatst online: 04-05 10:34
Leuk dat men nu ook kan zien hoe slecht de dx11 drivers van amd zijn. AMD heeft altijd al meer horsepower dan nvifia gehad. Maar je moet het ook kunnen gebruiken.

Het is dat AMD een hardwarebedrijf is en Nvidia een softwarebedrijf (wat ook wel leuke hardware kan maken).

Dit is wel 1 benchmark, maar ik verwacht dat alle komende benchmarks iets soortgelijks laten zien. Dx12 haalt namelijk de overhead weg. Daar verder valt weinig te optimaliseren waardoor het echt op horsepower aan zal komen.

Zal nog wel een jaar of max 2 duren. Aangezien alles nu dx11 is zal het meerendeel (waaronder ik :/) voor nvidia gaan.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 15:59
Adel_F16 schreef op woensdag 19 augustus 2015 @ 12:33:
Dit is wel 1 benchmark, maar ik verwacht dat alle komende benchmarks iets soortgelijks laten zien. Dx12 haalt namelijk de overhead weg. Daar verder valt weinig te optimaliseren waardoor het echt op horsepower aan zal komen.
Er moet nog steeds geoptimaliseerd worden, maar nu moet het echt in game code gedaan worden. Kijk maar naar de fury en r9 285 onder mantle, in battlefield 4/thief/civ doen die het beter onder dx11.

Dus graag optimaliseren voor kleine kepler, grote kepler, maxwell 1, maxwell 2, gcn, gcn 1.1, gcn 1.2, de verschillende intel chips en de fermi varianten als er nog tijd over is. :)

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Adel_F16 schreef op woensdag 19 augustus 2015 @ 12:33:
Leuk dat men nu ook kan zien hoe slecht de dx11 drivers van amd zijn.
Of hoe netjes zonder hacks, kan zijn natuurlijk dat je op een nVidia kaart eigenlijk altijd 15x Anisotropisch filteren krijgt ipv 16x.

Je kan het verschil ook interpreteren als, hoe haalt nVidia in godes naam zoveel meer FPS (doping) tov een tegenstander die zelf niet dom is.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • Adel_F16
  • Registratie: Mei 2009
  • Laatst online: 04-05 10:34
enchion schreef op woensdag 19 augustus 2015 @ 13:07:
[...]

Of hoe netjes zonder hacks, kan zijn natuurlijk dat je op een nVidia kaart eigenlijk altijd 15x Anisotropisch filteren krijgt ipv 16x.

Je kan het verschil ook interpreteren als, hoe haalt nVidia in godes naam zoveel meer FPS (doping) tov een tegenstander die zelf niet dom is.
Klopt, is ook. Gewoon belachelijk dat Nvidia bijv. in gameworks titels overal zware tesselation toepast om amd hard te raken. Maar hoe dan ook, niet elke game is een gameworks titel, en daar zie je toch echt ondanks de krachtigere amd kaarten dat ze het toch afleggen tegen Nvidia.

AMD is superb hardware maar echt slechte optimalisaties. Met dx12 gaat die overheid weg, waar ze heel ergs slecht in waren waardoor ik er zeker van ben dat Nvidia het heel zwaar gaat krijgen de komende generaties.

Lees:"

Nvidia said a bug in the MSAA support in the new benchmark invalidates it for graphics testing.

Nvidia went on to say to expect the same lead it has had over AMD’s Radeon graphics card drivers in DirectX 11 to carry over to DirectX 12.

“Gamers and press have seen GeForce DX11 drivers are vastly superior to Radeon’s.
We’ve worked closely with Microsoft for years on DirectX 12 and have powered every major DirectX 12 public demo they have shown,” Nvidia said. “We have the upmost confidence in our DX12 drivers and our architecture’s ability to perform in DX12. When DX12 games arrive, the story will be the same as it was for DX11.”

Oxide officials soon fired back in a blog post saying the alleged bug in MSAA is no bug at all, and that Ashes of the Singularity is a perfectly valid DirectX12 benchmark.

”We assure everyone that is absolutely not the case,” said Oxide’s Dan Baker in a blog post. “Our code has been reviewed by Nvidia, Microsoft, AMD and Intel. It has passed the very thorough D3D12 validation system provided by Microsoft specifically designed to validate against incorrect usages. All IHVs have had access to our source code for over year, and we can confirm that both Nvidia and AMD compile our very latest changes on a daily basis and have been running our application in their labs for months. Fundamentally, the MSAA path is essentially unchanged in DX11 and DX12. Any statement which says there is a bug in the application should be disregarded as inaccurate information.” "

Acties:
  • 0 Henk 'm!

Anoniem: 668222

Die zware tessellation word niet door Nvidia toegepast maar de game ontwikkelaars die te broed zijn om het aan te passen dus laten ze het standaard. Tessellation AA en hairworks is nu trouwen te passen in The Witcher 3 wat zo wel een voordeel voor Nvidia als AMD is.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16

Sp3ci3s8472

@ 12 graden...

Anoniem: 668222 schreef op woensdag 19 augustus 2015 @ 13:43:
Die zware tessellation word niet door Nvidia toegepast maar de game ontwikkelaars die te broed zijn om het aan te passen dus laten ze het standaard. Tessellation AA en hairworks is nu trouwen te passen in The Witcher 3 wat zo wel een voordeel voor Nvidia als AMD is.
Tesselation AA lijkt mij iets anders dan de tesselation factor? Heb het spel zelf niet maar ik denk dat dit de hoeveelheid AA verandert die wordt toegepast op haar. Dat kan best kloppen maar het staat dus standaard op 32 of 64 en dat is gewoon klote want daar wordt niemand blij van want je ziet het niet zonder vergrootglas (op 4k).

Nvidia met zijn MSAA bug ;w, typische reactie. Had ook niks anders verwacht. AMD heeft gewoon meer ervaring met het schrijven van een een driver voor zulke API's omdat ze met Mantle zijn gekomen, daardoor hebben ze hun DX12 driver gewoon op orde.
Ze hebben de source code al een jaar van het spel, ze komen een beetje laat met die "bug" als je het mij vraagt. Dat de ontwikkelaar zegt dat er geen bug is zegt alweer genoeg over NV.

Acties:
  • 0 Henk 'm!

Anoniem: 668222

Tessellation AA en Hairworks low, medium, high en Hairworks off, Garelt only of hairworks on all zijn de extra nieuwe functies. Het probleem was vooral hairwokrs tessellation level en dat verander je met hairworks low medium en high wat eerder alleen maar aan te passen was via de AMD drivers.

Nivida geeft graag een ander de schuld maar ik vermoed eerder dat Nvidia AA op driver gebied niet goed voor elkaar heeft en daarom het maar een bug noemt, een bug in zijn eigen drivers en dan wijzen naar de ontwikkelaar.

Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 15:38

Kuusj

Ofwel varken in 't Limburgs

Nou ja, het was natuurlijk al duidelijk dat de DX11 drivers van AMD wat te wensen over lieten. nVidia heeft natuurlijk weer van die kul waarvan ze weten dat ze het niet hard kunnen maken.

Ik zou bijvoorbeeld zeer verrast zijn als ze dezelfde voorsprong kunnen houden zonder te weten wat AMD op de planning heeft staan qua architectuur en hoeveelheid cores op hun nieuwe GPU's en dan ook nog die grote vooruitgang in DX12.

Het is nu wel weer duidelijk dat nVidia iets niet op orde heeft en AMD gelukkig wel, alhoewel de AA van AMD soms ook verschrikkelijk is (met doorzichtige vierkantjes, kennen we ondertussen allemaal wel).
Hoe dan ook, als het ten tijde van mainstream DX12 games komt en AMD is weer duidelijk in het voordeel qua performance en ook weer wat meer power-efficient dan zit meneer Kuusj weer direct bij AMD.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

Anoniem: 668222

Hoe zit het met tessellation op de nieuwe Fury kaarten? Kunnen die nu ook meer verwerken dan zijn voorganger?

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 14:46

XanderDrake

Build the future!

Het is inderdaad ook aan te nemen dat nVidia nu al zijn driver en software engineers gaat zetten op een betere DX12 implementatie, gezien de toekomst van de API. AMD heeft een voorsprong dankzij hun ervaring met Mantle, maar je weet nooit wanneer nVidia hun 'killer' drivers gaat uitgeven.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16

Sp3ci3s8472

@ 12 graden...

Anoniem: 668222 schreef op woensdag 19 augustus 2015 @ 15:11:
Hoe zit het met tessellation op de nieuwe Fury kaarten? Kunnen die nu ook meer verwerken dan zijn voorganger?
Die zijn gebasseerd op de R9 285 dus ja die zijn een stuk sneller maar nog niet vergelijkbaar met die van NV op hoge tesselation factors 32+ dacht ik.

Maar ergens kan je je ook gaan afvragen hoeveel nodig die super hoge factors zijn. Als je kijkt naar bijvoorbeeld de Heaven benchmark waar veel gebruik wordt gemaakt van tesselation en op plekken waar het ook daadwerkelijk nut zou kunnen hebben in games. In die benchmark zijn de nieuwe AMD kaarten snel zat, en vergelijkbaar met hun NV tegenhangers.

[ Voor 31% gewijzigd door Sp3ci3s8472 op 19-08-2015 15:19 . Reden: onderbouwing ]


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 19-05 07:09

SG

SG surft naar info hardewaren

Dit was wel te verwachten. Ten eerste de interpretative of mis_interpretatie van velen van die synthetische DX12 drawcall bench van 3Dmark. Ik zag daar dat NV tov AMD factor 2 meer drawcalls uit haalt. Dit houd in dat in zware drawcall belastende game NV dus gehakt maakt van AMD.
Dat is dus gerelateerd aan die $$$ resources die NV in driver en dev vrijwilligers werk steekt. Dat zal uiteraard ook zijn vruchten afwerpen.

Je ziet dat in DX12 beide kampen elk grote van rond de 18x beter presteren kwa drawcalls in DX12 en AMD ook met hun Eigen mantle.

Wat dus inhoud AMD presteerd minder in CPU en of drawcall bound games in DX11.
In DX12 loop het gewoon gelijk op.

Wat ook inhoud dat in de toekomst het $$$ smijt werk naar mannetjes bij devs en flink driver geneuzel. Dat voordeel verleden tijd is. De driver speeld een zeer dun rolletje in DX12.

Dan kan de NV mannetje bij de engine team van game team GPU resources en memory management gaan beheren. En ligt het aan gamework hoe ze de concurrent kunnen crippelen. Door studio die zelf niet de resource hebben om zelf de engine in beheer te nemen ipv afhankelijk te zijn van die ene IHV die man resources hun toe smijt.

De toekomst ziet er goed uit. In deze ashes.. bench zie ik dat met die draw calls NV al 25% beter presteerd dan in de oude API. Dus ook NV gamers toch meer waarde om voor DX12 of vulkan te gaan.
AMD daarin tegen komt helemaal bij met verdubbeling in performance.

Het is alleen een problem dat DX11 voorlopig nog belangrijk blijft want dat is de massa. En men gaat gelijdelijk over naar DX12. De hardware is er maar het W10 OS nog niet mainstream.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16

Sp3ci3s8472

@ 12 graden...

SG schreef op woensdag 19 augustus 2015 @ 21:20:
Het is alleen een problem dat DX11 voorlopig nog belangrijk blijft want dat is de massa. En men gaat gelijdelijk over naar DX12. De hardware is er maar het W10 OS nog niet mainstream.
Om hierop in te springen, op pcgameshardware.de hebben ze een lijstje met spellen die op "korte" termijn DX12 hebben of gaan implementeren.
http://www.pcgameshardwar...ayZ-Star-Citizen-1164994/

Op arstechnica hebben ze ook ashes of the Singularity gedraait, op 4k komt de R9 290x erg dichtbij de GTX980 Ti, in andere benchmarks was al te zien dat hij (maar dan de 390x) in DX12 de GTX980 verslaat met een voorsprong van 1-13%. Het wordt in ieder geval een leuke tijd voor mensen met een AMD kaart die de GCN architectuur heeft ;).
http://arstechnica.co.uk/...isappointment-for-nvidia/

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Iha zijn AMD’s architecturen vaak meer toekomstbestendig. Het is dus niet onverwacht en mooi om te zien dat AMD het goed doet in een eerste benchmark/game.

Toch ben ik wel wat sceptisch. Blijkbaar wordt nogal wat ontwikkelingswerk voor de games direct of indirect uitgevoerd danwel gefund door nVidia / AMD. nVidia lijkt hier tot op heden succesvoller in en heeft zeker meer geld te besteden. Denk dat nVidia wel alles op alles zal zetten om langs die weg druk te zetten.

Het tweede punt is dat DX12 games pas in 2016 een vlucht gaan nemen. Tegen die tijd zijn de volgende generaties er en ligt alles weer open.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21-05 20:38
http://techreport.com/new...sa-adaptive-sync-displays

Intel gaat Adaptive Sync ondersteunen.

  • mitsumark
  • Registratie: Juni 2009
  • Nu online
Ik denk ook dat Nvidia NIET zomaar 'over zich heen laat lopen', zeker niet op driver/software gebied.
Die draaien volgende generatie (of zelfs met de huidige met nieuwere drivers) gewoon weer mee.
spNk schreef op donderdag 20 augustus 2015 @ 12:29:
[...]

Ben je nou het woordje "niet" vergeten? ;)
Correct, sorry.

[ Voor 24% gewijzigd door mitsumark op 20-08-2015 13:00 ]


  • spNk
  • Registratie: Mei 2007
  • Laatst online: 19-05 22:26
mitsumark schreef op donderdag 20 augustus 2015 @ 12:08:
[...]

Ik denk ook dat Nvidia zomaar 'over zich heen laat lopen', zeker niet op driver/software gebied.
Die draaien volgende generatie (of zelfs met de huidige met nieuwere drivers) gewoon weer mee.
Ben je nou het woordje "niet" vergeten? ;)

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Zag het ook. Heel goed nieuws! Hoe eerder hoe beter.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Anoniem: 58485

Het wordt gedaan alsof DX12 / Mantle verhaal een enorme verbetering zou zijn. Maar dat is eigenlijk te wijten geweest aan hoe jarenlang software steeds meer 'bloat' werd, voor iedere nieuwe versie, groter, locher en vooral toeters en bellen toevoegen. Neem bijv Office 2003 en Office 2013. Voor puur het excel en ms word werk voldoet 2003 uitstekend op zelfs ook oudere computers. Neem je 2013? Dan krijg je er op de koop toe een zooi software bij. Vista had hogere hardware-eisen nodig om hetzelfde te kunnen doen vergeleken met XP.

Steeds meer programma's komen met autoupdates, services en startup verwijzingen terwijl zoiets vroeger ook niet nodig was. Juist doordat SSD's en CPU's langzaam maar zeker niet meer de 'traagste' factor zijn kan een dev wat meer spelen met de gemiddelde beschikbare rekenkracht die op een computer zit.

Juist door luiheid (Kijk bijv naar amiga demos van vroeger, in hoeverre ze daar echt hardcoded graphics en tech demo's in elkaar wisten te stampen) is enorm veel bloated en loch geworden. Hier zie je nu ook duidelijk dat AMD hardware hier het meeste last van had vergeleken met DX11 / DX12.

AMD is niet slecht, zeker niet, ze werken juist toekomst gericht en dat is goed. Iedereen met een GCN kaart profiteert nu van DX12 ten volle.



we hebben het hier over een stuk hardware ergens in de jaren 80 / begin 90... waarop jaren later (1994) dit soort tech demo's nog steeds door een grote community eruit werden gezet. Het laat hier zien in hoeverre er puur hardcoded dingen mogelijk waren op een eeuwenoude computer. We hebben nu grafische kaarten die zoveel berekeningen tegelijk kunnen dat nog steeds met DX11 een verkeerde aanpak heeft wil je het maximale eruit halen. PS2 / PS3 was ook succesvol en kende zeker top games met super-graphics en dat had te maken met dev's die de GPU echt tot het maximale wisten in te zetten. Dat mis je tegenwoordig een beetje... Er worden engines gebouwd en daar kan een game-studio een licentie voor afnemen, hoeft het wiel niet 2x opnieuw te worden uitgevonden en kunnen zij zich richten op de game alleen. Ik stoor me zelf ook aan een game dat overduidelijk domme AI erin heeft zitten waardoor de hele SP experience teniet gedaan wordt voor mijn gevoel.

  • Blaat
  • Registratie: September 2007
  • Laatst online: 15:00

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Anoniem: 58485 schreef op donderdag 20 augustus 2015 @ 13:15:
Het wordt gedaan alsof DX12 / Mantle verhaal een enorme verbetering zou zijn. Maar dat is eigenlijk te wijten geweest aan hoe jarenlang software steeds meer 'bloat' werd, voor iedere nieuwe versie, groter, locher en vooral toeters en bellen toevoegen. Neem bijv Office 2003 en Office 2013. Voor puur het excel en ms word werk voldoet 2003 uitstekend op zelfs ook oudere computers. Neem je 2013? Dan krijg je er op de koop toe een zooi software bij. Vista had hogere hardware-eisen nodig om hetzelfde te kunnen doen vergeleken met XP.

Steeds meer programma's komen met autoupdates, services en startup verwijzingen terwijl zoiets vroeger ook niet nodig was. Juist doordat SSD's en CPU's langzaam maar zeker niet meer de 'traagste' factor zijn kan een dev wat meer spelen met de gemiddelde beschikbare rekenkracht die op een computer zit.

Juist door luiheid (Kijk bijv naar amiga demos van vroeger, in hoeverre ze daar echt hardcoded graphics en tech demo's in elkaar wisten te stampen) is enorm veel bloated en loch geworden. Hier zie je nu ook duidelijk dat AMD hardware hier het meeste last van had vergeleken met DX11 / DX12.

AMD is niet slecht, zeker niet, ze werken juist toekomst gericht en dat is goed. Iedereen met een GCN kaart profiteert nu van DX12 ten volle.

[video]

we hebben het hier over een stuk hardware ergens in de jaren 80 / begin 90... waarop jaren later (1994) dit soort tech demo's nog steeds door een grote community eruit werden gezet. Het laat hier zien in hoeverre er puur hardcoded dingen mogelijk waren op een eeuwenoude computer. We hebben nu grafische kaarten die zoveel berekeningen tegelijk kunnen dat nog steeds met DX11 een verkeerde aanpak heeft wil je het maximale eruit halen. PS2 / PS3 was ook succesvol en kende zeker top games met super-graphics en dat had te maken met dev's die de GPU echt tot het maximale wisten in te zetten. Dat mis je tegenwoordig een beetje... Er worden engines gebouwd en daar kan een game-studio een licentie voor afnemen, hoeft het wiel niet 2x opnieuw te worden uitgevonden en kunnen zij zich richten op de game alleen. Ik stoor me zelf ook aan een game dat overduidelijk domme AI erin heeft zitten waardoor de hele SP experience teniet gedaan wordt voor mijn gevoel.
Dat fenomeen zie je natuurlijk al heel sterk bij consoles, dat in feite inferieure hardware veel beter lijkt te presteren dankzij de "closed box" environment.

Zoiets moet echter veel efficienter kunnen. Als je bij wijze van spreke een complete 3D engine in een console kon hardcoden, zou je er nog veel meer uit kunnen halen. Iets wat op dit moment niet gebeurt omdat er nog steeds diverse engines op de consoles softwarematig draaien met een API ertussen.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Wie oud (8> genoeg is heeft het fenomeen al meegemaakt dat men vroeger juist afgestapt is van efficient "close to the metal" programmeren, namelijk dat je héél afhankelijk wordt van support van de ondersteunde GPU's en dat het erg kennis-, tijd- en budget-intensief is voor ontwikkelstudios. Vroegah is men toen ook gaan zagen voor API's en toen zag iedereen er de wondere wereld van gemakkelijke console-PC ports ( :') ) in met een flexibeler gebruik van de nieuwste technieken (áls MS en OpenGL niet lagen te slapen).

Nu gaan we weer terug naar ontwikkelen terug bij de ontwikkelstudios te leggen. Aan de ene kant goed want er zijn behoorlijk wat inhaalslagen te doen. Aan de andere kant gaan we weer over een jaar studios hebben die janken dat ze geen budget hebben voor quality games en dat de grote uitgevers langzaam gaan evolueren.

We zullen zien hoe het uitpakt maar de PC industrie heeft al meerdere kanten van het verhaal gezien waar het meestal op uitkomt dat de domme klant die argeloos met zijn geld gooit (preorderen, geen reviews lezen) ervoor zorgen dat slechte keuzes gemaakt worden.

Anoniem: 58485

De verschuiving van de PC industrie had merendeels te maken met dat consoles in opmars waren en net iets betere beveiliging zou hebben tegen piracy. De vendorlock van consoles (MS / Sony bepalen de firmware) garandeert ook een beetje dat consoles echt op de laatste firmware moeten draaien om een bepaalde game te kunnen spelen. Dit waarborgt ook dat games op een legale manier kan worden gespeeld. En een game legaal verschaffen betekend $.

Natuurlijk is de PC markt ook belangrijk, en is daar ook zat te halen, alleen wel via grote partnerbedrijven zoals Steam of Origin. Ook zij rekenen hun marges per verkocht spel en daar zit minder in dan voor een ontwikkelaar een game volledig zelf op de markt te brengen.

Voor mijn gevoel is de creativiteit in games er een beetje uit (denk ik). Er zit een verhaallijn in, je hebt X attributen tot je beschikking en zo is hoe het spel loopt. Het leuke is de multiplayer op internet maar een game hoort zeker voor Singleplayer bedoeld te zijn, anders koop je die niet B)

Ik kijk tegenwoordig ook vaker vids op youtube met in game beelden van het spel zelf. Dit geeft een toch meer realistischer beeld mee van het spel ipv wat de ontwikkelaar je voorschotelt aan screenshots en video's. :)

Ontopic: de GCN kaarten van AMD waren met mantle in het opzicht een goede zet geweest. DX12 laat zich nu met 2 games specifiek goed belonen voor AMD kaarten waar in sommige gevallen zelfs 70% winst is. Ook de mogelijkheid om in crossfire geheugen van beide kaarten aan te kunnen roepen (Wat nu met DX11 geheugen van 1 kaart alleen is) spreekt me ook aan. Zo kan je met 2x 2GB gewoon 4GB aan geheugen benutten en ook op hogere resoluties er iets meer uit halen.

Echter om daar nu specifiek voor over te stappen naar windows 10 vind ik het ook nog niet waard. Windows 7 is een complete makeover.. en ik wacht het OS gewoon het eerste half jaar als de meeste bugs zijn geplet wel af. :P

  • SG
  • Registratie: Januari 2001
  • Laatst online: 19-05 07:09

SG

SG surft naar info hardewaren

Luiheid? Dat klinkt my toch te kort zichtig in de oren. Maar eerder wat heb je nodig en wat is je target.
Als je heel dicht bij de hardware programmeerd zonder hoge mate van abstractie geld dit.
Je game producer moet een platform guru inhuren die de hardware goed kent. Daar gaat men voor als men sterk gedreven is on het onderste uit de kan te halen.
Dat is bij console platform in de triple A klasse wel zo dat dat commercieel grote zin heeft om paar gurus in render backend of engine team te hebben. En spartaanse API te nemen waar je meeste zelf moet doen.

Maar ja de rest van de game industrie die zich richt op de mainstream heeft die eisen niet.
DX12 vervangt DX11 niet. Het bedient verschillende markten.
De indie scene met vooral de wat kleine projecten blijven zelfs van C++ taal weg.

De gross is met DX11 productiever zolang de eisen niet te hoog zijn.
En abstractie en hoge orde talen hebben vooral als doel " time to market" en je hebt er niet een dure guru voor nodig.

Die hardware abtractie komt voor velen als zegen. Maar uiteraard voor een deel die de hardware wil pushen en zich wil onderscheiden van de rest is het beperkend.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21-05 20:38
Ouw :-(
http://nl.hardware.info/n...aandeel-videokaarten-ooit

[ Voor 3% gewijzigd door LongBowNL op 20-08-2015 19:34 ]


  • TNJ
  • Registratie: Juni 2009
  • Laatst online: 16-03 19:45

TNJ

Frugalite

Idd, maar ik meen in de Steam HW Survey in de grafiek gezien te hebben dat AMD's aandeel meer naar intel gegaan is en nVidia's aandeel stabiel bleef.

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ach bekijk het zo: als straks de bizarre wereld zou ontstaan waar enkel Nvidia dedicated GPU's maakt, betalen we een abonnement voor drivers en hebben we specifiek gelicensieerde moederborden nodig die Nvidia kaarten ondersteunen. Vooruitgang ? Man, we mogen blij zijn dat we de kans krijgen om een GPU te mógen kopen van Nvidia.

  • enchion
  • Registratie: Februari 2002
  • Niet online
Phuncz schreef op donderdag 20 augustus 2015 @ 21:15:
Ach bekijk het zo: als straks de bizarre wereld zou ontstaan waar enkel Nvidia dedicated GPU's maakt, betalen we een abonnement voor drivers en hebben we specifiek gelicensieerde moederborden nodig die Nvidia kaarten ondersteunen. Vooruitgang ? Man, we mogen blij zijn dat we de kans krijgen om een GPU te mógen kopen van Nvidia.
De dag dat Matrox eindelijk weer terug komt.

[ Voor 3% gewijzigd door enchion op 20-08-2015 21:26 ]

How do you save a random generator ?


  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 14:46

XanderDrake

Build the future!

Phuncz schreef op donderdag 20 augustus 2015 @ 21:15:
Ach bekijk het zo: als straks de bizarre wereld zou ontstaan waar enkel Nvidia dedicated GPU's maakt, betalen we een abonnement voor drivers en hebben we specifiek gelicensieerde moederborden nodig die Nvidia kaarten ondersteunen. Vooruitgang ? Man, we mogen blij zijn dat we de kans krijgen om een GPU te mógen kopen van Nvidia.
Ach rond die tijd komt Steam uit op Android en speelt iedereen Angry Birds: Modern Warfare 5.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 15:26
Dat effect voorspel ik helaas al 3 jaar (ahv de flink gedaalde R&D uitgaven, ooit 1800 miljoen na overname van Ati). Het is met de recente "refresh" pijnlijk duidelijk dat de snelheid van vernieuwing er nu echt omlaag is gegaan.

Als AMD "ons" een plezier wil doen dan splitsen ze de hele Radeon tak "gewoon" weer af. Er zit best wel geld in die markt. Kwestie van een beetje durven... Na 10 jaar is wel duidelijk dat Ati zelf het stukken beter deed dan onder leiding van AMD. Die APU's waren leuk voor AMD maar omgekeerd had Ati daar weinig aan.

[ Voor 15% gewijzigd door sdk1985 op 20-08-2015 21:52 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 19-05 22:26
En AMD hun CPU afdeling failliet laat gaan door de ATi graphics die in al hun APU's zit? Ik denk dat het tij volledig gaat keren ten tijde van dx12.

Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

sdk1985 schreef op donderdag 20 augustus 2015 @ 21:50:
[...]

Dat effect voorspel ik helaas al 3 jaar (ahv de flink gedaalde R&D uitgaven, ooit 1800 miljoen na overname van Ati). Het is met de recente "refresh" pijnlijk duidelijk dat de snelheid van vernieuwing er nu echt omlaag is gegaan.

Als AMD "ons" een plezier wil doen dan splitsen ze de hele Radeon tak "gewoon" weer af. Er zit best wel geld in die markt. Kwestie van een beetje durven... Na 10 jaar is wel duidelijk dat Ati zelf het stukken beter deed dan onder leiding van AMD. Die APU's waren leuk voor AMD maar omgekeerd had Ati daar weinig aan.
Want het boeit mensen die een videokaart kopen wat de R&D is van een bedrijf?

Zelfbouwers zijn een leuke markt voor Nvidia en AMD, maar OEM is veel en veel groter, dat merkte AMD ook maar al te goed ten tijde van de P4's: "Tweakers" en mensen met wat kennis kochten wel de betere AMD's, maar dankzij wat slimme deals vaan onze blauwe vriend, kocht de overige 90% kant en klare Intel desktops, omdat AMD's simpelweg niet te vinden waren.

Hetzelfde zie je nu weer, sla een willekeurig blaadje van een willekeurige pc-boer open, en kijk maar welke videokaarten er vooral inzitten: nVidia, van budget tot dingen van 1500 euro, in bijna geen enkele zit een AMD videokaart. Niet omdat AMD's zo slecht zijn, lees de reviews en je ziet het wel, maar grote kans dat Nvidia bij de OEMs wel flink op prijs concureert. Ik vraag me af hoeveel Asus voor een GTX960 betaald, waarschijnlijk minder dan AMD voor een R9 380 vraagt.

En vergeet niet dat veel mensen nu op laptops gamen. AMD APU's zijn een bitch om te vinden [dankjewel Intel] en eerlijk is eerlijk, de mobiele GPU's van AMD stellen inderdaad weinig voor de laatste jaren. Maar, voor instappers maakt het weinig uit, en zelf ben ik blij dat ik voor een A-8 4500m Dual Graphics heb gekozen, kan er nog vrij aardig op gamen, veel beter dan met een i5 + HD2500. AMD heeft hele mooie APU's beschikbaar voor laptops [en tablets] maar ze worden nauwelijks afgenomen, driemaal raden hoe.

Tja, dan kun je wel leuk veel aangeraden worden op sites zoals Tweakers, maar dat is nog geen 10% van de verkopen. De meeste mensen wandelen de MM/lokale computerboer binnen en kopen iets wat ze leuk vinden, en dat is in 90%+ van de gevallen Intel met Nvidia.

Met de GPU's van AMD zit het echt wel snor, met de APU's ook wel, de CPU's zijn wat minder, maar, ik denk dat AMD's grootste probleem, simpelweg een PR probleem is. Het spook van de drivers waant nog steeds rond, en ernaast vliegt het spook der oververhitting van de reference R9 290's. En waar Nvidia graag roeptoetert over hun quasi-nuttige features, hoor je AMD nooit over hun quasi-nuttige features, daardoor denken mensen dat AMD het niet heeft, terwijl ze op bijna alles wel een antwoord hebben, alleen moet je ervoor zoeken, en zelfs ik weet van sommige dingen de namen niet eens, en de namen zijn ook gewoon minder "cool", en lijken minder op elkaar, dan wat Nvidia uitkraamt met hun "G-"dingen, nog even en mensen denken dat ze de G-string hebben bedacht :+

Gaat het tij volledig keren door DX12? Meh, ik weet het niet, misschien voor de 10% van de mensen die zich inleest, misschien dat de oems een beetje gaan opletten en wat meer AMD's nemen [als hun contract met Nvidia afgelopen is]

Zelf denk ik dat het tij vooral gaat keren als Nvidia een flinke fuckup maakt, eentje zo groot, dat zelfs de hordes fanboys het niet kunnen verdoezelen, zoiets als de implementatie HBM2 verkloten omdat ze niet meededen in het project, waardoor hun vlaggenschip veel later uitkomt, al dan niet met performanceproblemen. Maar, simpelweg de overstap naar DX12 niet lekker maken lijkt mij niet voldoende. Zelfs fikkende tablets waren niet echt een probleem voor Nvidia...

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 15:26
RobinHood schreef op vrijdag 21 augustus 2015 @ 00:56:
[...]

Want het boeit mensen die een videokaart kopen wat de R&D is van een bedrijf?
Ik ging er vanuit dat "men" bekend is met mijn rant.
Aangezien AMD ook steeds meer "erbij" gaat doen (ARM, semi-customs) moet dat lagere budget ook nog eens over meer producten worden verdeeld. De echte daling bij CPU/GPU is dus nog harder. Vergeet ook de inflatie niet...

AMD zit helaas in een "death spiral" sinds de overname van Ati. Die was gewoon te duur. Dat heeft 5 miljard gekost terwijl er vrijwel direct 2 miljard is afgeschreven omdat er domweg te veel was betaald. Vergeet ook niet dat de omzet van AMD destijds ook rond de 5 miljard zat. Uiteindelijk blijkt ook dat er nauwelijks winst op de graphics divisie wordt gedraaid (random jaren 2009-2011: 35, 149 en 51 miljoen). Daar kun je geen 5 miljard voor goedpraten, zeker niet als het ook nog eens ten koste gaat van het R&D budget van je hoofd product.

Death spriral:
Dat overname bedrag was gewoon te zwaar om te dragen >>> R&D moet dus omlaag>>>achterstand wordt groter>>>>prijzen moeten omlaag>>>marges gaan omlaag>>> R&D moet dus verder omlaag>>>achterstand wordt groter>>>enz
Je ziet het death spiral werkelijkheid worden doordat er recentelijk een "nieuwe" reeks kaarten is gelanceerd op basis van oude techniek. Sommige modellen zijn 3 (!) jaar oud. Tegen de tijd dat die worden vervangen praten we dus over 4 jaar oude producten. Daar wordt de consument niet beter van, en AMD ook niet.

[ Voor 38% gewijzigd door sdk1985 op 21-08-2015 02:05 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Vergeet niet dat AMD waarschijnlijk tegen extreem lage prijzen ook nog eens de consoles moet voorzien van haar APU's.

Nvidia heeft toen geweigerd om lager te bieden, waarschijnlijk omdat de marge flinterdun is op die spelbakken.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 19-05 07:09

SG

SG surft naar info hardewaren

Jeroenneman schreef op vrijdag 21 augustus 2015 @ 02:24:
Vergeet niet dat AMD waarschijnlijk tegen extreem lage prijzen ook nog eens de consoles moet voorzien van haar APU's.

Nvidia heeft toen geweigerd om lager te bieden, waarschijnlijk omdat de marge flinterdun is op die spelbakken.
Dat is wat nV beweerd. Kan zijn dat APU combo doorslag gevend is. En dat verhaal eerder bij iNtel past. Al is dat ook goed mogelijk bij nV aangezien er ook RSX rel was dat nV niet wilde zakken met de prijs. Voor console is goede inkoop prijs zeer belangrijk gezien je niet te extreem de hardware onder kost prijs de markt in wikt dumpen.
Sp3ci3s8472 schreef op woensdag 19 augustus 2015 @ 15:13:
[...]
Die zijn gebasseerd op de R9 285 dus ja die zijn een stuk sneller maar nog niet vergelijkbaar met die van NV op hoge tesselation factors 32+ dacht ik.

Maar ergens kan je je ook gaan afvragen hoeveel nodig die super hoge factors zijn. Als je kijkt naar bijvoorbeeld de Heaven benchmark waar veel gebruik wordt gemaakt van tesselation en op plekken waar het ook daadwerkelijk nut zou kunnen hebben in games. In die benchmark zijn de nieuwe AMD kaarten snel zat, en vergelijkbaar met hun NV tegenhangers.
Zoals testalatie wordt toegepast voldoet AMD GCN ruim. Ben zelf aan het denken aan een situatie waar het wel enorm schaald. Ik denk dat ik wat heb gevonden.
Ten eerste moet het goed opvallen en niet subtiel of nauwelijk. Probleem is dat de meeste game objecten geen complexe geometrie nodig hebben.
Iets wat prominent zichtbaar is en complexe structuren heeft dat ook procedurele aard van medeleren nodig is dan denk ik aan jungle. En dan ook van interactieve soort.
Zoals die Pedator movie achtige jungle trailer van crysis. Is dan ook metheen een PHysX showcase. Dit valt dan wel onder gameplay physics. En fine fidelity gegenereerde jungle interactie physics, dat wil je niet online synchoniseren. Dus geen online en vergeet MMO.
Het is sowieso leuk om voor elke feature een optimale game situatie te verzinnen waar het extreem tot zijn recht komt.

Zo snap ik de combinati raytrace engine en quake niet. En dan hoop spiegelende bollen in kwakken? Als de film kent van Bruce Lee fist of fury met die mirror hal.
Zo dacht ik voor tiled resource een FPS omgeving in het lourdes. Waar grote schilderij doeken hangen waar meer dan 32 megapixel niet misstaat.
In game omgeving als in Rage ID soft komt dat megatexturing ook niet tot zijn recht.

Er is middle ware voor wild te gaan met flora. Speedtree.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
sdk1985 schreef op vrijdag 21 augustus 2015 @ 02:02:
Je ziet het death spiral werkelijkheid worden doordat er recentelijk een "nieuwe" reeks kaarten is gelanceerd op basis van oude techniek. Sommige modellen zijn 3 (!) jaar oud. Tegen de tijd dat die worden vervangen praten we dus over 4 jaar oude producten. Daar wordt de consument niet beter van, en AMD ook niet.
Een gigantische bak geld uitgeven aan een nieuwe reeks GPU's op een oude node, waarmee je weinig echte winst kunt behalen, is nou niet bepaald wat ik zou noemen 'goed investeren'. Ze hadden natuurlijk net als nVidia een chip kunnen ontwerpen die geheel uitgekleed is en nog maar 1 doel heeft, gamen, maar dat kost dusdanig veel geld dat je je kunt afvragen of je dat kunt terugverdienen voordat je 14/16nm producten op de markt komen. Bovendien heeft nVidia niet bepaald extreem veel snellere producten op de markt gezet. Ja, Maxwell is zuiniger geworden doordat er niets overbodigs in zit buiten gaming om en omdat de reference kaarten op ongeveer het perfecte punt zijn geklokt voor perf/watt, gecombineerd met een hardwarematige limiter voor stroomverbruik. De non-reference modellen zijn echter vaak hoger geklokt en kunnen daarmee ook redelijk wat meer stroom verbruiken, waarmee het grootste deel van de winst weer weg is.

Al met al heeft AMD nog altijd kaarten die qua performance mee komen, dus nieuwe chips op de markt brengen voor niets anders dan dat het nieuwe chips zijn, is simpelweg kapitaalvernietiging van het R&D budget, die beter besteed kan worden aan de nieuwe chips die in 2016 komen.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21-05 20:38

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 14:46

XanderDrake

Build the future!

dahakon schreef op vrijdag 21 augustus 2015 @ 08:48:
[...]


Een gigantische bak geld uitgeven aan een nieuwe reeks GPU's op een oude node, waarmee je weinig echte winst kunt behalen, is nou niet bepaald wat ik zou noemen 'goed investeren'. Ze hadden natuurlijk net als nVidia een chip kunnen ontwerpen die geheel uitgekleed is en nog maar 1 doel heeft, gamen, maar dat kost dusdanig veel geld dat je je kunt afvragen of je dat kunt terugverdienen voordat je 14/16nm producten op de markt komen. Bovendien heeft nVidia niet bepaald extreem veel snellere producten op de markt gezet. Ja, Maxwell is zuiniger geworden doordat er niets overbodigs in zit buiten gaming om en omdat de reference kaarten op ongeveer het perfecte punt zijn geklokt voor perf/watt, gecombineerd met een hardwarematige limiter voor stroomverbruik. De non-reference modellen zijn echter vaak hoger geklokt en kunnen daarmee ook redelijk wat meer stroom verbruiken, waarmee het grootste deel van de winst weer weg is.

Al met al heeft AMD nog altijd kaarten die qua performance mee komen, dus nieuwe chips op de markt brengen voor niets anders dan dat het nieuwe chips zijn, is simpelweg kapitaalvernietiging van het R&D budget, die beter besteed kan worden aan de nieuwe chips die in 2016 komen.
AMD's R&D produceert nog steeds technisch mooie GPU's en bang/buck series gaan nog altijd redelijk OK, alleen time-to-market is gewoon de archillus-pees geworden. AMD verkoopt nu inderdaad nog 3 jaar oude GPU's omdat ze niets anders hebben om ze te vervangen, en Fury (X) is gewoon een jaar later dan de GTX 900 serie uitgekomen. Dat is volgens mij de eindconclusie van de bezuiniginen.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Ze hebben niets anders omdat ze zich direct op 14/16nm hebben gericht, nadat bleek dat 20nm geen serieuze optie was voor GPU's. Alleen os 14/16nm nog niet volledig klaar voor massaproductie van GPU type chips. Fury is inderdaad het enige nieuwe product en een stukje later dan de high end Maxwell (Fury is niet bedoeld als concurrent voor 970/980), maar Fury heeft een aantal zaken waar AMD minder zeggenschap over had betreffende bewchikbaarheid en wellicht waren er ingrijpende zaken met betrekking tot het schrijven van drivers voor een HBM kaart. Dat zijn zaken die nVidia nog tegen zal komen in de komende jaren, waar AMD bij de volgende generatie wellicht slechts tegen kleine problemen aan loopt.

Al met al ligt bij AMD de focus op 2016 voor heel veel producten.

Acties:
  • +1 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21-05 20:38
Over focus gesproken, ik kwam dit tegen: http://www.overclock.net/...chmarks/400#post_24321843
quote: Mahigan
Well I figured I'd create an account in order to explain away what you're all seeing in the Ashes of the Singularity DX12 Benchmarks. I won't divulge too much of my background information but suffice to say that I'm an old veteran who used to go by the handle ElMoIsEviL.

First off nVidia is posting their true DirectX12 performance figures in these tests. Ashes of the Singularity is all about Parallelism and that's an area, that although Maxwell 2 does better than previous nVIDIA architectures, it is still inferior in this department when compared to the likes of AMDs GCN 1.1/1.2 architectures. Here's why...

Maxwell's Asychronous Thread Warp can queue up 31 Compute tasks and 1 Graphic task. Now compare this with AMD GCN 1.1/1.2 which is composed of 8 Asynchronous Compute Engines each able to queue 8 Compute tasks for a total of 64 coupled with 1 Graphic task by the Graphic Command Processor. See bellow:

Afbeeldingslocatie: http://cdn.overclock.net/4/48/900x900px-LL-489247b8_Async_Aces_575px.png

Each ACE can also apply certain Post Processing Effects without incurring much of a performance penalty. This feature is heavily used for Lighting in Ashes of the Singularity. Think of all of the simultaneous light sources firing off as each unit in the game fires a shot or the various explosions which ensue as examples.

Afbeeldingslocatie: http://cdn.overclock.net/8/89/900x900px-LL-89354727_asynchronous-performance-liquid-vr.jpeg

This means that AMDs GCN 1.1/1.2 is best adapted at handling the increase in Draw Calls now being made by the Multi-Core CPU under Direct X 12.

Therefore in game titles which rely heavily on Parallelism, likely most DirectX 12 titles, AMD GCN 1.1/1.2 should do very well provided they do not hit a Geometry or Rasterizer Operator bottleneck before nVIDIA hits their Draw Call/Parallelism bottleneck. The picture bellow highlights the Draw Call/Parallelism superioty of GCN 1.1/1.2 over Maxwell 2:

Afbeeldingslocatie: http://cdn.overclock.net/7/7d/900x900px-LL-7d8a8295_drawcalls.jpeg

A more efficient queueing of workloads, through better thread Parallelism, also enables the R9 290x to come closer to its theoretical Compute figures which just happen to be ever so shy from those of the GTX 980 Ti (5.8 TFlops vs 6.1 TFlops respectively) as seen bellow:

Afbeeldingslocatie: http://cdn.overclock.net/9/92/900x900px-LL-92367ca0_Compute_01b.jpeg

What you will notice is that Ashes of the Singularity is also quite hard on the Rasterizer Operators highlighting a rather peculiar behavior. That behavior is that an R9 290x, with its 64 Rops, ends up performing near the same as a Fury-X, also with 64 Rops. A great way of picturing this in action is from the Graph bellow (courtesy of Beyond3D):

Afbeeldingslocatie: http://cdn.overclock.net/b/bd/900x900px-LL-bd73e764_Compute_02b.jpeg

As for the folks claiming a conspiracy theory, not in the least. The reason AMDs DX11 performance is so poor under Ashes of the Singularity is because AMD literally did zero optimizations for the path. AMD is clearly looking on selling Asynchronous Shading as a feature to developers because their architecture is well suited for the task. It doesn't hurt that it also costs less in terms of Research and Development of drivers. Asynchronous Shading allows GCN to hit near full efficiency without even requiring any driver work whatsoever.

nVIDIA, on the other hand, does much better at Serial scheduling of work loads (when you consider that anything prior to Maxwell 2 is limited to Serial Scheduling rather than Parallel Scheduling). DirectX 11 is suited for Serial Scheduling therefore naturally nVIDIA has an advantage under DirectX 11. In this graph, provided by Anandtech, you have the correct figures for nVIDIAs architectures (from Kepler to Maxwell 2) though the figures for GCN are incorrect (they did not multiply the number of Asynchronous Compute Engines by 8):

Afbeeldingslocatie: http://cdn.overclock.net/5/56/900x900px-LL-56aa0659_anandtech_wrong.jpeg

People wondering why Nvidia is doing a bit better in DX11 than DX12. That's because Nvidia optimized their DX11 path in their drivers for Ashes of the Singularity. With DX12 there are no tangible driver optimizations because the Game Engine speaks almost directly to the Graphics Hardware. So none were made. Nvidia is at the mercy of the programmers talents as well as their own Maxwell architectures thread parallelism performance under DX12. The Devellopers programmed for thread parallelism in Ashes of the Singularity in order to be able to better draw all those objects on the screen. Therefore what were seeing with the Nvidia numbers is the Nvidia draw call bottleneck showing up under DX12. Nvidia works around this with its own optimizations in DX11 by prioritizing workloads and replacing shaders. Yes, the nVIDIA driver contains a compiler which re-compiles and replaces shaders which are not fine tuned to their architecture on a per game basis. NVidia's driver is also Multi-Threaded, making use of the idling CPU cores in order to recompile/replace shaders. The work nVIDIA does in software, under DX11, is the work AMD do in Hardware, under DX12, with their Asynchronous Compute Engines.

But what about poor AMD DX11 performance? Simple. AMDs GCN 1.1/1.2 architecture is suited towards Parallelism. It requires the CPU to feed the graphics card work. This creates a CPU bottleneck, on AMD hardware, under DX11 and low resolutions (say 1080p and even 1600p for Fury-X), as DX11 is limited to 1-2 cores for the Graphics pipeline (which also needs to take care of AI, Physics etc). Replacing shaders or re-compiling shaders is not a solution for GCN 1.1/1.2 because AMDs Asynchronous Compute Engines are built to break down complex workloads into smaller, easier to work, workloads. The only way around this issue, if you want to maximize the use of all available compute resources under GCN 1.1/1.2, is to feed the GPU in Parallel... in comes in Mantle, Vulcan and Direct X 12.

People wondering why Fury-X did so poorly in 1080p under DirectX 11 titles? That's your answer.

A video which talks about Ashes of the Singularity in depth: YouTube: Behind the scorching beauty of Oxide’s Ashes of the Singularity™!

PS. Don't count on better Direct X 12 drivers from nVIDIA. DirectX 12 is closer to Metal and it's all on the developer to make efficient use of both nVIDIA and AMDs architectures.

Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Hmm, dan kan DX12 toch wel eens knap interessant voor AMD worden, bijna alsof ze wisten hoe DX12 ging werken, en dat ze hun videokaarten daarop aangepast hebben.

Maar nee, het is uiteraard toeval en aan DX12 wordt al jaren geknutseld door MS en Nvidia :+

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21-05 20:38
Hier nog wat presentaties over Next-gen API's. Voor mij is het te technisch :+
http://nextgenapis.realtimerendering.com/

Acties:
  • 0 Henk 'm!

  • Adel_F16
  • Registratie: Mei 2009
  • Laatst online: 04-05 10:34
Dit dacht ik al. Mooi om het nu uitgelegd te krijgen.

Het komt erop neer dat er nu er dichter op de hardware wordt geschreven je er verder niet veel meer uit kunt halen qua optimalisaties.

Gezien amd daarin met hun architectuur en devs niet de beste in waren ondanks de sterkere kaarten beloofd veel voor de komende jaren.

Waar nvidia het softwatematig super voor elkaar had en amd pijn deed, die kloof zal door dx12 dichtgroeien, of zelfs in het voordeel van amd liggen.

Hopen dat de ontwikkeling nu snel gaat met dx12 games. Ik moet er niet aan denken mocht amd daarvoor al failliet gaan. De cijfers laten duidelijk zien dat het erg slecht gaat met amd.

Ik ben er op dit moment zelfs over aan het nadenken om ipv een gsync monitor en 980 ti te halen, een freesync monitor en 2 fury(non x) te halen. Niet vanwege de beste ervaring op dit moment want dat is toch echt nvidia. Maar meer omdat ik AMD wil steunen en ook echt open sta voor hun gamechanges die ze gratis ter beschikking stellen en waar ze aan werken om het voor de consument zo prettig mogelijk te maken zoals freesync, mantle dx12, vulcan.

Waar de ander zich richt op gameworks, gsync, heavy tesselation en dit allemaal om alleen maar meer marktaandeel te winnen. Dit is erg slecht voor de consument.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21-05 20:38
Het ligt er denk een beetje aan hoe Pascal (van nVidia) gaat worden. Als Pascal goed om kan gaan met DX12 (en met Asynchronous Computing) dan heeft nVidia meteen de kleine achterstand ingehaald.

BTW, als je kan wachten met upgraden tot volgend jaar, zou ik dat zeker doen. Met de die-shrink naar 14/16 nm, gaat er een hoop veranderen op GPU gebied.

[ Voor 28% gewijzigd door LongBowNL op 21-08-2015 12:20 ]


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Mooie post, klinkt ook allemaal logisch.
Het zal er wel weer op uitdraaien dat nvidia zal proberen zaken ingame te krijgen die niet perse zinvol zijn maar wel AMD zoveel mogelijk crippelen.

2016 wordt echt een jaar vd waarheid. Dan zal moeten blijken of AMD haar voorsprong in ervaring (Mantle; dx12; HBM maar ook Parallelism/CGN) ook weet te verzilveren.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Adel_F16
  • Registratie: Mei 2009
  • Laatst online: 04-05 10:34
LongBowNL schreef op vrijdag 21 augustus 2015 @ 12:17:
Het ligt er denk een beetje aan hoe Pascal (van nVidia) gaat worden. Als Pascal goed om kan gaan met DX12 (en met Asynchronous Computing) dan heeft nVidia meteen de kleine achterstand ingehaald.

BTW, als je kan wachten met upgraden tot volgend jaar, zou ik dat zeker doen. Met de die-shrink naar 14/16 nm, gaat er een hoop veranderen op GPU gebied.
Het zou geweldig zijn mochten amd en nvidia dan gelijk oplopen qua performance. Amd kennende hanteren ze altijd een veel betere price/performance. Mochten deze 2 echt hetzelfde presteren heeft nvidia een probleempje. Iedereen gaat dan natuurlijk voor de goedkoopste kaart. Kom op concurentie :D

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het zou imho pas geweldig zijn als AMD duidelijk beter is. Die boost hebben ze hard nodig en zou bijdragen aan een gezonder competetief klimaat op GPU gebied.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

Anoniem: 668222

Adel_F16 schreef op vrijdag 21 augustus 2015 @ 12:22:
[...]


Het zou geweldig zijn mochten amd en nvidia dan gelijk oplopen qua performance. Amd kennende hanteren ze altijd een veel betere price/performance. Mochten deze 2 echt hetzelfde presteren heeft nvidia een probleempje. Iedereen gaat dan natuurlijk voor de goedkoopste kaart. Kom op concurentie :D
Nope. Mensen blijven toch wel Nvidia kopen en dat komt door hun imago. Het moet eerst lang mis gaan bij Nvida.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21-05 20:38
Yep, daar heb je zeker een punt. Laatst advies gegeven aan iemand voor een videokaart en die zei ook toen ik zei dat de 380 een betere keuze is dan de 960: "O, ik dacht dat AMD altijd mindere kwaliteit levert."

Het verbaast me niet als dat stigma bij de gemiddelde klant blijft hangen. Zeker omdat men het gevoel krijgt dat een hogere prijs soms ook betere kwaliteit betekent.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 14:46

XanderDrake

Build the future!

Sowieso, bestaat er al heel lang geen meer verschil in "kwaliteit". De duurzaamheid van de plakken geëtst glas die we CPUs en GPUs noemen is al lang hetzelfde. Eigenlijk is er een verschil in performance, en das ook nogal relatief. Ik probeer veel mensen in mijn omgeving bewust van te maken.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • Adel_F16
  • Registratie: Mei 2009
  • Laatst online: 04-05 10:34
Vergeet niet dat de kleur ook een belangrijke factor is. Hoe dom ook, mensen kiezen veel vaker voor groen dan voor rood. Had daar nog een studie van gelezen.

Amd was voor de overname van ati groen. Sinds dat ze rood zijn geworden zijn veel mensen overgestapt.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 15:26
dahakon schreef op vrijdag 21 augustus 2015 @ 08:48:
[...]


Een gigantische bak geld uitgeven aan een nieuwe reeks GPU's op een oude node, waarmee je weinig echte winst kunt behalen, is nou niet bepaald wat ik zou noemen 'goed investeren'. Ze hadden natuurlijk net als nVidia een chip kunnen ontwerpen die geheel uitgekleed is en nog maar 1 doel heeft, gamen, maar dat kost dusdanig veel geld dat je je kunt afvragen of je dat kunt terugverdienen voordat je 14/16nm producten op de markt komen. Bovendien heeft nVidia niet bepaald extreem veel snellere producten op de markt gezet. Ja, Maxwell is zuiniger geworden doordat er niets overbodigs in zit buiten gaming om en omdat de reference kaarten op ongeveer het perfecte punt zijn geklokt voor perf/watt, gecombineerd met een hardwarematige limiter voor stroomverbruik. De non-reference modellen zijn echter vaak hoger geklokt en kunnen daarmee ook redelijk wat meer stroom verbruiken, waarmee het grootste deel van de winst weer weg is.

Al met al heeft AMD nog altijd kaarten die qua performance mee komen, dus nieuwe chips op de markt brengen voor niets anders dan dat het nieuwe chips zijn, is simpelweg kapitaalvernietiging van het R&D budget, die beter besteed kan worden aan de nieuwe chips die in 2016 komen.
De R&D hoort natuurlijk gewoon netjes een nieuwe architectuur te ontwikkelen. Het maakt verder ook niet zo veel uit waar je het aan uit geeft want het R&D budget van AMD zou zonder stijging ongeveer 2x meer moeten zijn dan het nu is (1800+inflatie=2000 miljoen). Dat zijn nogal een paar centen... Ook al is je personeel beter (twijfelachtig) een dergelijke achterstand op Nvidia/Intel is eigenlijk niet vol te houden.

Traditioneel gezien is de derde generatie eigenlijk altijd weer op een nieuwe architectuur gebaseerd. AMD kwam juist met het model waarbij er een mid/high end kaart werd ontworpen waarop pas later de snellere videokaarten werden gebaseerd. Hierdoor waren de kaarten van AMD vaak minder complex en zuiniger dan die van Nvidia die juist vanaf complexe kaarten terug werkte. Ik geloof dat Nvidia dit pas vanaf Fermi andersom is gaan doen (en dus eigenlijk AMD is gaan volgen, met succes).

Het is best wel vreemd om in juni 2015 nog met een kaart te komen gebaseerd op GCN 1.0 en dus zonder DirectX 12 feature level 12_0. Met de lancering van Windows 10 (29 juli) staat DirectX12 staat nu echt voor de deur. De meest logische verklaring dat AMD niet met een refresh op basis van GCN 1.2 kwam is dat het geld er gewoon niet voor was. Dat is een nieuw diepte punt wat mij betreft. Ik kan mij een vergelijkbare launch in ieder geval niet herinneren. Voor "ons" is het nog mooier als AMD voldoende centen heeft en dus met een hele nieuwe GCN had gekomen (maar dat gaat nog tot 2016Q2 duren zo ver ik weet). Dit is drie stappen verder terug (nieuw>1.2>1.1>1.0 uit 2011). Laten ze snel schoon schip maken want als deze situatie (verkoop cijfers) tot q2 2016 zo door gaat dan zal er mogelijk nog wat in het R&D budget moeten worden gesneden...

[ Voor 6% gewijzigd door sdk1985 op 21-08-2015 14:37 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 15:38

Kuusj

Ofwel varken in 't Limburgs

LongBowNL schreef op vrijdag 21 augustus 2015 @ 12:55:
Yep, daar heb je zeker een punt. Laatst advies gegeven aan iemand voor een videokaart en die zei ook toen ik zei dat de 380 een betere keuze is dan de 960: "O, ik dacht dat AMD altijd mindere kwaliteit levert."

Het verbaast me niet als dat stigma bij de gemiddelde klant blijft hangen. Zeker omdat men het gevoel krijgt dat een hogere prijs soms ook betere kwaliteit betekent.
Dat is inderdaad het allergrootste probleem wat men heeft. Men denkt dat AMD minder goed is, minder betrouwbaar, slechter en bovendien dat het spul sneller kapot gaat. Ik weet nog steeds niet waar men dit vandaan heeft maar het is knap irritant.

Ik kan mij absoluut niet voorstellen dat de gemiddelde consument dit ontdekt door de hardware zelf te "onderzoeken" en testen of wat dan ook, maar dan nog kun je niet zien dat ze van mindere kwaliteit zouden zijn omdat dat gewoon niet zo is.

Het zal in de marketing van beide partijen liggen (of 3, in het geval dat we ook CPU's meerekenen) waarbij AMD te weinig doet, en Intel/nvidia juist heel veel. Daar komt bij dat men heel vaak Intel zal zien staan, dat winkelpersoneel mensen aanspoort om Intel te pakken en nogmaals: als 9/10 bekenden van je een Intel PC/Laptop hebben ben je veel sneller geneigd om het ook te pakken, persoon die dan AMD heeft kan proberen uit te leggen wat hij wil.

Het zegt denk ik al genoeg dat ik (afaik) nog nooit een AMD reclame op TV heb gezien, alleen klein op Formule 1 wagens. Intel daarintegen komt wel in elk spotje voor waarin een bedrijf de nieuwste overpriced laptop probeert te slijten.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 15:26
kuusj98 schreef op vrijdag 21 augustus 2015 @ 14:37:
[...]

Dat is inderdaad het allergrootste probleem wat men heeft. Men denkt dat AMD minder goed is, minder betrouwbaar, slechter en bovendien dat het spul sneller kapot gaat. Ik weet nog steeds niet waar men dit vandaan heeft maar het is knap irritant.

Ik kan mij absoluut niet voorstellen dat de gemiddelde consument dit ontdekt door de hardware zelf te "onderzoeken" en testen of wat dan ook, maar dan nog kun je niet zien dat ze van mindere kwaliteit zouden zijn omdat dat gewoon niet zo is.

Het zal in de marketing van beide partijen liggen (of 3, in het geval dat we ook CPU's meerekenen) waarbij AMD te weinig doet, en Intel/nvidia juist heel veel. Daar komt bij dat men heel vaak Intel zal zien staan, dat winkelpersoneel mensen aanspoort om Intel te pakken en nogmaals: als 9/10 bekenden van je een Intel PC/Laptop hebben ben je veel sneller geneigd om het ook te pakken, persoon die dan AMD heeft kan proberen uit te leggen wat hij wil.

Het zegt denk ik al genoeg dat ik (afaik) nog nooit een AMD reclame op TV heb gezien, alleen klein op Formule 1 wagens. Intel daarintegen komt wel in elk spotje voor waarin een bedrijf de nieuwste overpriced laptop probeert te slijten.
Tja ik heb in NL ook nog nooit een Apple reclame gezien en toch is het mega populair geworden... Dat slechte driver stigma is er al minstens sinds 2005 en is deels terecht. Aangezien dat al 10 jaar zo is lijkt dat me niet de verklaring dat Nvidia nu een marktaandeel van 82% heeft.

Waarom kom ik met 2005? Dat was de release van Battlefield 2 waarop op je pre-order DVD de benodigde Nvidia driver werd meegeleverd in het launch menu, terwijl je Ati gamende vrienden een maand of 3 met zwarte artifacts moesten spelen. Dat nu net de pijnlijke situaties die vermeden moeten worden...

Verder zijn er nog wel wat factoren te verzinnen:

-The way it's meant to be played (stamt uit 2002) zag je vroeger erg vaak (mega irritant :+ ).
-AMD komt vaak met een "beta" driver in plaats van een WHQL driver (daar krijg je vervolgens een Windows melding van bij installatie).
-Frametime gate... AMD heeft toegegeven totaal niet op frame pacing te letten en dus impliciet ook een inferieure speelervaring te bieden tov Nvidia (microstutter). Dit kwam aan het licht doormeneer Scott Wasson in 2012. Heeft tot ergens diep in 2013 geduurd voor dit gat grotendeels werd gedicht.
-Er zijn gewoon te veel games waarbij er x weken moest worden gewacht op een hotfix terwijl de boel bij Nvidia al werkte.
-DX11 performance valt nog flink veel te winnen zo blijkt nu uit de analyse van DX12: http://arstechnica.co.uk/...isappointment-for-nvidia/ (Nvidia had de wonderdriver, remember?).

Het stigma kan AMD pas kwijt raken indien ze Nvidia hierin verslaan. Om dat te doen moet AMD gewoon wat meer geld in de drivers steken. Uitgebreidere quality control tests, pro actiever game developpers benaderen en zorgen dat de eerste optimalisaties in de driver zitten VOOR die game uit komt en meer "exclusives" scoren. DirectX12 bied een beetje een nieuwe start en met die Ashes of the Singularity lijkt het erop dat AMD goed samenwerkt met de devs dus wie weet ;).

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 09:26
Volgens mij zijn de drivers van AMD al een paar jaar dik in orde, in tegenstelling tot Nvidia. Ik heb zelf het idee dat ik meer lees dat Nvidia drivers wat minder werken de laatste tijd.

Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 15:38

Kuusj

Ofwel varken in 't Limburgs

Zeara schreef op vrijdag 21 augustus 2015 @ 15:19:
Volgens mij zijn de drivers van AMD al een paar jaar dik in orde, in tegenstelling tot Nvidia. Ik heb zelf het idee dat ik meer lees dat Nvidia drivers wat minder werken de laatste tijd.
Ik heb niet alleen dat idee, maar ik heb het nu zelf ervaren.
Qua frametimes is het allemaal een stuk stabieler bij de GTX970 t.o.v. mijn 280X, qua framerates over het algemeen ben ik er (25% sowieso + 18% 3D performance gain van overclock) 43% op vooruit gegaan en ook het energieverbruik is aanzienlijk minder te noemen.

Maar: het control panel vind ik een verschrikking, het ziet er exact hetzelfde uit als mijn laatste nVidia kaart (8600GT) en het is lomp, traag en dingen toepassen resulteert vaak in 10 seconden wachten en flikkerende schermen en niet reagerende vensters. Surround is ook een verschrikking, ik moet iedere keer de schermen reorganiseren, het duurt een eeuwigheid en ga zo maar door.

Ik denk serieus dat als AMD een beetje slim omgaat met de mogelijke voorsprong die ze hebben met DX12, de support wat opvoeren en wellicht nog eens wat reclame maken dat ze sowieso de komende generatie in handen gaan hebben.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 14:46

XanderDrake

Build the future!

Zeara schreef op vrijdag 21 augustus 2015 @ 15:19:
Volgens mij zijn de drivers van AMD al een paar jaar dik in orde, in tegenstelling tot Nvidia. Ik heb zelf het idee dat ik meer lees dat Nvidia drivers wat minder werken de laatste tijd.
Nope. Ik herhaal het nog een keertje, maar maten van mij hadden significantie problemen binnen GTA V met hun AMD HD 7970's waardoor ze uiteindelijk AA moesten uitzetten om artifacts te vermijden, bij verschillende drivers. Dat probleem had ik op mijn GTX 670 niet.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • hubhib
  • Registratie: December 2006
  • Laatst online: 20-05 17:50
Dit voelt een beetje als de tijd van de Radeon 9700/9800 en GeForce FX 5800/5900. Even los van het feit dat de 5800 ultra een enorm heethoofd was met een bladblazer erop gemonteerd, had Ati ook een enorme voorsprong met hun implementatie van DirectX 9. In DirectX 8 waren de Nvidia kaarten behoorlijk snel, maar kakte helemaal in wanneer er gebruik werd gemaakt van DirectX 9. Ik heb altijd het idee gehad met mijn Ati/Nvidia kaarten dat je een Nvidia koopt voor de games van nu, maar een Ati voor de toekomst.

Ryzen 7 9800X3D | ROG STRIX B650E-F | RTX 5080 AMP | 32GB G.Skill 6000Mhz C30 | Noctua NH-U12A | Samsung 990 Pro 1TB | Samsung 990 Pro 2TB | WD Red Plus 6TB | O11 Dynamic Evo | Corsair RM1000x


Acties:
  • 0 Henk 'm!

  • westergas
  • Registratie: December 2001
  • Laatst online: 14:06

westergas

rikkie_pc

XanderDrake schreef op vrijdag 21 augustus 2015 @ 15:58:
[...]

Nope. Ik herhaal het nog een keertje, maar maten van mij hadden significantie problemen binnen GTA V met hun AMD HD 7970's waardoor ze uiteindelijk AA moesten uitzetten om artifacts te vermijden, bij verschillende drivers. Dat probleem had ik op mijn GTX 670 niet.
MSAA AMD bug in GTAV was nooit opgelost volgens mij idd. Crossfire in The Witcher 3 was ook al zo'n drama. Crossfire support liet weken op zich wachten na release en AA moest uit, flikkeringen zijn nooit helemaal verdwenen en FPS was totaal niet soepel. Bij zulke belangrijke releases (grootste titels van het jaar) kan je dat niet maken imo. Zal met de release van Fury te maken hebben en het gebrek aan resources dat ze hebben bij AMD maar toch...

rikkie de zwerver TweakersIII (TandjeBij!)


Acties:
  • +1 Henk 'm!

  • ronaldvr
  • Registratie: Februari 2003
  • Laatst online: 10:43
Voor de liefhebbers:

DirectX 12 tested: An early win for AMD and disappointment for Nvidia

First DX12 gaming benchmark shows R9 290X going toe-to-toe with a GTX 980 Ti.

http://arstechnica.com/ga...isappointment-for-nvidia/

"To say these benchmark results are unexpected would be an understatement. While it's true that AMD has been banging the DX12 drum for a while, its performance in Ashes is astonishing. AMD's cheaper, older, and less efficient GPU is able to almost match and at one point beat Nvidia's top-of-the-line graphics card. AMD performance boosts reach almost 70 percent under DX12. On the flip side, Nvidia's performance is distinctly odd, with its GPU dropping in performance under DX12 even when more CPU cores are thrown at it. The question is why?"

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16

Sp3ci3s8472

@ 12 graden...

sdk1985 schreef op vrijdag 21 augustus 2015 @ 15:01:
[...]
Het stigma kan AMD pas kwijt raken indien ze Nvidia hierin verslaan. Om dat te doen moet AMD gewoon wat meer geld in de drivers steken. Uitgebreidere quality control tests, pro actiever game developpers benaderen en zorgen dat de eerste optimalisaties in de driver zitten VOOR die game uit komt en meer "exclusives" scoren. DirectX12 bied een beetje een nieuwe start en met die Ashes of the Singularity lijkt het erop dat AMD goed samenwerkt met de devs dus wie weet ;).
Dan nog blijven de mensen blind Nvidia kopen 8)7. Dit was overduidelijk tijdens de 4xxx en 5xxx generatie, het maakte donders weinig uit mensen bleven er heilig in geloven dat Nvidia beter is. Zelfs met de 8xxx generatie kon Nvidia weinig fout doen, dat de kaarten bij bosjes doodgingen na 1.5 jaar maakte ze niks uit.
Dat stigma raakt AMD niet 1,2,3 kwijt ze hebben dit al jaren. Ik zelf nog nooit problemen gehad met de AMD drivers, zeker niet de laatste tien jaar.
Met name het laatste jaar zie ik meer drivers bij Nvidia die het niet goed doen dan bij AMD, vaak wordt aangeraden om naar de oude wel stabiele driver te gaan. Dit zijn WHQL drivers niet eens beta drivers, je zou verwachten dat een WHQL driver goed werkt.

Je zegt dat AMD meer moet uitgeven om meer aan R&D te besteden. Waar moeten ze dat geld vandaan halen? Je moet ook niet vergeten dat Nvidia zijn R&D ook hoger is omdat ze op meer vlakken dingen doen, de focus van AMD is vooral CPU/GPU dus zullen hun kosten ook lager zijn.
Als mensen stug een GTX750Ti blijven kopen terwijl de 270 een betere koop is dan zal ze dat niet lukken. Volgens mij kost marketing net zoveel als R&D en het is maar de vraag of het wat op levert, ik kijk even voor het gemak naar de marketing kosten van een AAA game titel die meer zijn dan de feitelijke productie kosten van het spel.
kuusj98 schreef op vrijdag 21 augustus 2015 @ 15:33:
[...]
Qua frametimes is het allemaal een stuk stabieler bij de GTX970 t.o.v. mijn 280X, qua framerates over het algemeen ben ik er (25% sowieso + 18% 3D performance gain van overclock) 43% op vooruit gegaan en ook het energieverbruik is aanzienlijk minder te noemen.
Nogal wiedes dat je frametimes stabieler zijn, het is een snellere kaart. Natuurlijk zal je beleving dan beter zijn.
Dat lijkt me raar de 280x gebruikt nagenoeg hetzelfde onder (average) load. Als jij je kaart overclocked dan gebruikt hij meer. Dus je kaart zal meer gebruiken dan een 280x.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 15:26
Kleine correctie: Wat betreft de financien van Nvidia, gros komt toch echt van GPU hoor. Het vroeger cpb heeft nooit echt winst gedraaid (tegra etc). Tegenwoordig valt quadro ook onder gpu.


GPU $3,838.9
Tegra Processor 578.6
All Other 264.0

R&D is 1,359.7 dus dat komt echt niet uit "all other" ;). R&D is daarmee 29% van de omzet bij Nvidia.

[ Voor 6% gewijzigd door sdk1985 op 21-08-2015 17:51 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Kuusj
  • Registratie: April 2012
  • Laatst online: 15:38

Kuusj

Ofwel varken in 't Limburgs

Sp3ci3s8472 schreef op vrijdag 21 augustus 2015 @ 17:20:
[...]


Dan nog blijven de mensen blind Nvidia kopen 8)7. Dit was overduidelijk tijdens de 4xxx en 5xxx generatie, het maakte donders weinig uit mensen bleven er heilig in geloven dat Nvidia beter is. Zelfs met de 8xxx generatie kon Nvidia weinig fout doen, dat de kaarten bij bosjes doodgingen na 1.5 jaar maakte ze niks uit.
*knip voor de lengte*


[...]

Nogal wiedes dat je frametimes stabieler zijn, het is een snellere kaart. Natuurlijk zal je beleving dan beter zijn.
Dat lijkt me raar de 280x gebruikt nagenoeg hetzelfde onder (average) load. Als jij je kaart overclocked dan gebruikt hij meer. Dus je kaart zal meer gebruiken dan een 280x.
Je hebt gelijk betreffende het imago wat nVidia heeft tegenover het negatieve imago van AMD, het is echter zo dat ze wel actie moeten ondernemen willen ze nog eens wat marketshare terughalen. Dat er geen budget voor zal zijn, is te begrijpen, probeer dan meer deals te sluiten voor AAA games of ga kijken waar je uitgaven kunt snijden. Klinkt behoorlijk asociaal, maar voer eens een grondige reorganisatie door, dit levert niet alleen gratis "reclame" maar als het goed is ook een stukje minder kosten die direct weer naar de marketing afdeling geschoven kunnen worden. Neem een marketingkantoor aan, of een andere, ik kan nog wel meer dingen bedenken...

Framerate =/= frametime, vooral bij Arma was het beeld erg onrustig met een 280X, ook al was de framerate bijvoorbeeld 60FPS.

En het lijkt me ook helemaal niet raar dat een GTX970 zuiniger is dan een 280X. Ten eerste is er idle een verschil van ongeveer 40W (multi-screen) en is het daadwerkelijke game-verbruik van de 280X een stuk hoger. Komt bij dat de 280X natuurlijk veel meer ging gebruiken door extra voltage maar dat had ik nodig voor ietwat beter speelbare resultaten, waarbij de kaart voortdurend op zijn poten moest lopen. De 970 hoeft niet zo op zijn poten te lopen en clockt vaak terug omdat hij toch ruim boven 60FPS target zit.

Begrijp me niet verkeerd, ik blijf pro-AMD, maar dit zijn simpelweg dingen die ik constateer en ik denk niet dat zoiets niet vermeld mag worden. https://www.techpowerup.c...SI/GTX_970_Gaming/25.html
Idle 36W om precies te zijn, load 70W. Ik moet hierbij echter aangeven dat zowel Core als Mem overvolted liepen en dus onder een leuke Furmark draai een 32Ax12V= 384W verbruikte.
De GTX 970 heeft helaas een stuk minder uitleesbare waarden, maar uitgaande van de TDP verbruikt deze (145Wx130% to be safe :)) 188W.

Daarnaast heb ik bericht gekregen dat mijn 280X inderdaad defect is bevonden, gaat nu naar leverancier omdat hij niet meer leverbaar is, kan 4 weken duren. We zien wel.

9800X3D - RX 6900XT - Volvo S40 T5 '10 - Kever '74


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 21-05 16:16
sdk1985 schreef op vrijdag 21 augustus 2015 @ 14:27:
Traditioneel gezien is de derde generatie eigenlijk altijd weer op een nieuwe architectuur gebaseerd. AMD kwam juist met het model waarbij er een mid/high end kaart werd ontworpen waarop pas later de snellere videokaarten werden gebaseerd. Hierdoor waren de kaarten van AMD vaak minder complex en zuiniger dan die van Nvidia die juist vanaf complexe kaarten terug werkte. Ik geloof dat Nvidia dit pas vanaf Fermi andersom is gaan doen (en dus eigenlijk AMD is gaan volgen, met succes).
Je verwart chip grootte met mid/high-end (en groter betekent niet noodzakelijkerwijs complexer). AMD heeft gewoon altijd de high-end chip als eerste uitgebracht, ook nadat ze op hun "small die" strategie over zijn gestapt. Uitzondering is Barts + Cayman, maar dat zijn ook andere chips (VLIW5 vs VLIW4). Dat die chips een stuk kleiner waren dan Nvidia's chips is een ander verhaal. Niet AMD's fout dat Nvidia zo weinig uit die chips (GT200, GF100) geperst kreeg ;)

Bovenstaande is even afgezien van opgefokte neven in de families. Een 7970GE/4890 is gewoon een 7970/4870 op steroïden. Hawaii en Fiji zijn wel duidelijk afgeleiden van Tahiti, net zoals GT200 nog steeds van G80 kwam. Complexer dan Tahiti zijn ze niet, vooral beter in balans.

Bij Nvidia is het ook niet Fermi (GF100 was de eerste, niet GF104), maar Kepler waar dat veranderde (GK104 vóór GK110) en dat was vanuit noodzaak. Vanaf Maxwell durf ik het pas een bewuste keuze te noemen :)

Je hebt wellicht gelijk wat AMD betreft, maar dat zien we volgend jaar pas - als ze al een andere strategie hebben is dat pas vanaf 2012/2013 (geldt ook voor Nvidia overigens). Fiji is een noodgreep door het gebrek aan een nieuwe node. Ik denk eerlijk gezegd dat we AMD gewoon terug zullen zien gaan naar hun "small die". En dan zien we ook of Nvidia inderdaad ook permanent van strategie verandert, met "sweet spot first".

Acties:
  • 0 Henk 'm!

  • DCG909
  • Registratie: Januari 2011
  • Laatst online: 21-05 18:47
Persoonlijk heb ik eigenlijk meer issues gezien met nVidia drivers dan AMD's.
Zelf heb ik twee drivers gehad oid die problemen gaven in de spellen die ik speelde. Maar bij een klasgenoot zag ik geregeld zijn display driver crashen en bij andere kennissen ook, terwijl bij de AMD gebruikers dat weer nauwelijks tot nooit gebeurd is :/

Het lijkt er overigens wel op dat de geluidsproductie van de Fury X ook afhankelijk is van de oriëntatie van de kaart.
Hang je ze in een test bench opstelling (moederbord parallel aan de tafel), dan komt er minder geluid uit. Hangt de kaart parallel aan de tafel, dan komt er meer geluid uit.
En dan heb ik ook nog de pech dat mijn HAF932 blijkbaar ook nog resoneert....
(iemand overigens een tip voor een grote kast met ruimte voor minimaal een 360 rad?)

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21-05 20:38
Kon niet lang duren ook, maar Samsung gaat ook beginnen met de massaproductie van HBM:
http://hexus.net/tech/new...oduction-early-next-year/

[EDIT]
Ik heb deze link al eerder geplaatst, maar de rest van het topic is ook interessant om te lezen, dus ik zet hem nog een keertje neer. :)
http://www.overclock.net/...chmarks/400#post_24321843

[ Voor 41% gewijzigd door LongBowNL op 22-08-2015 11:09 ]


Acties:
  • 0 Henk 'm!

  • SpankmasterC
  • Registratie: Juli 2002
  • Laatst online: 17-05 11:15
LongBowNL schreef op vrijdag 21 augustus 2015 @ 23:13:
Ik heb deze link al eerder geplaatst, maar de rest van het topic is ook interessant om te lezen, dus ik zet hem nog een keertje neer. :)
http://www.overclock.net/...chmarks/400#post_24321843
Mooie post idd, thanks!

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 12-05 00:16

Sp3ci3s8472

@ 12 graden...

LongBowNL schreef op vrijdag 21 augustus 2015 @ 23:13:
Kon niet lang duren ook, maar Samsung gaat ook beginnen met de massaproductie van HBM:
http://hexus.net/tech/new...oduction-early-next-year/

[EDIT]
Ik heb deze link al eerder geplaatst, maar de rest van het topic is ook interessant om te lezen, dus ik zet hem nog een keertje neer. :)
http://www.overclock.net/...chmarks/400#post_24321843
Mooi topic, ik ben het tot het einde aan het lezen :*). Die user maakt wel meer interessante posts.

Acties:
  • 0 Henk 'm!

  • Damic
  • Registratie: September 2003
  • Laatst online: 07:38

Damic

Tijd voor Jasmijn thee

Dat is dus de grootste reden waarom amd gpu's zo goed zijn in parallelle zaken, alleen die hitte. Daar mogen ze nog wel iets aandoen.

Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 10:11
yep met jullie eens, amd heeft een klapper nodig om weer bij te komen kwa performance. Maar ik denk niet dat het verschil gaat uitmaken kwa marktaandeel mensen die zich er niet in verdiepen komen vaak al bij nvidea terecht. En uiteraard heb ik het bekende voorbeeld van de kennis die een 960 koopt en minder fps haalt dan een andere pc met een 380 terwijl die een tientje goedkoper is "huh maar dat is toch een amd kaart?" *diepe zucht*

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
wat mij sowieso opvalt is dat amd generaties lang betere producten kan maken en zo langzaam prestatie winst boekt. En als ze dan eenmaal wat minder doen dan alles meteen terug zakt en iedereen weer voor intel of nvidia gaat.

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 19-05 07:09

SG

SG surft naar info hardewaren

Damic schreef op zondag 23 augustus 2015 @ 18:32:
Dat is dus de grootste reden waarom amd gpu's zo goed zijn in parallelle zaken, alleen die hitte. Daar mogen ze nog wel iets aandoen.
Dat hebben ze al de Nano en de Furies.
Maar in DX12 gaan van af GCN 1.1 al goed in parralele verwerking.
En 1.0 is ook nog wat parrallel.
Maar bij nV is maxwell2 wat al minder is tov GCN 1.1 en de voorgangers nog meer beperkt tov GCN 1.0.

Denk dat je met GTX 980 ( ti ) een goed compromie hebt.
Zo ook Furies zij het dat compromie anders ligt
Testalatie
4 GB beperking
aCE
Rasterisation.
Het hangt sterk af wat de games in de toekomst gaan doen.
Het zo kunnen dat de games in de toekomst erg grillig kunnen reageren. Zoals ze de laaste jaren al doen.
Goede reden om nV en AMD GPU based game rigs te hebben.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21-05 20:38
Nano performance? (Het is een AMD slide)
http://www.golem.de/news/...-r9-290x-1508-115897.html

Acties:
  • 0 Henk 'm!

Anoniem: 668222

SG schreef op maandag 24 augustus 2015 @ 07:45:
[...]

Dat hebben ze al de Nano en de Furies.
Maar in DX12 gaan van af GCN 1.1 al goed in parralele verwerking.
En 1.0 is ook nog wat parrallel.
Maar bij nV is maxwell2 wat al minder is tov GCN 1.1 en de voorgangers nog meer beperkt tov GCN 1.0.

Denk dat je met GTX 980 ( ti ) een goed compromie hebt.
Zo ook Furies zij het dat compromie anders ligt
Testalatie
4 GB beperking
aCE
Rasterisation.
Het hangt sterk af wat de games in de toekomst gaan doen.
Het zo kunnen dat de games in de toekomst erg grillig kunnen reageren. Zoals ze de laaste jaren al doen.
Goede reden om nV en AMD GPU based game rigs te hebben.
Nvidia kaart en een AMD kaart combineren als dat makkelijk gaat wat ik wel betwijfel. Dan heb je het beste van 2 werelden voor alle berekeningen.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21-05 20:38
Theoretisch moet het kunnen met DX12, maar dat is dan weer afhankelijk van de game ontwikkelaars of het ondersteund gaat worden.

Op 1 of andere manier heb ik toch een angst voor exclusives in de toekomst. Omdat DX12 zo close to metal is en de nVidia (serieel) en AMD (parallel) zo van elkaar verschillen, ben ik bang dat er optimalisaties voor 1 van de 2 gaan komen. GameWorks extreme lijkt het dan te worden of ontwikkelaars moeten 2 paden ontwikkelen, 1. AMD 2. nVidia. Dat kost ook weer extra.

Of zie ik dit verkeerd?

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 14:42
Indien de ontwikkelaar het straks moet gaan doen om optimaal gebruik te maken van hardware, dan zal de komende paar jaar niet plezierig zijn voor de eindgebruiker. Ik vrees dat er nog een hoop ellende zal komen voor ze hardware goed kunnen benutten. Ontwikkelaars zijn al zo lang via een dx api en dev kits van Microsoft, Sony en Nintendo aan het code kloppen dat zelf optimaliseren een hele uitdaging zal worden.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Of gewoon een fatsoenlijke architectuur in elkaar zetten die hier veel meer bij gebaat is i.p.v. van API's met een overhead van hier tot aan Tokyo. De volgende stap is een fatsoenlijke game engine maken welke vervolgens dus goed geoptimaliseerd moet worden. Elke game gemaakt met die game engine zit dan wel snor.

Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 15:47

Trygve

Redacteur
Het belang van een goede engine in DX12 is dus groot, en de driverupdates van videokaarten met optimalisaties voor specifieke games zouden dus tot het verleden kunnen behoren. Een goede driver verzorgt dan alleen de communicatie, en de engine is verantwoordelijk voor de implementatie van alle features. Aan de andere kant zal dit niet direct z'n vruchten afwerpen omdat het onwaarschijnlijk is dat er vanaf nu enkel DX12-only games uit zullen komen (al zal zo'n eis als 'minimal system requirements' niet eens gek zijn; de upgrade naar Windows 10 is gratis en veel bestaande kaarten ondersteunen DX12).

Fable gaat wel een interessante worden. De game is niet gesponsord door nVidia of AMD, en ik ben benieuwd hoe de kaarten van de twee kampen zich tot elkaar verhouden in dat spel. Microsoft is er bij gebaat om DX12 zo goed mogelijk naar voren te laten komen, en naast een vergelijking tussen DX11 en DX12 zien we dan ook wat de consoles doen.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21-05 20:38
Er ging een suggestie rond dat bijvoorbeeld de laatste Batman zo'n slechte game op de PC was, omdat het een slechte port van de console is. Hier worden Async Shaders goed gebruikt (AMD GPU aan boord). DX11 kan hier niet mee omgaan en daarom waren de prestaties zo'n drama op de PC. Zou leuk zijn als er nog een DX12 versie uitkomt...

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 19-05 07:09

SG

SG surft naar info hardewaren

Anoniem: 668222 schreef op maandag 24 augustus 2015 @ 12:30:
[...]


Nvidia kaart en een AMD kaart combineren als dat makkelijk gaat wat ik wel betwijfel. Dan heb je het beste van 2 werelden voor alle berekeningen.
Nou dat wil ik wel proberen. En daar dacht ik ook wel eens aan.
Maar het is eerder een plan om een
R9-Nano in AMD systeem met P2_X4_965 waar het de 5870 vervangt.
970 in een i920 systeem waar het GTX580 vervangt .
Als R9-290x niet aan de gang krijg. De i920 sys heeft de zware voeding. De voeding van 5870 sys is te licht

Gezien de GTX580 en 560Ti ook DX12 geschikt zijn. Genoeg kaarten om mee te experimenteren.
Ik had al nV en "ATI"AMD bak. Ik upgrade om en om .

Ja het is oud spul. Die 5870 valt buiten de DX12 boot. En het is juist mijn Dev bakje.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • br00ky
  • Registratie: Januari 2014
  • Laatst online: 14:24

br00ky

Moderator Harde Waren
In dat geval, op naar nummertje 132.
Pagina: 1 ... 10 11 Laatste

Dit topic is gesloten.