CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 133 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 6 ... 11 Laatste
Acties:
  • 59.933 views

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:52
Ik denk eerlijk gezegd dat Nvidia nog minstens een jaar de tijd heeft om iets met de DX12 performance te doen. Ashes of Singularity is een game die ik zou spelen, maar het is wel echt een niche game.

ARK: Survival Evolved is wat dat betreft wel een goede kandidaat (nr 5 op Steam met 48,997 spelers).
Zeara schreef op donderdag 03 maart 2016 @ 17:35:
[...]


Beide moeten inderdaad aan de bak. Al lijkt het verschil tussen AMD en Nvidia op DX11 kleiner dan op DX12.
Ik bedoel, stel je voor dat AMD de DX11 overhead weg krijgt... Dan is het ook doei doei Nvidia.
Dat lijkt me heel goed want dan moet Nvidia de prijzen verlagen, of kan AMD een beetje omhoog. De Wonderdriver van Nvidia is ondertussen alweer 2 jaar oud. Waarschijnlijk heeft AMD het laten schieten omdat ze met Mantle bezig waren. Wie weet richten ze zich nu uitsluitend op DX12, dat zou niet best zijn.
Maar goed. Ik denk dat de adoptie van DX12 heel anders gaat zijn dan al het voorgaande.
Mijn inziens waren de verbeteringen van DX9 --> DX10 --> DX11 dusdanig klein dat het meer een paar toegevoegde effecten waren (ik kan er naast zitten, ik zit niet diep in de materie). Terwijl dat DX12 gewoon compleet anders is.
DX10 was eigenlijk vergelijkbaar met wat DX12 nu is. Je had er een ander OS voor nodig (toen Vista, nu Win10) omdat er flink veel dingen anders waren. Tesselation kwam ook met DX10: http://developer.download.../Inst_Tess_Compatible.pdf. Verder waren er vrij snel wat games die wat beter draaide op DX10 (denk aan Far Cry 2). Maar het duurde dus heel erg lang voor DX10 echt werd omarmt. De meeste games hebben DX10 (jan 2007) overgeslagen en zijn meteen DX11 (eind 2009) gaan gebruiken. Daar zat bijna 3 jaar tussen. Mijn eerste DX10 kaart (8800GTS 640MB) heeft nauwelijks DX10 games gedraaid.

[ Voor 79% gewijzigd door sdk1985 op 03-03-2016 17:45 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 20:21

Trygve

Redacteur
Ben ook wel benieuwd naar Tomb Raider op DX12: http://nl.hardware.info/n...-12-naar-tomb-raider-game

Acties:
  • +1 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
sdk1985 schreef op donderdag 03 maart 2016 @ 17:25:
Mijn punt was dat gezien de situatie het zinniger is te concluderen dat AMD aan de bak moet met DX11 in plaats van Nvidia aan de bak moet met DX12.
Zoals gezegd ook in de vid is AMD al 4-5 jaar bezig met multiprocessing op de GPU, wat jij ook weet is dat AMD ongeveer vanaf diezelfde tijd erg groot had ingezet op multiprocessing op de CPU.

Helaas heeft AMD er in al die tijd niet veel aan gehad omdat het door MS (mbt DX10/11-constructie), Intel (mbt bv Havok) en nVidia (mbt Gameworks,Physx) werd dwarsgeboomd om van die async+multiproc optimalisaties gebruik te kunnen maken.

Nu komt DX12 uit waarmee er eindelijk gebruik gemaakt kan worden van de goede kanten/ideeen van AMD, en nu zeg jij dat AMD meer moet gaan optimaliseren voor waar ze in de 4-5 jaar tussentijd niet geschikt voor gebleken hebben te zijn.

Kortgezegd nVidia kan niet optimaliseren voor DX12 async-compute vanwege hardware limitaties.
Maar dan dus ook AMD kan niet optimaliseren voor DX11 serial/singlethread-compute vanwege hardware limitaties.

How do you save a random generator ?


Acties:
  • 0 Henk 'm!
Marketing op zijn best... Je weet dat die wonderdriver helemaal niet bestond en dat het gewoon totale bullshit was van nVidia? Was gewoon een normale driver release net als andere met gewoon normale verbeteringen in enkele games, totaal niks bijzonders. In die tijd kwam AMD met Mantle en kwam nVidia dus met een zogenaamde "wonderdriver" of te wel bullshit van de bovenste plank.

[ Voor 23% gewijzigd door -The_Mask- op 03-03-2016 19:11 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:25
De "wonderdriver" verbeterde de cpu overhead zeker wel, alleen gingen de reviewers weer op hoge resolutie testen met zwaar overclockte high end cpu's.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Bedoel je dit ?
http://www.anandtech.com/...-performance-improvements

Afbeeldingslocatie: http://images.anandtech.com/graphs/graph7926/62483.png

Goh, dat was de moeite.

Acties:
  • 0 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-06 18:05
sdk1985 schreef op donderdag 03 maart 2016 @ 13:46:
[...]

In ieder geval duidelijk waarom het 2,5 is dan :). Verder merkte ik inderdaad ook al op dat je ook geen 60 Hz G-Sync monitoren ziet. Met FreeSync straks dus wel.

Zijn die 120 Hz panelen nu echt zo lastig te produceren??? Een 120 Hz FreeSync panel lijkt me namelijk wel weer nuttig (anders ga je lopen swappen tussen 120 en 60 fps met V-sync aan, of heb je weer wat tearing met adaptive v-sync).
Nee, helemaal niet. Ze verkopen alleen een stuk minder dan je denkt; althans niet aan de prijzen waar je ze veelal aan ziet met G-Sync - en dan heb ik het nog over TN, die allemaal boven de €400 zitten, met de Asus PG278Q als uitschieter tussen de €650 en €700. Dat is toch echt een factor 3 tot 4 te veel voor een TN paneeltje.

Ik denk dat hun "2.5x" trouwens vanuit het "meervoud van 24Hz" verhaal komt. Dat is al lang niet meer waar. Hoewel bepaalde cijfers er wel op gericht zijn voor marketing redenen, is het geen limiterende factor voor de productie van de panelen :P

Ik vraag me af hoe lang Nvidia nog stand gaat proberen te houden met hun paywall rond G-Sync. De paar partners die ze hebben zijn niet exclusief, die maken stuk voor stuk ook monitors met FreeSync ondersteuning (met uitzondering van Dell, die er wel mee bezig zijn, en "Philips"... :+ ). Aan de Adaptive Sync/FreeSync kant van het verhaal ziet het er een stuk rooskleuriger uit, daar zijn een hele reeks fabrikanten die wel AS implementeren, maar hun centen niet richting Nvidia sturen. Samsung, LG, Eizo, Viewsonic zijn allemaal aan die kant van het hek gaan staan; met ASUS, ACER, AOC en BenQ die van beide walletjes eten. Het wordt tijd dat ze de handdoek in de ring gooien en "G-Sync" gewoon AS-compatible gaan maken.
sdk1985 schreef op donderdag 03 maart 2016 @ 16:40:
Altijd leuk om een video te kijken van iemand met een flink gekleurde bril.
Bekijk z'n vorige video even, daar hakt hij ook gewoon op AMD in hoor :)


@ Rest van de thread:

Wat betreft het DX12 verhaal heeft hij gewoon gelijk. Nvidia kan het gat pas dichten met Pascal. Ze kunnen klooien met HyperQ wat ze willen, feit blijft dat ze nooit zo efficiënt kunnen worden als AMD. Nvidia moet een hele SMM aansturen, dus zelfs in het meest optimale geval (GM200) kunnen ze 1/22e van hun GPU aansturen..dus effectief ook hooguit 22 queues. Met betere preemption in HyperQ kan dat wel enigzins opgevangen worden, maar die 32 queues die ze claimen zal alleen effectief werken in hele specifieke situaties waar de preemption 100% accuraat is. Ter vergelijking, AMD kan in Fiji ook daadwerkelijk alle 64 queues apart verwerken. Even los van de latency die HyperQ met zich mee brengt, het feit dat geometry engines bij AMD los van shader clusters staan of dat de schedulers realtime weten wat er gaande is en context switches dus hooguit een paar cycles kosten.

Het zou inderdaad wel prettig zijn als AMD hun DX11 driver alsnog op orde kreeg, al is het maar om alle huidige games lekkerder te laten lopen. Er zit nog zo veel kracht in Fiji die niet naar buiten komt vanwege hun brakke DX11 driver :(

Niet dat AMD alles op kan lossen, DX11 is gewoon een brakke API, maar het kan vast nog wel beter.


Edit: zie nu deze post, hier moet ik even op reageren :P
sdk1985 schreef op donderdag 03 maart 2016 @ 17:36:
DX10 was eigenlijk vergelijkbaar met wat DX12 nu is. Je had er een ander OS voor nodig (toen Vista, nu Win10) omdat er flink veel dingen anders waren. Tesselation kwam ook met DX10: http://developer.download.../Inst_Tess_Compatible.pdf.
Nope.

Die paper gaat over het emuleren van tessellation via geometry shaders (die wel nieuw waren in D3D10). Het zou eerst wel in D3D10 komen, maar is geschrapt omdat Nvidia de hardware er niet voor had en men D3D11 al grotendeels klaar had. D3D10 is de eerste versie waar men met feature levels kwam, ter vervanging van cap bits; met andere woorden, D3D10 stelde een minimum aan hardware vereisten. MS stond toen niet toe dat Nvidia het via hun geometry shaders implementeerde, dus werd het in z'n geheel geschrapt omdat Nvidia anders pas ruim twee jaar later de hardware klaar zou hebben (uiteindelijk bleek dat 2,5 jaar te zijn ;)). Dat kon MS natuurlijk niet hebben, slecht voor de marketing, want DX10 en Vista zouden voor de rest wel een succes worden :P

De vergelijking met D3D10 gaat verder ook niet op. Het grote probleem dat D3D10 had was de hardware grens. Geometry shaders waren zoals gezegd verplicht en dat had geen van beide fabrikanten op dat moment in hun portfolio. Tegelijkertijd bood de API verder eigenlijk niet veel boeiende dingen. Geometry shaders waren niet interessant genoeg, dus adoptie was ook heel traag. D3D11 had dat probleem niet omdat die juist wél een hoop nieuws bracht; tessellation is juist een van de minst boeiende dingen. Daar wilden developers graag gebruik van maken en door de flop van D3D10 was er een hele grote groep in de markt die een upgrade hadden overgeslagen.

D3D11 heeft in zeker zin gewoon geprofiteerd van de flop van 10; zowel de consument als de developers wilden naar D3D11.

D3D12 is ook weer gunstig getimed. Het komt precies in een periode waar men veel aandacht besteed aan hoe bagger 11 draait, hoe veel efficiënter consoles zijn dankzij de betere API en ook weer een periode waar toch vrij veel mensen heel weinig geupgrade hebben. Er zijn echt idioot veel mensen die nog op een Kepler of Tahiti zitten, gekoppeld aan een Sandy Bridge (!). Marketing technisch vallen D3D12, Polaris en Pascal echt perfect in de markt :P

[ Voor 27% gewijzigd door Werelds op 03-03-2016 20:10 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:52
Jeetje waarom zo pessimistisch over DX10. Dat hele "het is nu vereist, vroeger mocht alles" werd juist ontvangen als de heilige graal en de weg naar de toekomst.

Laat ik het even opnieuw proberen. Het hele DX12 verhaal is voorlopig een non-issue. Waarom is het een non-issue? Omdat, 8 maanden na Windows 10, de eerste game is pas net uit is (die opvallend genoeg totaal niet op AMD hardware draait). Er zijn voorlopig veel te weinig DX12 titels. Het is überhaupt heel gevaarlijk conclusies te trekken op basis van één game. Daarnaast geeft Nvidia aan dat Async compute nog niet driver enabled is. Ze zouden dus het gat nog wat kunnen dichten.

Maar goed, tegen de tijd dat er een redelijke selectie aan DX12 titels beschikbaar is zitten we minstens op Polaris en Pascal. Voordat DX12 echt mainstream wordt zitten we hoogt waarschijnlijk al weer een generatie verder (en dan doel ik niet op een refresh). Immers slechts 34% van de Steam userbase zit momenteel op Win10! Dat kan nog wel 3 jaar duren...

Hierdoor worden alle uitspraken met betrekking tot DX12 op huidige harware redelijk onzinnig. Het zit het er namelijk dik in dat de games die binnenkort DirectX12 gebruiken in het extreme specturm zitten qua benodigde performance. Dat zie je nu al bij Ashes of Singularity waar een GTX 970 niet eens de 60 fps haalt op 1920x1080. Dan kun je zeggen het is een RTS, maar een RTS fanaat speelt ook graag op 60 fps. Ook in het verleden hebben we dat gezien (Crysis en Just Cause 2 hebben nooit lekker gedraaid op de hardware die toen beschikbaar was, World in Conflict was nog net te doen).

Laten we hopen dat we gewoon een flinke performance boost gaan zien bij zowel AMD als Nvidia en dat we met die kaarten wel deze games op 60 fps op full hd kunnen spelen.

Als ik CEO van Nvidia was dan zou ik voorlopig weinig aandacht aan DX12 schenken en doorpakken met de volgende generatie. De huidige userbase heeft immers al een aankoop gedaan. Daar valt niets meer te winnen! Hoe groter het verschil wordt des te groter de kans dat je een nieuwe gpu aanschaft. Pascal kan juist een mooie reden zijn om voor de GTX 970 bezitters meteen weer te upgraden. Zeker als blijkt dat de nieuwe generatie relatief beter presteert.

Dan komen we bij mijn originele punt; als het inderdaad zo is dat AMD nu over superieure hardware beschikt (bij gelijk prijsniveau) dan is het NU nuttig om daar actie op te ondernemen. Niet alleen duurt het nog maanden voor de volgende generatie uit komt. Belangrijker is dat de komende 2-3 jaar vrijwel elke game gewoon DX11 blijft. Al zou elke nieuwe titel DX12 worden dan nog duurt het een tijd voor we van de oudjes afkomen (denk aan mateloos populaire games als Dota2,CS:GO en Civilization V ).

Vandaar dat AMD wat mij betreft nu moet haasten met het inhalen van DX11 performance en Nvidia gewoon kan wachten tot de volgende generatie om iets met DX12 te doen.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53
sdk1985 schreef op donderdag 03 maart 2016 @ 20:54:
[...]

Vandaar dat AMD wat mij betreft nu moet haasten met het inhalen van DX11 performance en Nvidia gewoon kan wachten tot de volgende generatie om iets met DX12 te doen.
Zijn ze mee bezig! Uit de AMA met AMD_Robert: https://www.linkedin.com/...rk=jserp_job_details_text

Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Hoe bedoel je inhalen DX11 performance?

Even kijkend naar zelfde prijsklasse, met http://www.techpowerup.co...GTX_980_Ti_Matrix/23.html als bron, vanwege 16.1, en vooral kijkende naar ouderwets fullHD

De GTX950 is zo'n 10% snelelr dan een R7 370, echter, er zitten heel wat 370's tussen de 140 en 150 euro, terwijl je pas veel GTX950's ziet bij 160+ Natuurlijk, "maar" 20 euro verschil, maar dat is in dit budget gewoon 10+% van de prijs. Prijs/performance van die kaarten is dus nagenoeg gelijk, maar neigt naar AMD. Verbruik is ook in-game nagenoeg hetzelfde.

Een klasse hoger, GTX960 vs R9 380, kosten evenveel, en presteren ook gelijk. Wel is de performance/watt van een GTX960 een stuk beter, maar houdt in het achterhoofd dat de GTX960 net als de GTX660ti, GTX760 en GTX770 minder geheugenbandbreedte heeft dan de AMD kaart, en al die kaarten lopen nu wel achter op hun AMD concurrenten, terwijl ze bij launch vaak wat sneller waren.

De GTX970 en R9 390 zijn de volgende prijsklasse, en ook die zijn gewoon aan elkaar gewaagd, wel is de 390 natuurlijk erg dorstig, zeker vergeleken met de GTX970.

De 390x en de GTX980 zijn een vreemde, niet populaire klasse. De 390x zit zo'n 10% onder de performance van de GTX980, maar is wel een slordige 20% goedkoper. Wel is het verbruik van een 390x gewoon niet best meer.

Eigenlijk komt de GTX980 daardoor in dezelfde klasse als de Fury, die wat sneller is dan de 980 op fullHD, en uitloopt op hogere resoluties. Wel is de Fury weer wat onzuiniger dan een 980, maar het verschil is veel kleiner dan vergeleken met de 390 en 390x.

De topklasse is natuurlijk de GTX980ti versus de FuryX, al kan een 980ti duurder zijn, Op fullHD is de Ti zo 10% sneller, maar op 1440p gaan ze gelijk op. Verschil in verbruik is net als tussen de 980 en Fury niet erg groot, maar natuurlijk is Nvidia weer zuiniger.

AMD haalt gewoon telkens even goede performance in de prijsklasse, maar verliest het telkens in watt/performance. Soms enorm, zoals bij de R9 390 en GTX970, maar bij nieuwere kaarten is het verschil al veel kleiner.

Natuurlijk, meer DX11 performance is altijd welkom, en dat zal de watt/performance zeker verbeteren, en dat is zeker bij de 390 echt nodig, maar AMD is echt niet totaal gedoemd in DX11

People as things, that’s where it starts.


Acties:
  • +5 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-06 18:05
sdk1985 schreef op donderdag 03 maart 2016 @ 20:54:
Jeetje waarom zo pessimistisch over DX10. Dat hele "het is nu vereist, vroeger mocht alles" werd juist ontvangen als de heilige graal en de weg naar de toekomst.
Oh dat zeg ik ook niet, de feature levels waren zeker een verbetering over de cap bits. Neemt niet weg dat D3D10 voor de rest gewoon bar weinig had, zeker als je het vergelijkt met 11 (of 9 t.o.v. 8 toen dat uitkwam). Dat is waarom devs er niet aan gingen, terwijl ze wel heel snel op D3D11 hapten. Wat wil je ook, als D3D11 multithreaded rendering, compute shaders, betere texture compressie, tessellation enzovoort heeft; en een deel hiervan werkte gewoon op 9.0/10.0 class kaarten, in tegenstelling tot bij 10.0, waar niets werkte op 9.0 kaarten ;)
Omdat, 8 maanden na Windows 10, de eerste game is pas net uit is (die opvallend genoeg totaal niet op AMD hardware draait).
Heb je het over GeoW?

Prachtig hoe dat broodje aap verhaal in het rond vliegt, iedereen laat het klinken alsof het alleen op AMD ruk draait. Het draait net zo ruk op Nvidia. Sterker nog, een 970 draait soepeler dan een 980 Ti (net zoals een 290X zich blijkbaar ineens met een Fury X kan meten); alleen heb je dan iets meer texture pop-in. Dat is wel beter te behapstukken dan de framedrops op een 980 Ti.

GeoW is ontzettend slecht gebouwd en veel van D3D12 gebruikt het niet. En dat het zo slecht draait ligt niet aan AMD en ook niet aan Nvidia ;)
Daarnaast geeft Nvidia aan dat Async compute nog niet driver enabled is. Ze zouden dus het gat nog wat kunnen dichten.
Ze kunnen er bij Nvidia wel wat van qua software, maar ik betwijfel of ze het helemaal kunnen af vangen. Want wat ze bedoelen is dat ze hun AC implementatie nog niet genoeg getweaked hebben; vergeet niet dat AMD hun AC scheduling in hardware doet, Nvidia moet het in de driver doen omdat ze de hardware simpelweg niet hebben.
RobinHood schreef op donderdag 03 maart 2016 @ 21:25:
AMD haalt gewoon telkens even goede performance in de prijsklasse, maar verliest het telkens in watt/performance. Soms enorm, zoals bij de R9 390 en GTX970, maar bij nieuwere kaarten is het verschil al veel kleiner.

Natuurlijk, meer DX11 performance is altijd welkom, en dat zal de watt/performance zeker verbeteren, en dat is zeker bij de 390 echt nodig, maar AMD is echt niet totaal gedoemd in DX11
Frametimes zijn bij Nvidia nog steeds stabieler. En met name Fiji wordt waarschijnlijk maar voor 75% benut met al die driver overhead van ze ;)


Muurtje over Async Compute voor de liefhebber, want ik heb nog niet in zo veel woorden dit verhaal uitgelegd gezien hier onder ons Tweakers (we hebben alleen naar verschillende posts gelinked) :p

Floor plans voor het onderstaande:
- GM200-400: http://images.anandtech.c...X_Block_Diagram_FINAL.png
- Fiji XT: http://images.anandtech.com/doci/9390/FijiBlockDiagram.png

AMD heeft in GCN zogenaamde ACE's: Asynchronous Compute Engine. Deze staan buiten de shader clusters (CU's) en hebben elk 8 queues voor opdrachten (in het geval van Hawaii en Fiji heb je dus 64 queues verdeeld over 8 ACE's). Naast deze ACE's is er ook een graphics command queue. Deze ACE's zijn verantwoordelijk voor het verdelen van non-render opdrachten richting de CU's en Geometry Engines (die overigens óók buiten de CU's zitten en dus los aangestuurd kunnen worden). Elke ACE kan eender welke CU of GE aansturen: in het geval van Fiji betekent dat elk van de 64 queues in theorie iets kan doen met 1 van de 64 CU's of 1 van de 4 GE's. Elke CU heeft z'n eigen cache en bestaat uit 64 Shader Processor (4096 totaal dus).

Nvidia heeft dat niet. Punt. Nvidia heeft namelijk besloten dit in software af te vangen met HyperQ. Op papier is HyperQ gewoon een hele dikke ACE met 32 queues (in het geval van GM204 en GM200 in elk geval :P). Hier heb je echter al hint/probleem #1: dit gebeurt in software, op de CPU en dus zit er extra latency omdat de driver moet wachten op de GPU alvoor hij iets doet. Want omdat Nvidia geen aparte scheduler in hardware heeft, stuurt HyperQ de SMMs (vrijwel) direct aan (niet helemaal direct natuurlijk, maar het zit er zo dicht bij als mogelijk is met de hardware). Een SMM is hier een shader cluster. Nu gaan we richting probleem nummer twee en ik zal hier op GM200-400 (Titan Z) focussen, omdat deze nog het krachtigste is (en omdat dat overeen komt met Fiji hierboven :P). Een SMM bestaat uit een Polymorph Engine (hun tegenhanger van een GE) en 128 SP's; GM200 heeft er 24, dus daar heb je die 3072 SP's in totaal. Dat is ook meteen het probleem: de hele chip kan dus maar per 1/24e aangestuurd worden. En je raakt niet alleen 1/24e van de shaders kwijt, maar ook een hele PE. Binnen die SMM zit dan ook nog eens aan vierdeling, waar TMU's gedeeld worden tussen de partities en SMMs moeten ook een deel van het cache geheugen delen...enfin, efficiënt is anders.

Waarom? Dit is nu dat context switch verhaal. Een CU of SMM moet zich aan andere regels houden afhankelijk van of het render taken of compute taken zijn. Denk aan bijvoorbeeld geheugen toegang. Nvidia moet dus telkens 1/24e van hun GPU context laten switchen voordat ze die aan kunnen sturen; bij AMD is dat slechts 1/64e. Erger nog, Nvidia moet wáchten tot dit gebeurd is voordat HyperQ daadwerkelijk shit kan sturen, terwijl een ACE acuut "weet" wanneer dat gebeurd is. Dit lossen ze op met "preemption" - ofwel de toekomst voorspellen. Door slim queues te groeperen en min of meer te voorspellen wanneer ze resources vrij hebben, kunnen ze de latency zo min mogelijk houden. Maar die latency is er en blijft er.

Vergeet niet dat ik het nu over GM200-400 heb; op een 980 Ti heb je het al over 1/22e, GM204 zakt naar 1/16e en het blijft maar zakken. GK104 is in verhouding nog relatief flexibel met 1/8e, maar die chip heeft andere beperkingen :P

En om je een idee te geven wat "compute" betekent voor een GPU: een copy operation valt al onder compute. Texture asynchroon laden? Hoppa, 1/24e van je shaders kwijt - en nog veel erger, die 128 zijn er in verhouding veel te veel. Geometry werk te doen? Cluster kwijt; AMD doet dat los van de clusters.


Dit is wat ik bedoel als ik zeg dat GCN een bijzonder indrukwekkende en flexibele architectuur is - het zit allemaal gewoon heel elegant in elkaar. Is wat Nvidia doet nou zo slecht dan? Nee, want met hun aanpak kunnen ze seriële workloads (DX11) juist heel makkelijk plannen en verwerken, terwijl AMD daar iets meer werk voor moet verzetten. Feit is ook dat Nvidia het dus kan verprutsen in de DX12 driver, terwijl AMD zich daar met DX12 juist geen zorgen over hoeft te maken (momenteel). Sterker nog, het preemption verhaal is waar ze nu mee bezig zijn bij Nvidia en dat zullen ze waarschijnlijk op de <DX12 manier op aan het lossen zijn: per game bepalen wat wanneer en waar geplanned wordt. AMD en Nvidia hebben nu in hun drivers talloze hacks om maar te zorgen dat bepaalde games lekker lopen.

Sommige dingen hierboven zijn uiteraard iets te kort door de bocht (Nvidia's driver stuurt helemaal niet 100% direct de SMM's aan en AMD's ACE's kunnen natuurlijk niet zomaar een CU claimen :P), maar het laat wel heel duidelijk zien waar de verschillen vandaan komen. Nvidia's pipeline is gewoon heel geschikt voor een bruteforce aanpak in DX11, terwijl AMD voor DX12 juist geen reet hoeft te doen. Verschil is echter dat AMD hun DX11 wél kan oplossen, maar andersom zijn de mogelijkheden erg beperkt.


EDIT: dit is trouwens uiteraard slechts hoe ik en wat anderen de informatie van AMD, Nvidia en verschillende gasten op Beyond3D begrijpen. Kan best dat we volledig fout zitten :p

[ Voor 14% gewijzigd door Werelds op 04-03-2016 01:22 ]


Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Frametimes merk ik zelf weinig van, Maar ik merk ook weinig verschil tussen een flicker-free 60hz paneel en een 120/144hz paneel.

AMD heeft idd [te] veel overhead in DX11, dat weet ik en ga ik niet ontkennen, maar het ging mij meer om het feit dat AMD nu al gewoon goede performance haalt in DX11.

Stel ze weten die overhead inderdaad te verlagen, dan wordt het natuurlijk nog leuker :*)

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:52
Zowel bij de "nu" en "al" gaat het mis gezien de DX12 benchmarks waarbij AMD ineens extra uit loopt.

Misschien is AMD vaak net iets te vroeg bezig met de toekomst (Mantle, HBM1, nu blijkbaar DX12) terwijl Nvidia vervolgens de markt overneemt.

Nog even over DX10: Er zijn nog meer analogen met DX12 naast dat je er een nieuw OS met een nieuw WDDM (Window Display Driver Model) voor nodig hebt. Onder de eerste toppers zat een RTS :+ (1m43):
[YouTube: https://www.youtube.com/watch?feature=player_detailpage&v=PtuDshl1Pgw#t=104]
Overigens is een deel van de extra's voor DX10 users natuurlijk overduidelijk een gimmick. Maar het was wel een ambitieuze rts. Na het spelen van de beta heb ik er een nieuw systeem voor aangeschaft.

Ging inderdaad over Gears of War. Natuurlijk is dat niet te gebruiken voor waardeoordelen over DX12. Net als dat Ashes of Singulairty in zijn ééntje ook geen goede voorspeller is (staat erbij Extremetech ook onder). Voorlopig is DX12 nog aan het floppen. Misschien dat we eind van deze maand 2 games hebben na 9 maanden. Ik heb verder nog geen geluiden gehoord van grote uitgevers die het omarmen. Als het goed is krijgt Battlefield 5 DX12 (frostbite bevestigd), dat zal helpen.

[ Voor 49% gewijzigd door sdk1985 op 04-03-2016 12:45 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Anoniem: 59888

sdk1985 schreef op vrijdag 04 maart 2016 @ 12:28:
Zowel bij de "nu" en "al" gaat het mis gezien de DX12 benchmarks waarbij AMD ineens extra uit loopt.

Misschien is AMD vaak net iets te vroeg bezig met de toekomst (Mantle, HBM1, nu blijkbaar DX12) terwijl Nvidia vervolgens de markt overneemt.
Pffffft, ha, ha. :D Leuk bedacht, maar wat je even "vergeet" is dat Mantle zowel de aanleiding als de basis was van DX12 (AMD heeft Microsoft volledige toegang gegeven tot Mantle). Zonder Mantle geen DX12 (en geen Vulkan). AMD heeft door middel van Mantle de overgang naar bare-metal API's ingezet en zodoende de toekomst van PC gaming vormgegeven. Dat was niks te vroeg, developers klaagden al jaren over het gebrek aan ontwikkeling van DirectX.

En overnemen van de markt? Er zijn nauwelijks DX12 games, er is dus nauwelijks een markt voor Nvidia of AMD om "over te namen". Bare-metal API's zijn door de industrie omarmd en Nvidia heeft dus geen andere keuze dan dat te volgen. AMD heeft daarbij een voorsprong maar dat blijft natuurlijk niet eeuwig zo. De huidige generatie ondersteunt DX12 deels. De nieuwe generatie van beide zal DX12 ongetwijfeld volledig ondersteunen, we gaan zien welke van de twee z'n zaakjes het beste voor elkaar heeft. Ik ben benieuwd. :9

Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 05-06 13:24
Mirage schreef op donderdag 03 maart 2016 @ 09:26:
Hier een update van de ashes of singularity benchmark. Dit is gedaan met de laatst drivers van AMD en Nvidia.Ook testen ze een Multi GPU opstelling met een AMD en Nvidia GPU in 1 systeem.

http://www.legitreviews.c...chmarks-amd-nvidia_179551

Farcry primal benchmarks. Waar AMD kaarten niet onverdienstelijk uit komen.

http://techfrag.com/2016/...ormance-lead-over-nvidia/
Ik volg deze reviewer al een poosje op YT en laat vaak behoorlijk uitgebreide benchmarks zijn, waaronder die van FarCry Primal. Dit laat ook een achterstand zien voor geforce kaarten

YouTube: Far Cry Primal - GPU Benchmark (Current Generation AMD & Nvidia Graphics Cards)

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • 0 Henk 'm!

Anoniem: 64119

Belofte van Radeon eGPU via Thunderbolt doet blijkbaar het aandeel AMD stijgen:
http://seekingalpha.com/a...026-amd-sitting-gold-mine

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Ga er maar niet van uit dat AMD Thunderbolt (3.0) gaat gebruiken in hun plan, gezien dat een gesloten standaard van Intel is met licentie-voorwaarden (en kosten).

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:52
Anoniem: 59888 schreef op vrijdag 04 maart 2016 @ 17:39:
[...]

Pffffft, ha, ha. :D Leuk bedacht, maar wat je even "vergeet" is dat Mantle zowel de aanleiding als de basis was van DX12 (AMD heeft Microsoft volledige toegang gegeven tot Mantle). Zonder Mantle geen DX12 (en geen Vulkan). AMD heeft door middel van Mantle de overgang naar bare-metal API's ingezet en zodoende de toekomst van PC gaming vormgegeven. Dat was niks te vroeg, developers klaagden al jaren over het gebrek aan ontwikkeling van DirectX.

En overnemen van de markt? Er zijn nauwelijks DX12 games, er is dus nauwelijks een markt voor Nvidia of AMD om "over te namen". Bare-metal API's zijn door de industrie omarmd en Nvidia heeft dus geen andere keuze dan dat te volgen. AMD heeft daarbij een voorsprong maar dat blijft natuurlijk niet eeuwig zo. De huidige generatie ondersteunt DX12 deels. De nieuwe generatie van beide zal DX12 ongetwijfeld volledig ondersteunen, we gaan zien welke van de twee z'n zaakjes het beste voor elkaar heeft. Ik ben benieuwd. :9
Ik had het natuurlijk over de gpu markt. Daar heeft AMD heeft het gepresteerd om de (Ati) Radeon kaarten tot record laagte te laten zakken: 18% voor AMD en 82% voor Nvidia. http://wccftech.com/amd-regaining-gpu-market-share-nvidia/

Verder zijn we het blijkbaar eens, de DX12 markt stelt nog niet voor en dat zal ook voorlopig zo blijven.

Los daarvan is het natuurlijk nog steeds heel spannend in hoeverre Nvidia kan meekomen met AMD. Mocht AMD inderdaad een voorsprong hebben (zoals vaak geopperd dankzij Mantle en HBM) dan kunnen ze terugvechten. Gezien de extreme daling gedurende de huidige generatie was het huidige beleid nog steeds desastreus te noemen. Maar dan is er licht aan het einde van de tunnel.

Echter, als Nvidia de performance kan matchen, wat niet heel vergezocht is aangezien die momenteel zwemmen in het geld terwijl AMD het R&D budget blijft verlagen, dan wordt het een ander verhaal. Zonder superieur aanbod is het immers erg lastig om marktaandeel terug te winnen. Mocht dat gebeuren dan heeft Mantle alleen maar tijd en geld gekost en zal het de geschiedenisgaan als één van de grooste, bedrijfskundige, misstapen van AMD (de grootste is natuurlijk de aankoop van Ati waar bijna 2 miljard te veel voor is betaald).

Hoe triest het ook is, slechter dan de laatste paar jaar is het in ieder geval nog nooit gegaan in de decennia lange historie van Radeon... Laten we hopen dat Ati niet permanent is gesloopt door AMD en het weer kan floreren in de Radeon Technologies Group. Zoals ik al zei vindt ik dat AMD goede stappen heeft genomen met de splitsing naar RTG en de focus op drivers (Crimson). Toch verwacht ik dat alles zal afhangen van in welke mate Nvidia ligt te slapen.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Anoniem: 64119

dahakon schreef op vrijdag 04 maart 2016 @ 19:01:
Ga er maar niet van uit dat AMD Thunderbolt (3.0) gaat gebruiken in hun plan, gezien dat een gesloten standaard van Intel is met licentie-voorwaarden (en kosten).
Dus wanneer iemand om maar eens iets te noemen een usb stick maakt voor Thunderbolt dan moet daar voor betaald worden door de bouwer ? Lijkt me dat dit de acceptatie nogal in de weg staat......

Wanneer dat toch waar is en idd kostbaar dan sterft het een stille dood. Zal wel meevallen dus....

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Thunderbolt is al een stille dood gestorven. Hoeveel serieuze thunderbold apparaten zie je terug in het dagelijkse leven?

Check pricewatch op thunderbolt, dan krijg je 706 hits. Daarvan zijn al zo'n 525 hits laptops, computers, moederborden en controller-borden waar die poorten op zitten. Hou je minder dan 200 hits over, waar nog een stapeltje kabels tussen zit, wat monitoren en bijna 100 externe harde schijven. Ofwel, er is praktisch niets interessants te vinden op Thunderbolt gebied. Uitzondering zou misschien de externe harde schijf zijn, maar de goedkoopste (1TB) HDD (dus geen SSD) zit al op ~170 euro. Ter vergelijking, de goedkoopste externe HDD met eSATA kost maar 120 euro en is dan ook nog eens 2TB groot. Een 1TB USB 3.0 HDD zit op slechts 46 euro.

Acties:
  • 0 Henk 'm!

Anoniem: 64119

dahakon schreef op vrijdag 04 maart 2016 @ 19:35:
Thunderbolt is al een stille dood gestorven. Hoeveel serieuze thunderbold apparaten zie je terug in het dagelijkse leven?

Check pricewatch op thunderbolt, dan krijg je 706 hits. Daarvan zijn al zo'n 525 hits laptops, computers, moederborden en controller-borden waar die poorten op zitten. Hou je minder dan 200 hits over, waar nog een stapeltje kabels tussen zit, wat monitoren en bijna 100 externe harde schijven. Ofwel, er is praktisch niets interessants te vinden op Thunderbolt gebied. Uitzondering zou misschien de externe harde schijf zijn, maar de goedkoopste (1TB) HDD (dus geen SSD) zit al op ~170 euro. Ter vergelijking, de goedkoopste externe HDD met eSATA kost maar 120 euro en is dan ook nog eens 2TB groot. Een 1TB USB 3.0 HDD zit op slechts 46 euro.
Volgens het artikel zijn er wel 100 miljoen pc's met Thunderbolt, dus op zich potentieel genoeg....

""The user base also is large, with over 100 million thunderbolt-equipped computers sold so far.""

Die Thunderbolt aansluiting is dacht ik gewoon USB-C.
Wellicht dat AMD aan alleen die standaard voldoende heeft ?

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Welk format de poort heeft, maakt weinig uit. Tenzij ze met Thunderbolt 3.0 er van af zijn gestapt, heeft een device welke gebruik wil maken van Thunderbolt een stukje hardware nodig om via het protocol te kunnen communiceren.

Bovendien zijn van het oude type Thunderbolt misschien veel poorten in omloop (voor een heel groot deel op conto van Apple), maar als je een USB-C poort wilt gebruiken voor de externe GPU standaard, heb je daar dus weer niets aan. Ik denk dat het redelijk veilig is om te stellen dat AMD een open protocol gaat brengen die door een ieder te gebruiken is zonder licentiekosten. Wat voor een poort daar aan hangt blijft nog even de vraag, maar dat zou maar zo ook een USB-C poort kunnen zijn, maar dan niet de Thunderbolt versie denk ik.

Acties:
  • 0 Henk 'm!

Anoniem: 64119

dahakon schreef op vrijdag 04 maart 2016 @ 20:39:
Welk format de poort heeft, maakt weinig uit. Tenzij ze met Thunderbolt 3.0 er van af zijn gestapt, heeft een device welke gebruik wil maken van Thunderbolt een stukje hardware nodig om via het protocol te kunnen communiceren.

Bovendien zijn van het oude type Thunderbolt misschien veel poorten in omloop (voor een heel groot deel op conto van Apple), maar als je een USB-C poort wilt gebruiken voor de externe GPU standaard, heb je daar dus weer niets aan. Ik denk dat het redelijk veilig is om te stellen dat AMD een open protocol gaat brengen die door een ieder te gebruiken is zonder licentiekosten. Wat voor een poort daar aan hangt blijft nog even de vraag, maar dat zou maar zo ook een USB-C poort kunnen zijn, maar dan niet de Thunderbolt versie denk ik.
Ik doelde echter op de consctructie dat AMD Thunderbolt (als protocol) compleet links laat liggen en alleen gebruik maakt van de USB-C specificaties + eventueel een te verwachten hogere bandbreedte.

Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 18:10
Het was natuurlijk al bekend dat Hitman DX12 zou krijgen. Maar er is een kleine beetje meer info gegeven van het weekend.
Or, if you're having trouble reading the blurry text:
better multithreading
increased performance where CPU bound
better experiences for laptop gamers
asynchronous compute on AMD cards for significant performance gains
early days but we will continue expanding and improving on the Dx12 experience in future releases

Acties:
  • 0 Henk 'm!

Anoniem: 338569

Iemand al het undervoltage artiekel gelezen van toms hardware? Hier in kunnen R9 kaarten net zo zuining worden in performance per watt als Nvidia kaarten en kunnen de fans enorm stuk langzamer draaien. http://www.tomshardware.c...-radeon-r9-fury,4425.html
Het blijkt dat amd de kaarten prima kunnen werken op lagere voltages een must read voor gebruikers

Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 09:12

SG

SG surft naar info hardewaren

sdk1985 schreef op vrijdag 04 maart 2016 @ 12:28:
Zowel bij de "nu" en "al" gaat het mis gezien de DX12 benchmarks waarbij AMD ineens extra uit loopt.

Misschien is AMD vaak net iets te vroeg bezig met de toekomst (Mantle, HBM1, nu blijkbaar DX12) terwijl Nvidia vervolgens de markt overneemt.
Nou nee DX11 kreeg al SMP support. Maar ja op sequentieel legacy code bracht dat nada voordeel.
De API liepen zwaar achter.
De dev zien al mainstream met 4 cores met tot 8 cores en of HT in de mix.
Dus voor GFX bound games vragen Devs al langer beter multithreaded support voor de render API.
CPU under utilised. Dus geen wonder dat AMD met Dice Mantle push gezien hun hardware GCN daar al jaren klaar voor is. Maar de API achter blijft.
Vulkan voor minderheids exclusive platform niet zo relevant. De game industrie is meer afhankelijk wat MS doet met Direc3D en dat kwam pas op gang door AMD Dice mantle initiatief.
Nog even over DX10: Er zijn nog meer analogen met DX12 naast dat je er een nieuw OS met een nieuw WDDM (Window Display Driver Model) voor nodig hebt. Onder de eerste toppers zat een RTS :+ (1m43):
[video]
Overigens is een deel van de extra's voor DX10 users natuurlijk overduidelijk een gimmick. Maar het was wel een ambitieuze rts. Na het spelen van de beta heb ik er een nieuw systeem voor aangeschaft.

Ging inderdaad over Gears of War. Natuurlijk is dat niet te gebruiken voor waardeoordelen over DX12. Net als dat Ashes of Singulairty in zijn ééntje ook geen goede voorspeller is (staat erbij Extremetech ook onder). Voorlopig is DX12 nog aan het floppen.
Bij definitie van flop is dat het over en uit is. Voor mij geld dat voor GLIDE.
Dat is roepen dat atleet verliest als die net begint aan de race.
We zitten in DX12 fase wat gelijk staat als voorgloeien van oude diesel motor in de winter.
Misschien dat we eind van deze maand 2 games hebben na 9 maanden. Ik heb verder nog geen geluiden gehoord van grote uitgevers die het omarmen. Als het goed is krijgt Battlefield 5 DX12 .url. , dat zal helpen.
GOW: UE is sowie so een frankenstein disaster. Het is de ouwe EU3 engine met GOW code base met DX12 slapped on. Wat je dan kan verwachten dat de game authenthiek GOW kan zijn. Maar engine kwa architectuur slecht aansluit op de moderne API die uiteraard raar kan reageren op moderne GPU.
Daarnaast of deze game wel drawcall gelimiteerd kan zijn.

BF5 frostbyte is al Mantle engine dus de port naar dX12 is meer perfect fit. Mogelijk nog optimaler. Engine evolueren ook. En dus de tweede iteratie van een oplevering van down to metal API engine.Het zijn ook grafisch en physics zwaare games dan die corridor FPS.
Ook een game waar nVidia geen kans maakt op naaien van AMD.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:52
Een flop is een synoniem voor een mislukking. Dus "Voorlopig is DX12 nog aan het floppen." = "Voorlopig is DX12 nog aan het mislukken."

Overigens komt er ook nog een nieuwe mass effect aan (ook frostbite). Dus wie weet hebben we het eind van het jaar twee grote DX12 titels. Heeft dan wel meer dan een jaar geduurd (Win10 was iets van Juni 2015).

[ Voor 9% gewijzigd door sdk1985 op 06-03-2016 18:25 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:08
sdk1985 schreef op zondag 06 maart 2016 @ 18:25:
Een flop is een synoniem voor een mislukking. Dus "Voorlopig is DX12 nog aan het floppen." = "Voorlopig is DX12 nog aan het mislukken."

Overigens komt er ook nog een nieuwe mass effect aan (ook frostbite). Dus wie weet hebben we het eind van het jaar twee grote DX12 titels. Heeft dan wel meer dan een jaar geduurd (Win10 was iets van Juni 2015).
Helaas komt ME4 pas in 2017 volgens het nieuws.

AoTS vind ik geen flop tot nu toe. Gears of War is inderdaad een grote met en zoals jij al mooi quote met DX12 en Gimpworks HBO+ slapped on.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Vanwaar de paniek m.b.t. DX12? nVidia zegt dat het allemaal wel goedkomt vanuit hun kant:

" This title is in an early Alpha stage according to the creator. It’s hard to say what is going on with alpha software. It is still being finished and optimized. It still has bugs, such as the one that Oxide found where there is an issue on their side which negatively effects DX12 performance when MSAA is used. They are hoping to have a fix on their side shortly.

We think the game looks intriguing, but an alpha benchmark has limited usefulness. It will tell you how your system runs a series of preselected scenes from the alpha version of Ashes of Singularity. We do not believe it is a good indicator of overall DirectX 12 gaming performance.

We’ve worked closely with Microsoft for years on DirectX 12 and have powered every major DirectX 12 public demo they have shown. We have the upmost confidence in DX12, our DX12 drivers and our architecture’s ability to perform in DX12.

When accurate DX12 metrics arrive, the story will be the same as it was for DX11.
"

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Woot. Stop de persen. Die reactie had ik niet verwacht van nVidia..... :+

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
DirectX 12 is out, let’s review

Anders is er nog dit blog, waarin haarfijn de situatie wordt uitgelegd ;)

[ Voor 3% gewijzigd door madmaxnl op 06-03-2016 22:22 ]


Acties:
  • +1 Henk 'm!
-O- scali -O- die is al twee maal verbannen van Tweakers voor zijn BS en ook op bijna elk ander groot forum.

[ Voor 20% gewijzigd door -The_Mask- op 06-03-2016 22:31 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 298195

madmaxnl schreef op zondag 06 maart 2016 @ 19:52:
Vanwaar de paniek m.b.t. DX12? nVidia zegt dat het allemaal wel goedkomt vanuit hun kant:

" This title is in an early Alpha stage according to the creator. It’s hard to say what is going on with alpha software. It is still being finished and optimized. It still has bugs, such as the one that Oxide found where there is an issue on their side which negatively effects DX12 performance when MSAA is used. They are hoping to have a fix on their side shortly.

We think the game looks intriguing, but an alpha benchmark has limited usefulness. It will tell you how your system runs a series of preselected scenes from the alpha version of Ashes of Singularity. We do not believe it is a good indicator of overall DirectX 12 gaming performance.

We’ve worked closely with Microsoft for years on DirectX 12 and have powered every major DirectX 12 public demo they have shown. We have the upmost confidence in DX12, our DX12 drivers and our architecture’s ability to perform in DX12.

When accurate DX12 metrics arrive, the story will be the same as it was for DX11.
"
Laat ze maar de Async functionaliteit aanzetten in de drivers dan, waarom zo lang wachten hiermee ?

Acties:
  • +1 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Omdat ze het niet goed werkend krijgen omdat ze er geen hardwarematige ondersteuning voor hebben.

Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-06 18:05
madmaxnl schreef op zondag 06 maart 2016 @ 19:52:
We’ve worked closely with Microsoft for years on DirectX 12 and have powered every major DirectX 12 public demo they have shown. We have the upmost confidence in DX12, our DX12 drivers and our architecture’s ability to perform in DX12.
Oh ja Nvidia? De Fable demo's draaiden toch echt op AMD hardware hoor. Ze bedoelen vast die statische tech demo van Square Enix, waar ze maar liefst 4 Titans gebruikten? :+

Acties:
  • +1 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

Nvidia en liegen? Nee joh, doen ze nooit.

People as things, that’s where it starts.


Acties:
  • 0 Henk 'm!

Anoniem: 59888

Zoals al veel vaker betoogd, een nieuwe DirectX versie is niet iets dat je zomaar even implementeert, en de overgang naar bare-metal is ook niet bepaald een van de kleinste veranderingen. Nieuwe DX versies hadden in het verleden vaak lang nodig voor ze echt gebruikt werden, dat is nu niet anders. Het heeft gewoon tijd nodig. Als je dat een mislukking noemt weet je echt niet waar je het over hebt.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Vrijwel altijd waren nieuwe DX versies zwaarder dan hun voorganger. Ergo qua performance ging je erop achteruit, maar de IQ nam natuurlijk toe. Deze keer levert de nieuwe DX versie aanzienlijk meer performance. Er is dus geen reden voor developers om het niet te gebruiken, voorheen was de doelgroep die gebruik kon maken van de nieuwe DX features, ondanks compatibel hardware, heel erg klein. De FPS die je dan haalde was niet om over naar huis te schrijven dus i.p.v. DX10 gebruikte je DX9 met je DX10 kaart.

[ Voor 12% gewijzigd door madmaxnl op 07-03-2016 02:59 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:08
In de RTG AMA
[–]hyperelastic 4 points 3 days ago
What's the status of frame-doubling/tripling on Freesync below the monitors lower-threshold?? This isn't mentioned much but seems absolutely critical and the only way in which Freesync could be considered behind GSync. Also, will it come to all cards that support Freesync, or are there other hardware limitations? Thanks!
permalink
[–]AMD_RobertTechnical Marketing 5 points 3 days ago
This feature was added in Radeon Software. Any FreeSync-enabled GPU can use it, provided the monitor has the range to activate it. The monitors that have the appropriate DRR range are listed on amd.com/freesync.
Leuk voor de mensen die het willen maar onder de 40fps wil je toch niet komen :P.

Overigens wat betreft DX12 en Gimpworks en shader injection, deze vraag zal nog worden beantwoord:
https://www.reddit.com/r/...happening_here_on/d0k9uxu

Acties:
  • 0 Henk 'm!

Anoniem: 64119

Sp3ci3s8472 schreef op maandag 07 maart 2016 @ 13:06:
In de RTG AMA
[...]
Leuk voor de mensen die het willen maar onder de 40fps wil je toch niet komen :P.

Overigens wat betreft DX12 en Gimpworks en shader injection, deze vraag zal nog worden beantwoord:
https://www.reddit.com/r/...happening_here_on/d0k9uxu
Volgens sommigen hier zijn sub 40 FPS Gamers een belangrijke doelgroep voor o.a. Paysync en Freesync.
Volgens mij dus niet. In die range wil je echt niet komen idd. :F

Acties:
  • +1 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:25
gimpworks en paysync, misschien moeten we dit voortaan het anti nvidia topic noemen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 05-06 13:24
haarbal schreef op maandag 07 maart 2016 @ 13:49:
gimpworks en paysync, misschien moeten we dit voortaan het anti nvidia topic noemen.
Wat had je verwacht, dat die 2 "technologien" subtiel behandeld worden? Genoeg reden om nvidea er voor te *haten*

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • 0 Henk 'm!

Anoniem: 64119

haarbal schreef op maandag 07 maart 2016 @ 13:49:
gimpworks en paysync, misschien moeten we dit voortaan het anti nvidia topic noemen.
Nee joh, ik haat nvidia helemaal niet, dan had ik het wel N-Sync genoemd: _O-
Wikipedia: NSYNC

Paysync is gewoon vrij vertaald naar waar het voor staat.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:08
haarbal schreef op maandag 07 maart 2016 @ 13:49:
gimpworks en paysync, misschien moeten we dit voortaan het anti nvidia topic noemen.
Als zelfs mensen met Nvidia kaarten het GimpWorks noemen dan kan ik moeilijk achterblijven :+.
Het is hier ook niet het Pro Nvidia topic dus een grap moet kunnen, zelf zie ik liever geen titels meer uitkomen met GameWorks maar het is nu eenmaal zo.

De discussie is al veel vaker gevoerd, ik noem het vooral GimpWorks omdat het mijn mening is dat het slecht voor de game industrie is, niet persé omdat Nvidia het heeft gemaakt (niet dat ik een Nvidia fan ben...). Als Intel met GimpWorks was gekomen dan had ik het hoogstwaarschijnlijk nog steeds zo genoemd.

N-Sync vind ik wel een mooie :P.

Acties:
  • 0 Henk 'm!

Anoniem: 64119

Sp3ci3s8472 schreef op maandag 07 maart 2016 @ 14:19:
[...]
N-Sync vind ik wel een mooie :P.
Nvidia had gewoon de pech dat de naam N-sync al was gereserveerd door de band van timberlake/scali/chasez/fatone/kirkpatrick/bass. In my defense: ik moest de bandleden even opzoeken in het linkje........ O-)

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Sp3ci3s8472 schreef op maandag 07 maart 2016 @ 14:19:
[...]


Als zelfs mensen met Nvidia kaarten het GimpWorks noemen dan kan ik moeilijk achterblijven :+.
Het is hier ook niet het Pro Nvidia topic dus een grap moet kunnen, zelf zie ik liever geen titels meer uitkomen met GameWorks maar het is nu eenmaal zo.

De discussie is al veel vaker gevoerd, ik noem het vooral GimpWorks omdat het mijn mening is dat het slecht voor de game industrie is, niet persé omdat Nvidia het heeft gemaakt (niet dat ik een Nvidia fan ben...). Als Intel met GimpWorks was gekomen dan had ik het hoogstwaarschijnlijk nog steeds zo genoemd.
Alhoewel ik er wel om kon lachen en het er niet mee oneens ben, m.n. op het punt van Gameworks, denk ik wel dat het topic er niet beter van wordt als dit soort termen hier steeds gebruikt zouden gaan worden.

Laten we het zakelijk houden. :)

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
madmaxnl schreef op zondag 06 maart 2016 @ 22:21:
DirectX 12 is out, let’s review

Anders is er nog dit blog, waarin haarfijn de situatie wordt uitgelegd ;)
Had je niet even een disclaimer kunnen plaatsen, of een groot waarschuwingsteken, dat het om Scali's blog ging?

Volgens mij heeft AMD indertijd zijn ego gigantisch veel pijn gedaan, door hem niet op te nemen in het selecte clubje van gelukkigen die als eersten met Mantle mochten werken. Zoveel werd wel duidelijk in de discussie die ik had op het S|A forum. Het lijkt hem maar niet los te kunnen laten dat hij toen zo gemakkelijk opzij geschoven was als ontwikkelaar.

Acties:
  • 0 Henk 'm!

  • TNJ
  • Registratie: Juni 2009
  • Laatst online: 27-05 17:32

TNJ

Frugalite

Anoniem: 64119 schreef op maandag 07 maart 2016 @ 13:47:
[...]

Volgens sommigen hier zijn sub 40 FPS Gamers een belangrijke doelgroep voor o.a. Paysync en Freesync.
Volgens mij dus niet. In die range wil je echt niet komen idd. :F
Ik heb nog geen freesync monitoren, maar met 3 schermen en spellen die je gemiddeld op 30-50fps laat lopen, zijn er altijd wel momenten dat er een dip onder de 24 tussen kan zitten. Dan is het fijn om deze functie te hebben. Arma3, of pCARS op Le Mans of Nurburgring, deze hebben dit soort dipjes.

Acties:
  • 0 Henk 'm!

Anoniem: 64119

TNJ schreef op maandag 07 maart 2016 @ 18:02:
[...]
Ik heb nog geen freesync monitoren, maar met 3 schermen en spellen die je gemiddeld op 30-50fps laat lopen, zijn er altijd wel momenten dat er een dip onder de 24 tussen kan zitten. Dan is het fijn om deze functie te hebben. Arma3, of pCARS op Le Mans of Nurburgring, deze hebben dit soort dipjes.
De echte vraag is dan of een Game nog wel speelbaar is onder de 25 FPS ?
Online MP Gaming kun je dan meestal gewoon beter stoppen.
(tenzij je zo goed bent dat je juist op zoek gaat naar een nieuwe extreme uitdaging....)
Wellicht dat het nog net te verteren is in Single mode, non-networked.

Acties:
  • 0 Henk 'm!

  • TNJ
  • Registratie: Juni 2009
  • Laatst online: 27-05 17:32

TNJ

Frugalite

Anoniem: 64119 schreef op maandag 07 maart 2016 @ 18:07:
[...]

Online MP Gaming kun je dan meestal gewoon beter stoppen.
Het zijn geen twitch games en geen "met 50 km/u door een doolhof rondrennen" spellen.

Acties:
  • 0 Henk 'm!

Anoniem: 64119

TNJ schreef op maandag 07 maart 2016 @ 19:23:
[...]

Het zijn geen twitch games en geen "met 50 km/u door een doolhof rondrennen" spellen.
Die raceGames zijn natuurlijk wel gebaseerd op tijd en snelheid. Dus die factoren zijn dan wel relevant.

Bovendien tellen al dit soort factoren wel bij elkaar op:
Te lage FPS (slechte cpu/gpu)
Draadloze muizen
Draadloos netwerk
Te kort aan bandbreedte te hoge latency
Dichtgeslipte pc software / te veel proccessen / torrent downloads etc.

Je zal ze de kost moeten geven die op deze manier online Games om zeep helpen..........
Dat zijn die van die types die je sterk ziet Ghosten/Warpen. :F

Acties:
  • +1 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-06 23:05
Race games gaan imo prima met ~30-40 fps. Verder zijn er ook gewoon singleplayer games ;).

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53
AMD Radeon to Showcase Latest Innovations in Virtual Reality and Gaming at "Capsaicin" Live Webcast at GDC

Event Will Feature Industry Luminaries Including Crytek, HTC, Oculus, and Previews of New Silicon and Software Advancements

SUNNYVALE, CA -- (Marketwired) -- 03/07/16 -- AMD (NASDAQ: AMD) today announced that it will webcast live from the historical landmark, Ruby Skye, during the Game Developers Conference in San Francisco. This marquee developer and press event, entitled "Capsaicin," will be hosted by Radeon Technologies Group's Senior Vice President and Chief Architect Raja Koduri on Monday, March 14 at 4:00 PM PT (6:00 PM CT/7:00 PM ET), and showcase AMD's world-class hardware, software and gaming partners.

Named after the compound that delivers a pepper's spicy kick, "Capsaicin" will explore the inner essence of the graphics processing unit (GPU) and how it powers innovations in gaming and virtual reality. The webcast will feature an inside look at the latest technological advancements affecting the enthusiast and developer communities as they approach the burgeoning virtual reality market.

A real-time video webcast of the event will be accessible on AMD's Investor Relations home page: ir.amd.com. A replay of the webcast can be accessed a few hours after the conclusion of the live event and will be available for one year after the event. A replay of the webcast will be accessible on the AMD YouTube channel.
Waarschijnlijk zit hier de Fury X2 bij. Men suggereert dat ook de mobiele GPU standaard hier wordt onthuld.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • Astennu
  • Registratie: September 2001
  • Laatst online: 05-06 17:35
Anoniem: 64119 schreef op maandag 07 maart 2016 @ 13:47:
[...]

Volgens sommigen hier zijn sub 40 FPS Gamers een belangrijke doelgroep voor o.a. Paysync en Freesync.
Volgens mij dus niet. In die range wil je echt niet komen idd. :F
Het is wel zo dat het met Freesync wel mee valt. Zie ook consoles daar heb je ook games die 30 fps doen. En afhankelijk van het spel is dat geen probleem. 60 is natuurlijk beter maar in sommige gevallen kan je prima in de 20-30 range komen als je dan geen vsync stutters krijgt scheelt het al een hoop. Met Freesync en LFC kan het goed te doen zijn. Voor APU gamer die eens in de 5-10 jaar een nieuw scherm kopen is dat wel een mooie oplossing. Zeker als er straks meer betaalbare freesync schermen zijn.

Hier nog wat extra info over LFC:
http://www.amd.com/Documents/freesync-lfc.pdf

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


Acties:
  • 0 Henk 'm!

Anoniem: 64119

@astennu:

Wellicht dat het bij consoles minder uitmaakt gezien de on-line tegenspelers dezelfde hardware hebben.
Het is ook goed mogelijk dat het tegenwoordig minder uitmaakt dat je qua fps in een lage "range" zit.

Dit was altijd wezenlijk anders bij de PC games. Wanneer je echt in een lage range zat dan had je al snel kans dat je Games voor anderen aan het verzieken was door Lag/Warp etc.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53
Een aankondiging van een driver. Ze hebben 'hype' ontdekt bij AMD. :P
https://twitter.com/CatalystMaker/status/707306465112006658
@Catalystmaker

Just saw the early release notes for tomorrow's Radeon Software driver update coming. I like what I see!

Acties:
  • 0 Henk 'm!

  • Pikkemans
  • Registratie: September 2004
  • Laatst online: 06-06 20:35
LongBowNL schreef op woensdag 09 maart 2016 @ 10:45:
Een aankondiging van een driver. Ze hebben 'hype' ontdekt bij AMD. :P
https://twitter.com/CatalystMaker/status/707306465112006658


[...]
Misschien staan er wel hele mooie plaatjes in :)

Acties:
  • 0 Henk 'm!

Anoniem: 59888

LongBowNL schreef op woensdag 09 maart 2016 @ 10:45:
Een aankondiging van een driver. Ze hebben 'hype' ontdekt bij AMD. :P
https://twitter.com/CatalystMaker/status/707306465112006658


[...]
Nou ja, je kunt ook overdrijven. Het gaat om het twitter account van een medewerker, het is niet alsof er een officieel persbericht de deur uit is gegaan. ;)

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53
AMD Radeon Software Crimson Edition 16.3

Paar nieuwe dingen, Vulkan support, externe GPU (over Thunderbolt 3 en USB-C) etc.

Acties:
  • 0 Henk 'm!

Anoniem: 59888

Daarnaast kun je nu de taal instellen waardoor je geen mapjes meer hoeft te verwijderen om dat te kunnen doen. Kleine verandering, maar wel fijn imho. :Y)

Acties:
  • 0 Henk 'm!

  • Pikkemans
  • Registratie: September 2004
  • Laatst online: 06-06 20:35
Nog steeds geen Crossfire profiel voor Rainbow Six Siege. Ik ben bang dat het nu nooit meer van gaat komen.

Acties:
  • +1 Henk 'm!

  • Countess
  • Registratie: April 2003
  • Laatst online: 30-04 16:03
deze is nog wel interessant voor mensen die er last van hadden
Core clocks may not maintain sustained clock speeds resulting in choppy performance and or screen corruption (Fixed with new Power Efficiency feature toggled to off)
edit : de nieuwe drivers verbeteren ook de werken van de power efficiency features. al meerdere mensen die geen last meer hebben van de problem zelfs zonder het uit te zetten.

probeer het dus eerst even met de setting gewoon aan. kan altijd nog uit gezet worden.

[ Voor 36% gewijzigd door Countess op 10-03-2016 13:21 ]

mijn spelling is niet best, maar wel beter als je haar. ga jij je ook verbeelden dat mensen rare dingen over je spelling gaan zeggen als hun haar er niet uit ziet? andrelon helpt!


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53
Al kan ik dat geen fix noemen, maar een workaround. Je zet gewoon een feature uit die de problemen veroorzaakt.

Acties:
  • 0 Henk 'm!

Anoniem: 64119

dahakon schreef op vrijdag 04 maart 2016 @ 19:01:
Ga er maar niet van uit dat AMD Thunderbolt (3.0) gaat gebruiken in hun plan, gezien dat een gesloten standaard van Intel is met licentie-voorwaarden (en kosten).
""Een andere opvallende wijziging is de ondersteuning voor externe gpu's via een Thunderbolt 3-aansluiting. AMD noemt de technologie XConnect. Daarmee kan een externe Radeon R9 300-serie gpu aangesloten worden via Thunderbolt 3. Het systeem is in principe plug and play, maar het bios moet wel ondersteuning hebben voor externe gpu's. AMD geeft als voorbeeld de Razer Blade Stealth-laptop. AMD is al langer bezig met een standaard voor externe grafische kaarten, iets waar AMD eerder deze maand al naar verwees.""

Uit het nieuws van vandaag.......

nieuws: AMD voegt ondersteuning voor Vulkan 1.0 toe in 16.3-driver

Acties:
  • 0 Henk 'm!

  • ikt
  • Registratie: Juli 2008
  • Laatst online: 14:41

ikt

LongBowNL schreef op donderdag 10 maart 2016 @ 10:38:
Al kan ik dat geen fix noemen, maar een workaround. Je zet gewoon een feature uit die de problemen veroorzaakt.
Er zijn wel geluiden dat 16.3 wel degelijk een hoop oplost, ook met Power Efficiency gewoon aan gelaten. Dit zijn wel 1-sample tests, maar er zijn nog geen grote bezwaren :p

Naja, straks meer eens weer een overclock proberen, ik kon mijn 390 echt niet stabiel krijgen met Crimson.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:08
Nog uit de AMA van reddit:
Vraag
PhoBoChai3570K + R290X || 2500K + 780Ti 79 points 8 days ago
I want to ask about DX12 and the supposed shift to developers to optimize the game, rather than drivers via AMD/NV. It seems in such an API, it would be impossible for AMD/NV drivers to re-optimize sloppy coding from the developers. Is this correct?
If so, what are your thoughts about NV GameWorks, being a black box, in the DX12 era?
Prime example: Gears of Wars Ultimate
http://www.geforce.com/wh...ame-ready-driver-released
PC edition's graphical fidelity is improved through the introduction of NVIDIA HBAO+ Ambient Occlusion shadowing
The Devs are saying to disable AO on AMD GPUs to improve performance, so they KNOW the problem is actually caused by the GameWorks HBAO+ but it seems there's nothing they can do about it but say "disable it".
In DX11, AMD drivers could inject an optimized shader for these features, so that you can bypass GameWorks and hence, optimize GameWorks titles very well. Such as HBAO+ FC4, Dying Light, Rise of Tomb Raider and others.
It seems to me that this won't be possible in DX12.
Any thoughts?
ps. someone ask them this question for me please, since my timezone will conflict with the AMA.
Antwoord
AMD_RobertTechnical Marketing 54 points 6 days ago*
I have to think about this question. Give me some time, perhaps even a few days, to consult with some colleagues.
//EDIT:
Alright. DirectX 12 (and Vulkan and Mantle) are intentionally designed to have an extremely thin driver layer. This makes driver workarounds to app-side issues (e.g. black box libraries with obvious rendering errors) considerably more difficult, as the infrastructure to do this is largely unavailable. It's not impossible in the same way that modding a game that doesn't support modding isn't impossible: it just takes a heroic amount of effort and success is not certain at the outset. Besides, in-driver workarounds go against the basic philosophy of a low-overhead API where graphics drivers are intentionally positioned to "stay out of the way."
Even in DX11, bypassing an inscrutable shader with a functionally identical but better-performing one is an extremely labor-intensive process. Also with no guarantee of success. Without knowing the fine details of how the original shader is behaving or what it is calling, it's impossible to be certain that your replacement will serve the same facilities and produce the same output as the engine expects. It is definitely possible to do more harm than good with shader replacements, and the ISV can take the blame for that, too.
This is why we always advocate for the developers to have full access to and knowledge of their source code. Rendering issues on any IHV can be addressed by the developer with ease, and games are not at the mercy of a pile of unknown code either within the application's codebase or outside in a driver.

Acties:
  • 0 Henk 'm!

  • ikt
  • Registratie: Juli 2008
  • Laatst online: 14:41

ikt

De verantwoordelijkheid wordt dan nog meer naar de developer geschoven, en we hebben de laatste tijd veel games gezien die belachelijk slecht presteren. Nvidia heeft met het Gameworks programma dan goede support voor de game developers, maar hoe zit het dan met AMD dat met een minder groot budget zit voor dat soort fratsen?

Overigens - Opvallend dat dan de nieuwe update GoWU een grote performance-boost geeft. Was GoWU dan toch niet compleet een misser aan de developer-kant?

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:08
ikt schreef op donderdag 10 maart 2016 @ 12:48:
De verantwoordelijkheid wordt dan nog meer naar de developer geschoven, en we hebben de laatste tijd veel games gezien die belachelijk slecht presteren. Nvidia heeft met het Gameworks programma dan goede support voor de game developers, maar hoe zit het dan met AMD dat met een minder groot budget zit voor dat soort fratsen?

Overigens - Opvallend dat dan de nieuwe update GoWU een grote performance-boost geeft. Was GoWU dan toch niet compleet een misser aan de developer-kant?
GameWorks faciliteerd code voor "extra" effecten die vaak slecht zijn geoptimaliseerd. Het faciliteerd niet zozeer support, daar is het TWIMTBP programma voor.

Wat een slechte zaak is dat als de developers geen access hebben tot de GameWorks source (niet elke dev heeft dat) en het dan in een game plakt. Dan krijg je vage dingen zoals bij GoW.

Acties:
  • 0 Henk 'm!

Anoniem: 632581

Vraagje is het verstandig om de r9 380 aan te schaffen of wachten op de nieuwe geus die binnenkort uitkomen?

Acties:
  • 0 Henk 'm!

  • Hafermaut
  • Registratie: Oktober 2009
  • Laatst online: 16:38
Anoniem: 632581 schreef op donderdag 10 maart 2016 @ 14:52:
Vraagje is het verstandig om de r9 380 aan te schaffen of wachten op de nieuwe geus die binnenkort uitkomen?
Niet helemaal het juiste topic om dat te vragen, naast dat er geen eenvoudig ja of nee als antwoord is te geven.

In het Componenten Aankoop- en Adviesforum is een vergelijkbare vraag net gesteld: wachten tot de nieuwe 2016 graka's. Conclusie is over het algemeen om te wachten.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
offtopic:
Ligt er ook erg aan wat je budget is. Boven de 250 euro kun je beter wachten aangezien een videokaart die nu 500 euro kost over een half jaar nog maar de helft waard is. Dan ben je in het geval van een 500 euro kostende videokaart 250 euro verloren in een half jaar tijd. In het geval van een 250 euro kostende videokaart is dat nog maar 125 euro, nog altijd veel geld.

Daarnaast is het goed om te kijken of de noodzaak er wel is voor een upgrade. Als je nog met een GTX670 o.i.d. zit lijkt het me dat je nog wel een half jaartje kan overbruggen. Enfin, ook weer net wat je zelf wil.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

ikt schreef op donderdag 10 maart 2016 @ 12:35:
[...]

Er zijn wel geluiden dat 16.3 wel degelijk een hoop oplost, ook met Power Efficiency gewoon aan gelaten. Dit zijn wel 1-sample tests, maar er zijn nog geen grote bezwaren :p

Naja, straks meer eens weer een overclock proberen, ik kon mijn 390 echt niet stabiel krijgen met Crimson.
Ik ben benieuwd of dit ook stabiliteit onder Windows 10 betekent, sinds Windows 10 heb ik regelmatig GPU driver crashes, geen temp of power probleem, want het gebeurt ook bij simpele 3D games en zelfs Prison Architect die nauwelijks de GPU belast.

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 07-06 15:00

edward2

Schieten op de beesten

Pikkemans schreef op donderdag 10 maart 2016 @ 07:36:
Nog steeds geen Crossfire profiel voor Rainbow Six Siege. Ik ben bang dat het nu nooit meer van gaat komen.
Nee, en ik had ook nog niks kunnen vinden (in de vorm van een ander gameprofiel)
Zal weer eens een ticket sturen naar amd ;w

Hier zijn ook nog niet alle klokfrequentieproblemen opgelost, met name dx9 games in 5K resulteren nog steeds in een (2e)GPU die blijft hangen op ~500 mhz.

Ook blijft de perf. in sommige games hangen op 39.9 fps, ongeacht of de game zwaar is of niet.

Verder mis ik nu de mogelijkheid bij CF een ander gameprofiel in te stellen. CCC van beta 15.11.1 maar weer terugzetten.

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Pikkemans
  • Registratie: September 2004
  • Laatst online: 06-06 20:35
edward2 schreef op donderdag 10 maart 2016 @ 19:42:
[...]


Nee, en ik had ook nog niks kunnen vinden (in de vorm van een ander gameprofiel)
Zal weer eens een ticket sturen naar amd ;w

Hier zijn ook nog niet alle klokfrequentieproblemen opgelost, met name dx9 games in 5K resulteren nog steeds in een (2e)GPU die blijft hangen op ~500 mhz.

Ook blijft de perf. in sommige games hangen op 39.9 fps, ongeacht of de game zwaar is of niet.

Verder mis ik nu de mogelijkheid bij CF een ander gameprofiel in te stellen. CCC van beta 15.11.1 maar weer terugzetten.
Ander game profiel bij een game kan gewoon ingesteld worden in de radeon interface volgend mij. Of bedoel je wat anders?

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 07-06 15:00

edward2

Schieten op de beesten

Pikkemans schreef op donderdag 10 maart 2016 @ 19:54:
[...]


Ander game profiel bij een game kan gewoon ingesteld worden in de radeon interface volgend mij. Of bedoel je wat anders?
Ik mis hem hier bij Crossfire modus:

Afbeeldingslocatie: http://s30.postimg.org/qruv7haox/Crimson.jpg

vroeger stond daar nog bij " (ander?) vooraf gedefinieerd profiel gebruiken".

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 24-05 17:33

Racing_Reporter

Contentmaker

ikt schreef op donderdag 10 maart 2016 @ 12:35:
[...]

Er zijn wel geluiden dat 16.3 wel degelijk een hoop oplost, ook met Power Efficiency gewoon aan gelaten. Dit zijn wel 1-sample tests, maar er zijn nog geen grote bezwaren :p

Naja, straks meer eens weer een overclock proberen, ik kon mijn 390 echt niet stabiel krijgen met Crimson.
Hmmmmmmm, een driver die overclocks in de weg zit? Loop hier tegen hetzelfde aan met m'n HD 7950, eens zien of 16.3 deze dingetjes verhelpt :)

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • Pikkemans
  • Registratie: September 2004
  • Laatst online: 06-06 20:35
edward2 schreef op donderdag 10 maart 2016 @ 20:08:
[...]


Ik mis hem hier bij Crossfire modus:

[afbeelding]

vroeger stond daar nog bij " (ander?) vooraf gedefinieerd profiel gebruiken".
Je mist het scrol balkje volgens mij. Ik heb zojuist geupgrade naar 16.3 en ik kan nog steeds de profielen selecteren.

Afbeeldingslocatie: https://lh3.googleusercontent.com/5IlystyRha-u_rLP7YZlYqwMakiANOJNKQIJYeo--V8ZRU9fFwwQ4dLNSFakQ0sQLKm7hJaN_Kk4GI7hry9svu1dx3ZcjET1bhBPyFyiiJV2ZKS1WiKUUUIejUxpT3nV1rhBkGckKh79M7C0yNYyFD5KX8cyB8DP5gtd8XggQAibW7gKGmMxhwJqWdS70tQn0ccgFSYS4kaISPPDuCYrwUltneG4t2YjOJy0Gy0caZ83JK3uN0ylzHpatgxwABnoeRAAOND9--axyvHwV_6QN3Y9MXyYnkYukafMPVL31kjuyUcTHPdJJvrKMTOuKFGp-IsNNV5kweom4b4nRED7zOxEgpXN_2RQqH3y6g6oRYAoNbZb5Vo3q0j2X2En2UcjxhzHD_ewh3HwGqQ04nTfRCAlbZReSEOPOfu97H-crmLgIdO26e6Rq_J_DW_asVPb9dWT_vzVTDCYmqhH26Mlq-gjYcoxXiX4V62_q16AKK4MZidrXOtdxgI88UpaJ-yv4x6AWgbUKeI2bxdScnMCDHJVtU9TpK3nCFZpconf660iOpRX0giow2mSnfaIdYQ7Iz0g_Q=w1028-h545-no

edit: Ik ben wel een aantal profielen kwijt zie ik

Acties:
  • 0 Henk 'm!

  • edward2
  • Registratie: Mei 2000
  • Laatst online: 07-06 15:00

edward2

Schieten op de beesten

Pikkemans schreef op donderdag 10 maart 2016 @ 20:31:
[...]


Je mist het scrol balkje volgens mij. Ik heb zojuist geupgrade naar 16.3 en ik kan nog steeds de profielen selecteren.
Ik heb hem nou wel, nadat ik het Radeonsettings venster gemaximaliseerd heb. Het scroll schuifje werkt idd niet hier :D
Misschien een issue met verschaling, ik zit op 250% vanwege 5K.

Van die missende profielen heb ik ook eea gelezen, ik ben ook altijd een paar games kwijt na een driverupgrade. Standaard wordt er alleen gescanned op deze pc/bureaublad ?

[ Voor 16% gewijzigd door edward2 op 10-03-2016 21:14 ]

Niet op voorraad.


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53
In de eerste benchmarks van Hitman verslaat de 390 zelfs een 980. Kijken hoe het er voor staat bij release:
http://www.pcgameshardwar...2-Benchmark-Test-1188758/

Acties:
  • 0 Henk 'm!

  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Touch grass? Ben geen tuinman!

En in dx12 390x komt wel heel dichtbij de 980ti.

Een game die echt lekker draait op AMD? It's a miracle!

People as things, that’s where it starts.


Acties:
  • +2 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Een game vinden die lekker draait op AMD is geen probleem, dat ervaar ik dagelijks. Een game vinden die kunstmatig slechter loopt op AMD dankzij oneerlijke concurrentie en gebrek heeft aan optimalisatie door de ontwikkelaars, helaas ook.

Acties:
  • 0 Henk 'm!

Anoniem: 64119

AMD's Xconnect via USB-C connector voor Thunderbolt 3.0:

Afbeeldingslocatie: http://static.tweakers.net/ext/f/hBS23xcCgzaKppza9S2baXJ7/full.png

"a single USB 3.1 Type-C connector helps run everything""

"There are certain requirements to utilize XConnect. Just the R9 300 and Fury cards can be used over Thunderbolt 3. The cable should support 40Gbps. The system requires Radeon 16.2.2 or later. Also the former should have Windows 10. "


Bron:
http://marketexclusive.co...xconnect-technology/4148/

Edit en deze:
nieuws: AMD introduceert XConnect-standaard voor externe videokaarten
https://community.amd.com...h-amd-xconnect-technology

[ Voor 21% gewijzigd door Anoniem: 64119 op 11-03-2016 15:56 ]


Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Schiet AMD zichzelf hier niet een beetje in de voet door Thunderbolt te gebruiken voor Xconnect? Zover ik weet ondersteunt (of mag het van Intel niet ondersteunen) AMD deze standaard niet.

Dus tenzij Zen ondersteuning voor tb krijgt, lijkt me dit een vreemde zet.

[ Voor 17% gewijzigd door ColinZ op 11-03-2016 17:05 ]


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53
We zullen zien of er TB laptops uitkomen met Zen. Nu heeft AMD toch niet veel van de laptop markt, dus dan is het niet gek om de Intel standaard te gebruiken.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:52
Radeon is niet in een positie om via deze connector AMD cpu's ineens in laptops te krijgen. Omgekeerd is deze connector wel een reden om een Radeon kaart aan je Intel laptop te koppelen. Best een slimme zet dus onder de huidige omstandigheden!

De RTG schiet hier de cpu afdeling inderdaad in de voet. Immers de laptop markt is groter dan de desktop markt. Ik geloof dat er in Nederland nu 2 miljoen meer laptops dan dekstops zijn (die zitten al jaren rond de 8 miljoen). Dus dat is wel een markt waar je volume kunt pakken om je R&D over te spreiden. Dat deze keuze toch wordt gemaakt geeft wat mij betreft aan dat het goed zit met de autonomie van RTG en dat is goed nieuws voor Radeon.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Anoniem: 64119

AMD kennende hebben ze er flink lak aan wanneer Intel pissig zou worden dat AMD hun TB3 standaard zou gebruiken voor (evt) oneigenlijke onge-autoriseerde doeleinden.

@sdk1985: je spreekt weer in raadsels......

Er is geen directe link tussen deze externe GPU oplossing en cpu's van AMD in laptops. Mocht je doelen op een evt omzetverlies van AMD based laptops door de externe GPU dan overschat je AMD's invloed compleet. De hoeveelheid / verhouding laptops en desktops doet er in die context ook al niet toe.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 07-06 21:53
External Graphics is een feature van TB3 (https://blogs.intel.com/technology/2015/06/thunderbolt3/)
Of begrijp ik je verkeerd?

Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 20:21

Trygve

Redacteur
http://techreport.com/new...adds-dx12-and-nvidia-vxao
Ben benieuwd hoe AMD het in dit spel op DX12 gaat doen.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 17:08

Discussing the State of DirectX 12 With Microsoft & Oxide Games

A relatively rapid adoption of Windows 10 by end-users means that developers can in turn make their own leaps sooner, as they necessary critical mass will be in place sooner than with past generations. Both Baker and Langley agreed that DirectX 12 will likely see faster adoption from developers than past generations have, as the user base is building up much sooner. Also helping matters is the fact that the consoles (particularly the Xbox One) are so similar to DirectX 12 with their own respective low-level APIs, which means that developers can synchronize multi-platform titles around low-level APIs much easier than in past generations where the consoles have lagged behind. The APIs won’t be perfectly identical due to some inherent platform differences such as memory management (more on this later), but Microsoft is looking to make the Windows and console APIs as close as reasonably possible to help facilitate this.

Microsoft for their part is of course pleased with this outcome, but even within the realm of the DirectX development team they have made it clear that they aren’t done yet and want to do even more to drive the adoption of DirectX 12 for both end-users and developers and to convince the holdouts to make the jump to Win10. Now that DX12 is out, they have been working on better tools for developers to make the API more approachable and easier to debug. At the same time while Microsoft isn’t being specific, they are making it clear that they aren’t done adding features to the API, and that along with fixing bugs there’s more to come for DX12.

But what surprised me the most in our conversation on adoption was Baker’s comments on the state of DirectX 12. “DX12 is in far better shape than DX11 was in the first generation; it's way further along,” Baker said, and a lot of this has to do with the basic design of the API. Because DX12 is low-level and fairly thin, what bugs there are tend to be fairly straightforward. DirectX 11, by comparison, took years to sort out, and even then Baker doesn’t trust GPU drivers when it comes to DX11 multi-threading. DX12, by comparison, is handling upwards of 16 threads from Ashes of the Singularity without encountering any issues. Which is not to say that DX12 is already perfect, but DX12 is on the path to quickly being in a better overall state than DX11, even more than 6 years after the introduction of the latter.
Nog een leuk stukje uit het artikel, stelletje faalhazen bij MS met hun Gears of War :+.
Games that add DX12 at the last moment are benefitting the least – and Microsoft is trying to help developers integrate it sooner – whereas games that do integrate it sooner like Ashes are seeing much more significant benefits.

[ Voor 6% gewijzigd door Sp3ci3s8472 op 11-03-2016 23:11 ]


Acties:
  • +1 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 06-06 18:05
Heh?
ColinZ schreef op vrijdag 11 maart 2016 @ 17:04:
Schiet AMD zichzelf hier niet een beetje in de voet door Thunderbolt te gebruiken voor Xconnect? Zover ik weet ondersteunt (of mag het van Intel niet ondersteunen) AMD deze standaard niet.

Dus tenzij Zen ondersteuning voor tb krijgt, lijkt me dit een vreemde zet.
Nee, waarom?

Thunderbolt is een standaard waar AMD gewoon een licentie voor af kan nemen...of zelfs een Intel controller voor af kan nemen. En gezien de huidige staat van de markt is het de meest logische optie, omdat het al relatief ruimschoots beschikbaar is.
LongBowNL schreef op vrijdag 11 maart 2016 @ 17:37:
We zullen zien of er TB laptops uitkomen met Zen. Nu heeft AMD toch niet veel van de laptop markt, dus dan is het niet gek om de Intel standaard te gebruiken.
Thunderbolt zit niet in Intel's CPU's. Het is dan wel een "Intel standaard"; maar het is een standaard die op twee verdere standaarden voort borduurt: Thunderbolt is in feite niets meer dan PCI-e en DP door een kabeltje. Er zijn ook gewoon AM-moederborden met Thunderbolt hoor ;)
sdk1985 schreef op vrijdag 11 maart 2016 @ 17:45:
Radeon is niet in een positie om via deze connector AMD cpu's ineens in laptops te krijgen. Omgekeerd is deze connector wel een reden om een Radeon kaart aan je Intel laptop te koppelen. Best een slimme zet dus onder de huidige omstandigheden!

De RTG schiet hier de cpu afdeling inderdaad in de voet. Immers de laptop markt is groter dan de desktop markt. Ik geloof dat er in Nederland nu 2 miljoen meer laptops dan dekstops zijn (die zitten al jaren rond de 8 miljoen). Dus dat is wel een markt waar je volume kunt pakken om je R&D over te spreiden. Dat deze keuze toch wordt gemaakt geeft wat mij betreft aan dat het goed zit met de autonomie van RTG en dat is goed nieuws voor Radeon.
Ik geloof helemaal niet dat ze de CPU tak in de voet schieten. Ik betwijfel of de CPU tak ooit een nieuwe standaard zou ontwikkelen (het gaat niet om de connector, die kan net zo makkelijk weer DP worden in plaats van USB-C ;)). Dat krijgt niemand meer voor elkaar. In plaats daarvan verwacht ik dat ze dat gewoon op HSA gaan gooien.
Anoniem: 64119 schreef op vrijdag 11 maart 2016 @ 18:07:
AMD kennende hebben ze er flink lak aan wanneer Intel pissig zou worden dat AMD hun TB3 standaard zou gebruiken voor (evt) oneigenlijke onge-autoriseerde doeleinden.
Ongeautoriseerd? Waarom zou Intel pissig worden? AMD maakt hier gewoon een TB3 peripheral, daar is niets ongeoorloofd aan. De kracht van TB3 (en bijvoorbeeld DP) is juist dat het zo flexibel is.
LongBowNL schreef op vrijdag 11 maart 2016 @ 19:22:
External Graphics is een feature van TB3 (https://blogs.intel.com/technology/2015/06/thunderbolt3/)
Of begrijp ik je verkeerd?
Geen feature, een mogelijkheid. Zoals gezegd, Thunderbolt is in principe gewoon PCI-e + DP.

Acties:
  • 0 Henk 'm!

Anoniem: 64119

Werelds schreef op vrijdag 11 maart 2016 @ 23:33:
Heh?
[...]
Ongeautoriseerd? Waarom zou Intel pissig worden? AMD maakt hier gewoon een TB3 peripheral, daar is niets ongeoorloofd aan. De kracht van TB3 (en bijvoorbeeld DP) is juist dat het zo flexibel is.
knip-plak-quote.......
Het is bij mij iig niet bekend of AMD wel de voorheen genoemde forse licentie gelden aan Intel betaald.
(of uberhaupt wil betalen)

USB-C is voor zover ik weet intern de USB 3.1 standaard met een fors hogere bandbreedte dan voorheen beschikbaar (USB 1, USB 2 en USB 3.0). Wanneer Thunderbolt 3.0 dus betekend dat er naast de USB-C (USB 3.1) bandbreedte "toevallig" altijd nog veel meer bandbreedte beschikbaar is inclusief een aantal goed van pas komende protocollen zie ik een "rogue club" er wel voor aan om gewoon niet te betalen voor licenties.....

Of het dat risico waard is voor AMD en wat een TB 3 licentie daadwerkelijk kost weet ik niet.
Evenmin of AMD dan betaald per device of in andere vorm of helemaal niet.

Acties:
  • +1 Henk 'm!
Zoals Werelds al zegt het is echt gewoon heel logisch om te doen. Thunderbolt is dé aansluiting hiervoor, wat wil je anders gebruiken? Een eigen standaard? Denk niet dat dat mogelijk is, wat ga je immers gebruiken? Je kunt moeilijk Intel kopiëren, daar komen rechtszaken van. Dus wat moet je dan als je geen USB met PCI Express kunt gebruiken? Dus waarom moeilijk doen als het gemakkelijk kan, het wiel hoeft niet opnieuw uitgevonden te worden.

Wie weet de licentie kosten voor Thunderbolt 3? Zal vast niet veel zijn hooguit enkele dollars, dan valt prima door te berekenen.

Maar als iemand hier anders over denkt hoe wil je het dan doen? Ik kan mij namelijk geen andere goede oplossing bedenken.

[ Voor 41% gewijzigd door -The_Mask- op 12-03-2016 00:05 ]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Anoniem: 64119

-The_Mask- schreef op zaterdag 12 maart 2016 @ 00:01:
Zoals Werelds al zegt het is echt gewoon heel logisch om te doen. Thunderbolt is dé aansluiting hiervoor, wat wil je anders gebruiken? Een eigen standaard? Denk niet dat dat mogelijk is, wat ga je immers gebruiken? Je kunt moeilijk Intel kopiëren, daar komen rechtszaken van. Dus wat moet je dan als je geen USB met PCI Express kunt gebruiken? Dus waarom moeilijk doen als het gemakkelijk kan, het wiel hoeft niet opnieuw uitgevonden te worden.

Wie weet de licentie kosten voor Thunderbolt 3? Zal vast niet veel zijn hooguit enkele dollars, dan valt prima door te berekenen.

Maar als iemand hier anders over denkt hoe wil je het dan doen? Ik kan mij namelijk geen andere goede oplossing bedenken.
Wanneer het om slechts enkele dollars zou gaan dan zal AMD daar ws niet moeilijk over doen.

Echter vermeldde dahakon eerder dat het ws niet via een TB3 aansluiting zou gaan omdat dit te duur zou zijn. Als voorbeeld noemde hij externe HD's met TB3 en USB 3 het prijsverschil voor de laagstgeprijsde types lag boven de 100 dollar. Het is uiteindelijk toch USB-C/TB3 geworden maar de licentiegelden zijn bij mij iig onbekend :? Ook op wiki word er verslag gedaan van een zeer moeizaame acceptatie van TB3 vanwege de veel te hoge licentiekosten.

Mijn idee was niet dat AMD met een eigen standaard oid zou gaan komen maar meer om "illegaal" USB-C (indien aanwezig in USB 3.1 mode) te ge/misbruiken met een te verwachten nog hogere bandbreedte vanwege TB3.

USB 3.1 = max. 10Gb/s
TB 3.0 = max. 80Gb/s

Of USB 3.1 standaard wel/niet aanwezig in TB3 is bij niet bekend.
Ook weet ik niet of de USB 3.1 standaard wel voldoende is voor eGPU's ?

Acties:
  • 0 Henk 'm!

Anoniem: 59888

Nou deel ik je vertrouwen in de kwaliteit van dahakon's posts maar op het moment dat AMD zelf aankondigt gebruik te maken van Thunderbolt vind ik het toch overdreven om daar een complete complottheorie aan op te hangen. Het lijkt me een stuk meer voor de hand liggend dat AMD dat met Intel geregeld heeft (lees: een licentie afneemt) en we hier te maken hebben met het (uitzonderlijke) geval dat achteraf blijkt dat dahakon's inschatting niet de juiste geweest is. We zitten er allemaal wel eens naast toch? ;)

[ Voor 4% gewijzigd door Anoniem: 59888 op 12-03-2016 01:32 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
M.b.t. het hele USB vs TB verhaal, is latency niet ook belangrijk in dit geval? Wellicht dat TB daarin beter is?
"Nixxes says the feature will only work on Nvidia Maxwell graphics cards, and only then in the game's DX11 mode."

Wat Nixxes eigenlijk bedoelt is dat nVidia DX12 hiermee minder interessant probeert te maken. Nu lijkt het net alsof DX11 betere IQ heeft dan DX12. Puur en alleen omdat nVidia deze feature niet wil laten functioneren met DX12. Wellicht dat dat nog komt zodra het ze wel uitkomt...

OctaneRender laat Nvidia CUDA-code werken op GPU's van AMD

Hopelijk werkt het op AMD kaarten sneller :+

[ Voor 20% gewijzigd door madmaxnl op 12-03-2016 03:47 ]


Acties:
  • 0 Henk 'm!

  • enchion
  • Registratie: Februari 2002
  • Niet online
Lijkt erop dat ze wat verkeerd hebben gedaan. (misschien bewust)

http://www.hardwareluxx.d...a-verlieren-leistung.html

The Way the Game isn`t meant to be Working. >:)

[ Voor 5% gewijzigd door enchion op 12-03-2016 12:39 ]

How do you save a random generator ?


Acties:
  • 0 Henk 'm!

  • polli_
  • Registratie: November 2010
  • Laatst online: 21-05 20:43
AMD promises ‘a sneak peak of Polaris’ during Capsaicin live event on March 14th:

In press release we read:

Event Will Feature Industry Luminaries Including Crytek, HTC, Oculus, and Previews of New Silicon and Software Advancements

Obviously the focus is always on hardware, so ‘previews of new silicons’ is what everyone is waiting for. Today however AMD has told us more in a new tweet, where they promised ‘a sneak peak of Polaris’. This could simply mean that we are finally going to see Polaris GPU or at least a presentation.. well sneak peak could mean a lot, but one would expect the actual GPU to be shown, especially since some press members already saw it.

https://twitter.com/AMDRadeon

AMD is er vroeg bij. Denk niet dat we lang moeten wachten op Polaris.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Anoniem: 64119 schreef op zaterdag 12 maart 2016 @ 00:54:
Echter vermeldde dahakon eerder dat het ws niet via een TB3 aansluiting zou gaan omdat dit te duur zou zijn. Als voorbeeld noemde hij externe HD's met TB3 en USB 3 het prijsverschil voor de laagstgeprijsde types lag boven de 100 dollar. Het is uiteindelijk toch USB-C/TB3 geworden maar de licentiegelden zijn bij mij iig onbekend :? Ook op wiki word er verslag gedaan van een zeer moeizaame acceptatie van TB3 vanwege de veel te hoge licentiekosten.
Even wat gas terug. Ik heb nooit gezegd dat AMD TB nooit zou gebruiken omdat het te duur is. Het kostenplaatje was om aan te geven waarom TB tot nu toe nooit echt een succes is geworden.

Toen AMD over een nieuwe externe GPU standaard had, leek het er op (deels door de manier hoe het nieuws in de media gebracht werd) dat ze een nieuwe hardware standaard wilden maken. Uiteindelijk blijkt een 'slechts' een stukje software te zijn, waardoor ze dus feitenlijk helemaal niets te maken hebben licenties voor TB. Die licenties en kosten liggen bij de makers van de behuizingen voor externe videokaarten (en andere hardware).

AMD maakt dus wel gebruik van de TB poort, maar zo het lijkt niet op die manier dat het ze iets kost.

Of TB3 een kans van slagen heeft is een ander verhaal. Zo te zien wil Intel nog steeds een bak geld voor het gebruik. Voordeel ten opzichte van voorgaande versies is het gebruik van een (nieuwe) standaard poort. Voor de rest lijkt het aansluiten van GPU's momenteel zo ongeveer de enige serieuze optie voor de consumentenmarkt voor TB, maar misschien zie ik iets over het hoofd hier.

Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
Werelds schreef op vrijdag 11 maart 2016 @ 23:33:
Nee, waarom?

Thunderbolt is een standaard waar AMD gewoon een licentie voor af kan nemen...of zelfs een Intel controller voor af kan nemen. En gezien de huidige staat van de markt is het de meest logische optie, omdat het al relatief ruimschoots beschikbaar is.
Ik ben me ervan bewust dat Thunderbolt een standaard is. Het probleem wat ik er mee heb is dat AMD TB gebruikt voor Xconnect, iets wat hun huidige CPU's niet ondersteunen. Hoe je het ook wendt of keert, het is marketingtechnisch gewoon totaal niet handig.

Ik snap, zoals The_Mask aangeeft, dat ze weinig keus hebben, maar naar mijn mening is het raar om een standaard te promoten die je zelf niet gebruikt.
Pagina: 1 ... 6 ... 11 Laatste

Dit topic is gesloten.