Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
Toon posts:

CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 132 Vorige deelOverzichtVolgende deelLaatste deel

Pagina: 1 2 3 ... 10 Laatste
Acties:
  • 45.096 views
http://static.tweakers.net/ext/f/fNLqSH1P5nsANvKsOif8UNor/full.png
  • 1 december 2012: Lancering CJ's Radeon Info & Nieuwsdiscussietopic - Deel 125
  • 19 augustus 2013: Lancering CJ's Radeon Info & Nieuwsdiscussietopic - Deel 126
  • 18 februari 2014: Lancering CJ's Radeon Info & Nieuwsdiscussietopic - Deel 127
  • 9 juli 2014: Het heeft even geduurd maar daar is die dan, het verfrissende nieuwe deel 128!
  • 10 juli 2014: Games met Mantle ondersteuning toegevoegd en extra achtergronden toegevoegd
  • 9 februari 2015: deel 129 aangemaakt, met nieuwe geruchten en Mantle verder uitgebreid
  • 16 juni 2015: Nieuw deel; alles bijgewerkt, nieuwe logo's, FreeSync, TressFX
  • 17 juni 2015: Fiji toegevoegd bij line-up
  • 19 juni 2015: Gehele Rx 300 series toegevoegd
  • 23 juni 2015: HBM, VSR, FRTC toegevoegd
  • 24 juni 2015: Deel 131! Gaat snel :)
  • 25 augustus 2015: Deel 132 en kopje toekomst wat geupdate.
http://static.tweakers.net/ext/f/WrsUgBs8Q7c7JclXsFSfM2YE/full.png
  • Flamen & Trollen
  • Basic questions, in dit topic gaan we er van uit dat je een beetje self-research hebt gepleegd d.m.v. de search-functie.
  • Gezeur over leverbaarheid, levertijden, prijzen en dergelijke.
  • Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod! Dit kan altijd via http://tweakimg.net/g/forum/images/icons/icon_hand.gif boven aan elk topic.
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op AMD Radeon gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.
http://static.tweakers.net/ext/f/54kDo1BkALQQjlPwEtxYJj7n/full.png
http://static.tweakers.net/ext/f/0PzCkxTkdJVtwpaoCV9Loo18/full.png

Zoek je algemene informatie over oudere GPUs? Kijk dan even in de first posts van de voorgaande topics en lees hun bijbehorende FAQs.
  • ATi Radeon X700 / X800 Series; R420 / R480: Deel 1 - 20
  • ATi Radeon X1000 Series; R520 / R580: Deel 21 - 50
  • ATi Radeon HD 2000 Series; R600 / RV630 / RV610: Deel 51 - 70
  • ATi Radeon HD 3000 Series; RV670 / R680: Deel 71 - 85
  • ATi/AMD Radeon HD 4000 Series; RV770 / R700: Deel 86 - 104
  • Geschiedenis van alle ATi videokaarten t/m de RV790: Deel 100
  • ATi/AMD Radeon HD 5000 Series; Evergreen: Deel 105 - 116
  • AMD Radeon HD 6000 Series; Northern Islands: Deel 117 - 123
  • AMD Radeon HD 7000 Series; Southern Islands: Deel 123 - 125
  • AMD Radeon Rx 200 series; Sea Islands: Deel 125 - 128
  • AMD Radeon Rx 200 series; Volcanic Islands: Deel 128 - 129
  • AMD Radeon Rx 300 series; Caribbean Islands: Deel 129 - 132
R420 / R480
01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19 20

R520 / R580
21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50

R600 / RV630 / RV610
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70

RV670 / R680
71 72 73 74 75 76 77 78 79 80 81 82 83 84 85

RV770 / RV700
86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104

Evergreen
105 106 107 108 109 110 111 112 113 114 115 116 117

Northern Islands
118 119 120 121 122

Southern Islands
123 124 125

Sea Islands
125 126127 128

Volcanic Islands
128 129

Caribbean Islands
129 130 131

http://static.tweakers.net/ext/f/BZHShTxuT0vo5MjfwSLYRXKA/full.png


GCN

De Graphics Core Next Generation 1 of kortweg GCN microarchitectuur zag voor het eerst het levenslicht met Southern Islands in de HD 7000 serie. Het is de opvolger van de TeraScale microarchitectuur welke gebruikt werd sinds de HD 2000 series. De TeraScale microarchitectuur is een zogenaamde VLIW SIMD architectuur. De GCN microarchitectuur is een zogenaamde RISC SIMD architectuur.

Meer informatie over de GCN microarchitectuur kun je vinden in de HD 7970 review op AnandTech.


GCN2

Met de launch van de HD 7790 (Bonaire) had de GCN microarchitectuur de eerste veranderingen ondergaan. Bij AMD noemen ze de het GCN2, maar op internet staat het vooral bekend als GCN 1.1. De veranderingen zijn o.a. een nieuwe revisie van Powertune en ondersteuning voor TrueAudio en FreeSync.

Meer informatie over de GCN microarchitectuur kun je vinden in de HD 7790 review op AnandTech.


GCN3

Met de launch van de R9 285 (Tonga) zag de derde revisie van de GCN microarchitectuur het levenslicht. AMD noemt het GCN3, maar op internet zul je vooral GCN 1.2 tegenkomen. De veranderingen bestaan o.a. uit verbeterde tesselation performance, losless delta color compressie (voor geheugenbandbreedte reductie) en een nieuwe UVD.

Meer informatie over de GCN 1.2 microarchitectuur kun je vinden in de R9 285 review op AnandTech

http://static.tweakers.net/ext/f/lsKsgtQZFT8XeaC6AxEKllfd/full.png

High Bandwidth Memory of kortweg HBM is door AMD samen met SK Hynix ontwikkeld. HBM is als opvolger bedoeld voor GDDR5, bij GDDR5 is de rek er namelijk uit. De R9 390X heeft bijvoorbeeld al een 512 bit brede geheugenbus met geheugen geklokt op 1500MHz (6000MT/s) De hoge klokfrequentie en de vele geheugenchips zorgen voor een vrij hoog verbruik, terwijl de 512 bit geheugenbus en vele chips voor een erg duur en complex PCB zorgen. Met HBM worden alle nadelen van GDDR5 aangepakt. Door het geheugen gestapeld naast de GPU op de interposer te plaatsen bespaard dit veel ruimte op het PCB, maakt het de PCB een stuk goedkoper. Daarnaast verhoogt het ook de bandbreedte, kan de kloksnelheid veel omlaag wat het verbruik ten goede komt. Het enige nadeel wat er nu is met de eerste versie is dat we vast zitten aan 4GB maximaal (4 gestapelde stacks van 1GB bestaande uit vier lagen van elk 256MB). Dit zal op worden gelost met HBM 2.0 welke terug komt bij de volgende generatie kaarten welke geplanned staan voor 2016, ook nVidia zal hier dan gebruik van gaan maken.





Meer informatie over HBM kun je vinden op TechReport

http://static.tweakers.net/ext/f/I0fL2gZGcNNDNRWGvfIvrXb4/full.png

FreeSync is AMD's tegenhanger van nVidia's Gsync. Met FreeSync is het mogelijk om een dynamische refreshrate te krijgen, in plaats van een vaste zoals gebruikelijk. Het voordeel hiervan is dat je geen screen tearing meer krijgt. Bij screen tearing worden 2 of meerdere frames van de videokaart op één refresh weergeven. Bij een snel bewegend beeld ziet dit er nogal vreemd uit, doordat het ene stukje beeld dan al verder is al een ander stukje.

Voorbeeld van screen tearing

Screen tearing ontstaat doordat op het moment dat de monitor een nieuwe frame uit de framebuffer van de videokaart er halverwege dit proces een nieuwe frame in de framebuffer wordt geplaatst. Op zo'n moment zie je dus twee halve frames op je scherm van verschillende tijdstippen. Zoals het plaatje hierboven laat zien is dit niet ideaal.

De oplossing hiertegen was altijd het gebruik van Vsync. Met Vsync produceert de videokaart niet meer frames dan het beeldscherm kan weergeven. Maar Vsync brengt ook weer andere problemen met zich mee. Vsync zorgt namelijk voor input lag. Ook zal de framerate halveren op het moment dat de videokaart niet het benodigd aantal frames kan weergeven. Dit zorgt dan weer voor een niet soepele game ervaring.

Met FreeSync pak je alle problemen aan welke je kan krijgen met een niet FreeSync setup. In tegenstelling tot hoe het eerst was bepaald nu niet de monitor wanneer er een nieuw beeld wordt weergeven, maar bepaald nu de videokaart dat. Op het moment dat de videokaart dus klaar is met een frame geeft die dit door aan de monitor welke dan de nieuwe frame uit de framebuffer kan halen.

Zo pak je screentearing aan en heb je tegelijkertijd ook geen last input lag of een veel lagere framerate.

FreeSync heeft een bereik van 9 t/m 240Hz, al zijn er (op dit moment) geen schermen te vinden die zo'n groot bereik hebben. FreeSync zit verwerkt in de DisplayPort 1.2a specificatie en is een open standaard welke voor iedereen te gebruiken is. Naast DisplayPort is AMD op dit moment ook bezig om FreeSync in een nieuwe HDMI standaard te verwerken.

Meer informatie over o.a. welke schermen ondersteuning bieden en welke videokaarten en APU's ondersteuning bieden voor de FreeSync standaard is te vinden op Wikipedia.

Reviews over FreeSync zijn te vinden op bijvoorbeeld AnandTech en TechReport en TFT Central.

http://static.tweakers.net/ext/f/60sT5kAuTNA5mRnfZCO6yUDi/full.png

AMD TressFX Hair is een haar physics systeem. Bedoeld om haar zo natuurlijk mogelijk te laten ogen. Op dit moment zitten we op versie 2.0 in de nieuwe Deus Ex game zal versie 3.0 worden gebruikt. TressFX is in tegenstelling tot nVidia's Hairworks open source en kan dus door iedereen gebruikt worden.


TressFX Hair in Tomb Raider


http://static.tweakers.net/ext/f/2k7wU5j4IknRlRPsv71xXF1u/full.png

Virtual Super Resolution of kortweg VSR is een Super Sampling Anti-Aliasing bedoeld voor games welke dit standaard niet ondersteunen. Met VSR is het mogelijk om een hogere resolutie in te stellen dan het beeldscherm aan kan. Dit geeft de mooiste vorm van Anti-Aliasing, maar is ook verreweg het zwaarst.



http://static.tweakers.net/ext/f/dZd9sEGFgEhpG3GrJ5ckbLMA/full.png

Frame Rate Target Control of kortweg FRTC zorgt er voor dat je de frame rate kan afkappen tot een bepaalde maximale waarde, welke in principe los staat van de verversingssnelheid van je beeldscherm. Het werkt niet alleen bij 3D games, maar ook bij introschermen of menu's e.d. In menu's wil een fps van enkele duizenden frames per seconde wel eens voorkomen, dit heeft natuurlijk geen enkel nut, kan alleen maar zorgen voor coil whine. Met FRTC heb je daar dus geen last meer van en het verlaagt ook nog eens het verbruik van de videokaart.



http://static.tweakers.net/ext/f/vyeGPiTK9vb2O4HLp65Z7mFJ/full.png

AMD Radeon Rx 300 Series

De Radeon Rx 300 serie, gelanceerd op 18 juni, lijkt grotendeels op de vorige generatie met optimalisaties voor iets betere performance en performance/watt plus de high-end Fiji chip welke gebruikt gaat worden in de R9 Fury, R9 Fury X, R9 Nano en R9 Fury X2.


AMD Radeon R7 360
De AMD Radeon R7 360 is opgebouwd rondom de Tobago Pro (Bonaire Pro) core. Bonaire heeft 896 streamprocessors waarvan er 768 actief zijn in deze videokaart. Deze GPU maakt gebruik van de GCN2 (GCN 1.1) microarchitectuur. Verdere specificaties staan in de afbeeldingen hieronder.








AMD Radeon R7 370
De AMD Radeon R7 370 is opgebouwd rondom de Trinidad Pro (Pitcairn Pro) core. Trinidad heeft 1280 streamprocessors waarvan er 1024 actief zijn in deze videokaart. Deze GPU maakt gebruik van de GCN microarchitectuur. Verdere specificaties staan in de afbeeldingen hieronder.








AMD Radeon R9 380
De AMD Radeon R9 380 is opgebouwd rondom de Antigua Pro (Tonga Pro) core. Antiqua heeft 2048 streamprocessors waarvan er 1792 actief zijn in deze videokaart. Deze GPU maakt gebruik van de GCN3 microarchitectuur. Verdere specificaties staan in de afbeeldingen hieronder.








AMD Radeon R9 390 en R9 390X
De AMD Radeon R9 390 en R9 390X zijn opgebouwd rondom de Grenada (Hawaii) core. Grenada XT heeft 2816 streamprocessors en Grenada Pro heeft daarvan 2560 actief. Deze GPU maakt gebruik van de GCN2 microarchitectuur. Verdere specificaties staan in de afbeeldingen hieronder.








AMD Radeon R9 Fury X
Fiji is de high-end GPU van deze generatie en AMD brengt maar liefst vier videokaarten uit gebaseerd op de Fiji die. Fiji beschikt over 4096 streamprocessors, 256 TMU's, 64 ROP's en een 4096 bit grote geheugenbus met 4GB HBM op 500MHz.

De AMD Radeon R9 Fury X is de eerste kaart van deze nieuwe serie en deze wordt op 24 juni gelanceerd. Deze kaart krijgt een prijskaartje mee van $649 (op dit moment ongeveer 699 euro incl. 21% btw). De TDP van deze videokaart bedraagt 275W en de kaart moet worden aangesloten met twee 8 pins PEG powerconnectors. Deze kaart komt met een all-in-one waterkoeler met 120mm radiator.
















AMD Radeon R9 Fury
De AMD Radeon R9 Fury is de tweede kaart van deze nieuwe serie en deze wordt op 14 juli gelanceerd. Deze kaart krijgt een prijskaartje mee van $549 (op dit moment ongeveer 599 euro incl. 21% btw). De TDP van deze videokaart bedraagt ook 275W. De precieze specificaties van deze kaart zijn niet bekend, maar verwacht wordt dat deze minder ingeschakelde streamprocessors heeft. Afbeeldingen van deze kaart zijn nog niet verschenen, maar de fabrikanten staan vrij om deze kaart uit te brengen met een eigen lucht/waterkoeler, van deze kaart zullen we dus veel verschillende versies zien.


AMD Radeon R9 Nano
De grootste verrassing was toch wel de AMD Radeon R9 Nano deze kleine videokaart met één fan wordt deze zomer gelanceerd. De TDP van deze kaart bedraagt maar 175W en de kaart heeft maar één 8 pins PEG stroomconnector nodig. Dit lage stroomverbruik zal waarschijnlijk behaald worden door de GPU een stuk lagere kloksnelheid en spanning mee te geven als Fury X heeft.






AMD Radeon R9 Fury X2
De AMD Radeon R9 Fury X2 is de laatste kaart van deze nieuwe serie en deze wordt in de herfst van dit jaar gelanceerd. Hoeveel deze kaart gaat kosten is nog niet bekend, ook de TDP is nog onbekend. Wel is bekend dat deze kaart net als de Radeon R9 Fury X twee 8 pins PEG stroomconnectors gaat krijgen. Wat voor koeler op deze kaart geplaatst gaat worden is nog niet bekend, maar vermoedelijk zal het waterkoeling zijn.



http://static.tweakers.net/ext/f/gIgCGUMMumlGZX7KQeORJvC6/full.png
  • AMD Radeon R9 370X met een volledige ingeschakelde Trinidad GPU om de concurrentie aan te gaan met de GTX 950
  • AMD Radeon Nano komt uit op 27 augustus en beschikt over een volledig ingeschakelde Fiji GPU, met een maximale kloksnelheid van 1GHz. De maximale 175W wordt bereikt door extreme throtteling, de frequentie van 1GHz zal dus weinig gehaald worden.
  • AMD Radeon Fury X2 bestaande uit twee Fiji GPU's staat dit najaar gepland.
  • AMD TressFX 3.0, wordt waarschijnlijk geïntroduceerd tegelijk met de nieuwe Deus Ex.
  • Rx 400? series met de codenaam Arctic Islands, de op 14nm FinFET bij GloFo i.s.m. Samsung geproduceerde opvolger van de Rx 300 series met HBM2
http://static.tweakers.net/ext/f/HfxXR0ER9JAl66CISeu0vkDw/full.png
  • Een R9 380X gebaseerd op de Antigua XT (Tonga XT) GPU.
  • Een R7 360X gebaseerd op de Tobago XT (Bonaire XT) GPU.
http://static.tweakers.net/ext/f/iADoSsXVtx7g6dJllPfBgsSV/full.png

AMD-only partners

AMD / nVidia partners

Utilities

Officieel AMD-gerelateerd

Topic-gerelateerd

http://static.tweakers.net/ext/f/hBpxBNOTo3QzPyWeAwkvheRk/full.png

Deze topicstart is opgedragen aan CJ, oprichter en schrijver van de ATi/AMD Radeon topicreeks van deel 1 tot en met deel 116, welke veel te vroeg van ons is heengegaan.


Rust zacht, CJ



-The_Mask- wijzigde deze reactie 26-08-2015 11:03 (100%)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 21:08

Sp3ci3s8472

@ 12 graden...

Mooie topicstart! Gelijk die nieuwe +1 button maar eens getest ;).

Battle.net tag


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 16:56

XanderDrake

Genetics is the key

Inderdaad, weer prima TS.

Dit volgende plaatje had ik ook al geplaatst in het nVidia topic, maar ik wil het ook hier bespreken. Waar ik bang voor ben namelijk, is dat de bang-for-buck prijs categorie voor videokaarten, waar zich op dit moment de R7 serie zich in begint, eigenlijk geclaimed kan gaan worden door Intel Broadwell en toekomstige Skylake CPU's. nVidia heeft al jaren geen low-end/lower-mid end GPU's uitgebracht, vermoedelijk omdat AMD daar ook al zat met redelijk presterende kaarten, maar nu lijkt het erop dat Intel die markt neemt:



Beste bang-for-buck, een snelle Intel CPU met medium snelle GPU, 2 voor de prijs van 1. Minder complexe PC's, lagere energie kosten, lagere constructie kosten, simpelere koeling. OK zou je zeggen: AMD heeft ook zijn APU's? Maar die CPU cores zijn gewoon traag, en minder zuinig in het algemeen, naast dat de GPU's het ook niet winnen van Intel. Enige redeeming factor is dat de APU's goedkoop zijn, maar wie 80€ meer te besteden heeft gaat naar Intel, zeker over 6-12 maanden.

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 21:08

Sp3ci3s8472

@ 12 graden...

quote:
XanderDrake schreef op dinsdag 25 augustus 2015 @ 14:51:
Inderdaad, weer prima TS.

Dit volgende plaatje had ik ook al geplaatst in het nVidia topic, maar ik wil het ook hier bespreken. Waar ik bang voor ben namelijk, is dat de bang-for-buck prijs categorie voor videokaarten, waar zich op dit moment de R7 serie zich in begint, eigenlijk geclaimed kan gaan worden door Intel Broadwell en toekomstige Skylake CPU's. nVidia heeft al jaren geen low-end/lower-mid end GPU's uitgebracht, vermoedelijk omdat AMD daar ook al zat met redelijk presterende kaarten, maar nu lijkt het erop dat Intel die markt neemt:

[afbeelding]

Beste bang-for-buck, een snelle Intel CPU met medium snelle GPU, 2 voor de prijs van 1. Minder complexe PC's, lagere energie kosten, lagere constructie kosten, simpelere koeling. OK zou je zeggen: AMD heeft ook zijn APU's? Maar die CPU cores zijn gewoon traag, en minder zuinig in het algemeen, naast dat de GPU's het ook niet winnen van Intel. Enige redeeming factor is dat de APU's goedkoop zijn, maar wie 80€ meer te besteden heeft gaat naar Intel, zeker over 6-12 maanden.
Denk dat je wel het volgende punt over het hoofd ziet. Ik ben het met je eens dat het in de huidige generatie van NV en AMD zo is dat het niet al te veel nut heeft om voor een lowend kaart te gaan (met name in laptops waar iedereen rustig die 710m kaarten blijft kopen }:O). Alleen gaan zowel NV als AMD van 28nm niet naar 20nm maar gelijk naar 14/16nm, dat is niet een die shrink maar 2.
Het zou dus goed kunnen dat de nieuwe lowend kaarten ineens een heel stuk sneller zijn.

AMD APU's verliezen het alleen van de Iris Pro en die zitten alleen in de highend van Intel, in de lowend winnen de APU's van AMD nog (of ik heb wat gemist). Ben benieuwd hoe het speelveld eruit ziet als AMD ook met zijn APU's naar 14/16nm gaat. Het grote voordeel wat Intel op de rest heeft op het moment is dat ze gigantisch voorlopen op process technology. Als je kijkt hoe weinig performance Intel uit zijn ondie GPU's krijgt vergeleken met het oppervlakte dat ze gebruiken, dan zie je dat Intel nog steeds een stuk heeft om te gaan.

Battle.net tag


  • Kuusj
  • Registratie: april 2012
  • Laatst online: 21:29

Kuusj

Ofwel varken in 't Limburgs

quote:
XanderDrake schreef op dinsdag 25 augustus 2015 @ 14:51:
Inderdaad, weer prima TS.

Dit volgende plaatje had ik ook al geplaatst in het nVidia topic, maar ik wil het ook hier bespreken. Waar ik bang voor ben namelijk, is dat de bang-for-buck prijs categorie voor videokaarten, waar zich op dit moment de R7 serie zich in begint, eigenlijk geclaimed kan gaan worden door Intel Broadwell en toekomstige Skylake CPU's. nVidia heeft al jaren geen low-end/lower-mid end GPU's uitgebracht, vermoedelijk omdat AMD daar ook al zat met redelijk presterende kaarten, maar nu lijkt het erop dat Intel die markt neemt:

[afbeelding]

Beste bang-for-buck, een snelle Intel CPU met medium snelle GPU, 2 voor de prijs van 1. Minder complexe PC's, lagere energie kosten, lagere constructie kosten, simpelere koeling. OK zou je zeggen: AMD heeft ook zijn APU's? Maar die CPU cores zijn gewoon traag, en minder zuinig in het algemeen, naast dat de GPU's het ook niet winnen van Intel. Enige redeeming factor is dat de APU's goedkoop zijn, maar wie 80€ meer te besteden heeft gaat naar Intel, zeker over 6-12 maanden.
Je hebt eigenlijk wel gelijk, maar de i5 Broadwell kost al 285 euro ( pricewatch: Intel Core i5-5675C Boxed )
en dus zou het nog steeds een stuk goedkoper zijn om een 860K + 750 GTX950 combo te kopen die pricewatch: AMD Athlon X4 860K Boxed + pricewatch: MSI GeForce GTX 950 2GB Gaming 2G = 255 euro.

Of ik mis iets, of het is gewoon een goedkopere combo (moederbordprijs ook meerekenen uiteraard) met veel meer performance?

i7 6700K - GTX1080 - Kever '74 - 5,025kWp (15x SunPower X21-335BLK & SolarEdge SE5000HD)

quote:
XanderDrake schreef op dinsdag 25 augustus 2015 @ 14:51:
Beste bang-for-buck, een snelle Intel CPU met medium snelle GPU, 2 voor de prijs van 1. Minder complexe PC's, lagere energie kosten, lagere constructie kosten, simpelere koeling. OK zou je zeggen: AMD heeft ook zijn APU's? Maar die CPU cores zijn gewoon traag, en minder zuinig in het algemeen, naast dat de GPU's het ook niet winnen van Intel. Enige redeeming factor is dat de APU's goedkoop zijn, maar wie 80€ meer te besteden heeft gaat naar Intel, zeker over 6-12 maanden.
Je kan ook zeggen dat Intel eigenlijk een beetje mee kan komen, is maar net hoe je het ziet. Dit zijn immers wel dikke high-end CPU's met een bijbehorend prijskaartje, heb je niet zo'n CPU (en dat zijn toch echt de meesten) dan is een budget kaartje van AMD of nVidia nog steeds een logische keuze als je niet meer nodig hebt.

Natuurlijk wordt de markt van budget videokaarten door opkomst van APU's en betere IGP's van Intel langzaam kleiner, maar weg is die nog niet.

De APU's van AMD zijn trouwens helemaal niet zo raar qua verbruik, als je bedenkt dat ze nog op 28nm zitten.

-The_Mask- wijzigde deze reactie 25-08-2015 15:17 (11%)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 16:56

XanderDrake

Genetics is the key

quote:
kuusj98 schreef op dinsdag 25 augustus 2015 @ 15:03:
pricewatch: AMD Athlon X4 860K Boxed[/URL] + pricewatch: MSI GeForce GTX 950 2GB Gaming 2G = 255 euro.

Of ik mis iets, of het is gewoon een goedkopere combo (moederbordprijs ook meerekenen uiteraard) met veel meer performance?
Ik had het voornamelijk over de R7 serie en APUs van AMD. Dit is inderdaad een voorbeeld dat het nog wel kan. Maar die 860K is uiteindelijk erg traag, ik zou minstens Mantle en liefst een DX12 combo willen hebben bij die CPU. Daarnaast heeft Intel ook genoeg CPU's zo rond de 200€ (i5 4590 bijv) waarbinnen 6 maanden gewoon een veel snellere GPU in zal zitten.

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • LongBowNL
  • Registratie: juni 2009
  • Laatst online: 01-08 16:28
Tijd voor Nano foto's :D
http://itcm.co.kr/review/348489


  • dahakon
  • Registratie: april 2002
  • Laatst online: 12-09 20:07
quote:
XanderDrake schreef op dinsdag 25 augustus 2015 @ 15:42:
[...]

Ik had het voornamelijk over de R7 serie en APUs van AMD. Dit is inderdaad een voorbeeld dat het nog wel kan. Maar die 860K is uiteindelijk erg traag, ik zou minstens Mantle en liefst een DX12 combo willen hebben bij die CPU. Daarnaast heeft Intel ook genoeg CPU's zo rond de 200€ (i5 4590 bijv) waarbinnen 6 maanden gewoon een veel snellere GPU in zal zitten.
Een R7-260X/R7-360 rent nog altijd rondjes om welke iGPU van Intel dan ook, daar deze (meer dan) 2 keer zoveel SPU's/TMU's/ROPs heeft als de in je statistiek gebruikte R7-250, terwijl ook de kloksnelheid nog hoger ligt.

Voor ~100 euro heb je dus een kaart die echt serieus veel beter is dan de beste iGPU's van Intel, die alleen mee komen in dure processors. Je zou een FX-8300 kunnen combineren met die R7-260X, goedkoper uit zijn en betere grafische prestaties hebben. Je zou zelfs een R7-370 (~150 euro) kunnen combineren met een FX-6300, goedkoper uit zijn en betere prestaties krijgen op grafisch gebied.

  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 14-09 17:34
quote:
XanderDrake schreef op dinsdag 25 augustus 2015 @ 14:51:
Inderdaad, weer prima TS.

Dit volgende plaatje had ik ook al geplaatst in het nVidia topic, maar ik wil het ook hier bespreken. Waar ik bang voor ben namelijk, is dat de bang-for-buck prijs categorie voor videokaarten, waar zich op dit moment de R7 serie zich in begint, eigenlijk geclaimed kan gaan worden door Intel Broadwell en toekomstige Skylake CPU's. nVidia heeft al jaren geen low-end/lower-mid end GPU's uitgebracht, vermoedelijk omdat AMD daar ook al zat met redelijk presterende kaarten, maar nu lijkt het erop dat Intel die markt neemt:

[afbeelding]

Beste bang-for-buck, een snelle Intel CPU met medium snelle GPU, 2 voor de prijs van 1. Minder complexe PC's, lagere energie kosten, lagere constructie kosten, simpelere koeling. OK zou je zeggen: AMD heeft ook zijn APU's? Maar die CPU cores zijn gewoon traag, en minder zuinig in het algemeen, naast dat de GPU's het ook niet winnen van Intel. Enige redeeming factor is dat de APU's goedkoop zijn, maar wie 80€ meer te besteden heeft gaat naar Intel, zeker over 6-12 maanden.
Dit zit er al heel lang aan te komen. De videokaart fabrikanten kunnen twee dingen doen

1) De instap modellen significant sneller maken
2) Geen videokaarten meer uitbrengen in het laagste segment (zeg onder de 100 dollar).

Nadeel van 1 is dat de marge omlaag gaat en de overige producten steeds dichter bij elkaar komen. High-end kaarten worden immers niet sneller dus dan moet je alles een beetje doorschuiven. Voordeel is dat je nog aardig wat omzet kunt halen uit bijvoorbeeld de laptop markt.

Nadeel van 2 is dat de omzet flink kan afnemen wat weer zijn gevolgen heeft voor het R&D budget. Je moet immers over minder omzet dezelfde kosten spreiden. Voordeel is dat de algehele marge van het bedrijf aan de productiekant hoger zal liggen.

We zien wel wat de bedrijven gaan kiezen...

sdk1985 wijzigde deze reactie 25-08-2015 23:46 (4%)

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

De ontwikkelingskosten zullen wel wat meevallen, als je "gewoon" een mainstream GPU pakt en dan overal de helft (of 1/3) van pakken dan heb je een mooie budget GPU, doe je hem nog een keer door de helft heb je echt een low-end GPU te pakken. Dat wordt al jaren gedaan bij AMD en nVidia, is niet meer dan logisch en beperkt ook de ontwikkelingskosten. Het overgrote deel zit immers gewoon in de serie. "Gewoon" een GPU maken met de helft aan ROPS, steamprocessors, geheugenbus, etc. zal niet heel veel ontwikkelingskosten met zich mee brengen, dus zoiets moet al snel uit kunnen.

Bij nVidia is Maxwell nu ook het perfecte voorbeeld. GM206 GPU in de GTX 960 is gewoon een halve GM204 GPU van de GTX 980.

Een reden dat het niet bij de volgende generatie direct zal komen zou kunnen zijn omdat 14nm FinFET vooral in het begin waarschijnlijk vrij duur zal zijn. Maar dat je het gebeurt bij zowel AMD als nVidia in de volgende generatie staat eigenlijk wel vast.

Je gaat immers niet een andere GPU ontwerpen, dat is gekken werk en niet uitbrengen, terwijl er op zich niet heel veel ontwikkelingskosten aan verbonden zijn is ook heel vreemd, dus ik denk dat wel het nog wel even blijven zien.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Astennu
  • Registratie: september 2001
  • Laatst online: 21:08

Astennu

-= RX 5700 XT 50th =-

quote:
-The_Mask- schreef op dinsdag 25 augustus 2015 @ 16:20:
Klein monster koelertje. :)

Nog wat highres pictures van de R9 Nano en R9 Fury X2
http://www.techarp.com/showarticle.aspx?artno=892&pgno=2
Mooie compacte kaartjes.
Ben benieuwd wat ze op die X2 gaan plakken zal wel weer een dual closed loop H2O setup zijn.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 16:56

XanderDrake

Genetics is the key

quote:
dahakon schreef op dinsdag 25 augustus 2015 @ 22:14:
[...]


Een R7-260X/R7-360 rent nog altijd rondjes om welke iGPU van Intel dan ook, daar deze (meer dan) 2 keer zoveel SPU's/TMU's/ROPs heeft als de in je statistiek gebruikte R7-250, terwijl ook de kloksnelheid nog hoger ligt.

Voor ~100 euro heb je dus een kaart die echt serieus veel beter is dan de beste iGPU's van Intel, die alleen mee komen in dure processors. Je zou een FX-8300 kunnen combineren met die R7-260X, goedkoper uit zijn en betere grafische prestaties hebben. Je zou zelfs een R7-370 (~150 euro) kunnen combineren met een FX-6300, goedkoper uit zijn en betere prestaties krijgen op grafisch gebied.
Goede punten, op dit moment zijn de 260X en 360 nog sneller en als je die combineert met een trage AMD GPU zit je goed qua kosten. Je bent het met me eens dat de R7 240 en 250 in ieder geval het verliezen van Broadwell's IGP, neem ik aan? Die markt is vergeven, tenzij je echt aan het dubbeltjes tellen bent en AMD APU's wilt nemen.

Ten tweede, voor de OEMs, is Intel Broadwell een all-in oplossing. Alle voordelen van CPU + iGPU, terwijl Broadwell een stuk sneller is dan welke AMD APU dan ook. Scheelt hun veel constructie kosten en dat vertaalt prima naar koopprijs voor de klant. Wederom, die markt is vergeven.

Ten derde, Intel boekt veel sneller vooruitgang in de low-end iGPU's dan AMD. Dat kan je niet ontkennen. Waar zouden we over een jaar staan? Je ziet dat AMDs aandeel zowel in High end als Low end GPUs verliest. Waar komt dat door? Alleen door nVidia's GTX 900 serie?

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • Toettoetdaan
  • Registratie: juni 2006
  • Laatst online: 02-09 10:44
quote:
-The_Mask- schreef op woensdag 26 augustus 2015 @ 08:56:
Dat lijkt mij ook, veel anders kan ook niet.
2x Nano is 350watt, dat kan prima met luchtkoeling toch?

Edit:
@-The_Mask-, je moet nog even deel 131 in de geschiedenis zetten ;)

Edit2:
Inderdaad goed leesvoer:
quote:
LongBowNL schreef op vrijdag 21 augustus 2015 @ 23:13:
Ik heb deze link al eerder geplaatst, maar de rest van het topic is ook interessant om te lezen, dus ik zet hem nog een keertje neer. :)
http://www.overclock.net/...chmarks/400#post_24321843

Toettoetdaan wijzigde deze reactie 26-08-2015 10:56 (51%)

quote:
Toettoetdaan schreef op woensdag 26 augustus 2015 @ 10:54:
[...]

2x Nano is 350watt, dat kan prima met luchtkoeling toch?
Twee maal Nano wel, maar ik verwacht toch minder extreme throttling bij Fury X2. Ongeveer twee maal Fury X performance is veel logischer. Ik verwacht dan ook eerder weer zo'n 500W zoals bij de R9 295X2.

Maar 350W krijg je ook niet luchtgekoeld met een twee slots koeler ter lengte van het PCB dan moet de koeler minimaal drie slots of een stuk langer zijn.

Vandaar dat ik denk 500W TDP met een dubbele waterkoeler.
quote:
Edit:
@-The_Mask-, je moet nog even deel 131 in de geschiedenis zetten ;)
Done :)

-The_Mask- wijzigde deze reactie 26-08-2015 11:04 (24%)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 14-09 17:34
Nano op de FrontPage: nieuws: Specificaties van compacte AMD R9 Nano-kaart verschijnen online.


Dus bij benadering 30% duurder dan de GTX 970 mini ITX :+ ?

Deze ofzo: pricewatch: Gigabyte GV-N970IXOC-4GD.

sdk1985 wijzigde deze reactie 26-08-2015 14:46 (22%)

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 16:56

XanderDrake

Genetics is the key

Kijk daar zijn we dan: nieuws: AOC kondigt twee gamersmonitoren met FreeSync-ondersteuning aan

Nu is er een reden om AMD te nemen voor de adaptive v-sync voordelen. Tot nu toe waren de monitoren voor FreeSync en G-sync beide behoorlijk duur, ondanks dat AMDs FreeSync goedkoper te implementeren en vereist geen licenties. Maar nu beginnen er monitoren te komen met normale prijzen: €179 voor 24 inch. Ik zou persoonlijk nog groter zoeken, 26 of 28 inch met 1440p of wie weet 4K, en als FreeSync er dan voor een tientje extra bij zit, maakt dat AMD een interessantere partij :)

(nu nog combineren met een leuke, betaalbare, doch leverbare videokaart :X )

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • dahakon
  • Registratie: april 2002
  • Laatst online: 12-09 20:07
quote:
XanderDrake schreef op woensdag 26 augustus 2015 @ 09:42:
Goede punten, op dit moment zijn de 260X en 360 nog sneller en als je die combineert met een trage AMD GPU zit je goed qua kosten. Je bent het met me eens dat de R7 240 en 250 in ieder geval het verliezen van Broadwell's IGP, neem ik aan? Die markt is vergeven, tenzij je echt aan het dubbeltjes tellen bent en AMD APU's wilt nemen.
De R7 240 verliest het ook al van Kaveri, laat staan Carrizo en genoemde APU's presteren ongeveer gelijk aan een DDR3 versie van de R7 250. De enige reden waarom een gDDR5 versie van de R7 250 nog sneller is, is omdat AMD's GPU's gewoon bandbreedte tekort komen. Dus ook ten opzichte van de AMD APU zijn die kaarten gewoonweg niet bepaald interessant meer. De vraag die onbeantwoord blijft is wat er gebeurd met die GPU's in DX12/Vulkan, en met titels die Intel niet zo interessant vindt om voor te optimaliseren. Hoe dan ook, de top-versies van Broadwell hebben een goede performance, in zekere zin.

Iets wat hier wel tegen je werkt, is dat je nu net specifiek de benchmark erbij pakt die CPU-heavy is en waar ze voor het budget systeem (dus met R7 240) de Athlon 4X 860K gebruiken, die dus juist bij GTA V te kort schiet ten opzichte van de Intel processors. Als je naar Anandtech kijkt, zie je dat een R7 240 op Intel CPU's (inclusief Broadwell) gewoonweg sneller is dan zelfs de snelste Broadwell.




Ofwel, Toms benchmark laat een vertekend beeld zien van de prestaties van Broadwell.
quote:
Ten tweede, voor de OEMs, is Intel Broadwell een all-in oplossing. Alle voordelen van CPU + iGPU, terwijl Broadwell een stuk sneller is dan welke AMD APU dan ook. Scheelt hun veel constructie kosten en dat vertaalt prima naar koopprijs voor de klant. Wederom, die markt is vergeven.
OEMs worden nog steeds onder de duim gehouden door Intel, is het niet links om, dan wel rechts om. Ongeacht hoe goed AMD's product ook is, het kost ze verdomd veel moeite om OEMs er interessante prodcten omheen te bouwen. Helaas.
quote:
Ten derde, Intel boekt veel sneller vooruitgang in de low-end iGPU's dan AMD. Dat kan je niet ontkennen. Waar zouden we over een jaar staan? Je ziet dat AMDs aandeel zowel in High end als Low end GPUs verliest. Waar komt dat door? Alleen door nVidia's GTX 900 serie?
Intel boekt inderdaad snelle vooruitgang. Ook niet gek, want HD2000 was ronduit prut. Ze hebben vooruitgang geboekt met de architectuur, dat is zeker. De grootste vooruitgang zit echter elders. Omvang. Ze hebben de GPU heel erg veel groter gemaakt. De snelste Broadwell GPU heeft een die-size die in mm2's groter is dan de GPU in Carrizo, ondanks dat Broadwell een 14nm processor is en Carrizo een 28nm processor. Die omvang alleen was echter nog niet genoeg (ook al is de GPU dus theoretisch 2 keer zo groot), Intel is genoodzaakt om er nog eens een ~85mm2 bij te doen als cache, om het bandbreedte probleem tot op zekere hoogte op te lossen.

Die snelle vooruitgang komt dus vooral op rekenin van het vergroten van de GPU, naar een omvang dat AMD ongeveer een Pitcairn GPU in de APU zou kunnen plaatsen. Er is dus eigenlijk nog steeds weinig magie bij Intel's GPU's en alhoewel een R7 240 of een DDR3 versie van de 250 niet veel nut hebben als je die snelste Broadwell chip zou hebben, is Intel nog heel ver weg van het bereiken van Bonaire (260X) niveau prestaties.

  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 14-09 17:34
quote:
dahakon schreef op woensdag 26 augustus 2015 @ 19:22:
Die snelle vooruitgang komt dus vooral op rekenin van het vergroten van de GPU, naar een omvang dat AMD ongeveer een Pitcairn GPU in de APU zou kunnen plaatsen. Er is dus eigenlijk nog steeds weinig magie bij Intel's GPU's en alhoewel een R7 240 of een DDR3 versie van de 250 niet veel nut hebben als je die snelste Broadwell chip zou hebben, is Intel nog heel ver weg van het bereiken van Bonaire (260X) niveau prestaties.
Is de magie juist niet dat de cpu prestaties op peil blijven ondanks dat de IGP prestaties zo snel stijgen?

Verder was de Iris Pro wat mij betreft een aardig indrukwekkende sprong vooruit (los van het huidige prijskaartje).

Als gamer zie ik natuurlijk liever dat het klaar is met die IGP race en er wat grotere sprongen op cpu performance worden gemaakt. Een losse videokaart zal het bij gelijke techniek (lees performance per watt) immers altijd beter doen omdat er gewoon meer vermogen beschikbaar is.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • dahakon
  • Registratie: april 2002
  • Laatst online: 12-09 20:07
Om welke reden zou het bijzonder zijn dat de CPU op grofweg hetzelfde niveau blijft, als de cores niet kleiner worden gemaakt? De GPU van Iris Pro is een stuk groter, waarmee de chip waarop die GPU zit ook een stuk groter wordt. Het is toch ook geen magie dat Tahiti beter presteert dan Pitcairn, of Fury beter dan Hawaii?

Waar is de magie, wanneer een ~120mm2 14nm GPU aan een CPU wordt geplakt en gecombineerd met ~80mm2 extra chip om min of meer vergelijkbare prestaties te krijgen als een ~100mm2 28nm GPU die aan een andere CPU is geplakt?

Intels chips worden relatief gezien simpelweg steeds groter, om een grotere GPU te kunnen plaatsen. Weinig bijzonders.

  • SG
  • Registratie: januari 2001
  • Laatst online: 16:41

SG

SG surft naar info hardewaren

Tja AMD heeft grote handicap met hun 28 nm.
En denk eerder dat intel grote performance / watt voordeel heeft, maar daar ook hoge prijs aan heeft.
Deze gen lijkt mij sterk te richten op mobiel.
Dus valt mij eerder tegen dat intel AMD niet wegblaast gezien hun dubbele procede achter stand.

Ik lig niet wakker van wat intel nu levert. Want dat is voor desktop licht. Een 6 core met IGPU.

Wat AMD nodig heeft is dat die 14 of 16 nm productie op gang komt. Met procede handicap kan je niet veel. Met Zen architectuur APU op 14 nm is er veel meer mee mogelijk.
Op op GPU gebied komt een grote stap door die dubbele dieshrink.
Als AMD die 28 nm periode nog kan uitzingen. Kan zijn dat AMD ook op CPU gebied weer terug komt. En mogelijk voorbij midrange komt.
Dat is belangrijk gezien APU de discrete GPU markt onderdruk zet.
Denk dat je met de top Zen APU al deftig in FHD kan gamen. En met DX12 de CPU niet zo belangrijk meer is. Zolang it minstens 4 cores heeft.

Het is dat mijn PC s oud spul zijn en upgraden toch echt begint te kriebelen. Maar de 14 nm gen in aantoch is en jaartje uitzingen zwaar wordt. CPU moeten het nog uithouden. Dat lijkt mij niet zoon probleem. 5870 wel.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


  • XanderDrake
  • Registratie: november 2004
  • Laatst online: 16:56

XanderDrake

Genetics is the key



Mooi ding hoor. Ideale huiskamer game pc, blaast elke console eruit. Wel beetje PR aanfluiting dat er een Intel Haswell in zit als CPU, maar hoe kom je anders aan de juiste benchmark scores :P

De bovenkant is een grote open heatsink met fan:

Xeon E5 2680 v2 - Huanan X79 Gaming - 24GB QuadChannel - Gigabyte 1080Ti OC - WD Blue 3D 1TB SSD
Non scholae sed vitae discimus Seneca


  • r100
  • Registratie: oktober 2009
  • Laatst online: 15-09 09:56
quote:
quote:
Do note that AMD also confirmed that while availability of the Radeon R9 Nano is planned for 10th September, the card will get custom variants after three months of its launch.
8)

  • Zeara
  • Registratie: juni 2009
  • Laatst online: 23:05
Is 650 dollar niet gewoon te duur?

Is dezelfde prijs als de Fury X, maar performance ligt volgens mij toch wat lager. Nou is het wel logisch aangezien het dezelfde chip is.

Was het niet gewoon beter geweest om dezelfde chip the nemen als de Fury en de prijs dus wat lager te leggen... Ik wacht nog wel even af tot reviews en de definitieve prijs. Maar toch....

Blijft wel een geinig kaartje :)
quote:
Zeara schreef op donderdag 27 augustus 2015 @ 10:09:
Is 650 dollar niet gewoon te duur?

Is dezelfde prijs als de Fury X, maar performance ligt volgens mij toch wat lager. Nou is het wel logisch aangezien het dezelfde chip is.
Zoals je zelf al zegt het is gewoon een kleine versie van Fury X waar de stroombeperkt is en met luchtkoeling. Zou leuk zijn dat die 200 dollar minder zou zijn, maar niet realistisch, dit is gewoon de logische prijs.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • LongBowNL
  • Registratie: juni 2009
  • Laatst online: 01-08 16:28
Dit is ook interessant van dezelfde WccfTech link:
quote:
Q1- Will the R9 Nano be offered as a reference model only or will AIBs be allowed to offer custom models?

Yes, 3+ months later.

  • LongBowNL
  • Registratie: juni 2009
  • Laatst online: 01-08 16:28
Ik las over de tweede zin heen, ik zag alleen 10 september en toen stopte ik met lezen. :9

  • dialMforMike
  • Registratie: maart 2002
  • Laatst online: 27-02 08:41
Zowel de Nano als de Fury-X zijn volgens mij leuke mogelijkheden voor mijn mini-ITX build (NCASE), ik ben benieuwd naar de Nano benchmarks (ook op geluid- en warmteproductie). Dit ga ik in de gaten houden :)

TODAY IS THE TOMORROW THEY PROMISED YOU YESTERDAY.


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 21:08

Sp3ci3s8472

@ 12 graden...

quote:
Zeara schreef op donderdag 27 augustus 2015 @ 10:09:
Is 650 dollar niet gewoon te duur?

Is dezelfde prijs als de Fury X, maar performance ligt volgens mij toch wat lager. Nou is het wel logisch aangezien het dezelfde chip is.

Was het niet gewoon beter geweest om dezelfde chip the nemen als de Fury en de prijs dus wat lager te leggen... Ik wacht nog wel even af tot reviews en de definitieve prijs. Maar toch....

Blijft wel een geinig kaartje :)
Voor een kaart met haast GTX980 performance lager gebruik (van uitgaande dat de AMD slides een beetje kloppen ;)) en een veel kleiner oppervlakte. Nee, denk dat hij zo mooi geprijst is, AMD kan het geld goed gebruiken :P.
Er zijn genoeg GTX980 die tussen de 600-700 euro kosten.

Battle.net tag


  • NitroX infinity
  • Registratie: januari 2002
  • Laatst online: 23:47
Uhm,

pricewatch: Gigabyte GV-N970IXOC-4GD

Een prijs vanaf €340 (ff een grof gemiddelde)

Stroomverbruik van de GTX 970 ligt rond de 175Watt (Techpowerup benchmarks).

http://www.techpowerup.co...ful/iGame_GTX_970/25.html
http://www.techpowerup.co...GTX_970_JetStream/23.html
http://www.techpowerup.co...SI/GTX_970_Gaming/25.html
http://www.techpowerup.co.../GTX_970_STRIX_OC/23.html
http://www.techpowerup.co...970_SC_ACX_Cooler/23.html

Reken er maar op dat de Nano in NL voor €600+ over de toonbank gaat.

Volgens AMD's eigen slides zal de Nano 30% beter presteren (zie eerder in dit topic). Dat zou logischerwijs een 30% hogere prijs betekenen, rond de €440. Om daar nog eens minimaal €160 bij te moeten tellen...

Je kunt mij niet wijsmaken dat Nano z'n geld waard is.

Vergelijking met een GTX 980? Ik zie geen Mini-ITX variant te koop staan in de pricewatch. Dus nee, daarmee moet je 'm niet vergelijken. Zelfs AMD doet dat niet in hun slides.

Mijn blog; Floating Points

Maar welke kaart is dan wel zijn geld waard? Alleen degene met de beste prijs/prestatie op dit moment dan en dat is maar één kaart en de GTX 970 is dat iig niet. :p

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • NitroX infinity
  • Registratie: januari 2002
  • Laatst online: 23:47
Ik kan begrijpen dat je bij high-end kaarten meer betaald per fps dan bij de langzamere kaarten. Maar wat ik zeg, is dat die Nano dis-proportioneel (gebruik ik dat woord goed?) is geprijst. €500 zou ik nog kunnen begrijpen, maar €600+ niet.

Mijn blog; Floating Points


  • Racing_Reporter
  • Registratie: januari 2012
  • Laatst online: 23:59

Racing_Reporter

Mediaproducent

quote:
-The_Mask- schreef op donderdag 27 augustus 2015 @ 15:16:
Maar welke kaart is dan wel zijn geld waard? Alleen degene met de beste prijs/prestatie op dit moment dan en dat is maar één kaart en de GTX 970 is dat iig niet. :p
Nou maakte ik net een rijtje van videokaarten vanaf de R9 290 t/m Fury X, tegenover de nVidia-tegenhangers, lijkt erop dat je het over de R9 290 hebt? :P

Als je dit leest, heb je teveel tijd.

quote:
NitroX infinity schreef op donderdag 27 augustus 2015 @ 15:21:
Ik kan begrijpen dat je bij high-end kaarten meer betaald per fps dan bij de langzamere kaarten. Maar wat ik zeg, is dat die Nano dis-proportioneel (gebruik ik dat woord goed?) is geprijst. €500 zou ik nog kunnen begrijpen, maar €600+ niet.
500 euro is echt niet realistisch, dat is nog goedkoper als een Fury, die kost minimaal 550 euro in DE met 19% btw, Fury X zit daar minimaal op zo'n 680 euro.

Dan zou AMD een volledige Fiji chip voor 500 euro in NL met 21% moeten verkopen? Waarbij er speciaal de betere, zuinige GPU's worden gebruikt, op een nog kleiner PCB met alleen de TDP beperking die er voor zorgt dat die wat langzamer is.

Dit terwijl het gewoon een niche product is alleen bedoeld voor hele kleine behuizingen. Die ga je toch niet gratis weggeven? Ik zei in het vorige topic al dat het gewoon een dure volledig ingeschakelde Fiji chip gaat zijn, dit is immers verreweg het meest logische. Gewoon een beetje logisch nadenken en dan is het toch echt de meest logische keuze en is de kaart eigenlijk precies zoals verwacht.
quote:
Racing_Reporter schreef op donderdag 27 augustus 2015 @ 15:30:
[...]

Nou maakte ik net een rijtje van videokaarten vanaf de R9 290 t/m Fury X, tegenover de nVidia-tegenhangers, lijkt erop dat je het over de R9 290 hebt? :P
Ik heb de laatste tijd niet gekeken wat de kaart is met de beste prijs/prestatie op dit moment, maar het zal ongetwijfeld niet de GTX 970 zijn.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • LongBowNL
  • Registratie: juni 2009
  • Laatst online: 01-08 16:28
Ik denk dat dezelfde redenatie geldt voor mini-ITX moederborden. Deze zijn kleiner hebben minder features, maar zijn in het algemeen duurder dan de ATX tegenhanger. Dit omdat ze een niche in markt bedienen.
Ook zijn ze duurder doordat er vaak genoeg meer lagen PCB nodig zijn en dat maakt het snel duurder.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

AMD Also Quietly Launches the Radeon R9 370X, Sapphire Gives it Vapor-X Treatment

In addition to the Radeon R9 Nano, AMD quietly launched the Radeon R9 370X, a new SKU to combat the GeForce GTX 950 and GTX 960, in the sub-$200 market. The R9 370X. Based on the 28 nm "Trinidad XT" silicon, this chip offers 1,280 stream processors, 80 TMUs, 32 ROPs, and a 256-bit wide GDDR5 memory interface, holding either 2 GB or 4 GB of memory.

Sapphire is the first to be out with an R9 370X product, based on its Vapor-X cooling solution, and available in both 2 GB and 4 GB variants. Sapphire's cards offer close to 1200 MHz core clock speeds, with 5.60 GHz (GDDR5 effective) memory, at which clocks, the memory bandwidth on tap is 179 GB/s. The card draws power from a pair of 6-pin PCIe power connectors, display outputs include two DVI, and one each of HDMI and DisplayPort.




http://www.techpowerup.co...it-vapor-x-treatment.html

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

quote:
XanderDrake schreef op donderdag 27 augustus 2015 @ 09:57:
[afbeelding]

Mooi ding hoor. Ideale huiskamer game pc, blaast elke console eruit. Wel beetje PR aanfluiting dat er een Intel Haswell in zit als CPU, maar hoe kom je anders aan de juiste benchmark scores :P

De bovenkant is een grote open heatsink met fan:
[afbeelding]
Dat is een radiator met rechtsonder het pompje en rechtsboven (wit) het reservoir, dus het is ook watergekoeld zoals de Fury X.

  • r100
  • Registratie: oktober 2009
  • Laatst online: 15-09 09:56
Die 370X is dus gewoon een 7870, weinig bijzonders. Alleen een kloksnelheid van rond de 1200MHz is wel opmerkelijk, ik ben benieuwd hoeveel headroom er nog is om zelf hoger te gaan.

  • NitroX infinity
  • Registratie: januari 2002
  • Laatst online: 23:47
Veel denk ik. Met twee 6pins connectors zit je op een TDP van 225Watt. De 7870 had een 175Watt tdp, de 270 was 150Watt en de 270X 180Watt (bron: wikipedia).

Zou me niets verbazen als de 370X naar 1500/1750 geklokt kan worden.

Mijn blog; Floating Points


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 21:08

Sp3ci3s8472

@ 12 graden...

Nog drie interessant posts uit het topic van overclock.net.
http://www.overclock.net/...chmarks/770#post_24332887
Lijstje met spellen die binnenkort DX12 krijgen via een patch of uitkomen met DX12. Net zoals Ashes of the Singularity zal ook Fable Legends gebruik gaan maken van Asynchronous Shading, ben benieuwd hoe de verhouding AMD/Nvidia dan is. Denk dat ze hier wel in mindere mate van gebruik maken als je het vergelijkt met AotS.

http://www.overclock.net/...chmarks/820#post_24334485
Hier wordt ingegaan op de architectuur verschillen tussen Nvidia en AMD en waarom de ene beter presteerd in DX11 en de ander in DX12.

Overigens is dit allemaal logisch beredeneert en of dit echt klopt moeten we dus nog zien met komende DX12 spellen. Ik vind het een logische verklaring waarom X beter presteerd dan Y in sommige situaties en andersom.

http://www.overclock.net/...chmarks/850#post_24335709
quote:
Hi xxxxxxxxx,

Thanks for your interest in the Ashes of the Singularity benchmark.

In order to get an accurate picture of how well a given CPU will perform, it's important to look at the CPU Frame rate with Infinite GPU on and off ( a check box exists on the benchmark settings panel ). Note, while on, you may see some graphical corruption due to use of async shaders, however the results will be valid.

With Infinite GPU, you should see %90+ workload on your CPU. In this mode, we do not "wait" in the case where the GPU is still busy. You should see excellent scaling between 4-16 thread machines.This can only be tracked on DX12.

Without Infinite GPU, the CPU will "Wait" on a signal from the GPU that the ready to process another frame. During this wait, the CPU tends to power down when there isn't any additional work to do and effectively serializes a portion of the frame. This serialization is what causes the CPU frame rate discrepancy between Infinite GPU on and off.

In addition, due to this "wait", one interesting stat to track is your power draw. On DX11 the power draw tends to be much higher than on DX12, as the additional serial threads that the driver needs to process the GPU commands effectively forces the CPU to be active even if it is only using a fraction of it's cores. This tends to be an overlooked benefit to DX12 since the API is designed so that engines can evenly distribute work.


Regarding specific CPU workloads and the differences between AMD and Intel it will be important to note a few things.

1. We have heavily invested in SSE ( mostly 2 for compatibility reasons ) and a significant portion of the engine is executing that code during the benchmark. It could very well be 40% of the frame. Possibly more.

2. While we do have large contiguous blocks of SSE code ( mainly in our simulations ) it is also rather heavily woven into the entire game via our math libraries. Our AI and gameplay code tend to be very math heavy.

3. The Nitrous engine is designed to be data oriented ( basically we know what memory we need and when ). Because of this, we can effectively utilize the SSE streaming memory instructions in conjunction with prefetch ( both temporal and non temporal ). In addition, because our memory accesses are more predictable the hardware prefetcher tends to be better utilized.

4. Memory bandwidth is definitely something to consider. The larger the scope of the application, paired with going highly parallel puts a lot of pressure on the Memory System. On my i7 3770s i'm hitting close to peak bandwith on 40% of the frame.


I hope this information helps point you in the right direction for your investigation into the performance differences between AMD and Intel. We haven't done exhaustive comparative tests, but generally speaking we have found AMD chips to compare more favorably to Intel than what is displayed via synthetic benchmarks. I'm looking forward to your results.
Reactie van de developper zelf over waarom de AMD cpu's ondermaats presteren in AotS. Er wordt dus geen gebruik gemaakt van AVX zoals werd gedacht maar gewoon van SSE.
Een opmerking van de mensen op overclock.net is waarom maar tot SSE2 en niet hoger? SSE2 stamt uit het P4 tijdperk, ik denk niet dat mensen met zo'n cpu dit spel kunnen draaien dus ze zouden best wat hoger kunnen mikken :P.
De benchmark is dus best geheugenbandbreedte intensief, iets waar AMD minder goed in presteerd dan Intel zover ik weet.
Dit past misschien beter in het AMD cpu topic O-) .

Battle.net tag


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 14-09 17:34
quote:
Sp3ci3s8472 schreef op vrijdag 28 augustus 2015 @ 13:53:

Een opmerking van de mensen op overclock.net is waarom maar tot SSE2 en niet hoger? SSE2 stamt uit het P4 tijdperk, ik denk niet dat mensen met zo'n cpu dit spel kunnen draaien dus ze zouden best wat hoger kunnen mikken :P.
De benchmark is dus best geheugenbandbreedte intensief, iets waar AMD minder goed in presteerd dan Intel zover ik weet.
Dit past misschien beter in het AMD cpu topic O-) .
Dat zal gebaseerd zijn op de Steam hardware survey:
FCMOV
100.00%

SSE2
99.99%

SSE3
99.92%

NTFS
95.69%

SSE4.1
81.22%

SSE4.2
77.17%

HyperThreading
51.41%

SSE4a
22.24%

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 21:08

Sp3ci3s8472

@ 12 graden...

quote:
sdk1985 schreef op vrijdag 28 augustus 2015 @ 14:29:
[...]

Dat zal gebaseerd zijn op de Steam hardware survey:


[...]
Lijkt inderdaad een goede indicatie, alleen dan zou ik voor SSE3 gaan aangezien de Core2 generatie dat heeft en ze hebben daarmee een markt bezetting van 99.92%. Die laatste 0.08% kan het waarschijnlijk toch niet spelen omdat de cpu te traag is.
Ik weet in ieder geval te weinig van CPU's af om hier iets nuttigs over te zeggen, wellicht heeft het gebruiken van SSE3 helemaal geen nut in AotS :P.

Wat mij opvalt is dat het percentage wat SSE4.1 heeft zo laag is, de Core2 architectuur ondersteunt dat al (m.u.v. de Conroe en Merom). Dit zou betekenen dat ondertussen al die mensen al weer over zijn op de Core i series/AMD equilevant?

Battle.net tag


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 14-09 17:34
quote:
Sp3ci3s8472 schreef op vrijdag 28 augustus 2015 @ 14:59:
[...]


Lijkt inderdaad een goede indicatie, alleen dan zou ik voor SSE3 gaan aangezien de Core2 generatie dat heeft en ze hebben daarmee een markt bezetting van 99.92%. Die laatste 0.08% kan het waarschijnlijk toch niet spelen omdat de cpu te traag is.
Ik weet in ieder geval te weinig van CPU's af om hier iets nuttigs over te zeggen, wellicht heeft het gebruiken van SSE3 helemaal geen nut in AotS :P.

Wat mij opvalt is dat het percentage wat SSE4.1 heeft zo laag is, de Core2 architectuur ondersteunt dat al (m.u.v. de Conroe en Merom). Dit zou betekenen dat ondertussen al die mensen al weer over zijn op de Core i series/AMD equilevant?
Hehe ik zat ook even te kijken. Maar dat is 81.22%, ik had de +0.66% moeten deleten in plaats van de 81.22 :).

Als ik zo 1,2,3 op wiki kijk ziet SSE3 er overigens niet bijster interessant uit (enkele extra functies). Die +-20% van SSE4+ zal waarschijnlijk te veel klachten opleveren. Tropico 5 had er ook aardig wat omdat die niet op DX9 draaide.
quote:
-The_Mask- schreef op donderdag 27 augustus 2015 @ 15:16:
Maar welke kaart is dan wel zijn geld waard? Alleen degene met de beste prijs/prestatie op dit moment dan en dat is maar één kaart en de GTX 970 is dat iig niet. :p
De laatste keer dat ik een vergelijking maakte kwam hij er nog niet zo slecht vanaf. Synthetic was hij per punt natuurlijk veel goedkoper dan de GTX 980, maar ook dan de GTX 960. Real world liep de meerprijs eigenlijk ook goed mee met de stijging in kosten. Dat is iets wat ik niet vaak heb gezien. Meestal betaal je, vanaf een bepaald punt, voor een duurdere kaart procentueel meer dan dat je performance erbij krijgt. Maar goed dit kan ook gewoon veroorzaakt worden door het ontbreken van een 960 Ti a 250-275 euro.

Verder is een videokaart natuurlijk nooit een goede investering. De GTX 970 is nu bijna een jaar op de markt dus dat ik ook niet echt een optimaal instap moment.

sdk1985 wijzigde deze reactie 28-08-2015 18:44 (30%)

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Kuusj
  • Registratie: april 2012
  • Laatst online: 21:29

Kuusj

Ofwel varken in 't Limburgs

quote:
NitroX infinity schreef op donderdag 27 augustus 2015 @ 17:58:
Veel denk ik. Met twee 6pins connectors zit je op een TDP van 225Watt. De 7870 had een 175Watt tdp, de 270 was 150Watt en de 270X 180Watt (bron: wikipedia).

Zou me niets verbazen als de 370X naar 1500/1750 geklokt kan worden.
Het zou mij juist wel verbazen als de meeste zo hoog komen.
Ten tijde van de HD7850 waren clocks als 1300Mhz zeer zelden haalbaar, aangezien de HD7870 in feite dezelfde chip heeft lijkt het me sterk dat (ondanks waarschijnlijk betere bin's e.d.) ze nog eens 200Mhz boven op een toen al hoge 1300Mhz krijgen.

Daarbij, waarom hangt het aantal stroomconnectoren vast aan de overclockbaarheid? Dat heeft er alleen mee te maken als je bijvoorbeeld van het fabrieksontwerp gaat afwijken en bijvoorbeeld 1x8 Pin pakt ipv 2x6 Pin. Daarnaast kun je meestal toch echt wel flink wat meer stroom uit een kabel trekken dan men opgeeft als max waarde. Zo maak je me niet wijs dat een 280X (die van mij bijv.) 32Ax12V = 384W onder Furmark load trekt netjes onder de *opgegeven* capaciteit van de kabels blijft.

75W + 150W + 75W = 300W theoretisch maximum. Heeft de Powerlimit hier trouwens niet iets mee van doen? 125% van 300W is ongeveer 375W en met wat interne powerloss zou het goed kunnen dat ie zo alsnog tegen z'n limiet loopt, maar 290(X) of 390(X) kaarten kunnen tot 150% gaan, dus dat zou wel erg gretig worden op dezelfde kabeltjes.

i7 6700K - GTX1080 - Kever '74 - 5,025kWp (15x SunPower X21-335BLK & SolarEdge SE5000HD)


  • r100
  • Registratie: oktober 2009
  • Laatst online: 15-09 09:56
ARK: Survival Evolved is dit weekend gratis te spelen: http://store.steampowered.com/app/346110/
Ik had gelezen dat er gister een DX12-patch voor dit spel zou zijn toegevoegd, maar het is mij niet duidelijk of dit inmiddels is gebeurd.
quote:
This Friday:
  • New Creature: Mesopithecus
  • Smoke Grenades
  • DirectX12 Mode for Windows 10! Approximate +20% perf
  • "Survival of the Fittest: Unnatural Selection" Event + Tournament
Zodra die patch online staat is het natuurlijk wel interessant om DX11 en DX12 te vergelijken.

  • Cota
  • Registratie: december 2006
  • Laatst online: 08-09 13:18
quote:
r100 schreef op zaterdag 29 augustus 2015 @ 10:28:
ARK: Survival Evolved is dit weekend gratis te spelen: http://store.steampowered.com/app/346110/
Ik had gelezen dat er gister een DX12-patch voor dit spel zou zijn toegevoegd, maar het is mij niet duidelijk of dit inmiddels is gebeurd.


[...]

Zodra die patch online staat is het natuurlijk wel interessant om DX11 en DX12 te vergelijken.
DX12 patch is helaas uitgesteld las ik net op steam.

I5 3570K | Scythe Mugen 2 Rev.B | MSI Z77A-G45 | Corsair Vengeance LP Blue CML16GX3M4A1600C9B | EVGA GeForce GTX 1070 FTW GAMING ACX 3.0 8GB | Samsung 860 EVO 500GB | WD Green WD20EZRX | Antec Performance One P280 | Seasonic G-series 550 Watt PCGH


  • LongBowNL
  • Registratie: juni 2009
  • Laatst online: 01-08 16:28
Ik zie net een post van een developer van Oxide gaming over de Ashed of Singularity benchmark:
http://www.overclock.net/...hmarks/1200#post_24356995
quote:
Wow, there are lots of posts here, so I'll only respond to the last one. The interest in this subject is higher then we thought. The primary evolution of the benchmark is for our own internal testing, so it's pretty important that it be representative of the gameplay. To keep things clean, I'm not going to make very many comments on the concept of bias and fairness, as it can completely go down a rat hole.

Certainly I could see how one might see that we are working closer with one hardware vendor then the other, but the numbers don't really bare that out. Since we've started, I think we've had about 3 site visits from NVidia, 3 from AMD, and 2 from Intel ( and 0 from Microsoft, but they never come visit anyone ;(). Nvidia was actually a far more active collaborator over the summer then AMD was, If you judged from email traffic and code-checkins, you'd draw the conclusion we were working closer with Nvidia rather than AMD ;) As you've pointed out, there does exist a marketing agreement between Stardock (our publisher) for Ashes with AMD. But this is typical of almost every major PC game I've ever worked on (Civ 5 had a marketing agreement with NVidia, for example). Without getting into the specifics, I believe the primary goal of AMD is to promote D3D12 titles as they have also lined up a few other D3D12 games.

If you use this metric, however, given Nvidia's promotions with Unreal (and integration with Gameworks) you'd have to say that every Unreal game is biased, not to mention virtually every game that's commonly used as a benchmark since most of them have a promotion agreement with someone. Certainly, one might argue that Unreal being an engine with many titles should give it particular weight, and I wouldn't disagree. However, Ashes is not the only game being developed with Nitrous. It is also being used in several additional titles right now, the only announced one being the Star Control reboot. (Which I am super excited about! But that's a completely other topic wink.gif).

Personally, I think one could just as easily make the claim that we were biased toward Nvidia as the only 'vendor' specific code is for Nvidia where we had to shutdown async compute. By vendor specific, I mean a case where we look at the Vendor ID and make changes to our rendering path. Curiously, their driver reported this feature was functional but attempting to use it was an unmitigated disaster in terms of performance and conformance so we shut it down on their hardware. As far as I know, Maxwell doesn't really have Async Compute so I don't know why their driver was trying to expose that. The only other thing that is different between them is that Nvidia does fall into Tier 2 class binding hardware instead of Tier 3 like AMD which requires a little bit more CPU overhead in D3D12, but I don't think it ended up being very significant. This isn't a vendor specific path, as it's responding to capabilities the driver reports.

From our perspective, one of the surprising things about the results is just how good Nvidia's DX11 perf is. But that's a very recent development, with huge CPU perf improvements over the last month. Still, DX12 CPU overhead is still far far better on Nvidia, and we haven't even tuned it as much as DX11. The other surprise is that of the min frame times having the 290X beat out the 980 Ti (as reported on Ars Techinica). Unlike DX11, minimum frame times are mostly an application controlled feature so I was expecting it to be close to identical. This would appear to be GPU side variance, rather then software variance. We'll have to dig into this one.

I suspect that one thing that is helping AMD on GPU performance is D3D12 exposes Async Compute, which D3D11 did not. Ashes uses a modest amount of it, which gave us a noticeable perf improvement. It was mostly opportunistic where we just took a few compute tasks we were already doing and made them asynchronous, Ashes really isn't a poster-child for advanced GCN features.

Our use of Async Compute, however, pales with comparisons to some of the things which the console guys are starting to do. Most of those haven't made their way to the PC yet, but I've heard of developers getting 30% GPU performance by using Async Compute. Too early to tell, of course, but it could end being pretty disruptive in a year or so as these GCN built and optimized engines start coming to the PC. I don't think Unreal titles will show this very much though, so likely we'll have to wait to see. Has anyone profiled Ark yet?

In the end, I think everyone has to give AMD alot of credit for not objecting to our collaborative effort with Nvidia even though the game had a marketing deal with them. They never once complained about it, and it certainly would have been within their right to do so. (Complain, anyway, we would have still done it, ;) )

--
P.S. There is no war of words between us and Nvidia. Nvidia made some incorrect statements, and at this point they will not dispute our position if you ask their PR. That is, they are not disputing anything in our blog. I believe the initial confusion was because Nvidia PR was putting pressure on us to disable certain settings in the benchmark, when we refused, I think they took it a little too personally.

  • Naluh!
  • Registratie: juni 2003
  • Niet online
quote:
r100 schreef op donderdag 27 augustus 2015 @ 17:45:
Die 370X is dus gewoon een 7870, weinig bijzonders. Alleen een kloksnelheid van rond de 1200MHz is wel opmerkelijk, ik ben benieuwd hoeveel headroom er nog is om zelf hoger te gaan.
Oude wijn in nieuwe zakken idd. Leuk om je line up in alle marktsegmenten compleet te houden, verder niks.

Specs


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 21:08

Sp3ci3s8472

@ 12 graden...

quote:
LongBowNL schreef op zondag 30 augustus 2015 @ 10:18:
Ik zie net een post van een developer van Oxide gaming over de Ashed of Singularity benchmark:
http://www.overclock.net/...hmarks/1200#post_24356995

P.S. There is no war of words between us and Nvidia. Nvidia made some incorrect statements, and at this point they will not dispute our position if you ask their PR. That is, they are not disputing anything in our blog. I believe the initial confusion was because Nvidia PR was putting pressure on us to disable certain settings in the benchmark, when we refused, I think they took it a little too personally.
[...]
Goh waarom zou ik ook niks anderes verwachten :p.

Overigens, deze post bevestigd dus precies wat Mahigan beredeneerde. Nvidia heeft dus op dit moment geen Asynchronous Shading omdat hun architectuur dat niet ondersteunt.

Sp3ci3s8472 wijzigde deze reactie 30-08-2015 16:22 (9%)

Battle.net tag


  • r100
  • Registratie: oktober 2009
  • Laatst online: 15-09 09:56
quote:
Sp3ci3s8472 schreef op zondag 30 augustus 2015 @ 16:19:
[...]


Goh waarom zou ik ook niks anderes verwachten :p.

Overigens, deze post bevestigd dus precies wat Mahigan beredeneerde. Nvidia heeft dus op dit moment geen Asynchronous Shading omdat hun architectuur dat niet ondersteunt.
Precies, en hoewel nVidia duidelijk het grootste aandeel van losse videokaarten in de pc markt heeft, zou AMDs GCN mogelijk heel wat kunnen gaan bepalen. Deze architectuur is immers aanwezig in de consoles èn op de pc. Het blijft natuurlijk afwachten, en misschien heeft nVidia ook nog een verassing achter de hand. Maar die uitspraak over "our async compute pales to what the guys at the consoles are starting to do on GCN" is wel een indicatie.

  • dahakon
  • Registratie: april 2002
  • Laatst online: 12-09 20:07
quote:
Sp3ci3s8472 schreef op zondag 30 augustus 2015 @ 16:19:
Overigens, deze post bevestigd dus precies wat Mahigan beredeneerde. Nvidia heeft dus op dit moment geen Asynchronous Shading Compute? omdat hun architectuur dat niet ondersteunt.
En dat zou nu net ook wel eens het probleem kunnen zijn waar ze bij Ark tegen aan liepen met hun DX12 patch. Onverwachte problemen, zaken die niet lopen en een performance om te janken op nVidia hardware zodra een spel ook maar iets van Async Compute gebruikt.

  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 21:08

Sp3ci3s8472

@ 12 graden...

quote:
dahakon schreef op zondag 30 augustus 2015 @ 20:12:
[...]


En dat zou nu net ook wel eens het probleem kunnen zijn waar ze bij Ark tegen aan liepen met hun DX12 patch. Onverwachte problemen, zaken die niet lopen en een performance om te janken op nVidia hardware zodra een spel ook maar iets van Async Compute gebruikt.
Inderdaad, het meest waarschijnlijke wat ze dus zullen doen is een appart codepath Nvidia maken. Ze zullen ongetwijfelt van Async Compute (bedankt voor de verbetering, het wordt trouwens op meerdere plekken door elkaar gebruikt) gebruik blijven maken omdat ze het spel ook op de consoles willen uitbrengen en het zonder Async Compute een stuk minder snel zal zijn (wat je niet wilt op de al niet al te snelle consoles :P).

Ik denk dat je met DX12 pas echt gaat zien wat de consoles market share voor invloed gaat hebben op de game performance in DX12.

Battle.net tag


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik vrees dat Nvidia's marktaandeel de adoptie van DX12 een tijdje zal tegenhouden, actief en/of passief. En dan maar van de daken roepen dat DX12 supported is. Ja zoals een Radeon 6000-series dat ook doet I guess.

  • Astennu
  • Registratie: september 2001
  • Laatst online: 21:08

Astennu

-= RX 5700 XT 50th =-

Is er hier toevallig iemand die Freesync gebruikt?

Ik heb nu zelf een aantal dagen een Asus MG279Q. Maar Freesync werkt niet echt lekker. Je moet fullscreen draaien om het te kunnen gebruiken. Maar soms sync het scherm gewoon simpelweg niet. Bij BF4 kreeg ik het niet aan de praat. Het scherm bleef gewoon fixed op 89Hz hangen terwijl ik de FPS gecapped had op 83.

Bij Mechwarrior online krijg ik het wel aan de praat. Maar als ik dan alt + tab gebruikt crashed het spel met een video error. Dus echt bruikbaar is het tot nu toe niet.

Ik speel nu het meeste op 144Hz fixed maar eigenlijk is dat deels zonde.

Eigenlijk wil je ook een 35-144Hz range hebben ipv 35-90. Sommige schermen doen 40-144. En dat is ook niet echt ideaal.

Hopelijk zijn er hier wat mensen die ook freesync gebruiken waar ik even wat ervaringen mee kan delen. (ik draai de 15.7.1 driver onder windows 10 64bit met een R9 290X.)

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • dahakon
  • Registratie: april 2002
  • Laatst online: 12-09 20:07
quote:
Phuncz schreef op maandag 31 augustus 2015 @ 07:29:
Ik vrees dat Nvidia's marktaandeel de adoptie van DX12 een tijdje zal tegenhouden, actief en/of passief. En dan maar van de daken roepen dat DX12 supported is. Ja zoals een Radeon 6000-series dat ook doet I guess.
Je vergeet dat nVidia 0.0% marktaandeel heeft in de nieuwe consoles. Veel console titels gebruiken async met behoorlijke prestatiewinsten. Console titels die later naar de PC komen kunnen diezelfde winsten halen op GCN hardware. Het zal moeilijk worden voor nVidia om al die titels tegen te houden of de async tegen te houden in die titels.

  • Astennu
  • Registratie: september 2001
  • Laatst online: 21:08

Astennu

-= RX 5700 XT 50th =-

Ik vrees alleen dat AMD daar weinig aan heeft. Mensen geloven nu dat AMD slecht is voor DX12 omdat ze geen 12_1 hebben en nVidia daarom beter is. En sowieso dat nVidia een betere keuze is dan AMD.

Tegen de tijd dat duidelijk wordt dat AMD de betere keuze was is het eigenlijk al te laat. Je ziet nu al dat de meeste de GTX960/970/980 of 980 Ti nemen en niet de AMD tegehangers.

En dan is het de vraag of AMD dit voordeel nog steeds heeft bij de volgende generatie kaarten of dat nVidia de architectuur dan ook dusdanig aangepast heeft dat zij ook soortgelijke bewerkingen kunnen doen.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Spliffire
  • Registratie: april 2015
  • Laatst online: 15-11-2015
Er is nog geen betere keuze voor dx 12 gezien er geen enkele game uit is en enkel alleen een speciale benchmark die erg cpu afhankelijk is. Dan heb je nog gameworks in de meeste toekomstige titels. Ik dan dat met games het er allemaal heel ander uit gaat zien, AMD komt wat dichter bij maar Nvidia blijft sneller in de meeste game titels.
quote:
dahakon schreef op zondag 30 augustus 2015 @ 20:12:
[...]


En dat zou nu net ook wel eens het probleem kunnen zijn waar ze bij Ark tegen aan liepen met hun DX12 patch. Onverwachte problemen, zaken die niet lopen en een performance om te janken op nVidia hardware zodra een spel ook maar iets van Async Compute gebruikt.
Bron van deze redenen dat daarom de patch is uitgesteld in deze gameworks game?

Friday morning, we reported that ARK: Survival Evolved would be the first game available running in DX12 and that it was to be available later that day. Unfortunately, due to what developer Studio Wildcard is calling a driver issue, the studio was forced to delay the update until sometime next week.

Studio Wildcard stated that the delay stems from an issue that it will need AMD and Nvidia's assistance to address. The studio has already reached out to both companies and hopes to have the issue resolved within the week.

Spliffire wijzigde deze reactie 31-08-2015 12:14 (106%)

trojanware.win32.kryptik.isnq@358253279


  • LongBowNL
  • Registratie: juni 2009
  • Laatst online: 01-08 16:28
Eerst zeg je dat er nog geen betere keuze is, en dan zeg je dat nVidia een betere keuze is.

Ik denk dat de beste game om te DX12 performance (binnenkort) te zien, Fable Legends wordt. Dit is een game geproduceerd door Microsoft zonder partnership met nVidia of AMD.

  • Spliffire
  • Registratie: april 2015
  • Laatst online: 15-11-2015
Dat is eigenlijk afwachten maar ik vermoed het van wel welke de betere keuze is puur uit het feit dat Nvidia de meeste game titels zwaar ondersteund met gameworks. Misschien draait het over een paar jaar weer bij omdat blijft dat AMD sterker is met dx 12?

trojanware.win32.kryptik.isnq@358253279


  • LongBowNL
  • Registratie: juni 2009
  • Laatst online: 01-08 16:28
Nee, dan is nVidia een betere keuze voor Gameworks titels (logisch). Dat zegt niets over andere games. Maar laten we er geen nVidia vs. AMD discussie van maken. We zullen zien in de toekomst wie de bovenliggende partij wordt, DX12 is er nog maar net/bijna.

  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 21:08

Sp3ci3s8472

@ 12 graden...

https://www.reddit.com/user/AMD_Robert
quote:
NVIDIA claims "full support" for DX12, but conveniently ignores that Maxwell is utterly incapable of performing asynchronous compute without heavy reliance on slow context switching.

GCN has supported async shading since its inception, and it did so because we hoped and expected that gaming would lean into these workloads heavily. Mantle, Vulkan and DX12 all do. The consoles do (with gusto). PC games are chock full of compute-driven effects.
Begint gezellig te worden O-).
https://www.reddit.com/r/...well_an_issue_of_latency/
http://forums.anandtech.c...?p=37649656&postcount=246

Vanmiddag die artikelen maar eens goed doorspitten :p. Het komt er op neer dat GCN goed is in VR doordat het Async Compute daarvoor gebruikt via de LiquidVR sdk.
Dit had ik volgens mij al eerder gepost, dat GCN op dit moment beter is in VR dan Nvidia's lineup. Alleen toen was het een beredenering, dit keer met bron(nen) :>.

Edit:
Op beyond3d hebben ze een tool gemaakt om Async Compute te testen.
https://forum.beyond3d.co...mance-thread.57188/page-8

Sp3ci3s8472 wijzigde deze reactie 31-08-2015 16:45 (6%)

Battle.net tag


  • dahakon
  • Registratie: april 2002
  • Laatst online: 12-09 20:07
quote:
Spliffire schreef op maandag 31 augustus 2015 @ 12:05:
Bron van deze redenen dat daarom de patch is uitgesteld in deze gameworks game?

Friday morning, we reported that ARK: Survival Evolved would be the first game available running in DX12 and that it was to be available later that day. Unfortunately, due to what developer Studio Wildcard is calling a driver issue, the studio was forced to delay the update until sometime next week.

Studio Wildcard stated that the delay stems from an issue that it will need AMD and Nvidia's assistance to address. The studio has already reached out to both companies and hopes to have the issue resolved within the week.
Je levert de bron zelf al aan. Alleen is er meer achtergrond informatie nodig voor de context. Laat die informatie nu ook net gisteren hier gepost zijn in de vorm van een reactie van een medewerker van Oxide inzake DX12 performance in AoS. Een heel erg belangrijk onderdeel in die lap tekst is dat nVidia, voor geheel onbekende redenen, zijn driver laat claimen dat hun kaarten de Async Compute taken kunnen uitvoeren die aangeleverd worden, terwijl nVidia's kaarten dit dus duidelijk niet ondersteunen. Er is dus feitenlijk is mis met nVidia's driver specifiek aangaande DX12. Dit terwijl AMD's driver geen enkel probleem heeft met het uitvoeren van alle opdrachten die AoS aanlevert. De kans is dus ook redelijk groot dat er wat async compute problemen zijn voor nVidia in de DX12 patch van Ark en dat is knap lullig voor nVidia als groot partner, wanneer de grote concurrent alles probleemloos en snel kan draaien.

Daarbij kunnen we dan ook wijzen op een stukje informatie van de Dev van AoS, waarin een duidelijk statement wordt gemaakt dat nVidia er op heeft aangedrongen om het beetje Async Compute dat in de AoS benchmark zit weg te halen (omdat het ze performance kost ten opzichte van AMD).

Overigens is het nog maar zeer de vraag wat nVidia kan doen met gameworks in DX12. Alle gameworks rotzooi is momenteel puur voor DX11 en er is weinig reden voor developers om het in DX12 te gaan gebruiken.

  • Spliffire
  • Registratie: april 2015
  • Laatst online: 15-11-2015
Unreal Cry engine ze gaan allemaal met gameworks door in de toekomst en laat dit nu net de grootste gameontwikkelaars zijn.

Oftopic
http://blogs.nvidia.com/b.../01/directx-12-cryengine/

Spliffire wijzigde deze reactie 31-08-2015 17:11 (22%)

trojanware.win32.kryptik.isnq@358253279


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

GameWorks zijn optionele technieken, toch ? Wat heeft dat met de relevante DX12 discussie te maken als GameWorks soms zelfs slecht loopt op Nvidia's eigen hardware op DX11 ? GameWorks gaat heus niet de Async Compute magischerwijze implementeren.

Die loze pro-Nvidia "argumenten" mogen eens stoppen van steeds dezelfde persoon.

Phuncz wijzigde deze reactie 31-08-2015 17:35 (4%)


  • dahakon
  • Registratie: april 2002
  • Laatst online: 12-09 20:07
quote:
Phuncz schreef op maandag 31 augustus 2015 @ 17:34:
GameWorks zijn optionele technieken, toch ? Wat heeft dat met de relevante DX12 discussie te maken als GameWorks soms zelfs slecht loopt op Nvidia's eigen hardware op DX11 ? GameWorks gaat heus niet de Async Compute magischerwijze implementeren.

Die loze pro-Nvidia "argumenten" mogen eens stoppen van steeds dezelfde persoon.
Ik stond net op het punt een opmerking te plaatsen hierover. Gameworks is geen onderdeel van welke engine dan ook en de ontwikkelaars van de engines zullen ook zeker niet 'in de toekomst doorgaan met gameworks'. Ontwikkelaars van een spel besluiten al dan niet gebruik te maken van nVidia's gesloten Gameworks spullen en zullen dat bij gebruik zelf in moeten bouwen.

Het heeft verder inderdaad niets te maken met DX12 en al helemaal niet met 'driver-problemen' die veroorzaakt worden door DX12 patches. En ja, DX12 komt veel sneller naar de games dan voorgaande DX-versies en dat was al lang bekend. Dat DX12 asynchroon werkt, waar DX11 serieel werkt, is ook al lang bekend en dat AMD's GCN juist Asynchroon goed werkt en nVidia's Kepler/Maxwell bij uitstel serieel goed werkt, zien we nu terug in de eerste 'real life' benchmarks. Laten we hopen dat ze met ARK de asynch onderdelen niet geheel schrappen in de DX12 patch. Dat zou geheel 'DX10.1 in AC all over again' zijn.

  • Spliffire
  • Registratie: april 2015
  • Laatst online: 15-11-2015
quote:
Phuncz schreef op maandag 31 augustus 2015 @ 17:34:

Die loze pro-Nvidia "argumenten" mogen eens stoppen van steeds dezelfde persoon.
Ik weet dat het optioneel is maar het komt wel in en daar zijn genoeg bronnen van te vinden.
Verder maak ik er ook niet van dat iets in gameworks komt wat juist hardwarematig wekrt hoe kom je aan die onzin?


En die loze pro AMD opmerkingen ook van veel personen. Dit heeft er trouwens niets mee te maken want ben niet pro van het één of ander

Closed is het ook niet helemaal doe je onderzoeken.

Spliffire wijzigde deze reactie 31-08-2015 18:13 (41%)

trojanware.win32.kryptik.isnq@358253279


  • dahakon
  • Registratie: april 2002
  • Laatst online: 12-09 20:07
quote:
Spliffire schreef op maandag 31 augustus 2015 @ 18:08:
En die loze pro AMD opmerkingen ook van veel personen. Dit heeft er trouwens niets mee te maken want ben niet pro van het één of ander

Closed is het ook niet helemaal doe je onderzoeken.
Je vroeg om onderbouwing aangaande het uitstellen van de DX12 patch van ARK. Die onderbouwing krijg je en het enige wat je er als antwoord op hebt is 'Gameworks komt overal'. Los dat dit niets te maken heeft met het onderwerp en mijn antwoord compleet negeert.

offtopic:
Verder is Gameworks proprietary and closed. Er is geen open source versie beschikbaar, ontwikkelaars mogen niet alles uit gameworks openbaar maken en er zijn veel haken en ogen aan het toepassen van Gameworks in een spel. Maar dat is allemaal een terzijde en niet relevant in dit topic.

  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

Klinkt toch niet echt lekker voor nVidia. Wordt nu wel overal opgepikt.

Techpowerup: Lack of Async Compute on Maxwell Makes AMD GCN Better Prepared for DirectX 12

Help!!!! wijzigde deze reactie 31-08-2015 18:39 (5%)

PC Specs-Gallery
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | BenQ XL2730Z 1440p 144Hz| Corsair AX760 |


  • mitsumark
  • Registratie: juni 2009
  • Laatst online: 00:24
quote:
Spliffire schreef op maandag 31 augustus 2015 @ 12:05:
... AMD komt wat dichterbij maar Nvidia blijft sneller in de meeste game titels.
Hoe bedoel je dit, prestaties per euro/dollar?
(Want dan kan ik het er niet mee eens zijn)

  • LongBowNL
  • Registratie: juni 2009
  • Laatst online: 01-08 16:28
Hap nou eens niet zo snel, het is niet de bedoeling dat hier een nVidia vs. AMD discussie komt. }:|
quote:
Mooi dat de websites dit ook oppakken, AMD verdient wel wat positief nieuws na het Feature Level 12_1 debacle. :)

  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 21:08

Sp3ci3s8472

@ 12 graden...

quote:
Spliffire schreef op maandag 31 augustus 2015 @ 18:08:
[...]
En die loze pro AMD opmerkingen ook van veel personen. Dit heeft er trouwens niets mee te maken want ben niet pro van het één of ander

Closed is het ook niet helemaal doe je onderzoeken.
Weet je zeker dat je in het goede topic zit? Het is het AMD topic, niet het Nvidia topic. Logisch dat er pro AMD opmerkingen zullen vallen, als je je dat niet bevalt dan kan je ook naar het Nvidia topic ;).

Closed is een heel stuk lastiger te onderzoeken, er hoeft bij een nieuwe release van Gameworks maar iets te veranderen en je kan je zoektocht opnieuw beginnen. Het is geen gezonde manier van werken in ieder geval.

http://blogs.nvidia.com/b.../01/directx-12-cryengine/
Waar lees jij dat Gameworks standaard in de CryEngine en Unreal Engine zit?
offtopic:
Geen idee waarom ik er eigenlijk zelfs op in ga want dit hoort gewoon niet in dit topic thuis, het kan prima in het Nvidia topic.
quote:
LongBowNL schreef op maandag 31 augustus 2015 @ 19:31:
Hap nou eens niet zo snel, het is niet de bedoeling dat hier een nVidia vs. AMD discussie komt. }:|


[...]

Mooi dat de websites dit ook oppakken, AMD verdient wel wat positief nieuws na het Feature Level 12_1 debacle. :)
Had het ook al als nieuws bij tweakers gesubmit, maar het blijft behoorlijk stil. Wellicht te technisch :>.

Sp3ci3s8472 wijzigde deze reactie 31-08-2015 23:43 (18%)

Battle.net tag

AMD Catalyst™ 15.8 Beta Driver

Performance Optimizations
  • Batman™: Arkham Knight - Performance and quality/stability updates
  • Ashes of the Singularity - Performance optimizations for DirectX® 12
Resolved Issues:
  • [424009] Adobe® Lightroom may crash if GPU rendering is enabled
  • [423336] Mouse cursor coordinates may be swapped on some 3x1 Eyefinity configurations
  • [421110] The Witcher® 3: Wild Hunt - Corruption may be observed when AA is enabled in AMD CrossFire™ mode
  • [424127] The Firefox browser may crash while opening multiple tabs (2 or more)
  • [425168] Anti Aliasing settings are not retained after Applying in the AMD Catalyst™ Control Center
  • [425156] System hangs when launching Call of Duty® - Modern Warfare 3 or Diablo™ III
  • [424776] Metal Gear Solid® : Ground Zero may crash when launched
  • [425421] Call Of Duty®: Black Ops III - texture corruption observed when launched in DirectX® 11 mode
  • [425452] Sword Coast Legends - FRTC settings are not activated in the game
  • [411945] Project CARS may experience corruption when AA is set to D2SM
  • [425382] A green screen may be observed on some "Llano"/"Ontario" APU's when playing video under Windows 10
  • [424330] Watch Dogs™ may experience flickering / corruption after changing game resolution
  • [425440] AMD HDMI® Audio is disabled after driver installation
  • [423013] F1 2015™ may experience flickering during gameplay or in game benchmarking
  • [422551] Call of Duty® - Advanced Warfare may freeze randomly when run in Quad CrossFire mode
  • [424168] Text corruption observed when using Windows 10 Mapp application
  • [424222] System may hang when installing the driver on a Windows 10 system with 2 or more GPUs
  • [424710] "Device being used by another application" error is displayed when attempting audio playback on Windows 7 systems
Known Issues:
  • [423924] Unable to create an Eyefinity SLS if one of the displays is a MST display device
  • [423759] Unable to apply Fill mode in Eyefinity if 2560x1600 and 2560x1440 resolutions are used together
  • [425484] DiRT Rally™ crashes during gameplay and benchmarking when launched in DirectX 11® mode on some BENQ 144HZ Freesync monitors
  • [425496] Mad Max - Color corruption is observed when Alt+Ctrl+Del is pressed followed by the Escape key
  • [422806] Battlefield™ Hardline crashes on pressing Ctrl+Alt+Del while running in AMD Mantle mode
  • [422674] Corruption may occur in DiRT Rally™ with CMAA enabled with Portrait SLS and AMD CrossFire™ mode enabled
  • [425417] Windows 10 driver installation may halt on some systems with an AMD 990FX chipset and AMD CrossFire™ enabled
  • As a temporary workaround, please uninstall the existing driver before installing the AMD Catalyst™ 15.8 Beta driver
  • [425432] Some BENQ 144hz Freesync monitors may lose the signal while uninstalling the driver
  • [425659] Assassin's Creed® Unity may experience minor frame stutter when AMD CrossFire™ mode is enabled
http://support.amd.com/en...atalyst-windows-beta.aspx

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Toettoetdaan
  • Registratie: juni 2006
  • Laatst online: 02-09 10:44
quote:
Dat snap ik ook wel, eerst 'duiken' er overal berichten op dat AMD een 'tier' te kort komt voor DX12 en nu is het verhaal mogelijk andersom. (Hoewel het meeste groter overkomt dan dat het is)

Ik zou me als redacteur van een techsite best wel beet genomen voelen.

  • marcop82
  • Registratie: maart 2013
  • Niet online
Interessant stukje op ExtremeTech over het potentiële limiet van 4GB zoals bij de Fury:
http://www.extremetech.co...idias-gtx-980-ti-titan-x/

  • NitroX infinity
  • Registratie: januari 2002
  • Laatst online: 23:47
Mwa, was beter geweest als ze een 290X met 4GiB en een 290X met 8GiB hadden opgenomen in de test. Nu is het een beetje nutteloos omdat ze verschillende architecturen testen. Misschien komen al die nadelen die de Fury X toont in het artikel wel van de architectuur en niet van hoeveel geheugen de kaart heeft.

Mijn blog; Floating Points


  • Toettoetdaan
  • Registratie: juni 2006
  • Laatst online: 02-09 10:44
quote:
marcop82 schreef op dinsdag 01 september 2015 @ 11:19:
Interessant stukje op ExtremeTech over het potentiële limiet van 4GB zoals bij de Fury:
http://www.extremetech.co...idias-gtx-980-ti-titan-x/
Haha, de `tussen neus en lippen door` conclusie luid, als het geen GameWorks titel is, dan is 4GB ruim voldoende.

  • SAiN ONeZ
  • Registratie: april 2004
  • Laatst online: 23:12

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Toch een apart fenomeen dat Gameworks gewoon algemeen geaccepteerd word, en bewust AMD kreupel laat lopen, maar zodra Async Compute of een andere AMD techniek die hun hardware laat bokken, ze bij Nvidia beginnen moord en brand te roepen, en zelfs gamedev's gaan adviseren technieken uit hun benchmarks te halen.
Somethings smell fishy, zo komt AMD er nooit bovenop hoe vernieuwend en baanbrekend hun hardware ook maar is

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | i7 5820K Corsair H110i GTX MSI X99a Gaming7 AMD Fury X 16Gb GSkill Trident 3600mhz DDR4 1Tb SSD


  • Jeroenneman
  • Registratie: december 2009
  • Laatst online: 22:50

Jeroenneman

Pre-order/Early Acces: Nee!

quote:
Astennu schreef op maandag 31 augustus 2015 @ 10:33:
Ik vrees alleen dat AMD daar weinig aan heeft. Mensen geloven nu dat AMD slecht is voor DX12 omdat ze geen 12_1 hebben en nVidia daarom beter is. En sowieso dat nVidia een betere keuze is dan AMD.

Tegen de tijd dat duidelijk wordt dat AMD de betere keuze was is het eigenlijk al te laat. Je ziet nu al dat de meeste de GTX960/970/980 of 980 Ti nemen en niet de AMD tegehangers.

En dan is het de vraag of AMD dit voordeel nog steeds heeft bij de volgende generatie kaarten of dat nVidia de architectuur dan ook dusdanig aangepast heeft dat zij ook soortgelijke bewerkingen kunnen doen.
Ik denk niet dat de meeste kopers daar nu aan denken. Mij boeide het in ieder geval zeer weinig. Tegen de tijd dat er echt DX12 titels uitkomen, is deze generatie kaarten alweer aan vervanging toe.

Als ik nu een kaart kies, dan kijken ik vooral naar drie dingen"

- Budget
- Performance
- Stilte

En dan kun je eigenlijk niet om Nvidia heen, vooral omdat AMD op de vorige generatie (of eigenlijk de fabrikanten) niet een degelijke koeler wisten te bouwen. En de zero fan modus natuurlijk.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


  • LongBowNL
  • Registratie: juni 2009
  • Laatst online: 01-08 16:28
quote:
[...]

Had het ook al als nieuws bij tweakers gesubmit, maar het blijft behoorlijk stil. Wellicht te technisch :>
Hardware.info heeft het nu wel opgepakt.

Is dit regeltje voor de Unreal Engine al damage control of is het echt moeilijker?
quote:
AsyncCompute should be used with caution as it can cause more unpredicatble performance and requires more coding effort for synchromization.
https://docs.unrealengine...t/AsyncCompute/index.html (laatste zin)

  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

quote:
Toettoetdaan schreef op dinsdag 01 september 2015 @ 00:22:
[...]

Dat snap ik ook wel, eerst 'duiken' er overal berichten op dat AMD een 'tier' te kort komt voor DX12 en nu is het verhaal mogelijk andersom. (Hoewel het meeste groter overkomt dan dat het is)

Ik zou me als redacteur van een techsite best wel beet genomen voelen.
Als koper van nvidia maxwell zou ik me nog wel meer beetgenomen voelen. :-(

Als het klopt dat Mawxwell geen hardwarematige support heeft... tja tegen bedrog kan niemand op. :N

nVidia zal het wel weer gaan spinnen.... :O

PC Specs-Gallery
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | BenQ XL2730Z 1440p 144Hz| Corsair AX760 |


  • Astennu
  • Registratie: september 2001
  • Laatst online: 21:08

Astennu

-= RX 5700 XT 50th =-

quote:
LongBowNL schreef op dinsdag 01 september 2015 @ 12:46:
[...]

Hardware.info heeft het nu wel opgepakt.

Is dit regeltje voor de Unreal Engine al damage control of is het echt moeilijker?

[...]

https://docs.unrealengine...t/AsyncCompute/index.html (laatste zin)
Unreal is volgens mij erg Pro nVidia.
Ben benieuwd of andere daar ook last van hebben of dat het om een "Fout" in de nieuwe Unreal Engine gaat.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • nvidia666
  • Registratie: november 2011
  • Laatst online: 08-08 15:46
quote:
marcop82 schreef op dinsdag 01 september 2015 @ 11:19:
Interessant stukje op ExtremeTech over het potentiële limiet van 4GB zoals bij de Fury:
http://www.extremetech.co...idias-gtx-980-ti-titan-x/
Laat eens de 3 Gpu's in SLI en Crossfire werken op die titels met 4K alles Ultra alsook 8K
Dan denk ik dat we verschillen gaan zien ten nadelen van de 4GB Vram

Niet vergeten dat de games op zwaarder komen en er ook mensen na een jaar of 2 redelijk goedkoop een 2de dezelfde gpu in hun systeem zetten dan denk ik dat de 4 GB gaat wringen...

Aerocool Xpredator Black Edition , I7 3930K (H100I) , 1080 TI Gaming X 2000/1346 , Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz 1TB&512 GB 850 Pro WD Black 4TB + 2TB seagate CM V1000 (PC2 3570K 6GB 750Ti& 290L. 120 GB ssd) (Laptop Dell e6540@8790M)


  • nvidia666
  • Registratie: november 2011
  • Laatst online: 08-08 15:46
quote:
Astennu schreef op dinsdag 01 september 2015 @ 13:02:
[...]


Unreal is volgens mij erg Pro nVidia.
Ben benieuwd of andere daar ook last van hebben of dat het om een "Fout" in de nieuwe Unreal Engine gaat.
Beetje oorlog kan geen kwaad ;)
Zolang ze elkaar niet de grond in boren.
Er zijn tijdens de wereldoorlogen veel nieuwe dingen ontdekt geweest ;)

Aerocool Xpredator Black Edition , I7 3930K (H100I) , 1080 TI Gaming X 2000/1346 , Msi X79 G65-8D ,16 Gb Corsiar Veng. 1600 Mhz 1TB&512 GB 850 Pro WD Black 4TB + 2TB seagate CM V1000 (PC2 3570K 6GB 750Ti& 290L. 120 GB ssd) (Laptop Dell e6540@8790M)


  • marcop82
  • Registratie: maart 2013
  • Niet online
quote:
Help!!!! schreef op dinsdag 01 september 2015 @ 12:55:
[...]
Als het klopt dat Mawxwell geen hardwarematige support heeft... tja tegen bedrog kan niemand op. :N
Iedereen is de GTX 970 3,5GB flater toch al vergeten, Nvidia kan op dit moment patat met een heatsink verkopen als ze willen.

  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

quote:
marcop82 schreef op dinsdag 01 september 2015 @ 13:27:
[...]

Iedereen is de GTX 970 3,5GB flater toch al vergeten, Nvidia kan op dit moment patat met een heatsink verkopen als ze willen.
Alleen omdat het in de tests (vrijwel) niet uitmaakt. Dit DX12 issue zou wel eens meer impact kunnen hebben.

Echter, uiteindelijk kan nvidia hier alleen mee wegkomen zolang AMD onvoldoende tegenkracht biedt.

PC Specs-Gallery
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | BenQ XL2730Z 1440p 144Hz| Corsair AX760 |


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 14-09 17:34
quote:
Kan ook de andere kant op slaan. Hiermee krijgt Async Compute een Mantle reputatie. Dwz dat het een nuttige feature is voor AMD kaarten maar dat die meerwaarde niet voldoende reden is om het te implementeren. Als Nvidia echt een marktaandeel van meer dan 75% krijgt dan zit dat er dik in. Zie ook wat Unreal nu over ASync Compute zegt ( LongBowNL in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 132" ).

sdk1985 wijzigde deze reactie 01-09-2015 14:00 (6%)

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Toettoetdaan
  • Registratie: juni 2006
  • Laatst online: 02-09 10:44
quote:
sdk1985 schreef op dinsdag 01 september 2015 @ 13:57:
[...]

Kan ook de andere kant op slaan. Hiermee krijgt Async Compute een Mantle reputatie. Dwz dat het een nuttige feature is voor AMD kaarten maar dat die meerwaarde niet voldoende reden is om het te implementeren. Als Nvidia echt een marktaandeel van meer dan 75% krijgt dan zit dat er dik in. Zie ook wat Unreal nu over ASync Compute zegt ( LongBowNL in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 132" ).
Wel of geen Async Compute maakt niet super veel uit, maar ik denk dat het wel ingeburgerd raakt. Je moet je voorstellen dat de Xbox One en de PS4 er ook ondersteuning voor hebben.

Op de consoles persen ze er elk beetje performance er uit, als ze daarna de game aanpassen aan de PC is het een beetje raar om het bewust uit te zetten.

  • Indy91
  • Registratie: oktober 2005
  • Laatst online: 03-07 09:58
quote:
Jeroenneman schreef op dinsdag 01 september 2015 @ 12:29:
[...]


Ik denk niet dat de meeste kopers daar nu aan denken. Mij boeide het in ieder geval zeer weinig. Tegen de tijd dat er echt DX12 titels uitkomen, is deze generatie kaarten alweer aan vervanging toe.

Als ik nu een kaart kies, dan kijken ik vooral naar drie dingen"

- Budget
- Performance
- Stilte

En dan kun je eigenlijk niet om Nvidia heen, vooral omdat AMD op de vorige generatie (of eigenlijk de fabrikanten) niet een degelijke koeler wisten te bouwen. En de zero fan modus natuurlijk.
Nou ja, als ik anderen adviseer dan kijk ik ook een beetje naar toekomstgerichtheid van een GPU, daar de kaarten meestal zo'n 2 jaar moeten meegaan.

Wat dat betreft heeft AMD in het verleden meerdere malen laten zien dat de AMD GPU beter toekomstgericht was dan de nVidia tegenhanger.

Dus als ik nu GPU kaarten adviseer/koop, dan kijk ik naar de volgende dingen:

- Budget
- Minimale performance
- Prijs/performance
- Toekomstgerichtheid
- Sentiment (de gunfactor)

En dan ik toch moeilijk om AMD heen. ;)
quote:
nvidia666 schreef op dinsdag 01 september 2015 @ 13:25:
[...]


Beetje oorlog kan geen kwaad ;)
Zolang ze elkaar niet de grond in boren.
Er zijn tijdens de wereldoorlogen veel nieuwe dingen ontdekt geweest ;)
Alhoewel ik snap wat je wilt zeggen, deel ik je mening nochtans niet....
  • Eerlijke concurrentie is inderdaad goed voor de consument
  • Moordende concurrentie kan verkeerd uitpakken voor de consument. Bijvoorbeeld de welbekende nVidia praktijken waardoor hun EIGEN producten zwakker gaan presteren EN de producten van de tegenstander nog veel zwakker gaan presteren. De consument wordt hierdoor dus duidelijk benadeeld.
  • Uitzonderingen daargelaten, kennen wereldoorlogen voornamelijk verliezers

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


  • Zeara
  • Registratie: juni 2009
  • Laatst online: 23:05
quote:
sdk1985 schreef op dinsdag 01 september 2015 @ 13:57:
[...]

Kan ook de andere kant op slaan. Hiermee krijgt Async Compute een Mantle reputatie. Dwz dat het een nuttige feature is voor AMD kaarten maar dat die meerwaarde niet voldoende reden is om het te implementeren. Als Nvidia echt een marktaandeel van meer dan 75% krijgt dan zit dat er dik in. Zie ook wat Unreal nu over ASync Compute zegt ( LongBowNL in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 132" ).
Weet ik zo net nog niet. Mantle werd echt aangeprezen als iets wat voor AMD was. Misschien nog belangrijker het kwam van AMD zelf. Uiteindelijk doel was om het open te maken.

DX12 is iets algemeens en komt dus niet vanuit een van de twee. Alhoewel DX12 een groot deel van Mantle bezit.

  • Indy91
  • Registratie: oktober 2005
  • Laatst online: 03-07 09:58
quote:
LongBowNL schreef op dinsdag 01 september 2015 @ 12:46:
[...]


Is dit regeltje voor de Unreal Engine al damage control of is het echt moeilijker?

[...]

https://docs.unrealengine...t/AsyncCompute/index.html (laatste zin)
Ik weet het niet of dit moeilijker is of slechts damage control...

Wat ik wel weet:
  • Unreal Engine (Epic/Tim Sweeney) van meet af aan het bed deelt met nVidia (in ieder geval vanaf UT2K3)
  • Epic/Tim Sweeney, destijds Mantle enorm heeft liggen downplayen.
Ik kan Epic Games, net als Ubisoft trouwens, in ieder geval minder serieus nemen als onafhankelijke en objectieve game developers.

Indy91 wijzigde deze reactie 01-09-2015 15:26 (9%)

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


  • Werelds
  • Registratie: juli 2007
  • Laatst online: 14:04
Epic kan zeggen wat ze willen, maar juist hun engine heeft Async Compute hard nodig. Async Copy maakt daar deel van uit en dat zorgt er voor dat (o.a.) texture streaming geen pijn meer doet. Als je nu resources moet laden onderbreekt dat je rendering pipeline omdat de GPU context moet switchen. Met AC is dat dus niet meer nodig. En vooral met Tiled Resources wordt dat een veel groter probleem, omdat je met TR vaker kleinere dingen wilt laden, waardoor die overhead van de context switch nog veel pijnlijker wordt. En UE's texture stream tech is matig.

Ook particle effects hebben profijt van AC. Daar gaat het vaak vooral om grote batches van snelle, eenvoudige taken. Ook dat vergt echter een context switch en heeft dus onnodige overhead.

Praat maar eens met wat echte developers. Zelfs de kleine developers willen AC heel graag, juist omdat het laden van resources een stuk efficiënter wordt zonder dat het een gigantische verandering in de pipeline teweeg brengt. In tegenstelling tot bijvoorbeeld Conservative Rasterisation, dat leuk is, maar ook een andere aanpak vereist wat betreft je lighting.

  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 14-09 17:34
quote:
Zeara schreef op dinsdag 01 september 2015 @ 14:34:
[...]


Weet ik zo net nog niet. Mantle werd echt aangeprezen als iets wat voor AMD was. Misschien nog belangrijker het kwam van AMD zelf. Uiteindelijk doel was om het open te maken.

DX12 is iets algemeens en komt dus niet vanuit een van de twee. Alhoewel DX12 een groot deel van Mantle bezit.
De echte vraag is dus of Nvidia het beter gaat implementeren in de volgende generatie.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • marcop82
  • Registratie: maart 2013
  • Niet online
De echte vraag is toch nu en niet volgend jaar ?

marcop82 wijzigde deze reactie 01-09-2015 15:59 (6%)


  • oeLangOetan
  • Registratie: maart 2002
  • Laatst online: 02-09 15:13
quote:
LongBowNL schreef op dinsdag 01 september 2015 @ 12:46:
[...]

Hardware.info heeft het nu wel opgepakt.

Is dit regeltje voor de Unreal Engine al damage control of is het echt moeilijker?

[...]

https://docs.unrealengine...t/AsyncCompute/index.html (laatste zin)
Synchrone operaties (1 per 1, vaste volgorde) zijn per definitie makkelijker te begrijpen. Met asynchrone operaties moet je harder gaan nadenken:
  • Welke taken kunnen er tegelijk gebeuren, wanneer gaat het echt winst opleveren (er is een beperkte penalty bij het gebruik van async)?
  • Is mijn operatie afhankelijk van de resultaten van een vorige taak? zoja hoe weet ik dat die taak zijn werk volledig heeft afgewerkt?
  • Bij het debuggen is is ook vaak moeilijk om te traceren waar iets fout gaat, de volgorde waarin dingen gebeurt zijn ligt niet op voorhand vast dus moet je over alle mogelijke volgordes kunnen redeneren.
  • Het gaat misschien op 1 systeem (bvb amd, gcn1.1) altijd goed maar dan op een ander systeem niet (bvb intel of een nieuwere amd kaart) omdat de scheduling van taken op die systemen verschilt (het is een bug, maar een bug die misschien tijdens de ontwikkeling niet zichtbaar was).
  • ...
Dit is min of meer 'standaard' software engineering werk, dus iets wat game devs wel kunnen en de winst die je met async compute kunt halen maakt dat het zeker de moeite waard is. De waarschuwing van de UT devs klopt wel, async compute is een scherp mes, je moet een goeie kok zijn voordat je het gaat gebruiken ;).
Pagina: 1 2 3 ... 10 Laatste

Dit topic is gesloten.



Apple iPhone 11 Nintendo Switch Lite LG OLED C9 Google Pixel 4 FIFA 20 Samsung Galaxy S10 Sony PlayStation 5 Games

'14 '15 '16 '17 2018

Tweakers vormt samen met Tweakers Elect, Hardware Info, Autotrack, Nationale Vacaturebank, Intermediair en Independer de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2019 Hosting door True