Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
https://static.tweakers.net/ext/f/fNLqSH1P5nsANvKsOif8UNor/full.png
  • 16 juni 2015: Nieuw deel; alles bijgewerkt, nieuwe logo's, FreeSync, TressFX
  • 17 juni 2015: Fiji toegevoegd bij line-up
  • 19 juni 2015: Gehele Rx 300 series toegevoegd
  • 23 juni 2015: HBM, VSR, FRTC toegevoegd
  • 24 juni 2015: Deel 131! Gaat snel :)
  • 25 augustus 2015: Deel 132 en kopje toekomst wat geupdate.
  • 21 december 2015: Deel 133, o.a. Radeon Technologie, Crimson, HDR, R9 380X toegevoegd
  • 15 april 2016: Fury X2 aangepast, naar Radeon Pro Duo, info toegevoegd, toekomst en geruchten bijgewerkt
  • 14 mei 2016: Deel 134 aangemaakt.
  • 14 juni 2016: Oude line-up vervangen door nieuwe generatie, Async Compute, DX12, HBM2 en https proof
  • 28 juni 2016: Deel 136 aangemaakt en GCN4 geüpdatet, geruchten launch overige RX 400 kaarten toegevoegd
  • 2 juli 2016: Deel 137, officiële informatie van alle Polaris kaarten toegevoegd
  • 16 augustus 2016: Deel 138 aangemaakt en officiele RX 460, RX 470 gegevens toegevoegd.
https://static.tweakers.net/ext/f/WrsUgBs8Q7c7JclXsFSfM2YE/full.png
  • Flamen & Trollen
  • Basic questions, in dit topic gaan we er van uit dat je een beetje self-research hebt gepleegd d.m.v. de search-functie.
  • Gezeur over leverbaarheid, levertijden, prijzen en dergelijke.
  • Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod! Dit kan altijd via https://tweakimg.net/g/forum/images/icons/icon_hand.gif boven aan elk topic.
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op AMD Radeon gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.
https://static.tweakers.net/ext/f/54kDo1BkALQQjlPwEtxYJj7n/full.png
https://static.tweakers.net/ext/f/0PzCkxTkdJVtwpaoCV9Loo18/full.png

Zoek je algemene informatie over oudere GPUs? Kijk dan even in de first posts van de voorgaande topics en lees hun bijbehorende FAQs.
  • ATi Radeon X700 / X800 Series; R420 / R480: Deel 1 - 20
  • ATi Radeon X1000 Series; R520 / R580: Deel 21 - 50
  • ATi Radeon HD 2000 Series; R600 / RV630 / RV610: Deel 51 - 70
  • ATi Radeon HD 3000 Series; RV670 / R680: Deel 71 - 85
  • ATi/AMD Radeon HD 4000 Series; RV770 / R700: Deel 86 - 104
  • Geschiedenis van alle ATi videokaarten t/m de RV790: Deel 100
  • ATi/AMD Radeon HD 5000 Series; Evergreen: Deel 105 - 116
  • AMD Radeon HD 6000 Series; Northern Islands: Deel 117 - 123
  • AMD Radeon HD 7000 Series; Southern Islands: Deel 123 - 125
  • AMD Radeon Rx 200 series; Sea Islands: Deel 125 - 128
  • AMD Radeon Rx 200 series; Volcanic Islands: Deel 128 - 129
  • AMD Radeon Rx 300 series; Caribbean Islands: Deel 129 - 134
  • AMD Radeon RX 400 series; Arctic Islands: 134 - 138
R420 / R480
01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19 20

R520 / R580
21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50

R600 / RV630 / RV610
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70

RV670 / R680
71 72 73 74 75 76 77 78 79 80 81 82 83 84 85

RV770 / RV700
86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104

Evergreen
105 106 107 108 109 110 111 112 113 114 115 116 117

Northern Islands
118 119 120 121 122

Southern Islands
123 124 125

Sea Islands
125 126127 128

Volcanic Islands
128 129

Caribbean Islands
129 130 131 132 133

Arctic Islands
134 135 136 137

https://static.tweakers.net/ext/f/8FkkgTS9IXMDRQSyIHkLWCOV/full.png

Op 9 september 2015 werd bekend dat de GPU tak een los bedrijfsonderdeel binnen AMD wordt. Sinds de overname van ATi meer dan 9 jaar geleden door AMD was het meer een fusie bedrijf, waarbij de APU's van AMD het perfecte voorbeeld zijn van de fusie. Nu is de GPU tak een losse divisie onder de naam Radeon Technologies Group en staat het onder leiding van Raja Koduri. Zo moet de GPU tak zich beter kunnen focussen op nieuwe GPU's en weer een groter marktaandeel krijgen.



https://static.tweakers.net/ext/f/BZHShTxuT0vo5MjfwSLYRXKA/full.png

GCN

De Graphics Core Next Generation 1 of kortweg GCN microarchitectuur zag voor het eerst het levenslicht met Southern Islands in de HD 7000 serie. Het is de opvolger van de TeraScale microarchitectuur welke gebruikt werd sinds de HD 2000 series. De TeraScale microarchitectuur is een zogenaamde VLIW SIMD architectuur. De GCN microarchitectuur is een zogenaamde RISC SIMD architectuur.

Meer informatie over de GCN microarchitectuur kun je vinden in de HD 7970 review op AnandTech.

GCN2

Met de launch van de HD 7790 (Bonaire) had de GCN microarchitectuur de eerste veranderingen ondergaan. Bij AMD noemen ze de het GCN2, maar op internet staat het vooral bekend als GCN 1.1. De veranderingen zijn o.a. een nieuwe revisie van Powertune en ondersteuning voor TrueAudio en FreeSync.

Meer informatie over de GCN microarchitectuur kun je vinden in de HD 7790 review op AnandTech.

GCN3

Met de launch van de R9 285 (Tonga) zag de derde revisie van de GCN microarchitectuur het levenslicht. AMD noemt het GCN3, maar op internet zul je vooral GCN 1.2 tegenkomen. De veranderingen bestaan o.a. uit verbeterde tesselation performance, losless delta color compressie (voor geheugenbandbreedte reductie) en een nieuwe UVD.

Meer informatie over de GCN 1.2 microarchitectuur kun je vinden in de R9 285 review op AnandTech

GCN4

Met de launch van de RX 480 (Ellesmere) zag de vierde revisie van de Graphics Core Next architectuur genaamd GCN4 het levenslicht. De veranderingen zijn o.a. TrueAudio Next, betere Delta Color Compression, H.265 GPU versnelling voor afspelen video's, HEVC/H.264 video encoding voor videorecording en streaming met OBS of Raptr, HDMI 2.0b en Display Port 1.3/1.4 ondersteuning.



https://static.tweakers.net/ext/f/lsKsgtQZFT8XeaC6AxEKllfd/full.png

Na HBM is het in de nieuwe generatie de beurt aan de opvolger met de weinig verrassende naam HBM2. Het idee bij HBM2 is nog hetzelfde als HBM. Geheugen wordt naast de GPU geplaatst op een interposer. Via de interposer wordt het HBM verbonden met de GPU.



Door HBM wordt de totale oppervlakte van de GPU en het videogeheugen dat nodig is op een videokaart vele malen kleiner in vergelijking met GDDR5 en GDDR5X. Dit maakt kleine high-end videokaarten mogelijk, zie bijvoorbeeld de Fury X en Nano. Ander voordeel van HBM2 is dat het veel minder verbruikt als hoog geklokt GDDR5 geheugen en zelfs GDDR5X verbruikt meer.



Het verschil tussen HBM en HBM2 is dat HBM2 meer geheugen en meer bandbreedte mogelijk maakt zoals je op bovenstaande afbeelding kunt zien. Zat je met HBM vast aan 4096bit geheugenbus welke 512GB/s bandbreedte gaf en maximaal 4GB geheugen had verdeeld over vier stacks. Met HBM2 kun je die zelfde 512GB/s al bereiken met twee stacks van 256GB/s en dus maar een 2048 bit geheugenbus ook zit je nu niet aan maximaal 4GB vast, maar is 8GB in deze configuratie ook prima mogelijk.

HBM2 is dus ideaal voor een kleine high-end videokaart, maar misschien nog wel perfecter voor een high-end APU van AMD voor in bijvoorbeeld een console of kleine en zuinige game PC.

https://static.tweakers.net/ext/f/Sy8KyiLSuLTMoNWElKNAlnVb/full.png

Een aantal weken nadat bekend werd dat grafische tak binnen AMD een eigen divisie kreeg, kwam al snel één van de eerste veranderingen in de zin een opvolger voor Catalyst Control Center. Catalyst Control Center, geschreven in .NET, wordt opgevolgd door Radeon Software Crimson Edition, geschreven in Qt. Naast de volledig veranderde en meer moderne interface is Radeon Software Crimson Edition ook vele malen lichter als Catalyst Control Center, het start dus veel sneller.

Bij het lanceren van de nieuwe drivers beloofde AMD ook meer drivers en minimaal 6 WHQL versies uit te brengen per jaar. Vooralsnog maken ze ook hun belofte van meer drivers waar en ook liggen ze op schema voor 6 WHQL drivers binnen een jaar.



Voor alle slides en veranderingen zie het volgende artikel op TechPowerUp.

https://static.tweakers.net/ext/f/v2kCj9ge2GfrjjF6Jr7iJSud/full.png

GPUOpen is AMD's antwoord op nVidia's GameWorks, er is alleen één heel groot verschil. Waarbij GameWorks een gesloten systeem is wat er vaak voor zorgt dat games verschrikkelijk slecht presteren op bijna alle hardware, met soms uitzondering van enkele Maxwell kaarten, die dan gewoon slecht presteren, in plaats van extreem slecht. :p Wordt GPUOpen, zoals de naam al zegt, een verzameling van meerdere Open Source projecten voor meerdere platformen.



Voor meer informatie en nog wat over zie AnandTech en Wikipedia: GPUOpen

https://static.tweakers.net/ext/f/I0fL2gZGcNNDNRWGvfIvrXb4/full.png

FreeSync is AMD's tegenhanger van nVidia's Gsync. Met FreeSync is het mogelijk om een dynamische refreshrate te krijgen, in plaats van een vaste zoals gebruikelijk. Het voordeel hiervan is dat je geen screen tearing meer krijgt. Bij screen tearing worden 2 of meerdere frames van de videokaart op één refresh weergeven. Bij een snel bewegend beeld ziet dit er nogal vreemd uit, doordat het ene stukje beeld dan al verder is al een ander stukje.

Voorbeeld van screen tearing

Screen tearing ontstaat doordat op het moment dat de monitor een nieuwe frame uit de framebuffer van de videokaart er halverwege dit proces een nieuwe frame in de framebuffer wordt geplaatst. Op zo'n moment zie je dus twee halve frames op je scherm van verschillende tijdstippen. Zoals het plaatje hierboven laat zien is dit niet ideaal.

De oplossing hiertegen was altijd het gebruik van Vsync. Met Vsync produceert de videokaart niet meer frames dan het beeldscherm kan weergeven. Maar Vsync brengt ook weer andere problemen met zich mee. Vsync zorgt namelijk voor input lag. Ook zal de framerate halveren op het moment dat de videokaart niet het benodigd aantal frames kan weergeven. Dit zorgt dan weer voor een niet soepele game ervaring.

Met FreeSync pak je alle problemen aan welke je kan krijgen met een niet FreeSync setup. In tegenstelling tot hoe het eerst was bepaald nu niet de monitor wanneer er een nieuw beeld wordt weergeven, maar bepaald nu de videokaart dat. Op het moment dat de videokaart dus klaar is met een frame geeft die dit door aan de monitor welke dan de nieuwe frame uit de framebuffer kan halen.

Zo pak je screentearing aan en heb je tegelijkertijd ook geen last input lag of een veel lagere framerate.

FreeSync heeft een bereik van 9 t/m 240Hz, al zijn er (op dit moment) geen schermen te vinden die zo'n groot bereik hebben. FreeSync zit verwerkt in de DisplayPort 1.2a specificatie en is een open standaard welke voor iedereen te gebruiken is. Naast DisplayPort is AMD op dit moment ook bezig om FreeSync in een nieuwe HDMI standaard te verwerken.



Reviews over FreeSync zijn te vinden op bijvoorbeeld AnandTech en TechReport en TFT Central.

Meer informatie over FreeSync en geschikte monitoren op AMD.com

https://static.tweakers.net/ext/f/tCder6geO1PGaWahBUS7rC4u/full.png

Low Framerate Compensation, kortweg LFC, is een nieuwe functie bij het gebruik van FreeSync. Zonder deze functie krijg je bij FreeSync last van tearing en judder als de framerate onder het minimale zakt wat het FreeSync scherm kan weergeven. Bij het gebruik van LFC met Vsync heb je hier geen last van doordat dan meermaals dezelfde frame wordt weergegeven ter compensatie. Wel moet de maximale refreshrate van de monitor minimaal 2,5 maal zo hoog zijn als de minimale.





https://static.tweakers.net/ext/f/60sT5kAuTNA5mRnfZCO6yUDi/full.png

AMD TressFX Hair is een haar physics systeem. Bedoeld om haar zo natuurlijk mogelijk te laten ogen. Op dit moment zitten we op versie 2.0 in de nieuwe Deus Ex game zal versie 3.0 worden gebruikt. TressFX is in tegenstelling tot nVidia's Hairworks open source en kan dus door iedereen gebruikt worden.



https://static.tweakers.net/ext/f/2k7wU5j4IknRlRPsv71xXF1u/full.png

Virtual Super Resolution of kortweg VSR maakt het mogelijk om een hogere resolutie in te stellen dan dat het scherm werkelijk ondersteund. Vanzelfsprekend zal dit er bij normaal desktop gebruik minder mooi uitzien, maar bij games waarbij anti aliasing niet ondersteund wordt of problemen geeft kan VSR een handige bijkomstigheid zijn.



https://static.tweakers.net/ext/f/dZd9sEGFgEhpG3GrJ5ckbLMA/full.png

Frame Rate Target Control of kortweg FRTC zorgt er voor dat je de frame rate kan afkappen tot een bepaalde maximale waarde, welke in principe los staat van de verversingssnelheid van je beeldscherm. Het werkt niet alleen bij 3D games, maar ook bij introschermen of menu's e.d. In menu's wil een fps van enkele duizenden frames per seconde wel eens voorkomen, dit heeft natuurlijk geen enkel nut, kan alleen maar zorgen voor coil whine. Met FRTC heb je daar dus geen last meer van en het verlaagt ook nog eens het verbruik van de videokaart, doordat deze minder hoeft te berekenen. Het maximale aantal frames per seconde dat ingesteld kan worden is op dit moment 200 en het minimale aantal is 30.



https://static.tweakers.net/ext/f/8hoQr59hss9VZ16LVS7YgUSK/full.png

High Dynamic Range, kortweg HDR, brengt simpelweg een groter kleurbereik. Vanzelfsprekend moet je wel een HDR scherm hebben anders kan het niet weergegeven worden. Op dit moment zijn er een handje vol TV's welke het ondersteunen, maar in de toekomst wordt dit ongetwijfeld de standaard, ook voor monitoren. Zover is het nu in ieder geval nog niet, maar de nieuwste kaarten van AMD zijn hier alvast op voorbereid.





https://static.tweakers.net/ext/f/EfbjXonk1BekCuQdMpvm1JMP/full.png


Async Compute is één van de mooie onderdelen van DirectX 12. Async Compute maakt het mogelijk om meerdere verschillende opdrachten parallel door de GPU pipeline te laten lopen. Dit kan voor een grote prestatiewinst zorgen, dus meer fps of de instellingen kunnen hoger. Alle GCN kaarten van AMD ondersteunen Async Compute. nVidia's Maxwell en ook Pascal ondersteunen geen Async Compute waardoor AMD bij gebruik van Async Compute een erg grote sprong kan maken ten opzichte van nVidia.





Whitepaper van AMD wat betreft Async Compute, artikel hierover op Anandtech.

nVidia beweert overigens wel dat ze Async Compute ondersteunen. Zo hebben ze altijd vol gehouden dat Maxwell Async Compute heeft maar dat dit uitgeschakeld is in de driver. Vanzelfsprekend is dit niet waar, als het wel waar zou zijn hadden ze het ook al lang veranderd nu meerdere games en zelfs 3DMark er gebruik van kan maken. Bij Pascal hebben ze wel iets wat ze Async Compute noemen. Dit is echter geen Async Compute, er is namelijk niks asynchroon aan hun Async Compute.



Wat nVidia doet is het pauzeren van de een berekening data opslaan, andere data inladen die berekening uitvoeren, data van de eerste berekening weer inladen en verder gaan met die berekening. Gaat dus allemaal serieel terwijl Async Compute parallel werkt. Overigens heeft wat nVidia doet ook een naam, dat heet namelijk pre-emption iets wat AMD ook ondersteund. Alleen doordat nVidia geen Async Compute ondersteund noemen ze hun pre-emption ook maar Async Compute, terwijl dat heel wat anders is. In de bovenstaande afbeelding kun je echter ook zien dat pre-emption ook nadelen heeft, door het wisselen kun je ook juist performance verlies in plaats van winst krijgen.



Hierboven zie je ook nog schematische tekening van AMD waar je pre-emption, Async Compute los en gecombineerd aan het werk ziet.

https://static.tweakers.net/ext/f/vyeGPiTK9vb2O4HLp65Z7mFJ/full.png

Met de 400 serie is AMD ook overgestapt op een een naamsverandering, zodat het simpeler en duidelijker moet worden dan het was. Hieronder kun je een afbeelding zien wat de naam ongeveer moet betekenen.



Alles met de naam RX moet geschikt zijn voor minimaal games als DOTA 2 en LoL op full HD met minimaal 60 frames per seconde en dit geld voor de traagste RX kaart. Het eerste cijfer achter het voorvoegsel (RX) blijft de generatie, in dit geval vierde generatie. Tweede cijfer blijft prestaties 9 snelste en 5 het laagste aldus de slide. Laatste cijfer is dan voor de revisie, kan een 0 of 5 zijn. Zo had je ook al de R9 285 gebaseerd op Tonga wat je kan beschouwen als een nieuw revisie van Tahiti in de R9 280. Tonga had o.a. een nieuwe GCN versie en een kleinere geheugenbus en geheugencompressie.

AMD Radeon RX 460

De AMD Radeon RX 460 is gebaseerd op de Baffin (Polaris 11) GPU. Deze GPU heeft 1024 stream processors verdeelt over 16 CU's, waarbij twee CU's in de RX 460 zijn uitgeschakeld waardoor je een totaal krijgt van 896 stream processors. De volledige GPU zal eerst alleen als notebook GPU verschijnen en misschien later ooit nog als RX 465 beschikbaar komen.





Hierboven zie je een render van hoe een RX 460 eruit kan gaan zien. Er komt geen reference versie van deze kaart dus fabrikanten kunnen hun eigen PCB lay-out en koeler maken. Uiterlijk van deze render zal dus niet met de praktijk overeen te komen.

Doordat het hier gaat om een Baffin Pro GPU en dus niet de volledig ingeschakelde Baffin XT GPU, zit de prestatie iets onder die van een GTX 950 in DirectX 11 en OpenGL games en iets boven de GTX 950 in DirectX 12 en Vulkan games.

Dit is een kaart welke moderne zware games op gemiddelde instellingen zal kunnen spelen op full HD. Maar de markt waar deze kaart vooral op gericht is zal naast de notebook de meer lichtere games zijn zoals Counter Strike, DOTA 2, Heroes of the Storm, Overwatch, Rocket League, Team Fortress 2 of de gewoon iets oudere games.

Standaard verbruik van deze kaart ligt onder de 75W, overgeklokte exemplaren gaan over de 75W heen en hebben dan ook een extra PEG connector nodig. Met een stille koeler zal dit ook een prima HTPC kaart zijn welke op de toekomst is voorbereid door HDR, H.265/HEVC, HDMI 2.0b en DisplayPort 1.3 en 1.4.

AMD Radeon RX 470

De AMD Radeon RX 470 is gebaseerd op Ellesmere Pro (Polaris 10). Deze GPU heeft 2304 stream processors verdeelt over 36 CU's, waarbij 4 CU's in de RX 470 zijn uitgeschakeld waardoor je een totaal krijgt van 2048 stream processors. De volledige GPU vind je terug in de RX 480. De basiskloksnelheid van de GPU is 926MHz en de boostfrequentie is 1206MHz. Het GDDR5 geheugen heeft een frequentie van 1650MHz wat effectief neerkomt op 6,6Gbps.



Op bovenstaande foto zie je de RX 470, dit is echter een foto met reference versie. De RX 470 verschijnt echter alleen maar als custom versie, dus elke fabrikant zal komen met zijn eigen ontwerp van deze kaart. In DirectX 11 en OpenGL games zal de kaart zo'n 10% langzamer als een GTX 970 zijn, met Direct X 12 en Vulkan games moet de kaart zo'n 10% sneller kunnen zijn. Het verwachte verbruik van de kaart zal rond de 120W zitten. De vanaf prijs zal 179 dollar worden (net onder de 200 euro inclusief btw).

AMD Radeon RX 480

De AMD Radeon RX 480 is de eerste kaart van deze nieuwe serie. Deze videokaart is gebaseerd op de volledige Ellesmere (Polaris 10) GPU en telt 2304 stream processors verdeeld over de 36 CU's. De basiskloksnelheid bedraagt 1120MHz en de maximale frequentie is 1266MHz en hier zal de kaart, gemiddeld tijdens een zware game zal de reference kaart rond de 1200MHz zitten.





De geheugenbus bedraagt net als de RX 470 256 bit, het geheugen van de reference versie draait op 2GHz (8Gbps). Het geheugen mag echter ook op 1,75GHz (7Gbps) draaien om kosten te drukken. 7Gbps geheugenchips zijn namelijk goedkoper. De keuze is dus aan de fabrikant. RX 480 gericht op een lage prijs zullen waarschijnlijk vaker 7Gbps geheugenchips bevatten, terwijl duurdere modellen vaker 8Gbps geheugenchips zullen hebben.

Geheugen hoeveelheid kan zowel 4GB als 8GB GDDR5 zijn, waarbij de 4GB kaarten een MSRP (Manufacturer's Suggested Retail Price) hebben vanaf 199 dollar (~215 euro incl btw) en de 8GB kaarten een MSRP van 229 dollar (~260 euro incl. btw) hebben meegekregen.



Zoals je kunt zien op de laatste afbeelding van hierboven heeft ook de RX 480 standaard een enkele PEG connector. Verbruik van de kaart zit zo rond de 160W, waarmee AMD de kaart beter een 8 pins PEG connector had kunnen geven. Custom versies zullen waarschijnlijk meestal dan ook een 8 pins, twee 6 pins of een 6 en 8 pins PEG connector hebben.

Prestaties van deze kaart zitten zo'n 10% onder die van een GTX 980 in DirectX 11 en OpenGL, maar moeten zo'n 10% hoger liggen in DirectX 12 en Vulkan games. Hoe meer DirectX 12 games er in de toekomst dus komen hoe sneller de kaart gemiddeld dus wordt ten opzichte van de GTX 980.




Bron: http://www.hardwarecanuck...erformance-review-24.html

https://static.tweakers.net/ext/f/gIgCGUMMumlGZX7KQeORJvC6/full.png
  • FreeSync monitoren met HDMI aansluitingen.
  • Begin 2017 staat de high-end Vega met HBM2 op de planning.




https://static.tweakers.net/ext/f/HfxXR0ER9JAl66CISeu0vkDw/full.png

Q1 2017 wordt AMD's high-end Vega10 chip verwacht. Dit zou een chip moeten zijn met 64CU's oftewel 4096 stream processors, dit is een verdubbeling van de RX 470. Verwacht wordt dat de kloksnelheid van de GPU echter iets hoger ligt dan deze kaart, waardoor dubbele prestaties mogelijk moeten zijn. Schaling is echter nooit perfect waardoor, alleen een dubbel aantal stream processors niet genoeg is voor dubbele prestaties, de hogere kloksnelheid moet dat echter wel mogelijk maken.

Dat deze GPU hetzelfde aantal stream processors heeft als Fiji zegt overigens niks over de prestaties van Vega10. Vega10 is meer vergelijkbaar met Polaris en daarvan weten we al dat die een betere IPC heeft (meer prestaties op dezelfde kloksnelheid per stream processor). Daarmee kun je dus een prestatie verwachten van waarschijnlijk iets boven de GTX 1070, maar onder de GTX 1080. Het is echter allemaal afhankelijk van de kloksnelheid en die is waarschijnlijk nog niet eens precies bepaald door AMD op dit moment.

Vega10 zou voor de rest 2 stacks HBM2 geheugen moeten hebben, een halvering van Fiji, maar doordat met HBM2 de bandbreedte verdubbeld per stack zal de bandbreedte identiek blijven aan Fiji met 512GB/s. Ook dit is geen probleem, Vega10 kan net als Polaris een stuk efficiënter omgaan met geheugenbandbreedte door compressie technieken. De RX 480 heeft dan ook 256GB/s aan geheugenbandbreedte, een verdubbeling hiervan voor Vega10 moet dus voldoende zijn. Qua geheugengrootte kan AMD gaan voor zowel 8GB als 16GB, beide zijn realistische mogelijkheden en misschien kiezen ze ook wel voor beide door twee videokaarten uit te brengen gebaseerd op deze GPU.

Doordat HBM2 een stuk zuiniger is als GDDR5 geheugen zal het verbruik van de videokaart niet verdubbelen. Het geheugen op de RX 480 neemt waarschijnlijk maar liefst iets van 50W, waarmee de rest van deze videokaart dus iets van 110W verbruikt. Een verdubbeling van 160W (RX 480) zou 320W zijn, maar doordat Vega10 geen GDDR5 gebruikt, neem je twee maal 110W wat uitkomt op 220W en daarbij komt waarschijnlijk iets van 30W voor het HBM2 geheugen. Hierdoor kom je dus uit op 250W in plaats van 320W, een besparing van 70W door alleen maar een ander type geheugen te gebruiken.

Nu is Vega10 echter geen verdubbeling van de RX 480, maar eerder van de RX 470 met waarschijnlijk wel een hogere kloksnelheid en waarschijnlijk een iets beter productieproces. Een verdubbeling van de RX 470 betekend dus een lager verbruik dan 250W, eerder iets van 200W met HBM2. De verwachte hogere kloksnelheid zal het verbruik echter weer opdrijven, maar een beter productieproces zorgt er weer voor dat het verbruik lager ligt. Al met al zou ik dus uitgaan van een verbruik van zo'n 225W.

https://static.tweakers.net/ext/f/iADoSsXVtx7g6dJllPfBgsSV/full.png

AMD-only partners

AMD / nVidia partners

Utilities

  • GPU-z - Uitlezen temperatuur en specificaties van de videokaart.
  • Asus GPU Tweak II, voor de laatste versie geschikt voor jouw videokaart zie Asus.com en zoek jouw videokaart op.
  • SAPPHIRE TriXX Sapphire's overkloktool.
  • MSI Afterburner (gebaseerd op Rivatuner)
  • MSI Kombustor (gebaseerd op Furmark)
  • AMD Clean Uninstall Utility Voor als je problemen ondervindt met de huidige driver en een schone installatie wil doen. Ook aan te raden als je van Catalyst Control Center naar Radeon Software Crimson Edition gaat.
  • DUU Display Driver Uninstaller Voor als je driver problemen ondervindt of van nVidia naar AMD of visa versa wil.

Officieel AMD-gerelateerd

Topic-gerelateerd

https://static.tweakers.net/ext/f/hBpxBNOTo3QzPyWeAwkvheRk/full.png

Deze topicstart is opgedragen aan CJ, oprichter en schrijver van de ATi/AMD Radeon topicreeks van deel 1 tot en met deel 116, welke veel te vroeg van ons is heengegaan.


Rust zacht, CJ



[Voor 4% gewijzigd door -The_Mask- op 09-12-2016 15:10]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • cherrycoke
  • Registratie: december 2009
  • Laatst online: 31-08 06:53
voor de mensen die het willen zien

http://www.3dmark.com/fs/9787961 dit is met mijn crossfire 7870's

http://www.3dmark.com/fs/9848613 dit is met mijn Sapphire NITRO Radeon R9 FURY 4G HBM

  • Freaky Maus
  • Registratie: januari 2005
  • Laatst online: 03-09 18:33
cherrycoke schreef op zaterdag 20 augustus 2016 @ 09:40:
voor de mensen die het willen zien

http://www.3dmark.com/fs/9787961 dit is met mijn crossfire 7870's

http://www.3dmark.com/fs/9848613 dit is met mijn Sapphire NITRO Radeon R9 FURY 4G HBM
3DMark zegt mij niets maar heb sinds vrijdag ook dezelfde Fury kaart in mijn systeem nadat bericht kwam dat de levertijd van de RX480 Nitro OC nog onbekend blijft. Was het wachten beu, een maand geleden besteld en nog geen kijk op wanneer er wat binnen komt. Ik heb geen idee hoe Sapphire hun kaarten verdeelt maar de Benelux heeft blijkbaar weinig gehad? Teleurstellend.. ;w

Moet zeggen dat het verschil in prestaties ten opzichte van mijn GTX970 behoorlijk is op 1440p, draai TW3 nu redelijk constant rond de 60fps met alles op high settings bijvoorbeeld. Beter dan verwacht, ben benieuwd hoe Deus Ex: Mankind Divided erop loopt straks.

Op naar Vega! Weten we hier al wat meer over behalve dat het een grote dure chip wordt die pas ergens in 2017 beschikbaar wordt?

Specs

sdk1985 schreef op maandag 22 augustus 2016 @ 21:48:
[...]

Anti AMD is heel iets anders dan niet optimaal voor oude kaarten. We hebben ooit ook een tijd gehad dat ambient occlusion gewoon niet te draaien was. Dan ging je van 60+ fps naar 30 fps (saints row 2 als ik me niet vergis). Anti anti aliasing is tegenwoordig ook vrijwel gratis, anisotropisch filteren helemaal. Dus voor je zo'n conclusie trekt zou ik dat eerst even uitsluiten... Als je ergens "next gen content" op plakt dan moet je niet raar opkijken dat het niet goed draait op hardware uit 2011.
Het was next gen content uit 2006 of eerder, dat dat niet goed draait op midend hardware (iets duurder dan wat de RX 480 kost en wat de R9 380 kostte) uit 2011 vind ik nogal extreem. Dan moet je je m.i. afvragen of dat de gebruikte algorithmes wel voldoende efficiënt waren. Dat die software tegenwoordig veel beter is zal iedereen direct zien die zowel Tomb Raider Legend net NGC aan als Tomb Raider (2013) heeft gespeeld en die de FPS heeft gemeten. Het tweede spel haalt een twee keer zo'n hoge FPS met veel betere graphics. :)
Ik las trouwens dat de NGC gericht was op de XBox 360 en de PS3, de HD 7850 is ongeveer wat er in de PS4 op de APU zit.

[Voor 4% gewijzigd door CHBF op 23-08-2016 08:59]

Zelfcensuur is de meest schadelijke vorm van censuur.

Samsung erwartet GDDR6 mit 14-16 Gbps ab 2018

GDDR5X gibt es bisher nur von Micron, Samsung blickt deshalb auf GDDR6. Ab 2018 könnte dieser Standard verfügbar sein, im Gespräch sind zu Beginn 14 bis 16 Gbps. Das wäre zwar gegenüber GDDR5 ein größerer Sprung, GDDR5X könnte im Maximalausbau aber bereits ähnliches bieten.

Zu Beginn dieses Jahres wurde GDDR5X von der JEDEC als Speicherstandard zertifiziert. Diese beschreiben GDDR5X-SGRAM mit Kapazitäten von 4 bis 16 Gigabit pro Chip und einer Datenrate von 10 bis 14 Gigabit pro Sekunde. Die kleinste Lösung wird bereits aktiv eingesetzt, bei der Nvidia GeForce GTX 1080 kommen im Desktop und Notebook GDDR5-Chips aus der Klasse mit 10 Gbit/s zum Einsatz.

Geht es nach Samsung, soll GDDR6 genau da ansetzen, wo GDDR5X aufhört, bei 14 Gbps. In den Schubladen liegen Pläne, die den Speicher für Grafiklösungen dann bis auf 16 Gbps steigern wollen, wenngleich dies vermutlich bis zum Jahre 2020 dauern dürfte. Doch während GDDR5X nur eine kleine Evolution von GDDR5 ist, müssen für GDDR6 einige Dinge neu angepackt werden.




Eine Roadmap von Samsung zeigt die Einordnung des neuen Grafikspeichers im Verhältnis zu den weiteren Entwicklungen. Demnach würde GDDR6 im gleichen Zeitraum wie DDR5 angesiedelt, was jedoch auch bedeutet, dass zwischen Sampling und Massenprodukten gern noch einige Monate/Jahre vergehen können. Neben klassischen DDR-Speicher steht bei Samsung vor allem auch LPDDR im Fokus, da dort die Effizienz am höchsten ist.

Auf LPDDR4 soll mit einem Zwischenschritt weiter an der Front gearbeitet werden. Der abgekürzt LP4X genannte Standard soll den Takt bei gleicher oder gar verringerter Leistungsaufnahme erhöhen und so die Effizienz noch ein wenig weiter steigern, um die Zeitspanne zum neuen LPDDR5 zu verkürzen. Die Besonderheit beim LP4X gegenüber LP4 liegt im Detail: Während die Standardspannung für die Kernkomponenten bei 1,1 Volt bleibt, wird sie für die I/O-Elemente deutlich gesenkt.


https://tweakers.net/ext/f/BVaRlpgz1hdKd8m6uOosV0N1/thumb.png https://tweakers.net/ext/f/b1WgcVai7isy8mwmBVrrSJI7/thumb.png https://tweakers.net/ext/f/fr0B1MuwS22KfW05xElWdzZ3/thumb.png

Bron: https://www.computerbase....ng-gddr6-14-16-gbps-2018/




SK Hynix und Samsung über HBM2 & HBM3

Seit 2011 ist HBM in der Entwicklung, hat seit dem vergangen Jahr seinen Durchbruch erlebt. Jetzt verschiebt sich der Fokus auf die zweite Generation, die dritte zeichnet sich am Horizont ab. Doch zu Beginn gab es erst einmal die Retourekutsche in Richtung Micron, die kurz zuvor HBM als Kopie von HMC bezeichnet hatten.

Wenngleich mit der Entwicklung von HBM später begonnen wurde, habe das „ehemals kleine Kind nicht nur das große geschlagen und dem alle Süßigkeiten weggenommen, derzeit sei HBM zudem der einzig relevante Standard“, erklärte Kevin Tran, Senior Manager Technical Marketing von SK Hynix in Richtung Micron. Denn SK Hynix ist nicht alleiniger Fertiger des Speichers, mit Samsung ist zudem auch der Marktführer mit an Bord, ebenso wie die JEDEC, die daraus einen Standard gemacht hat. HMC von Micron hat in all diesen Punkten nichts entgegenzusetzen.


https://tweakers.net/ext/f/v6ql3ben2OtBUKZwyySik2SA/thumb.png https://tweakers.net/ext/f/Qm80vG5FtwBsyvjA1bhPIp4w/thumb.png https://tweakers.net/ext/f/bSS1nzjPg9aX2G3G32IRkYNT/thumb.png https://tweakers.net/ext/f/J7gHjUvUd1xmtVnYIIHDPTgt/thumb.png https://tweakers.net/ext/f/fKPcrga8U4YBabjgOg61VBjI/thumb.png https://tweakers.net/ext/f/MG8ZlNNwk25l1xVoRld7zaFT/thumb.png https://tweakers.net/ext/f/fF3h5C501aRMGl6LMHFvzfHc/thumb.png

SK Hynix widmete sich am Sonntagmittag in seiner Vorstellung fast ausschließlich der Thematik HBM. Neben den aktuell einzigen Lösungen für Grafikkarten soll HBM in Zukunft auch in anderen Märkten zum Zuge kommen. Dabei werden sowohl Möglichkeiten für den Einsatz im Notebook evaluiert als auch im HPC-Segment, wo der HBM quasi als vierte Cache-Stufe eingebaut werden könnte.

Diese Überlegung ist nicht neu, Intels Knights Landing mit HMC von Micron bietet bereits exakt so etwas an, dort kann der 16 GByte große On-Package-Speicher wahlweise als RAM oder als Cache konfiguriert werden.




Samsung sieht Möglichkeiten, HBM noch günstiger zu machen, um so eben auch den Massenmarkt wie beispielsweise Notebooks zu adressieren. Der Kostenfaktor sei nach wie vor nicht zu unterschätzen, eine geringere Menge an TSVs und deutliche Optimierungen beim Aufbau mit im Endeffekt aber nur einer leicht gesenkten Bandbreite sollen helfen, die Kosten insgesamt massiv zu drücken und so den gesamten Consumer-Markt adressieren zu können.

HBM3: Verdoppelte Bandbreite

HBM3 als dritte Ausbaustufe soll einmal mehr die Bandbreite verdoppeln. Im Gespräch sind deshalb 512 GByte pro Sekunde. Doch neben der gesteigerten Bandbreite hat man auch die Kosten im Blick, denn diese im Rahmen zu halten ist eine Herausforderung. Gleichzeitig gibt es noch andere Baustellen, um den Speicher noch mehr zu differenzieren und letztlich quasi jeden Marktbereich erobern zu können. Samsungs Vorstoß bei HBM für Low Cost zielt bereits in eine ähnliche Richtung, dort ist in Zukunft noch mehr zu erwarten. Mit der Aussage „the overall cost will be very attractive“ schloss SK Hynix die Ausführungen zu HBM.



Bron: https://www.computerbase....-hynix-samsung-hbm2-hbm3/




Micron über DRAM, Flash, 3D XPoint und HBM als HMC-Kopie

Sonntagmorgen im Flint Center in Cupertino, die Hot Chips 28 startet mit einer Vormittagsveranstaltung über Speicher. Dabei geht es um alle aktuellen Technologien, von klassischem DRAM und Flash, von HMC bis hin zu GDDR5X und das, was in Zukunft kommen könne: DDR5, 3D XPoint & Co. Und das alles mit extrem viel Ehrlichkeit.

Die erste Präsentation der Veranstaltung dieses Jahres ging an Micron. Der Speicherhersteller ging gleich zu Beginn mit einigen Buzzwords wie IoT und Zahlen ins Gericht, unter anderem auch der von Intel stetig genannten „50 Milliarden vernetzten Geräten im Jahre 2020“ – wenn es 20 Milliarden sein werden, wäre das schon viel, erklärte Micron bei Hot Chips 28. Die erfrischend ehrlichen Worte ging auch an anderer Stelle weiter, selbst bei eigenen Produkten: 3D XPoint. Dort erklärte der Speicherhersteller, dass man (mit dem Fingerzeig auf Intel) viel zu früh mit der Technik an die Öffentlichkeit gegangen ist, die Serienproduktion frühestens Ende dieses Jahres starten werde.



J. Thomas Pawlowski, Fellow & Chief Technologist in Micron’s Architecture Development Group erklärte anhand von einige Beispielen die Herausforderungen von der Weiterentwicklung von DRAM. Mit jedem Schritt wird es nicht nur komplizierter, auch steigt die benötigte Fläche an Reinraum und das Arbeitsmaterial deutlich an, selbst um nur den gleichen Ausstoß an Wafern wie zuvor beizubehalten. Erneut wies auch Micron darauf hin, dass die Bezeichnungen der Fertigungen Schall und Rauch sind. Die 10Y getaufte Fertigung bei Speicher werde beispielsweise nicht einmal ansatzweise 15 nm erreichen; und dies nur auf der Logic-Seite.

Micron: HBM ist eine schlechte Kopie von HMC

Wenig, respektive gar kein positives Wort verlor Micron über High Bandwidth Memory (HBM). Diese bezeichnete Pawlowski als schlechte Kopie des eigenen Standards HMC, der im Jahre 2011 auf einer Hot-Chips-Veranstaltung enthüllt wurde. Die zweite Generation von Hybrid Memory Cube sei in Produktion, mit vielen Features, die HBM außerhalb von Bandbreite gar nicht bieten kann. Eine Vergleichsfolie von HMC vs. HBM lehnte Micron ab und erklärte dies mit den Worten, „it's like beating up a kid and taking the candy“. Der Konter von der HBM-Fraktion folgte kurze Zeit später.

https://tweakers.net/ext/f/cMa6NUpO5oB83D8gpapGx8wh/thumb.png https://tweakers.net/ext/f/aMgUrrFeL74vj9wwWudcaqrK/thumb.png https://tweakers.net/ext/f/61GZuMnyRaVb8nyl2ddRKeSb/thumb.png

DDR5: Sampling ab 2018, Produktion frühestens ab 2019

Auch zum kommenden Next-Gen-Speicherstandard verlor Micron einige Worte. Da der Standard der JEDEC unterliegt, sei es vorab nicht erlaubt, Details dazu preiszugeben, wenn dieser noch in der Entwicklung ist. Doch die Ziele sind im Grunde genommen klar: Der Basisstandard dürfte DDR5-3.200 sein, mit Ausbaumöglichkeiten bis DDR5-6.400, die Standardspannung 1,1 Volt betragen. Einige Optimierungen werden natürlich mit im Gepäck sein, unterm Strich soll die Bandbreite des aktuellen DDR4-Standards verdoppelt werden.

Für das Jahr 2018 erwartet Micron das Sampling von DDR5, frühestens 2019 einen angehenden Start der Serienfertigung. Realistischer ist jedoch 2020+, denn wie üblich werde dies nicht über Nacht geschehen, erklärte der Mann der offenen Worte mit den Blick auf die DDR3-Fertigung, die immer noch in High Volume Production ist, obwohl DDR4 nun in jedem Markt präsent ist.


Micron zu Hot Chips 28

https://tweakers.net/ext/f/lpj2V0fah4AxFhsuBmI8BA70/thumb.png https://tweakers.net/ext/f/O7d8VUhiIlGHA0SQZWg8rh8Y/thumb.png https://tweakers.net/ext/f/NCucXaHS7BhWvlb1z4vGpyYD/thumb.png https://tweakers.net/ext/f/munEabfSSeDmQjftenUoRPmS/thumb.png https://tweakers.net/ext/f/BflNWuIsy6uDKTtSCc18TDUs/thumb.png https://tweakers.net/ext/f/WkXLrHU3sL8ojgPAomJPclYJ/thumb.png https://tweakers.net/ext/f/ibPKsjt1S6PgfdDLBcVd47a4/thumb.png https://tweakers.net/ext/f/3ZpmhGtRMiWtwyEW9QkMa8MQ/thumb.png https://tweakers.net/ext/f/ZwQaXMww5EaUbifDKjJsBMJS/thumb.png https://tweakers.net/ext/f/72KaspJdzVfCvO8H55l7muE8/thumb.png https://tweakers.net/ext/f/kJACTZF4AeOpXAQlgc4HTWXV/thumb.png https://tweakers.net/ext/f/NzVxi6eD5bqcWyrKpp8Myzfd/thumb.png https://tweakers.net/ext/f/ghE1bmaQj4VymarDCOLKOJjL/thumb.png

Bron: https://www.computerbase....dram-flash-3d-xpoint-hmc/

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • NitroX infinity
  • Registratie: januari 2002
  • Laatst online: 21:41

XFX komt met passief gekoelde RX 460



http://videocardz.com/634...ces-fanless-radeon-rx-460

I need dis! Voor €100.

[Voor 23% gewijzigd door NitroX infinity op 26-08-2016 17:06]

Mijn blog; Floating Points


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 00:14

Sp3ci3s8472

@ 12 graden...

AMD rockets past 100 FreeSync displays as Lenovo jumps on board

AMD’s game-smoothing FreeSync monitors launched a full year after Nvidia’s rival G-Sync displays, but they’ve been coming fast and furious ever since. Late Thursday, the company revealed that its technology surpassed not one, but two major milestones with the launch of the 27-inch Y27f ($400 on Amazon) earlier this month. This curved, 144Hz 1080p display is both Lenovo’s first-ever FreeSync display, as well as the 101st FreeSync display released overall.

FreeSync and G-Sync monitors synchronize the refresh rate of your graphics card with your display. That eliminates stutter and tearing, resulting in gameplay so buttery smooth that you’ll never be able to use a traditional non-variable refresh rate monitor again. Both technologies are utterly superb.
Goed nieuws voor AMD dat de adoptie zo lekker loopt.

Met wat Samsung reclame:


Eerste scherm in de video is een Freesync scherm wat ook Freesync via HDMI heeft!

offtopic:
Merk overigens dat dit soort nieuws helemaal niet meer op de FP komt ook al commit je het. Enige wat we zien is telefoon en tablets :(.
Ook dat Intel geen EUV gaat gebruiken voor 10nm of 8? en dus ASML een Nederlands bedrijf dus een klant misloopt, lees je niks van op de FP maar wel op Fok 8)7.

[Voor 18% gewijzigd door Sp3ci3s8472 op 29-08-2016 12:47. Reden: /rant]

Battle.net tag


  • Habana
  • Registratie: oktober 2005
  • Laatst online: 02-04 11:48
Niet alleen de karige beschikbaarheid, maar ook de nu nog belachelijke prijzen van bv MSI Radion Gamimg X 8G RX480 van €354 euries houden mij nog tegen.

  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 15:56
Als AMD echt wil doorbreken met Freesync dan zorgen ze dat het ook gaat werken op Nvidia kaarten. In dat geval heeft het voor de Nvidia klanten (lees 80% van de dedicated gpu markt) ook nut om voor een Freesync monitor te gaan. Dat zou dan weleens de doodsteek voor G-sync kunnen betekenen.
CHBF schreef op dinsdag 30 augustus 2016 @ 17:57:

Daar hoeven ze zich weinig zorgen over te maken, zie de '1060' 3GB die zelfs voor DX11-spellen niet de RX 480 (4 GB) verslaat. :)
NVidia kan wat meer leveren voor relatief meer meer geld, meer performance voor hetzelfde bedrag dat doet NVidia niet. :)
Het is natuurlijk geen kwestie van kunnen maar van willen. Voorlopig lijkt Nvidia te kunnen vragen wat ze willen. Het verkoopt als zoete broodjes en AMD kan momenteel niet leveren (medium range RX 480 slecht leverbaar en high-end laat waarschijnlijk nog 6+ maanden op zich wachten).

Zelfs de GTX 1060 staat nu als "Hugely higher market share. +136%". Dat ding is nu ook niet bepaald lekker leverbaar. Bij de 1070 komen we al op "Hugely higher market share.+309%"

Ik maak me wat dat betreft ondertussen echt grote zorgen dat Polaris weer de zoveelste management faal van AMD wordt. (Daar kunnen de engineers niks aan doen, die maken een prima product). De basis van economie blijft dat je bij een beperkt aanbod de prijs gaat verhogen tot de vraag daalt. Dat lijken ze bij AMD keer op keer niet te begrijpen (199 doellancering). Natuurlijk staat het ze vrij te lanceren met 199, echter zorg dan dat je er 3 miljoen kunt leveren in het eerste halfjaar. Weet je van te voren dat dit niet gaat lukken? Kom dan met 275 dollar oid, tot je wel aan de vraag kunt voldoen en tegelijkertijd meer geld verdient aan elke kaart.

[Voor 74% gewijzigd door sdk1985 op 30-08-2016 18:19]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

CHBF schreef op dinsdag 30 augustus 2016 @ 18:59:
Ik neem het van jou aan maar is het dan wel G-Sync? Het lijkt mij van niet. Een onderdeel van het concept van G-Sync is dat er dubbele of zelfs drievoudige frames worden geplaast wanneer de FPS te laag wordt (beneden de minimale verversingssnelheid van de monitor). Hoe dan ook, als NVidia dit inderdaad al heeft geïmplementeerd voor laptops die gene FPGA-module bevatten dan zou NVidia dat duidelijk per direct ook voor de monitors bij desktops kunnen implementeren. Schimmig. Ik vind het oliedom van NVidia want als ze gewoon FreeSync zouden ondersteunen dan zou de 1070 minder per frame per seconde kosten dan de RX 480. :)
"FreeSync" doet dat ook, dat zit in de AMD driver. En in de Nvidia driver voor laptops met "G-Sync" zit dat ook gewoon in de driver.

G-Sync gebruikt momenteel wel een FPGA in de schermen, maar het enige dat dat ding doet is enkele protocol functies uit eDP naar DP 1.2 brengen (zie hieronder).
Sp3ci3s8472 schreef op dinsdag 30 augustus 2016 @ 19:12:
Nvidia had ineens G-Sync in de laptops en in al bestaande modellen. Dat is gewoon de DP1.2a dus.
Nee, dat is eDP 1.3 uit 2011. Dat werd al langer gebruikt om stroom te besparen.

Adaptive Sync bestaat voor 80% uit dingen die al in DP zaten, samen met een aantal functies uit eDP 1.3 (voornaamste is Panel Self Refresh). AS doet niet veel meer dan een aantal functies van eDP naar DP brengen en er een formeel protocol omheen breien dat al die functies combineert tot wat wij nu als variable refresh rate kennen.

G-Sync gebruikt ook diezelfde features. Dat is hoe AMD binnen een maand of 3 na de release van G-Sync een werkend prototype had met laptops en nog een maand of 2 daarna een standaard klaar had die bij VESA ingediend werd. De G-Sync FPGA ondersteunt alles voor AS al, het enige wat mist is een klein stukje driver code van Nvidia dat de AS specificaties omzet naar hun ongetwijfeld beveiligde protocol. Dat kan 100% in de driver.
sdk1985 schreef op dinsdag 30 augustus 2016 @ 18:11:
Als AMD echt wil doorbreken met Freesync dan zorgen ze dat het ook gaat werken op Nvidia kaarten. In dat geval heeft het voor de Nvidia klanten (lees 80% van de dedicated gpu markt) ook nut om voor een Freesync monitor te gaan. Dat zou dan weleens de doodsteek voor G-sync kunnen betekenen.
sdk1985 schreef op dinsdag 30 augustus 2016 @ 18:20:
Dat is precies wat ik dacht, AMD kan met een tooltje komen. Als Nvidia daar tegen gaat protesteren is dat flink negatieve pr. Of ze hadden FreeSync in een standaard moeten proppen (DX12 of OpenGL oid).
Dit gaat zomaar niet. Dan moeten ze Nvidia's driver op de een of andere manier zien te reverse engineeren; of de firmware in de AS FPGA's van Realtek/Novatek/MStar op de één of andere manier aanpassen zodat deze zich als G-Sync display aanmelden. Beide opties zijn lastig (zoals ik hierboven al zeg twijfel ik er niet aan dat Nvidia's protocol een vorm van encryptie gebruikt) en daarnaast heel eenvoudig door Nvidia te blokkeren.

Waarom zou AMD zich dan die moeite gaan doen?

En nee, het is ook niet zo dat ze Nvidia gewoon die code moeten "geven", die code is namelijk specifiek voor AMD's display controllers. Daar heeft Nvidia geen reet aan.

DX12 en OGL hebben geen reet te maken met de display protocollen. HDMI, DP of wat dan ook hebben die API's geen boodschap aan en dat is maar goed ook (dan zou je ook nog met DX12 compatibele monitors zitten 8)7, alsof we het nog niet erg genoeg hebben). Adaptive Sync ís al een standaard die Nvidia zonder meer kan ondersteunen. Het kost ze geen royalties, VESA's standaarden zijn allemaal royalty-free (ongeacht wat MPEG LA claimed; maar dat zijn sowieso eerste klasse hufters).
enchion schreef op dinsdag 30 augustus 2016 @ 19:37:
Je mag ervan uitgaan dat Freesync gratis/open is geworden omdat de scherm producenten dat graag wilden, dan kunnen ze de monitoren goedkoop blijven/gaan aanbieden en is de kans op markt acceptatie een stuk groter.
Adaptive Sync is open geworden omdat AMD dat wilde. AMD wilde Nvidia daar een hak mee zetten omdat ze al meteen zagen hoe Nvidia het klaarspeelde. En dat is ze gelukt ook, G-Sync heeft totaal geen momentum meer.

Nvidia's eerste G-Sync demo's en producten kwamen van ASUS, die sowieso zelf al niets bouwen voor hun monitors. Dat is niet toevallig, ASUS is al jarenlang een partner van Nvidia met dit soort dingen. Het tijdsbestek waar AMD vervolgens met een prototype kwam is niet lang genoeg voor een Samsung of LG aan te kloppen en iets af te dwingen. Bovengenoemde scaler fabrikanten sloten zich ook pas ruim 4 maanden na de aankondiging van AS aan; dat was dik 8 maanden na AMD's prototype.
Ik moet eigenlijk een langere post typen, maar hij negeert een aantal dingen. Het is wel een leuke post. Het verschil tussen parallelism en concurrency legt hij redelijk uit, maar dan legt hij asynchronous er als een derde optie naast; terwijl asynchronous juist één van die 2 nodig heeft. Latency en throughput zijn ook onlosmakelijk met elkaar verbonden, terwijl hij het juist over doet komen alsof het volledig losstaande dingen zijn.

Belangrijkste is echter dat hij Nvidia hier probeert te verdedigen (even tussen de regels door lezen ;)); maar veel van de informatie over hoe Nvidia het doet laat hij dan achterwege. Hij negeert het feit dat Nvidia in software scheduled, daardoor latency creëert en dus het doel van async volledig teniet doet. Nvidia's implementatie is overigens primair concurrent, AMD's implementatie is parallel. Zonder die driver latency zou er niets mis zijn met Nvidia's aanpak.

Leukste filmpje over concurrency vs. parallelism dat ik ken: https://blog.golang.org/concurrency-is-not-parallelism (staat ook een link naar de slides).
enchion schreef op dinsdag 30 augustus 2016 @ 19:37:
[...]


Je mag ervan uitgaan dat Freesync gratis/open is geworden omdat de scherm producenten dat graag wilden, dan kunnen ze de monitoren goedkoop blijven/gaan aanbieden en is de kans op markt acceptatie een stuk groter.

Ga niet gek staan kijken als LG, Samsung enzzz... bij AMD hebben aangeklopt om een alternatief voor GSync te verzinnen dat onderdeel wordt van de standaard.
AMD krijgt geld om het te regelen, belooft (vastgelegd) dat het geen royalties krijgt en mogen het in ruil voor de moeite in de pers brengen alsof ze het helemaal zelf hebben gedaan.
Ik had er nog niet zo over gedacht maar het zou best wel kunnen. :)
In het verlengde hiervan, als je via het Youtubekanaal van de Khronos Group een van de laatste lezingen beluistert dan hoor je een van de architecten van Vulkan uitleggen dat Vulkan er vooral op verzoek van de developers is gekomen. 'Toevallig' bleek AMD iets te hebben wat wel aardig zou kunnen werken en zo werd Mantle als basis gebruikt voor Vulkan (en blijkbaar DX12 :)). Dat geeft goede hoop dat Vulkan ook daadwerkelijk veel gebruikt gaat worden.
spoiler:
Ik zie er een aantal voordelen in. De spellen zijn op alle platforms te spelen, wat ik wel fijn vind aangezien ik graag zou willen overstappen naar Linux, en zowel de code die door deze open code (Vulkan) wordt gebruikt als Vulkan zelf zouden in theorie beter geoptimaliseerd moeten kunnen worden (ook omdat heel erg veel mensen de code bestuderen en zodoende foutjes eerder worden opgemerkt) , bovendien kan iedereen die een goed idee heeft om de code verder te verbeteren of die een leuk idee heeft voor een nieuwe functie dit uitwerken en voorstellen en kan het dan in Vulkan worden opgenomen als de leiders van de Khronos Group denken dat het Vulkan verbetert.

Zelfcensuur is de meest schadelijke vorm van censuur.


  • LongBowNL
  • Registratie: juni 2009
  • Laatst online: 22-09 10:03
http://support.amd.com/en...16-9-1-Release-Notes.aspx
Radeon Software Crimson Edition 16.9.1 Highlights

Support for:
  • Deus Ex™: Mankind Divided (DirectX®12)
New AMD CrossFire profile added for DirectX® 11:
  • DOTA™2
Fixed Issues
  • A small number of 144Hz non-FreeSync enabled displays may exhibit flickering during gaming or on desktop.
  • FreeSync may stay enabled while on desktop causing flickering.
  • Grand Theft Auto V™ may experience an application hang after loading story mode.
  • DiRT™ Rally rain drops may flicker when using high or ultra in game settings.
  • DOOM™ may experience a hang on game exit in some limited AMD PowerXpress configurations.
  • Total War™: Warhammer may experience negative AMD CrossFire scaling on some Radeon RX 400 series configurations.
  • GPU utilization may remain high when idle after running SteamVR performance benchmark.
  • Pixel format options may be missing from Radeon Settings for some limited system configurations on Radeon RX 480 graphics.
  • Radeon Software may intermittently fail to install or hang on some AMD CrossFire configurations. If this happens users can reboot and re-install without issue as a workaround.
  • Some Radeon RX 400 series graphics products may experience high GPU usage when resuming from sleep.
Known Issues
  • A few game titles may fail to launch or crash if the AMD Gaming Evolved overlay is enabled. A temporary workaround is to disable the AMD Gaming Evolved "In Game Overlay".
  • Upgrading from a previous Radeon Software Crimson Edition version may cause user settings in Radeon Settings to reset to defaults.
  • OpenCL applications may run initially on integrated graphics if they are present. Make sure to set the application to the correct device you would like to use.
  • Radeon Settings information tab may report incorrect Open CL or Mantle versions.
  • Radeon Software installer may report driver uninstallation failed even when it was successful.
  • No Man's Sky™ some minor corruption may be experienced when standing close to solid structures inside of caves.
  • Mouse cursor corruption may be experienced very intermittently on the Radeon RX 480.
  • DOTA2™ may experience an application hang when using the Vulkan™ API and changing resolution or game/quality settings.
  • Ashes of the Singularity™ may experience an application crash with "crazy" in game settings and Multi-GPU enabled.

  • LongBowNL
  • Registratie: juni 2009
  • Laatst online: 22-09 10:03
Als je kijkt naar benchmarks, gaat het over de GTX 1080. Die verliest inderdaad FPS tov DX11.


Source: http://www.guru3d.com/art...e_benchmark_review,8.html

  • Trygve
  • Registratie: oktober 2009
  • Laatst online: 22:59
Op Reddit:
AMD DX11 API Overhead 16.9.1 VS 16.8.3

De +21% drawcalls in DX11 ST kan ik niet repliceren, maar ik meet over 10 runs gemiddeld inderdaad 4.5% meer drawcalls in DX11 ST en 7% 14.6% meer in DX12 tov 16.8.3.
Sorry, even niet aan gedacht om het toe te voegen.
Compizfox schreef op vrijdag 09 september 2016 @ 00:57:
Ik had alleen verwacht dat de prijzen sneller zouden zakken aangezien het aanbod ook een stuk verbeterd is.
Ik ook.
Tja, dat is wel een dingetje. Als ik een nieuwe kaart koop wil ik een groot verschil zien. Ik ben dus bang dat van een HD7970-->RX480 misschien een net wat te kleine verbetering is. Zeker als je dat vergelijkt met m'n vorige upgrades (HD3850-->HD6950-->HD7970).
Vega komt waarschijnlijk uit tussen april en juni.
Maar er komen meerdere Vega-kaarten uit, toch? Is deze speculatie dan op basis van het top-model of?
Veel eerder gaf AMD aan dat er 2 Vega-kaarten (10 en 11 of zo) zouden komen dus je zou minstens twee kaarten moeten krijgen. De RX 490 en de Fury ontbreken nog in het licht bezien van de vorige generatie. Koduri gaf aan dat er in elke prijsklasse een kaart zou uitkomen, dat in combinatie met het vasthouden aan de naamgeving en de consistentie van de prijzen voor de *80-kaarten (steeds ongeveer 200 euro) suggereert voor mij dat er een RX 490 uitkomt die ongeveer dezelfde MSRP gaat krijgen als dat de R9 390 kreeg en dat er een Fury uit zal komen.
Er zijn hier ook mensen die geloven dat de RX 490 niet een van de Vega-kaarten gaat zijn. Zeker is in ieder geval dat de RX 490 volledig los staat van de Polaris chip, de RX 480 bevat de volle Polaris chip.

Zelfcensuur is de meest schadelijke vorm van censuur.

CHBF schreef op zaterdag 10 september 2016 @ 19:12:
YouTube: GTX 1060 3G vs RX 480 vs GTX 1060 6G - GTX 1050 in disguise?
JayzTwoCents heeft nog steeds niet door dat je voor NVidia-kaarten een veel duurdere monitor moet kopen.
Je moet geen FreeSync of G-Sync monitor kopen, dat mag.
Even iets anders. Iemand beweerde dat AMD een paper launch zou overwegen voor de Vega-kaarten in Q1. Een indianenverhaal of gestaafd met feiten? Ik heb de laatste dagen het nieuws gemist.
Iemand die dat op internet plaatst heeft sowieso geen idee waar die over praat. De mensen die het kunnen weten, die gaan zoiets namelijk sowieso niet op het internet plaatsen of delen met anderen die dat zouden doen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • RmanX
  • Registratie: juni 2001
  • Laatst online: 14-09 19:23

RmanX

Mario pizza!

Dit weekend maar eens een mooi overzicht gemaakt van de relatieve prestatieniveaus van 6 generaties AMD/ATI Radeon kaarten die ik mijn bezit heb (gehad). Ik heb ook enen tabel met ingebouwd diagram gecreëerd :P :


Voor het gemiddelde prestatieniveau ben ik uitgegaan van Techpowerup reviews waar de relatieve prestaties meestal samengevat zijn voor meerdere generaties (basis 1920x1080 of gemiddelde van alle resoluties). De rood gekleurde cellen in mijn tabel geven het prestatieniveau weer ten opzichte van de R9 Fury afgerond op 5%.

Een paar leuke observaties:
  • Een HD 3850 presteert net minder dan 10% van de R9 Fury
  • Het TDP is een factor 4 gestegen, waarbij opgemerkt kan worden dat zowel de 280x als de Fury (semi) high end kaarten zijn en de rest mainstream/enthusiast. Dit zie je ook een beetje aan de chip grootte.
  • Het aantal transistors is meer dan een factor 10 toegenomen
  • Heb met de HD6870 nog eens Crossfire gedraaid, maar had last van microstuttering. Was op papier ongeveer gelijk aan een 280x wat je ook de tabel ziet
  • Een RX 480 staat niet in de tabel maar zou uitkomen op 89% van de Fury op (ref. 8 GB versie 1920x1080)
Vragen/opmerkingen/suggesties zijn welkom 8)

[Voor 3% gewijzigd door RmanX op 11-09-2016 20:06]

AMD Ryzen 7 2700 | 16 GB DDR4 3200 Mhz | AMD Radeon RX Vega 64 | 2 x SSD | 2 x 5400 RPM HDD | LG 16X DVD RW | LG BD | LG 27" 4K


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 00:14

Sp3ci3s8472

@ 12 graden...

Zou Doom 4 in Vulkan gebruik maken van Partial Resident Textures of maakt Megatextures daar sowieso wel of geen gebruik van?

Ik kwam dit overigens tegen, erg leuk om te zien hoe de render pipeline van Doom 4 eruit ziet. Vooral mooi dat ze nu een mix tussen Forward en Defered rendering hebben gevonden waardoor Anti-Aliasing makkelijker is.
http://www.adriancourrege...doom-2016-graphics-study/

Battle.net tag

Voor wie het interessant vindt en toevallig dit spel heeft gespeeld: ik speelde eerder op de avond Homefront: The Revolution met een HD 7850, ik haalde mid 30 FPS op de zwaardere stukken en mid 40 op de hogere stukken met FXAA, temporele aliassing op de default-waarde, een hoge kwaliteit van textures en alle overige instellingen (inclusief 'geavanceerde') op medium. Een console-ervaring, ik zal blij zijn als ik heb geupgrade.
Ik vind het altijd wel leuk om te weten hoe goed/slecht oude kaarten presteren.
RmanX schreef op zondag 11 september 2016 @ 20:16:
[...]


Je opmerking over TDP is een hele goede. Als je kijkt naar de RX480 dan is deze op papier gelijk aan de HD 6870 met 150 W. Ik verwacht/hoop eigenlijk een beetje dat individuele high-end kaarten niet boven 250-300 W gaan uitkomen i.v.m. warmteontwikkeling. Ben benieuwd wat Vega in dit opzicht zal brengen.
Eerst en vooral kudos dat jij die tabel hebt gemaakt.

Een stuk lager dan voor de voor de vorige Fury, een stuk hoger dan die van de 1070 (RX 490) en de 1080 (Fury Y of hoe die ook gaat heten :)), dat is zeker.
De Fury X heeft een TDP van 275 W (in theorie in ieder geval ;)), de RX 480 trekt gemiddeld minstens 164 W.
http://www.tomshardware.c...80-polaris-10,4616-9.html
De Nitro (overgeklokt of geoverklokt :?) komt zelfs op 225 W uit, een hoop extra vermogen voor een bescheiden prestatiewinst als je het mij vraagt. :)
De 1060 (de echte), de 1070 en de 1080 hebben respectievelijk een TDP van 120, 150 en 180 W.
http://www.pcadvisor.co.u...1070-vs-gtx-1060-3640925/

Maar goed, wat het vermogen van deze generatie kaarten wordt is op zichzelf nog niet eens zo'n heikele kwestie, ze gaan straks met een grotere die het vermogen in de hand moeten houden, in ieder geval voor de zwaarst draaiende kaarten. Stel dat we nog twee generaties krijgen met deze FinFET-transistor en in beide generaties moet de prestatie met 1 klasse stijgen...
Ik ben benieuwd in welke mate het HBM-, of eventueel straks GDDR6-geheugen, gaat helpen.
Maar goed, 275W is tot nu toe het hoogste vermogen wat we hebben gehad.
http://www.geeks3d.com/20...esign-power-tdp-database/
Best wel interessant: hoewel de AMD-architectuur een veel hoger vermogen heeft lag het vermogen van de Fury slechts 10% hoger dan die van de 980 Ti, met de kanttekening dat de 980 Ti iets meer geheugen had.
Ik heb de geheugen snelheden er trouwens bijstaan in de tabel inclusief effectieve snelheid. Of bedoel je misschien wat anders?
Ik had het over de datarate, zie de rechter kolom in deze tabel.

Je kan dat natuurlijk wel uitrekenen met de gegevens in die tabel.
Ps Ik kom uit op 50,4% voor de 7870 en 43,9% voor de 7850 als ik even snel de 7970 gelijk stel aan de 280x. 😊
Ik kwam eerder met de Vally-benchmark met een overklok uit op net iets minder dan de helft van de RX 480 dus dat zal wel aardig kloppen. De 7850 overklokt komt ongeveer uit op de basisklok van de 7870.

[Voor 9% gewijzigd door CHBF op 12-09-2016 00:20]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Beaudog
  • Registratie: augustus 2015
  • Laatst online: 22:33
NitroX infinity schreef op zondag 11 september 2016 @ 23:14:
[...]


G processor? Ik neem aan dat je het over Celerons en Pentiums hebt? Niemand noemt het G processoren, dat is niet de naam maar het begin van een modelnummer :Y)
Pentium g 3258 Ik gebruik gewoon een afkorting net als i5

Amd Ryzen 2700x 3600x Vega Vii 5700Xt Geforce 2080 Ti Vega 64 7+ game systems


  • aminam
  • Registratie: december 2012
  • Laatst online: 21:53
RmanX schreef op zondag 11 september 2016 @ 18:30:
Dit weekend maar eens een mooi overzicht gemaakt van de relatieve prestatieniveaus van 6 generaties AMD/ATI Radeon kaarten die ik mijn bezit heb (gehad). Ik heb ook enen tabel met ingebouwd diagram gecreëerd :P :
[afbeelding]

Voor het gemiddelde prestatieniveau ben ik uitgegaan van Techpowerup reviews waar de relatieve prestaties meestal samengevat zijn voor meerdere generaties (basis 1920x1080 of gemiddelde van alle resoluties). De rood gekleurde cellen in mijn tabel geven het prestatieniveau weer ten opzichte van de R9 Fury afgerond op 5%.

Een paar leuke observaties:
  • Een HD 3850 presteert net minder dan 10% van de R9 Fury
  • Het TDP is een factor 4 gestegen, waarbij opgemerkt kan worden dat zowel de 280x als de Fury (semi) high end kaarten zijn en de rest mainstream/enthusiast. Dit zie je ook een beetje aan de chip grootte.
  • Het aantal transistors is meer dan een factor 10 toegenomen
  • Heb met de HD6870 nog eens Crossfire gedraaid, maar had last van microstuttering. Was op papier ongeveer gelijk aan een 280x wat je ook de tabel ziet
  • Een RX 480 staat niet in de tabel maar zou uitkomen op 89% van de Fury op (ref. 8 GB versie 1920x1080)
Vragen/opmerkingen/suggesties zijn welkom 8)
cool, ben in het bezit van x1900xtx,x1950xtx,3850,3870,4870,4890,4870x2,6950,6970,6990 en Fury ga binnenkort denk ik benchmarken als ik tijd over heb. Moet alleen nog een nieuw platform scoren met betere IPC dan een q6600 ;p

x370 Taichi | R5 3600 | Vega 64 Liquid| Phanteks Evolv atx


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 00:14

Sp3ci3s8472

@ 12 graden...

Exclusive: Samsung is in talks with Nvidia and AMD for GPU technologies

Currently, Samsung is using ARM’s Mali series of GPUs in its Exynos chipsets. According to information that we’ve received, Samsung is in talks with both AMD and Nvidia to license their GPU technologies. As of now, Nvidia seems to have an upper hand due to its superior Pascal architecture. However, that doesn’t mean AMD could be ruled out, especially since Sony just announced its PS4 Pro gaming console with 4K gaming that uses AMD’s Polaris architecture.
Tweakers post het niet op de FP dus hier dan maar ;).

In het artikel praten ze ook over HSA, maar is dan AMD dan niet een logischer partij?

Battle.net tag


  • Trygve
  • Registratie: oktober 2009
  • Laatst online: 22:59
RmanX schreef op zondag 11 september 2016 @ 18:30:
Dit weekend maar eens een mooi overzicht gemaakt van de relatieve prestatieniveaus van 6 generaties AMD/ATI Radeon kaarten die ik mijn bezit heb (gehad). Ik heb ook enen tabel met ingebouwd diagram gecreëerd :P
Tof dat je die hier post! :)
Mooi om te zien hoe de ontwikkelingen zijn gegaan. Andere interessante vergelijking (vandaag geplaatst) die hier mooi op aansluit:
Techspot - Then and now: Six Generations of $200 Mainstream Radeons GPUs Compared

  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het is geen iPhone of fok.nl-waardig, dus niet genoeg clicks waard I guess :)

  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 00:14

Sp3ci3s8472

@ 12 graden...

Phuncz schreef op maandag 12 september 2016 @ 17:44:
[...]

Het is geen iPhone of fok.nl-waardig, dus niet genoeg clicks waard I guess :)
Fok is wat technieuws betreft soms nog interessanter dan tweakers, het hele bericht dat Intel geen EUV voor 7nm gaat gebruiken en dus geen machines bij ASML afneemt was wel te lezen op fok.nl maar niet op tweakers :X :'( .
Ze waren blijkbaar vergeten dat ASML Nederlands is :P.

Battle.net tag


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

^
Volgensmij publiceert tweakers hier nog wel degelijk over, echter ze zijn gewoon vaak laat.

Tja, vind het wel jammer dat HWI en Tweakers onder zelfde paraplu komen. Niet dat HWI nou zo goed is maar de diversiteit was prettig. Ben bang dat het nog meer eenheidsworst wordt.

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |


  • winwiz
  • Registratie: september 2000
  • Laatst online: 22:40
Damic schreef op maandag 12 september 2016 @ 20:32:
[...]
Wattman crasht nogal vaak zelfs met standaard instellingen, software is toch niet hun sterkste kant bij AMD Radeon Divisie :+
Bij mij nog nooit gecrasht. AMD heeft zijn software prima op orde :)


1 zwaluw maakt........ kortom het kan zijn dat er bij jou iets niet lekker loopt

Ryzen 3900X + 32GB GSKILL @3200 op Croshair VI Hero + RX Vega 64 + Philips BDM4065UC + DS1815+ + DS414 + MacbookPro 15" 2016

sdk1985 schreef op woensdag 14 september 2016 @ 03:58:
Skylake is overigens wel hard gegaan hoor, kijk eens naar mijn gaming nas. Redelijk absurd voor een 60 euro kostende cpu :P . Op dit moment is zelfs een i3 al een upgrade voor je i5 750.
Ik weet het. Nog een half jaar geduld, maximaal.
[small]Nvidia heeft overigens Physx juist naar de "masses" gebracht door Ageia in 2008 over te nemen.
De masses die twee highend NVidia-kaarten hebben, niet de rest van de gamers, in ieder geval niet zonder te 'hacken'.
Zie Borderlands 2 waarin je perfect PhysX door de CPU kan laten afhandelen door een paar geheime parameters in het configuratiebestand te plaatsen. Ik weet niet hoe het is ontdekt (een programmeur van de developer die het lekte?) maar iedereen die een AMD-kaart heeft en die dit uit heeft geprobeerd kan bevestigen dat het bullshit is om deze PhysX-effecten door de grafische kaart te laten renderen, je geeft de grafische kaart onnodig extra belasting terwijl de CPU het prima aankan. Goed, op mijn antieke CPU moet je dat niet op vol zetten maar op een doorsnee CPU gaat dat prima. Zelfs bij mij draait het nog behoorlijk op vol, alleen krijg je een te grote drop in de FPS bij bijv. Fink's Slaughterhouse, op medium draait het echter prima. Dat zou ik niet hoeven te proberen zonder die hack te doen, in dat geval is het spel onspeelbaar. Ik weet het omdat ik beide heb uitgeprobeerd.
http://pcgamingwiki.com/w...nds_2#System_requirements
Een heel klein beetje naar boven scrollen, je ziet het meteen.

Hier kan je zien hoe NVidia nog steeds PhysX blokkeert voor een NVidia-kaart als er een AMD-kaart naast zit.
https://www.reddit.com/r/...physx_in_its_own_card_as/
"NVIDIA's standard shark business practices are usually never good for consumer." (goede typering)
NVidia heeft ook jarenlang hetzelfde geflikt als je twee NVidia-kaarten van verschillende tiers hebt, bijvoorbeeld een 680 en een 560 of zo. Dit is dus het softwarematig blokkeren van functionaliteit in de hardware die prima zou werken.
Kortom, heel dat PhysX gebruikt NVidia voor 1 doeleinde: meer NVidia-kaarten verkopen. Voer exact dezelfde code op een normale manier uit (de API laten bepalen of dat de CPU of de grafische kaart het uitvoert) en het werkt beter.

Ik heb er geen probleem mee als NVidia (of AMD) eigen code aanbiedt aan een developer waarvan ze weten dat die goed rendert op de kaarten die ze verkopen en die grafisch iets toevoegt aan het spel, onder een aantal voorwaarden. Sta de developer toe om het ook voor de concurrent te implementeren en de concurrent de code te laten optimaliseren voor hun kaarten, sta de developer toe om code van de concurrent te aanvaarden voor hetzelfde effect. Een concreet voorbeeld: Hairworks van NVidia en TressFX van AMD voor TW3. Iedereen is dan tevreden. AMD heeft ook zat fouten gemaakt maar wat betreft de grafische kaarten voor onder Windows speelde AMD het spel op een keurige manier in de afgelopen jaren, NVidia kreeg alle medewerking om TressFX te implementeren en te optimaliseren voor Tombraider, AMD koos hierbij ook niet voor software waarvan ze weten dat die slechter draait op NVidia-kaarten. Dat is hoe het hoort, NVidia daarentegen zet bewust de tessellation extreem hoog - zo hoog dat het echt niets toevoegt voor de grafische kwaliteit hoe goed je zicht ook is - omdat NVidia weet dat de AMD-kaarten niet die extreme tessellation aankonden/aankunnen.
spoiler:
Het puntje waar ik wel kritiek op AMD heb: de ondersteuning voor Linux. Dat is inmiddels wat verbeterd maar daar lieten ze te lang te veel liggen.
Daarvoor was het een insteekkaart van pak hem beet 150-200 euro: [URL="https://tweakers.net/pricewatch/137480/asus-ageia-physx-p1-128mb-ddr3-(ppu-cpu-gpu-enhancer).
Wat prima was, want met die ene insteekkaart kon je het gebruiken en die prijs zou vanzelf snel zijn gezakt als het product het überhaupt had overleefd. Als het product het niet had overleefd dan zouden we dezelfde effecten krijgen maar veel beter (minder negatieve impact op de FPS) gerenderd zoals je kan zien bij Borderlands 2.

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Gundogan
  • Registratie: maart 2010
  • Laatst online: 19:29

Gundogan

Rip and tear, until it is done

i7 4790K, 16GB, ASUS Z97-K, R9 Fury


  • Vipeax
  • Registratie: september 2007
  • Laatst online: 23:44
Z97-K zo te zien :+.
https://www.mycom.nl/prod...de=544&s2m_product_id=319

Verder is er altijd TPU ;)...
chaoscontrol schreef op dinsdag 20 september 2016 @ 14:47:
[...]

Nja, ik twijfel. Ik hoop het natuurlijk wel, maar ben bang dat als we het voor feit aannemen het gaat tegenvallen. 1450 zou imho goed mogelijk moeten kunnen zijn op kleiner procedé, we gaan eht zien.
Nou een nieuw productieproces zal het sowieso niet zijn, het is gewoon hetzelfde 14nm LPP productieproces bij GloFo. Maar je hebt door dat de kloksnelheid aan het aantal flops vast zit en dat als je de ene weet de andere ook bekend is als je het aantal stream processors weet? 1250MHz zou dus nog boven de 20TF 16FP komen en 1250MHz is wel meer dan realistisch. Maar ook 1450MHz moet gewoon kunnen mits ze optimalisaties hebben gedaan net als nVidia heeft gedaan met Pascal waardoor kloksnelheden van 2000MHz mogelijk werden. Dus dacht je niet aan FP32 flops? Want dan is 24 TF idd totaal onrealistisch, daarvoor moet de rekenkracht verdubbeld worden.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

Astennu schreef op dinsdag 20 september 2016 @ 16:28:
[...]


Ik dacht dat de P100 wel speciale hardware had om dit te doen. Titan X P kan dit bv niet.Die heeft volgens mij 1:1 FP16:FP32 performance en aanzienlijk tragere FP64. (om maar niet belabberde FP64 te zeggen)
Niet eens dat. GP102 en lager hebben 1:64 FP16:FP32. Er is slechts 1 FP16x2 ALU per SM aanwezig en die heeft geen "hot clock". In Titan XP zijn dat er dus 28 * 2 = 56, waarmee je dus 56 * 2 * 1,417 = 158,704 GFLOPS haalt in FP16. De rest van de ALU's zijn pure FP32 ALU's. GP100 heeft alleen maar van die FP16x2 ALU's. De FP16 snelheid is ook een 100% theoretische waarde, in de praktijk is die niet haalbaar. Zo'n FP16x2 ALU kan dat alleen bij gelijke operaties op je FP16 data, dus 4xFP16 optellen of aftrekken kan op "dubbele" snelheid (1 tick) met twee van deze ALU's. Moet je echter optellen en aftrekken heb je gewoon 4 ALU's nodig. Waar de FP32 en FP64 rates dus in principe haalbaar zijn is dat met FP16 op Pascal eigenlijk niet te doen omdat je dan wel een heel erg specifieke workload hebt.

AMD heeft wel een 1:1 verhouding, zij kunnen FP16 op de FP32 ALU's doen, maar dan zonder bit packing. Een RX 480 doet dus 5161 GFLOPS in zowel FP32 als FP16.

24 TF FP16 geeft echter aan dat dat anders ligt in Vega. Met 64 CU's en 64 ALU's per CU geeft 4096 ALU's. Om dan 24 TF te halen kom je op 24000 / 2 / 4096 = 2,92 GHz...dat wordt hem dus niet :+

Halveer die snelheid en je komt op 1,46 GHz, wat dan wel weer haalbaar kan zijn maar ook betekent dat AMD in Vega FP16 op dubbele rate (2:1) kan doen. Dat zal dan wel net zoals Nvidia gebeuren door FP16x2 te doen op de FP32 ALU's door middel van bit packing.

  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

"nearly maxed", dat heeft tegenwoordig toch geen betekenis meer ?

Een interessant artikel over hoe de overmatige self-entitlement van deze generatie gamers heeft geleid tot "Ultra" graphics settings niets meer is dan een "deze setting draait vlot op high-end kaarten van de laatste paar generaties": http://www.pcgamer.com/wh...on-really-means-in-games/

Bizar dat men te tam is om de "detect my system" te gebruiken, maar wel alles in de menutjes op maximum instelt.
Een duidelijk voorbeeld hiervan is Deus Ex: Mankind Divided geweest. De meesten verwachten alles op max te rammen (inclusief MSAA x8) en dan het spel een ongeoptimaliseerde troep te vinden omdat hun GTX 970 het niet vlot trekt op 1080p. Als de ontwikkelaar dit dan aanduidt dat de hoogste settings niet bedoeld zijn voor de (single) high-end kaarten van nu, dan is het internet te klein.
A similar issue occurred very recently with Deus Ex: Mankind Divided, which prominently featured an MSAA setting (up to 8x). As the game uses deferred shading—a common rendering technique that makes a straightforward hardware-accelerated implementation of MSAA much less viable—this setting came with the extreme performance impact one would expect in such a renderer. Again, the game might have been seen as far more 'optimized' had it not included that option, and again this is obviously not the case.
In het artikel wordt Dying Light aangehaald, waar ze wél hebben toegegeven aan dit gedrag:
One relatively recent subject of this debate was Dying Light, and in my opinion it is one of the most damning cases—not due to the developer, but due to the misguided reception it received. Dying Light is an open world game with lots of moving actors and parts as well as a dynamic day/night cycle, all ingredients that make up a technically demanding game. It shipped with a huge range of settings for draw distance in particular, which in this type of experience greatly affects both CPU and GPU load.

There was an outcry about the 'terrible unoptimized PC port' when Dying Light would not perform up to (arbitrary) standards at maximum settings. As it turned out, the draw distance slider in the initial version of the game was already above console settings at its lowest position, and went incomparably higher. People were so agitated, in fact, that the developer felt like they had to reduce the range of the slider to 55% of its former maximum in an early patch.

Would the game have been perceived as much more 'optimized' if this trivial step would have been taken before release? I definitely think so. Would it actually have been ‘better optimized’? No, absolutely not. Dying Light is a great example of just how difficult it can be to judge optimization, and also of the concerns developers might be limited by when implementing game options.
Waar vroeger (pak voor Battlefield 3) de maximum settings een manier was om de game later technisch nog wat relevantie te geven, zit je nu dus met games waarvan de maximum settings eigenlijk afgestemd zijn op de groep mensen met een (vorige generatie) high-end kaart, terwijl je vroeger een game opnieuw kon spelen met nog hogere settings, zoals een Crysis of Metro 2033.
Mar nu is "Ultra" het nieuwe "optimized for 60fps on 1080p with a single high-end GPU and high-end CPU".
Ik vind het vooral waanzinnig hoe weinig die man over videokaarten weet en hoeveel onzin hij praat. Hij meet helemaal niet het verbruik van de videokaart en hij denkt dat een 6 pins PEG connector beperkt is tot 75W. Hij heeft geen enkel idee waar die over praat in de video.
sdk1985 schreef op zaterdag 24 september 2016 @ 00:25:
[...]

Heb je de gedachtegang erachter gelezen?
Ja gister direct al voordat je het in dit topic poste. Daarom zei ik ook wat ik zei. Onzin en meer onduidelijkheid dan duidelijkheid.

[Voor 35% gewijzigd door -The_Mask- op 24-09-2016 11:31]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 15:56
-The_Mask- schreef op zaterdag 24 september 2016 @ 14:53:
[...]

Lees aub eens één keer voordat je met zo'n reactie komt. Vraag je je nooit af waarom je werkelijk elke discussie verliest? Komt volgens mij omdat je steeds half leest of het niet begrijpt wat er gezegd wordt, maar toch steeds reageert.
Je kunt natuurlijk ook gewoon je mening geven als daarom wordt gevraagd in plaats van met nog meer dooddoeners aan te komen en op de man te spelen. Als ik zo stom ben prima, maar dan herhaal je jou goede argumenten en onderbouwing toch gewoon een keer? Het is niet alsof je spaarzaam bent met het aantal reacties dat je hier plaatst.

edit:
Het idee van een forum is dat je dingen kunt bespreken, meningen kunt uitwisselen en mogelijk zelfs iets opsteekt van elkaar. Om zelf het goede voorbeeld te geven:
sdk1985 schreef op zaterdag 24 september 2016 @ 14:34:
[...]

Iets afzeiken zonder echte argumenten is heel makkelijk. Daar hoeven we dan verder niet op in te gaan. Maar heb je zelf een betere aanpak? Wat zou jij opgeven als minimum spec voor Titanfall 2? Ik ga er vanuit dat als je dit concept helemaal niks vindt er een concept moet bestaan dat je wel ziet zitten. Of ben je gewoon overal tegen?

[Voor 31% gewijzigd door sdk1985 op 24-09-2016 16:15]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Moi_in_actie
  • Registratie: maart 2007
  • Laatst online: 22:12
Ja ach, deze pc heb ik niet gebouwd om overclocking records mee te verbreken, dat deed ik met mijn nu oude pc destijds nog wel, maar voor mij hoeft t niet meer zo. Echter, als ik met een paar simpele tweaks, zonder veel extra lawaai en hitte, een leuke stabiele overclock kan neerzetten dan zal ik dat zeker niet nalaten :)

edit: laatste tussenstand:


3DMark validation

i7 6700K @4.5Ghz
R9 Fury Nitro OC
  • 1125Mhz core
  • +72mV
  • 550Mhz memory
Bij hogere settings loopt hij op dit moment nog vast, vind het voor vandaag ook even goed. Als ik dit overzicht moet geloven, zit ik dus al boven Fury-X en GTX980Ti performance. Not bad for an afternoon of overclocking 8)

[Voor 47% gewijzigd door Moi_in_actie op 24-09-2016 17:33]

Ryzen 7 3700X @4275Mhz ~~ 32GB GSkill TridentZ 3600Mhz ~~ MSI X470 Gaming Plus Max ~~ Sapphire R9 Fury-X @1150/570Mhz


  • rows
  • Registratie: november 2009
  • Laatst online: 13-09 12:27
Er staat een heel stuk bij de buren (HWI) over het feit dat Gigabyte "stiekem"bij revisies steeds goedkopere onderdelen gebruikte dan bij de originele moederborden zoals ze door iedereen getest worden.

https://nl.hardware.info/...ren-merkbaar-verschillend

En hier het Kingston verhaal waar ik eerder naar refereerde.
https://nl.hardware.info/...-in-ssds-na-goede-reviews

Tis helaas wel een beetje offtopic maar voedt wel de discussie dat wellicht niet alle videokaarten lijken te zijn wat ze aan de voorkant beloven.

[Voor 64% gewijzigd door rows op 24-09-2016 20:50]


  • Moi_in_actie
  • Registratie: maart 2007
  • Laatst online: 22:12
Zo, nog even snel wat verdere overclocking gedaan. In Time Spy wil ie nog niet echt veel verder zonder te crashen. In de Fire Strike scores gaat het dan toch wel best lekker. Valt me vooral mee hoe koel hij blijft. Tijdens benchmarking zet ik de fanspeed op 60%, wat best luid is en voor gaming/dagelijks gebruik niet aan te raden, maar hij bereikt hiermee maximaal iets van 62 graden.

De tussenstand tot dusverre:

Fire Strike: 1140Mhz core (+96mV), 570Mhz HBM, i7 6700K @4600Mhz
  • Fire Strike 1.1: 14591 (graphics score: 17034)
  • Fire Strike Extreme 1.1: 7541 (graphics score: 8010)
  • Fire Strike Ultra 1.1: 4054 (graphics score: 4019)
Time Spy: 1125Mhz core (+72mV), 550Mhz HBM, i7 6700K @4600Mhz

Ryzen 7 3700X @4275Mhz ~~ 32GB GSkill TridentZ 3600Mhz ~~ MSI X470 Gaming Plus Max ~~ Sapphire R9 Fury-X @1150/570Mhz


  • Compizfox
  • Registratie: januari 2009
  • Laatst online: 23:09

Compizfox

I use Arch, btw

LinusTechTips' RX460 review met stukje over de veel te hoge winkelprijzen:

There is no system but GNU and Linux is one of its kernels


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 00:14

Sp3ci3s8472

@ 12 graden...

AMD Announces Embedded Radeon E9260 & E9550 - Polaris for Embedded Markets
Now that we’ve seen AMD’s new Polaris architecture launch in the consumer world, AMD is taking the next step by refreshing the Radeon Embedded product lineup to use these new parts. To that end, this morning AMD is announcing two new Radeon Embedded video cards: the E9260 and the E9550. Based on the Polaris 11 and Polaris 10 GPUs respectively, these parts are updating the “high performance” and “ultra-high performance” segments of AMD’s embedded offerings.

Battle.net tag


  • evEndzhar
  • Registratie: juli 2006
  • Niet online
Ik heb woensdag de Asus Dual RX480 O4G binnengekregen. Gezien de kaart nog maar net uit is en er nog vrijwel niets over te vinden is, hier wat informatie:
  • De koeler is dezelfde als op de GTX 1060 en 1070 Dual (waar ook geen reviews van zijn). Het is een ontwerp met twee heatpipes welke alleen contact maakt met de gpu. De koeler lijkt sterk op die van de RX470 Strix
  • Over de mosfets van de zes fases VRM voor de GPU zit een apart koelblok gemonteerd.
  • Het gebruikte geheugen is SK-Hynix H5GC4H24AJR-R0C, goed voor 1750MHz (7000MHz effectief) op 1,5V. Ik verwacht dat het resultaat met opvoeren vergelijkbaar zal zijn met de RX470 Strix, welke hetzelfde geheugen gebruikt.
  • In tegenstelling tot sommige andere custom RX480's is de Asus Dual niet semi-passief. In idle draaien de fans op 34%, wat iets over de 800 rpm is. De ventilators beginnen sneller te draaien wanneer de GPU 65 graden bereikt. Gezien mijn computer ook zonder grafische kaart niet bepaald stil is kan ik maar weinig over het geluidsvolume van de kaart zeggen.

  • LongBowNL
  • Registratie: juni 2009
  • Laatst online: 22-09 10:03
16.10.1 is uit (en 16.9.2 is nu WHQL certified.)

https://support.amd.com/e...6-10-1-Release-Notes.aspx

  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 00:14

Sp3ci3s8472

@ 12 graden...

Volgens mij ook in die driver, framepacing voor DX12 :p.


Legt ook mooi uit in lekentaal wat het precies doet.

Battle.net tag

FRTC niet, maar FRTC met FreeSync dus wel, ook als je meer FPS krijgt dan de FreeSync range van de monitor.

[Voor 9% gewijzigd door -The_Mask- op 06-10-2016 21:41]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +2Henk 'm!

  • Samoht93
  • Registratie: januari 2014
  • Laatst online: 20-09 21:00
Mila1994 schreef op zaterdag 08 oktober 2016 @ 17:11:
[...]


Zou je willen proberen hoe het geluid is als je de temperature target op iets van 80 graden zet? Ik ben daar wel benieuwd naar.
CHBF schreef op zondag 09 oktober 2016 @ 15:20:
[...]

YouTube: This RX 480 DOESN'T SUCK!
Het ziet er goed uit. Ik ben benieuwd naar een analyse van de PCB. Als iemand een paar goede foto's zou mailen naar YouTube: Actually Hardcore Overclocking dan gaat hij vast en zeker een analyse doen. ;)

Persoonlijk heb ik trouwens liever dat de temperatuur iets hoger oploopt als het daardoor stiller wordt. Het is nu niet dat je kaart na 4 jaar versleten is als je de temperatuur laat oplopen naar 80-90 graden.
Heb net even een snel testje gedaan:

10min heaven 70C target, 100% power limit
Temperatuur 66-70C
Fan snelheid ~2300rpm
Geluid 44-46dbm
Lichte throttling 1260-1288MHz

10min heaven 80C target, 100% power limit
Temperatuur 76-7+C
Fan snelheid ~1600rpm
Geluid 42-44dbm
Lichte throttling 1260-1288MHz

10min heaven 70C target, 120% power limit
Temperatuur 66-70C
Fan snelheid ~2400rpm
Geluid 44-46dbm
Geen throttling

10min heaven 80C target, 120% power limit
Temperatuur 77-78C
Fan snelheid ~1900rpm
Geluid 42-44dbm
Geen throttling

Op 80C is die iets stiller, het geluidsnviea is moeilijk te meten met alleen een telefoon... en lawaaige bovenburen.
Throtteling heb ik niet gezien in timepsy of GTA5.

Let wel op dat ik de RS versie heb, die uit de review is de GTR die is 40mm langer, en zal dus ook wel iets beter gekoeld zijn.

Zal eerdaags even wat proberen te overclocken.

Acties:
  • +1Henk 'm!

  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 00:14

Sp3ci3s8472

@ 12 graden...

CHBF schreef op zondag 09 oktober 2016 @ 15:20:
[...]

YouTube: This RX 480 DOESN'T SUCK!
Het ziet er goed uit. Ik ben benieuwd naar een analyse van de PCB. Als iemand een paar goede foto's zou mailen naar YouTube: Actually Hardcore Overclocking dan gaat hij vast en zeker een analyse doen. ;)

Persoonlijk heb ik trouwens liever dat de temperatuur iets hoger oploopt als het daardoor stiller wordt. Het is nu niet dat je kaart na 4 jaar versleten is als je de temperatuur laat oplopen naar 80-90 graden.
Ben niet echt onder de indruk van de review van die gast. Hij test het met een open bench, logisch dat hij dan een goede temperatuur haalt (en dat de core speed gelijk blijft). Hij gebruikt MSI Afterburner om het gebruik uit te lezen 8)7, ook al geeft hij aan dat het niet accuraat is dan nog vraag ik mij af of het enige toegevoegde waarde heeft.
Hij vergelijkt overigens later nog eens de 3d mark scores van zijn eerdere tests, het komt niet eens bij hem op dat dit ook aan betere drivers kan liggen.
Weet niet hoeveel de kaart uiteindelijk kost maar het feit dat er 3 paar fans bijzit overtuigd mij niet direct dat deze van super kwaliteit zijn (gevalletje kwantiteit over kwaliteit).

Laat niet weg dat ik de RX 480 nog steeds een fijne kaart vind ook al heb ik de reference ;).

[Voor 6% gewijzigd door Sp3ci3s8472 op 09-10-2016 22:52]

Battle.net tag


  • Trygve
  • Registratie: oktober 2009
  • Laatst online: 22:59
Freesync is nu werkend te krijgen op non-FreeSync monitoren met HDMI en DVI:
https://m.reddit.com/r/Am...hdmi_and_some_dvi_on_non/



Geen garanties, maar leuk om eens te proberen. Voor Gsync monitoren helemaal leuk om te proberen, die zouden het hardwarematig sowieso aan moeten kunnen :)

[Voor 28% gewijzigd door Trygve op 10-10-2016 12:11]


  • Beaudog
  • Registratie: augustus 2015
  • Laatst online: 22:33
Werkt dit alleen op monitoren of zou je het ook kunnen proberen als je op een tv gamed .

Amd Ryzen 2700x 3600x Vega Vii 5700Xt Geforce 2080 Ti Vega 64 7+ game systems


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |

Astennu schreef op vrijdag 14 oktober 2016 @ 00:15:
[...]


Ja en nee :P
Ik heb nu ook een 980 Ti en dat is toch wel veel sneller.

Ik heb namelijk een 2560x1440 144Hz Freesync scherm. Dan wil je eigenlijk 90 fps halen. Dan moet ik al met de settings omlaag. Dus ik kan niet wachten op Vega dan kan alles max. En dan fps limiter op 89 fps en dan flat 89-90 draaien. nu heb je zelfs op high nog wel drops richting de 65 en dan merk je toch dat het minder vloeiend is. Maar minder storend door dat je freesync hebt. 65 zonder is echt iritant.

144hz zonder is helemaal awesome. Met die 980 ti op wat lagere settings lukt dat aardig die heeft helaas niet zon mooie FPS limiter in de driver.
Heb jij het FreeSyncbereik van jouw monitor nog niet gehackt?
http://www.guru3d.com/new...nge-with-simple-hack.html

Ik krijg een beetje koppijn (bij wijze van spreken) van het beslissen wanneer een monitor te kopen. Niet alleen liggen local dimming en 10 bits kleur om de hoek, ook komt er een nieuwe versie van DP (allicht dus ook van HDMI?) die toestaat dat je een veel hogere refreshrate kan combineren met een hogere resolutie wat 4k met 120 Hz of zo mogelijk zou kunnen maken.
Klopt Vega 10 is bedoelt vs Big Pascal en dus de 1080 Ti.
Ligt aan de prijs ik verwacht dat hij beter betaalbaar is dan de Pascal Titan.
Ik gok eerder huidige 3th party GTX1080 prijzen. Nog niet super goedkoop maar het is al een stuk beter.
We zullen het wel zien. :)
Polaris had officieel twee kaarten maar er kwam ook een 470. Het zou me niet verbazen dat ze zoiets nu ook gaan doen, een cut van Vega 10 die een 490/590 of zo gaat worden (Joost mag weten hoe ze het noemen, de naamgeving wordt wat bont als de Vega 11 de 580 gaat heten :)).
De volle Vega 10 als Fury (1080 Ti niveau als streven), de cut als kaart die rond de 1080 zit (een beetje eronder voor DX11, erboven voor Vulkan en goed uitgevoerde DX12) en de Vega 11 die in de buurt komt van de 1070. Ja, je mag die TFlops niet 1 op 1 vergelijken, AMD heeft er wat meer nodig voor dezelfde performance onder DX11.
Als het goed is komt er in het tweede kwartiel een dubbel Vega10-kaart uit, die zal de Titan verslaan en veel te duur zijn voor gewone klanten. :)
Prijzen: 600-650 euro voor de Fury, 400 euro voor de cut van de Vega 10, ? voor de RX 580. 400 euro voor een kaart van 1080 niveau lijkt laag maar ze komen meer dan een half jaar later dan Nvidia en ze gebruiken HBM2 (wat ook gunstig is voor de GPU aangezien je minder hitte krijgt van het geheugen zolang ze niet zoveel meer geheugen erop stoppen dat het lagere vermogen per GB wordt gecompenseerd), dan mag je best wat extra krijgen met dezelfde prijs. Productie van de 480 stopzetten? De prijs voor de 480 verlagen naar iets boven de productiekosten om het marktaandeel te vergroten? Geen idee, zij komen met de RX 580 als naam, die kan geen 400 euro gaan kosten.

Voor de mensen die hier als gast meelezen en die hier niet vaak komen, dit is allemaal speculatie!

[Voor 6% gewijzigd door CHBF op 14-10-2016 01:10]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

CHBF schreef op vrijdag 14 oktober 2016 @ 01:07:


Ik krijg een beetje koppijn (bij wijze van spreken) van het beslissen wanneer een monitor te kopen. Niet alleen liggen local dimming en 10 bits kleur om de hoek, ook komt er een nieuwe versie van DP (allicht dus ook van HDMI?) die toestaat dat je een veel hogere refreshrate kan combineren met een hogere resolutie wat 4k met 120 Hz of zo mogelijk zou kunnen maken.
Wellicht heb je wat aan dit artikel:

TFTCentral: High Refresh Rate Panels and Displays A Road-map and Round-up

[Voor 11% gewijzigd door Help!!!! op 14-10-2016 13:35]

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |

r100 schreef op donderdag 13 oktober 2016 @ 18:42:
[...]


Mooizo :) Een tabel van de feature levels op Wikipedia gaf de indruk dat dat niet het geval was, leek mij al zo vreemd.
Je moet die tabel alleen van links naar rechts lezen. FL 12_0 en 12_1 vereisen WDDM 2.0; of 2.1 bij SM 6.0. Andersom is niet het geval. De driver mag best 2.1/6.0 zijn, ook al voldoet de onderliggende chip slechts aan 11_1 (los van hoe veel optionele features die chip verder heeft).

  • NitroX infinity
  • Registratie: januari 2002
  • Laatst online: 21:41

Gerucht; verbeterd productieproces leidt tot 50% betere efficiëntie

http://www.overclock3d.ne...t_are_50_more_efficient/1

Als dit waar is... :9~ _/-\o_ :Y *O* d:)b

Mijn blog; Floating Points

Een artikel uit mid september (of geupdate in mid september?). Dat is up to date (de specs van de nieuwe poort waren toen al bekend). Dank je. :)
NitroX infinity schreef op vrijdag 14 oktober 2016 @ 14:56:

Gerucht; verbeterd productieproces leidt tot 50% betere efficiëntie

http://www.overclock3d.ne...t_are_50_more_efficient/1

Als dit waar is... :9~ _/-\o_ :Y *O* d:)b
These new revisions are already available to the embedded market, with AMD being likely to bring these revised GPUs to the mobile market to compete with Nvidia's mobile Pascal lineup. It has also been reported that AMD may be planning to refresh their Polaris lineup with an RX 4X5 series of GPUs.

Dat sluit wel aan bij wat er eerder op videocardz.com werd gelekt. Daar werd gemeld dat AMD bij een voldoende grote verbetering van het productieproces 4X5-kaarten zou maken.

[Voor 56% gewijzigd door CHBF op 14-10-2016 17:31]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • ColinZ
  • Registratie: februari 2010
  • Laatst online: 21-09 16:41
Onne81 schreef op zondag 16 oktober 2016 @ 22:36:
Ik vraag me af of jij wel weet hoe je dit verbruik moet omrekenen naar de energierekening. Als je hier moeilijk over gaat doen...
Verbruik is niet alleen belangrijk voor de energierekening, maar ook voor de hitte die een kaart produceert.
De efficiëntie van een product is voor veel mensen (waaronder ik) een belangrijk criteria bij het uitzoeken van nieuwe producten.

Radeon Software Crimson Edition 16.10.2 Hotfix

Radeon Software Crimson Edition 16.10.2 Highlights

Support For:
  • Battlefield 1™
  • Sid Meier's Civilization® VI
  • Titanfall 2™
  • Serious Sam™ VR Early Access
  • Eagle Flight VR™
New AMD CrossFire profile added for DirectX® 11:
  • Sid Meier's Civilization® VI
Fixed Issues
  • Fan speed may sometimes remain elevated on select Radeon RX 400 series graphics products even when an application has been exited.
  • Eyefinity group settings may not be retained after driver upgrade when using AMD CrossFire configurations.
  • Gears of War™ 4 may experience an application hang when using select high resolution and quality configurations in some specific game maps.
  • DirectX®12 content may be unable to launch on some older CPUs that do not support popcnt instruction.
  • Battlefield 1™ AMD CrossFire profile updates for game launch.
Known Issues
  • A few game titles may fail to launch, experience performance issues or crash if the third party application "Raptr" has its game overlay enabled. A workaround is to disable the overlay if this is experienced.
  • H.264 content playback may experience playback issues on internet browsers with hardware acceleration when also running gaming applications or content.
  • The Division™ may experience checkered corruption when using character model overlays or the game menu.
  • Some users without the Radeon WattMan feature may experience a Radeon Software popup error regarding Radeon WattMan.
  • FIFA 17™ may experience an application hang or black screen on launch for some select Hybrid Graphics or AMD PowerXpress mobile configurations.
  • H.264 content may experience blocky corruption when streaming using P2P content players on some Radeon RX 400 series graphics products.
http://support.amd.com/en...6-10-2-Release-Notes.aspx

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

Indy91 schreef op donderdag 20 oktober 2016 @ 11:44:
Niet echt AMD GPU nieuws, maar toch wat raakvlakken...

Een copy/paste van mijn post uit de BF1 PC topic:

Een bevestiging van wat al langer in de lucht hing: de performance verbetering van de AMD CPU's in DX12.

De AMD processoren, met name de FX-8350 doen het relatief beter in DX12 t.o.v. DX11.
Intel processoren laten daarentegen nauwelijks verbetering zien.
Een bekend verhaal, om de een of andere reden hebben AMD-kaarten een belachelijk hoge CPU-load onder DX11, deze vermindert flink onder DX12 en dat levert waarschijnlijk in belangrijke mate de prestatiewinst, doordat die AMD-CPU's momenteel aanzienlijk zwakker zijn (in ieder geval de single core performance, die loopt tig generaties achter op die van Intel) zie je bij die meer voordeel bij DX12. Bij Vulkan zie je dat ook. Het is alleen nog wachten op een DX12-spel wat ook maar in de buurt komt van Doom qua prestatieverbetering (van OpenGL naar Vulkan in dat geval maar toch). Ik zit met smacht te wachten op een tweede Vulkan-spel, het liefst een die niet van ID is en die ook DX11 in plaats van Vulkan gebruikt, of een spel wat zowel DX12 als Vulkan gebruikt. Ik heb een gutfeeling dat Vulkan beter is maar we hebben veel meer data nodig om daar een uitspraak over te kunnen doen.
spoiler:
Die gutfeeling is niet alleen gebaseerd op de grotere prestatieverbetering bij Doom. Het heeft er alle schijn van dat DX12 net als Vulkan volledig is gebaseerd op Mantle, AMD zelf heeft meegewerkt aan Vulkan en tal van andere hardwarebedrijven en softwaredevelopers hebben ook eraan meegewerkt. Vervolgens heeft ook nog eens heel de OS-gemeenschap meegekeken en met een loep gezocht naar foutjes. Hoe kan MS in haar eentje beter werk leveren?

Het is overigens niet alleen omwille van de lagere CPU-load dat AMD voordeel kan halen uit DX12 en Vulkan maar het helpt wel veel. Dankzij de betere asynchrone computing zou AMD ook nog wat voordeel kunnen halen, de grootte van het voordeel hangt van het type spel af.
Daarnaast is het natuurlijk geweldig voor de CPU als de developers leren om de load goed te verdelen en eindelijk ook eens gebruik te maken van wat krachtigere CPU's voor allerlei leuke extra's zoals betere AI, meer realistische bewegingen etc.

Houd er maar rekening mee dat de prestatiewinst bij dergelijk patches door de bank genomen minder is dan wanneer het spel vanaf het begin voor DX12/Vulkan zou zijn geschreven.

[Voor 6% gewijzigd door CHBF op 21-10-2016 01:50]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Trygve
  • Registratie: oktober 2009
  • Laatst online: 22:59
In de nieuwste Crimsondriver is een mogelijke verwijzing naar een nieuwe Fury-kaart (AMD7300.5) gevonden: http://www.bitsandchips.i...he-newest-crimson-drivers

[Voor 3% gewijzigd door Trygve op 21-10-2016 23:42]

ArmEagle schreef op zaterdag 22 oktober 2016 @ 11:33:
[...]

Jaa! Neeeh! Ik heb NET een 480 gekocht omdat ik niet langer kon wachten. Maar goed. Het zal nog wel minstens een kwart jaar duren.
Als het goed is niet. :)
Het is al even bekend dat er sterke geruchten zijn dat de eerste kaarten rond het einde van het jaar gaan uitkomen.
In eerste instantie de twee Vega-kaarten, vanaf april de dubbele Vega-10. Het lijkt mij dat de volle Vega-10 een goede kandidaat is om de nieuwe Fury te zijn.

Ik heb geen medelijden met mensen die net daarvoor een kaart hebben gekocht, geduld wordt beloond en een gebrek aan geduld wordt bestraft. Prima. :)
Bovendien kan je altijd nog je 480 verkopen en die andere kaart kopen.
Astennu schreef op maandag 24 oktober 2016 @ 08:31:
[...]


Ik vraag me wel af of die kaarten met 35 watt wel in de buurt komen van de RX470 laat staan 480. kunnen ze dan helemaal geen hogere clocks halen. 35 watt vs 150 is wel een extreem groot verschil. Met 70-90 watt kun je nog een aardig eind komen. (door een RX480 te undervolten kom je ook ver)
Het Nvidia verhaal waarbij de 970m een heel andere kaart was dan de 970 etc.?
Bandiett schreef op maandag 24 oktober 2016 @ 11:16:
Iemand idee wanneer ze een R9 480X uitbrengen die korter is als 220CM?. Wil er een in me CM elite 110 anders moet ik naar een gtx 1060 gaan wat ik liever niet wil :(
Er komt sowieso geen *X-kaart, als ze er komen dan gaan ze **5 heten. Verder niet belangrijk. Er is een gerucht dat AMD dankzij het verbeterde productieproces bij GF met **5-kaarten zou kunnen gaan komen 2017 maar dat moet je met een korrel zout nemen, het gerucht dat de Vega-kaarten rond het einde van het jaar gaan komen is m.i. wat betrouwbaarder.
Hele korte kaartjes zijn inderdaad niet in de mode. Zelf heb ik ook de voorkeur voor grotere kaarten met grotere koelers, maar dan wel asjeblieft goed aansluitende hittepijpen en zo. Ze moeten natuurlijk wel ook kortere kaartjes uitbrengen voor de mensen die kleine kastjes gebruiken. Waarom zou je dat deel van de markt links laten liggen?

[Voor 51% gewijzigd door CHBF op 24-10-2016 20:16]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Indy91
  • Registratie: oktober 2005
  • Laatst online: 13-06 11:26
Sp3ci3s8472 schreef op dinsdag 25 oktober 2016 @ 14:53:
Zat net even te kijken naar de prijzen van de Sapphire Fury Nitro, die is goed geprijst ten opzichte van de RX480 8gb of GTX1060 6gb. Als die prijs zo laag was als hij nu is had ik die eerder gehaalt dan de RX480 die ik nu heb, 45 euro meer voor een 20% snellere kaart is niet zo verkeerd.
Mijn RX480 had ik voor 269 euro :).

Mensen met een budget van +/-300 euro zijn imho beter uit met een Fury.
Nou ja, als je het gaat vergelijken met de RX 480 4GB dan gaat de prijs/performance toch een stuk achteruit. Immers de RX 480 4GB heeft vaak dezelfde performance als de 8GB versie (m.u.v. enkele games zoals BOIII, dacht ik)

Fury Nitro vanaf 310 Euro
Sapphire RX 480 Nitro 4GB voor 220 Euro

Dus 40% hogere prijs tegen een performance verbetering van 20%. ;)

Je hebt inderdaad wel gelijk als je zo'n 300 Euro te besteden hebt. Dan lijkt een Fury Nitro een betere prijs/prestatie te bieden dan een RX 480 8GB versie.

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


  • Compizfox
  • Registratie: januari 2009
  • Laatst online: 23:09

Compizfox

I use Arch, btw

CHBF schreef op dinsdag 25 oktober 2016 @ 21:39:
[...]

Wat ik echt niet begrijp is waarom Powercolor, MSI en Gigabyte het PCB in bepaalde opzichten hebben verslechterd t.o.v. de referentiekaart. Houd het dan gewoon hetzelfde.
Simpel. Geld. AMD reference PCBs zijn meestal vrij overkill. Graka-fabrikanten kunnen geld besparen door goedkopere onderdelen te gebruiken.

There is no system but GNU and Linux is one of its kernels


  • Trygve
  • Registratie: oktober 2009
  • Laatst online: 22:59
Sp3ci3s8472 schreef op woensdag 26 oktober 2016 @ 22:16:
Deze was volgens mij nog niet voorbij gekomen, beetje wat iedereen al dacht. Vega wordt waarschijnlijk de nieuwe Fury.

http://www.bitsandchips.i...he-newest-crimson-drivers
r100 schreef op vrijdag 21 oktober 2016 @ 23:42:
In de nieuwste Crimsondriver is een mogelijke verwijzing naar een nieuwe Fury-kaart (AMD7300.5) gevonden: http://www.bitsandchips.i...he-newest-crimson-drivers
;)
Phuncz schreef op woensdag 02 november 2016 @ 18:12:
Ik zou 21% meer belasting (MSRP prijzen zijn excl. BTW) niet zomaar afwimpelen, dat is op € 200 al snel € 42. Sowieso zitten Nvidia en AMD momenteel niet teveel in elkaars vaarwater (dus geen issue met de "vraag") dus tenzij er nog altijd een gebrek aan voorraad is ("aanbod"), is dit gewoon de prijs die de fabrikanten vragen.
Ok maar dan nog zijn ze te duur. 0,89*1.21*200 (4 GB 480) = 217.8
Hoe dan ook, als klanten het niet kopen dan daalt de prijs snel genoeg. Gewoon even wachten totdat de prijs redelijk is. Het feit dat ze niet de prijs verlagen terwijl ze wel wat marge hebben (zie Duitsland en Frankrijk, als die verhalen kloppen) geeft aan dat voldoende mensen toch die kaart kopen. Het is helaas zo dat veel gamers weinig discipline hebben m.b.t. het wachten, ze moeten het meteen hebben, denken ze.

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Trygve
  • Registratie: oktober 2009
  • Laatst online: 22:59
Radeon Software Crimson Edition 16.11.1 Release Notes

Radeon Software Crimson Edition is AMD's revolutionary new graphics software that delivers redesigned functionality, supercharged graphics performances remarkable new features, and innovation that redefines the overall user experience. Every Radeon Software release strives to deliver new features, better performance and stability improvements.

Radeon Software Crimson Edition 16.11.1 Highlights

Support For:
  • Call of Duty™: Infinite Warfare
  • Call of Duty™: Modern Warfare Remastered
New AMD CrossFire profile added for DirectX®11:
  • Titanfall™2
Fixed Issues
  • AMD XConnect™ Technology will now allow Microsoft Office applications to migrate to iGPU on unplug.
  • Flickering may be observed on some surfaces in a few maps or locations in Battlefield™1 in AMD CrossFire mode.
  • Radeon R9 390 graphics series may experience a crash or application hang when running Unigine™ Heaven using OpenGL™.
  • The Radeon WattMan feature may intermittently display a Radeon Software popup error regarding Radeon WattMan for non-supported products.
  • The Division™ may experience an application freeze or hang when running in AMD CrossFire mode after extended periods of play.
  • OBS screen capture may stutter after extended periods of use while capturing video and watching or streaming content in a web browser.
Known Issues
  • A few game titles may fail to launch, experience performance issues or crash if the third party application "Raptr" has its game overlay enabled. A workaround is to disable the overlay if this is experienced.
  • DOTA™2 may experience a crash when launched using the Vulkan™ API on some Graphics Core Next products.
  • Battlefield™1 may experience an intermittent application specific error message popup citing graphics device removal
  • Flickering may be experience while playing Overwatch™ in the main menu or viewing character models using AMD CrossFire mode.
  • H.264 content playback may experience playback issues on internet browsers with hardware acceleration when also running gaming applications or content.
  • FIFA 17™ may experience an application hang or black screen on launch for some select Hybrid Graphics or AMD PowerXpress mobile configurations.
  • H.264 content may experience blocky corruption when streaming using P2P content players on some Radeon RX 400 series graphics products.
Package Contents
The Radeon Software Crimson Edition 16.11.1 installation package contains the following:
  • Radeon Software Crimson Edition 16.11.1 Driver Version 16.40.3111
http://support.amd.com/en...6.11.1-Release-Notes.aspx

  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 23:57
Bandiett schreef op dinsdag 25 oktober 2016 @ 12:45:
[...]


Je snap wel wat ik bedoel :O


Buiten dat. R9 480 is al langer uit als de GTX 1060 en de GTX1060 heeft wel een MINI ITX variant. Wel erg jammer dat R9 480 zo lang laat wachten op een mini itx variant of misschien komt er wel helemaal er geen een uit. Ik heb altijd AMD videokaarten gehad en altijd heel erg lang ermee kunnen draaien. Vindt het jammer als ze er niet een uitbrengen.. :|
Daarbij komt dat Sapphire wel gewoon een mini-ITX varriant van de R9 285 en R9 380 had. Kaarten die beide meer verbruiken dan een RX470 of RX480. Waarom het dan zo lang moet duren, geen idee. Wellicht een te kort aan chips, c.q. ze kunnen met het huidige aanbod de vraag nog niet voldoen, maar dat lijkt me sterk.

Ik snap ook niet waarom die gabbers van XFX een RX470 met een enkele fan hebben uitgebracht en daar zelf een PCB ontwerp voor hebben genomen. Is die alsnog 22cm lang, net 1cm te lang voor in een CM110. Dat ze dan gewoon een referentie PCB hadden genomen en daar zelf een alternatieve koeler opgezet die dan niet langer is dan de PCB zelf lang is.

Frappant hierbij is dat er voor de GTX1070 en lager wel één of meer m-ITX varianten zijn.
r100 schreef op vrijdag 04 november 2016 @ 18:05:
Radeon Software Crimson Edition 16.11.1 Release Notes

Radeon Software Crimson Edition 16.11.2 Release Notes

Radeon Software Crimson Edition 16.11.2 Highlights

Support For:
  • Improved Shader Cache storage limit. This will allow the Shader Cache feature to store more shaders for extremely demanding games that may have previously hit the old storage cap.
Known Issues
  • A few game titles may fail to launch, experience performance issues or crash if the third party application "Raptr" has its game overlay enabled. A workaround is to disable the overlay if this is experienced.
  • DOTA™2 may experience a crash when launched using the Vulkan™ API on some Graphics Core Next products.
  • Battlefield™1 may experience an intermittent application specific error message popup citing graphics device removal
  • Flickering may be experience while playing Overwatch™ in the main menu or viewing character models using AMD CrossFire mode.
  • H.264 content playback may experience playback issues on internet browsers with hardware acceleration when also running gaming applications or content.
  • FIFA 17™ may experience an application hang or black screen on launch for some select Hybrid Graphics or AMD PowerXpress mobile configurations.
  • H.264 content may experience blocky corruption when streaming using P2P content players on some Radeon RX 400 series graphics products.
http://support.amd.com/en...6.11.2-Release-Notes.aspx

Snelle opvolger.




Tevens:







https://www.techpowerup.c...y_Infinite_Warfare/4.html

Nogal een AMD game de nieuwe CoD en dat voor een DX11 game, opvallend.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

Zodra je de naam Tom Petersen ziet kun je er al van uit gaan dat er hooguit 50% klopt.

Ik zal er even een paar dingen uit pikken:
The company points to several ways in which G-Sync is superior to FreeSync, including its ability to handle any drop in refresh rate—FreeSync only works within a specified range—
Al heel lang niet meer waar. FreeSync kan onder de minimum rate van het panel ook frame duplication toepassen, net als G-Sync dat doet.
Nvidia’s complete control over things like monitor color and motion blur, which Petersen argues are superior to what monitor makers are offering outside the module.
Voor een fabrikant als ASUS, die er zelf de ballen verstand van hebben wel ja. Voor bedrijven als LG, Samsung, Eizo, is Nvidia's module juist veel slechter. Ook voor een bedrijf als Dell, die niet zelf fabriceren maar wel weten wat ze doen, is die module niet superieur.
For those reasons, Petersen says any price disparity between comparable G-Sync and FreeSync monitors is not due to the module, whose cost he says is “relatively minor,” but due to monitor makers' decision to charge more.
Ik weet niet wat de prijs momenteel is, maar minder dan een jaar geleden lag die nog op zo'n $100. Dat is veel.
“To me, when I look out and see G-Sync monitors priced higher, that’s more of an indication of value rather than cost,” he says. “Because at the end of the day, especially these monitors at the higher segments, the cost of the components don’t directly drive the price.”
Oh, is dat dan waarom de meeste G-Sync monitors alsnog met waardeloze TN panelen en ontzettend veel kwaliteitsproblemen komen? Als hun doel was een "premium" ervaring te leveren, zouden ze er ook op toe moeten zien dat die dingen niet dusdanig veel backlight bleeding hebben dat je er een hele kamer mee kunt verlichten.
-The_Mask- schreef op woensdag 09 juli 2014 @ 14:29:
AMD Tonga, opvolger van toch al weer vrij oude Tahiti en Pitcairn GPU's. Geruchten gaan dat Tonga niet over een nieuwe architectuur zal beschikken, maar wel een stuk efficiënter met energie zal omgaan om zo beter met nVidia's Maxwell te kunnen concurreren. Ander gerucht is dat Tonga XT beschikt over een 384bit geheugeninterface met 3GB GDDR5 en dat Tonga Pro twee dual-channel 64bit geheugencontrollers heeft uitgeschakeld en dus zal beschikken over een 256 bit geheugen interface met 2GB GDDR5. Tonga zal nog steeds een 28nm GPU zijn en ook vallen onder de AMD Radeon R9 200 series.
Na bijna 2,5 jaar de bevestiging. De Tonga XT R9 285X met 384 bit geheugenbus, nooit uitgekomen, maar bestaat wel. :)

https://www.techpowerup.com/gpuz/details/anr8p
http://www.overclock.net/...-thread/440#post_25633363

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 23:57
Bandiett schreef op maandag 24 oktober 2016 @ 11:16:
Iemand idee wanneer ze een R9 480X uitbrengen die korter is als 220CM?. Wil er een in me CM elite 110 anders moet ik naar een gtx 1060 gaan wat ik liever niet wil :(
madmaxnl schreef op dinsdag 25 oktober 2016 @ 00:02:
[...]


Ja een maat van mij idem dito. Ik snap ook niet waarom het zo lang moet duren. De referentie PCB pakken en er een "non blower style cooler" op en zorgen dat er niks uitsteekt aan de achterkant van de PCB. Je kan een referentie RX470 of RX480 pakken en er zelf een andere koeler opzetten, weg garantie en extra kosten...
offtopic:
Even kleine update, het is alsnog gelukt een RX470 te huisvesten in een CM110 :D Een XFX RX470 (Single Fan) past, maar dan moet je wel met de Dremel het gat dat er standaard al zit wat groter maken. Is een fluitje van een cent verder :)

  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 00:14

Sp3ci3s8472

@ 12 graden...

Voordeel is vooral dat je als mens een grotere FOV in de breedte hebt dan in de hoogte en je door een gebogen scherm niet voor dual/tripple screen hoeft te gaan. Nadeel is de vaak erg lage verticale resolutie :(.

Ik ga pas voor een gebogen scherm als deze 1440p is met alle andere leuke extra's (ips, 100hz of meer), tot die tijd blijf ik lekker op mijn huidige scherm :D.

Battle.net tag


  • Eentje
  • Registratie: juni 2004
  • Laatst online: 21-09 19:24

Eentje

houd van de vijver

nu nederland nog

There eent no place like home


  • winwiz
  • Registratie: september 2000
  • Laatst online: 22:40
Waarom heeft Apple gekozen voor AMD?:

As Andrew Cunningham at Ars Technica explains, AMD's Polaris-based Radeon Pro 450, Radeon Pro 455, and built-to-order Radeon Pro 460 GPUs in the new 15-inch MacBook Pro support up to six displays, whereas Intel's integrated GPUs affixed to the logic board can drive a total of three displays.

The expanded support enables the new MacBook Pro to drive two of Apple and LG's new UltraFine 5K displays at 60Hz simultaneously. Intel's GPUs can't because, due to bandwidth limitations of the DisplayPort 1.2 spec, the two 5K displays technically function as four displays. This method is known as Multi-Stream Transport (MST).
When you hook one of LG's 5K monitors to one of the new MacBook Pros, what you're actually seeing on the screen is two pictures stitched together to make a single seamless image. This is because the version of the DisplayPort spec supported by Intel's GPUs and almost all monitors these days—version 1.2—doesn't have enough bandwidth to drive a 5K display at 60Hz all by itself. […] Apple is actually pushing two DisplayPort 1.2 streams to the monitor over the single Thunderbolt 3 cable.

There’s nothing wrong with this method, except that it cuts down on the number of external displays your computer can support. Intel’s integrated GPUs can drive a total of three displays, but you use up two of those three streams to drive one 5K monitor and one of them to drive the laptop’s internal display. AMD’s GPUs support up to six displays, so you can use two of those connections for one 5K monitor, two of them for the other 5K monitor, one for the laptop’s internal display, and still have one left over for yet another monitor if you really wanted to use one.
Apple could have used Nvidia's faster Pascal-based GPUs, which support DisplayPort 1.3, but Thunderbolt 3 and most monitors do not support the higher-bandwidth spec yet. In the meantime, Nvidia's GPUs can only drive up to three displays beyond the main MacBook Pro screen — not enough for dual 5K displays over MST.
Apple will have more flexibility again when DisplayPort 1.3 becomes more common. Those future laptops will be able to drive two 5K screens plus a laptop’s internal screen using just three DisplayPort streams instead of five. For now, though, if pushing two high-end 5K screens at once was a design goal for Apple, AMD was the only way to go.
In terms of performance improvements, Cunningham benchmarked the mid-range 2.7GHz 15-inch MacBook Pro with the Radeon Pro 455 graphics chip to determine just how much faster the notebook truly is compared to the 2016 12-inch MacBook and older MacBook Pros released over the past few years.


http://www.macrumors.com/...support-dual-5k-displays/

[Voor 13% gewijzigd door winwiz op 15-11-2016 12:23]

Ryzen 3900X + 32GB GSKILL @3200 op Croshair VI Hero + RX Vega 64 + Philips BDM4065UC + DS1815+ + DS414 + MacbookPro 15" 2016


  • Trygve
  • Registratie: oktober 2009
  • Laatst online: 22:59

  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |


  • flessuh
  • Registratie: maart 2005
  • Laatst online: 22:44

flessuh

Set sail for fail!

Sp3ci3s8472 schreef op woensdag 23 november 2016 @ 14:58:
[...]


Als in Polaris op steriods? Vraag het mij af, het zou wel kunnen aansluiten bij de geruchten van het verbeterde procede.
Als het enkel verbeterd procede is, is het de vraag hoe groot de winst is... als het zowel verbeterd procede als dual kaart wordt kan het nog leuk worden.
Ook al houd ik altijd mijn twijfels bij dual kaartjes..

https://www.dutchsolarboat.com

kuusj98 schreef op donderdag 24 november 2016 @ 23:35:
[...]

Dat heb ik nu een jaar geleden gedaan, van een 280X naar een GTX970 omdat er bij AMD niks interessant te krijgen was.
Een R9 290 was er eerder dan een GTX 970, bijna een jaar eerder.

[Voor 3% gewijzigd door -The_Mask- op 24-11-2016 23:44]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

Radeon Software Crimson Edition 16.11.5 Release Notes

Support For:
  • Watch Dogs®2
New AMD CrossFire profile added for DirectX® 11:
  • Dishonored™2
Fixed Issues
  • The Division™ game world may flicker during game play when using AMD CrossFire technology.
  • Battlefield™1 flickering may be experienced while using AMD CrossFire technology mode.
Known Issues
  • A few game titles may fail to launch, experience performance issues or crash if the third party application "Raptr" has its game overlay enabled. A workaround is to disable the overlay if this is experienced.
  • AMD CrossFire technology mode is currently disabled for Windows®7 configurations with Dishonored™2
  • Watch Dogs®2 may experience flickering or a game crash when using AMD CrossFire technology mode with Dual Radeon RX 480s.
  • DOOM™ may experience a crash when launched using the Vulkan™ API on some Graphics Core Next products.
  • DOTA™2 may experience a crash when launched using the Vulkan™ API on some Graphics Core Next products.
  • Flickering may be experienced while playing Overwatch™ in the main menu or viewing character models using AMD CrossFire mode.
  • FIFA 17™ may experience an application hang or black screen on launch for some select Hybrid Graphics or AMD PowerXpress mobile configurations.
  • H.264 content may experience blocky corruption when streaming using P2P content players on some Radeon RX 400 series graphics products.
Bron: http://support.amd.com/en...6.11.5-Release-Notes.aspx

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Defector
  • Registratie: december 2005
  • Laatst online: 15:04
Niet verplicht maar wanneer je een auto met een trekhaak koopt is het misschien ook slim om te kijken hoeveel een compatible aanhanger kost. En dus de totale kosten.

Dat is zeker iets waar ik met mijn volgende videokaart rekening mee hou.

[Voor 40% gewijzigd door Defector op 30-11-2016 13:41]

Even een klein vraagje tussendoor. Kan iemand de fijne details uitleggen (of een goede link geven, ik heb nog niets geschikts kunnen vinden) over waarom je bij een synthetische benchmark niet de volle 100% load haalt? Niet om een probleem op te lossen, ik ben er gewoon nieuwsgierig naar. Ik haal bij Valley 98/99% GPU-load met dipjes die tot 5 procentpunt (laden?) lager liggen terwijl de CPU niet zwaar wordt belast (gekeken naar de CPU load). Ik kan me er iets bij voorstellen (de GPU die moet wachten op de aanvoer van data waarmee gewerkt wordt etc.) maar dan ben ik aan het speculeren.
Blaat schreef op woensdag 30 november 2016 @ 13:37:
[...]


Vreemd advies aangezien adaptive sync schermen geen verplichting en zelfs verre van ingeburgerd zijn op dit moment.

Dat is hetzelfde als zeggen dat een auto met trekhaak geen goed idee is omdat een aanhanger ook geld kost. |:(
Zoals anderen hier ook al aangaven, als je toch al van plan bent om de komende jaren een nieuwe monitor te kopen (lees: voordat je de grafische kaart afdankt/verkoopt) dan is het logisch om mee te wegen dat je min of meer gratis FreeSync krijgt bij een monitor terwijl je voor G-Sync flink extra mag betalen. Het is een feit dat FreeSync (en G-Sync) de gamplay verbetert, dat je met eenzelfde FPS een meer vloeiend beeld hebt.

[Voor 27% gewijzigd door CHBF op 01-12-2016 13:18]

Zelfcensuur is de meest schadelijke vorm van censuur.

Een nieuwe video van AdoredTV. Hij dook eens in de cijfers (financiën, marktaandeel) De boodschap is niets iets om vrolijk van te worden. Samenvatting: AMD had gedurende een lange tijd een technische voorsprong maar Nvdia verkocht veel meer kaarten omdat de leken automatisch voor Nvidia kiezen en het onvoldoende is dat de meer technisch bewuste mensen voor de beste performance/prijs kiezen. Nu de laatste jaren het aantal gamers flink is gegroeid en het aandeel van leken groter is geworden heeft Nvidia veel geld binnen geharkt waardoorhet gat nog groter is geworden, AMD komt een jaar later met Vega uit omdat ze ervoor kozen om 100% zeker met consoles wat winst te maken in plaats van een groot risico te lopen om weer verlies te maken met de hogere segmenten van de discrete grafische kaarten.
YouTube: The GPU War is Over + Win a Copy of Star Wars Battlefront!

Mijn mening? In het beste geval keert de arrogantie en het kinderachtige gedrag van Nvidia zich op een gegeven moment tegen Nvidia. Alleen hoe lang duurt het voordat de leken het ook in de gaten krijgen. Als iemand voor het eerst een computer heeft gekocht en hij gaat voor het eerst een fatsoenlijke grafische kaart uitzoeken, weet die persoon dan wel wat G-Sync en FreeSync zijn, wat een API is, welke kaarten beter presteren bij welke API's? Dit zijn retorische vragen.

Zelfcensuur is de meest schadelijke vorm van censuur.


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 15:56
CHBF schreef op donderdag 1 december 2016 @ 18:29:
Een nieuwe video van AdoredTV. Hij dook eens in de cijfers (financiën, marktaandeel) De boodschap is niets iets om vrolijk van te worden. Samenvatting: AMD had gedurende een lange tijd een technische voorsprong maar Nvdia verkocht veel meer kaarten omdat de leken automatisch voor Nvidia kiezen en het onvoldoende is dat de meer technisch bewuste mensen voor de beste performance/prijs kiezen. Nu de laatste jaren het aantal gamers flink is gegroeid en het aandeel van leken groter is geworden heeft Nvidia veel geld binnen geharkt waardoorhet gat nog groter is geworden, AMD komt een jaar later met Vega uit omdat ze ervoor kozen om 100% zeker met consoles wat winst te maken in plaats van een groot risico te lopen om weer verlies te maken met de hogere segmenten van de discrete grafische kaarten.
YouTube: The GPU War is Over + Win a Copy of Star Wars Battlefront!

Mijn mening? In het beste geval keert de arrogantie en het kinderachtige gedrag van Nvidia zich op een gegeven moment tegen Nvidia. Alleen hoe lang duurt het voordat de leken het ook in de gaten krijgen. Als iemand voor het eerst een computer heeft gekocht en hij gaat voor het eerst een fatsoenlijke grafische kaart uitzoeken, weet die persoon dan wel wat G-Sync en FreeSync zijn, wat een API is, welke kaarten beter presteren bij welke API's? Dit zijn retorische vragen.
Daarmee zeg je min of meer dat elke persoon die een Nvidia kaart heeft gekocht een leek is. Kwaliteit van dit nieuwstopic is er niet op vooruit gegaan in mijn afwezigheid (itt tot wat hier wellicht verwacht werd :P ).

Hele verhaal is verder natuurlijk op onzin gebaseerd aangezien Raja Koduri zelf heeft aangegeven dat Radeon 2-3 jaar achter ligt.

Ik heb dit al veel vaker gemeld dus ik zal het kort houden... Er zit een verschil tussen technisch succes en financieel succes. Dat laatste heeft AMD nog nooit weten te behalen en uiteindelijk is dat wel belangrijk om op de lange termijn succesvol te zijn als bedrijf. Als je een mooie Athlon maakt en die is gewoon beter dan wat Intel heeft te bieden, maar je verkoopt hem voor een prijs waarbij je geen winst maakt terwijl de top van je bedrijf niet beseft dat het ding uberhaupt sneller is, dan gaat er ergens iets goed mis. Met dat geld wat uit het succes volgt kun je namelijk investeren in je toekomst. Nu is het vooral een aflopende zaak en dan wordt het gewoon erg moeilijk, hoe vaak je ook van CEO wisselt.

Als je de vraag waarom AMD niet meer kaarten heeft verkocht heel algemeen trekt dan is het antwoord in de jaarverslagen van AMD te vinden; keer op keer schiet de productie capaciteit tekort. Dat ging eigenlijk vrij snel naar de inlijving van Ati al mis, pas rond 2011 is het iets verbeterd door simpelweg wat duurder te worden (southern islands).

De laatste jaren gaat het nog harder mis doordat de time-to-market is opgelopen. Dit is dan weer bevestigd door Raja Koduri (VP RTG) die vrij vertaald zei "we hadden niet de producten die de gamers wilden". Ook dat is niet de schuld van Nvidia maar terug te leiden op de beslissing om het R&D budget 6 jaar achter elkaar te laten dalen. Op een gegeven moment mis je talent (wat in het zelfde interview is bevestigd). Verder was Raja Koduri ook duidelijk dat AMD de focus op pc gaming ergens tussen de apu's en console deals is verloren.



Zeer interessante video die veel pijnpunten (gebrek aan focus, achterlopen, te weinig producten, strijd om talent) gewoon benoemt zonder schaamte. Dat is de manier waarop je wat aan je tekortkomingen kan doen. Met je vinger naar Nvidia wijzen gaat niet helpen (wat AMD ook minder gaat proberen te doen).

Deze man in combinatie met het recent verhoogde R&D budget maken mij weer positief over AMD Radeon. Ik kijk er echter niet raar van op als dit 3 jaar aanmodderen blijft. De foute keuzes uit het verleden zet je niet in een dag recht. Wat dat betreft ben ik nog altijd voorstander van een onafhankelijk Radeon bedrijf. Laat AMD de gpu techniek maar in licentie afnemen.

[Voor 3% gewijzigd door sdk1985 op 01-12-2016 23:22]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

sdk1985 schreef op donderdag 1 december 2016 @ 23:09:
[...]

Daarmee zeg je min of meer dat elke persoon die een Nvidia kaart heeft gekocht een leek is.
Nee. Om te beginnen stelde ik dat niet, AdoredTV stelde dat. Hij onderbouwde die stelling ook: op fora kiezen veel mensen (de meerderheid in het geval van 480 vs 1060) voor de AMD-kaart, de verkoopcijfers blijven ver achter. Je kan stellen dat AMD keer op keer te weinig produceert maar als de vraag 10 keer zo groot zou zijn als het aanbod dan zou de productie toch zeker wel verhoogd worden? :?

Dat interview was zeker rond mei bij PC Perspective? Zo ja, dan heb ik die al gezien.
Ik ben het met jou eens dat het beter zou zijn als Radeon zo onafhankelijk mogelijk functioneert, ik kreeg uit dat interview de indruk dat ze wel aardig wat vrijheid en steun kregen. Het zorgpunt is natuurlijk dat Nvidia in een paar maanden tijd zoveel winst maakt als AMD in jaren. Met het R&D-budget wat nodig is...
Ik hoop uiteraard dat AMD het redt want een toekomst met enkel Nvidia is een slechte toekomst voor gamers, totdat er weer eens een concurrent opstaat. Bovendien heeft Nvidia een gamervijandige houding met al die kinderachtige spelletjes (PhysX, Gameworks, G-Sync).

[Voor 57% gewijzigd door CHBF op 02-12-2016 21:27]

Zelfcensuur is de meest schadelijke vorm van censuur.


Acties:
  • +13Henk 'm!
Stel jij hebt een 1070 gekocht, jij hebt ook nog een 760 of zo liggen dus jij wil PhysX gebruiken.
Stel jij hebt een RX 480 en jij hebt ook nog een 760 of zo liggen dus jij wil PhysX gebruiken.
Nvidia staat dit niet toe. => gamervijandig

Iedereen die Borderlands 2 heeft gespeeld zou moeten weten dat PhysX prima gedraaid kan worden op hoge instellingen als je een AMD-kaart en een niet al te oude Intel-CPU hebt. Desalniettemin kan je die optie enkel activeren via een geheim gehouden commando in het bestand wat de waardes voor diverse variabelen bevat. De fout van de developers? Ik vermoed dat de developer dat deed in opdracht van Nvidia.
spoiler:
Ze spraken af om PhysX te implementeren, de programmeurs bouwden een betere methode in (CPU + heel de grafische kaart, ongeacht welk merk er wordt gebruikt) omdat dit de ontwikkeling gemakkelijker maakte (testen en zo) maar ze konden die optie niet in het menu opnemen omdat Nvidia dan boos zou worden. Speculatie maar kom maar eens met een betere verklaring waarom die optimalisatie niet in het menu is opgenomen.


AMD had een uitstekende techniek ontwikkeld voor haareffecten, Nvidia pusht een techniek die zelfs door de 1080 niet fatsoenlijke gerenderd kan worden terwijl het spel in kwestie ten tijde van de 900-serie (en 300-serie) uitkwam. => gamervijandig

Nvidia zet de tessellataion op niveau 100 terwijl je op niveau 20 al geen verschil meer ziet, omdat Nvidia weet dat AMD-kaarten er wat zwakker in zijn (voor de 400-serie een veel minder groot probleem maar dat doet er nu even niet toe) => gamervijandig

Nvidia pusht een of andere nieuwe belichtingstechniek of iets dergelijks (waarbij het nog maar de vraag is of dat Nvidia het wel zelf heeft ontwikkeld maar let's not open that can of worms), Nvidia houdt de code geheim waardoor het voor AMD-kaarten niet gebruikt kan worden. => gamervijandig
In contrast hiermee gaf AMD alle medewerking aan Nvidia om TressFX te implementeren toen Tomb Raider uitkwam, of daarvoor al.

Nvidia zou zeer eenvoudig FreeSync-monitors kunnen ondersteunen (kwestie van wat software in de drivers) maar Nvidia weigert om dat te doen. => gamervijandig

We kunnen het ook nog over planned obsolescence hebben. Als allerlei Nvidia-kaarten die even oud zijn als bepaalde AMD-kaarten zijn ingelopen door die AMD-kaarten doordat die laatste betere ondersteuning krijgen X jaar na het debuut....

Mensen kunnen nu gaan muggenziften over details maar dat Nvidia gamervijandig handelt lijkt me wel duidelijk gestaafd.
Iedereen mag er het zijne van vinden, alleen al omwille van dit soort gedrag koop ik sowieso geen Nvidia-kaarten. Het begon voor mij bij die PhysX-onzin, op dat punt besloot ik om geen Nvidia-kaarten meer te kopen.
Sp3ci3s8472 schreef op zaterdag 3 december 2016 @ 13:16:
De houding van Nvidia is minder positief voor gamers dan die van AMD. AMD heeft het alleen wel voor een deel aan zichzelf te danken dat ze het zover hebben laten komen en dat de verhouding nu 30/70 is in de markt. Daar kan je Nvidia moeilijk de schuld van geven, het is juist door die verhouding dat Nvidia de kans krijgt om vaker minder plezante dingen te doen.
Het lijkt me meer een kwestie van cultuur. AMD hoefde bijvoorbeeld niet TressFX te delen maar dat deden ze wel. Hoe dan ook, als AMD hezelfde zou doen dan zou ik uiteraard AMD links laten liggen.

[Voor 12% gewijzigd door CHBF op 04-12-2016 02:38]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • NINjak
  • Registratie: april 2000
  • Laatst online: 09-04 11:51
CHBF schreef op zondag 4 december 2016 @ 01:53:
[...]

Stel jij hebt een 1070 gekocht, jij hebt ook nog een 760 of zo liggen dus jij wil PhysX gebruiken.
Stel jij hebt een RX 480 en jij hebt ook nog een 760 of zo liggen dus jij wil PhysX gebruiken.
Nvidia staat dit niet toe. => gamervijandig

Iedereen die Borderlands 2 heeft gespeeld zou moeten weten dat PhysX prima gedraaid kan worden op hoge instellingen als je een AMD-kaart en een niet al te oude Intel-CPU hebt. Desalniettemin kan je die optie enkel activeren via een geheim gehouden commande in het bestand wat de waardes voor diverse variabelen bevat. De fout van de developers? Ik vermoed dat de developer dat deed in opdracht van Nvidia.
spoiler:
Ze spraken af om PhysX te implementeren, de programmeurs bouwden een betere methode in (CPU + heel de grafische kaart, ongeacht welk merk er wordt gebruikt) omdat dit de ontwikkeling gemakkelijker maakte (testen en zo) maar ze konden die optie niet in het menu opnemen omdat Nvidia dan boos zou worden. Speculatie maar kom maar eens met een betere verklaring waarom die optimalisatie niet in het menu is opgenomen.


AMD had een uitstekende techniek ontwikkeld voor haareffecten, Nvidia pusht een techniek die zelfs door de 1080 niet fatsoenlijke gerendered kan worden terwijl het spel in kwestie ten tijde van de 900-serie (en 300-serie) uitkwam. => gamervijandig

Nvidia zet de tessellataion op niveau 100 terwijl je op niveau 20 al geen verschil meer ziet, omdat Nvidia weet dat AMD-kaarten er wat zwakker in zijn (voor de 400-serie een veel minder groot probleem maar dat doet er nu even niet toe) => gamervijandig

Nvidia pusht een of andere nieuwe belichtingstechniek of iets dergelijks (waarbij het nog maar de vraag is of dat Nvidia het wel zelf heeft ontwikkeld maar let's not open that can of worms), Nvidia houdt de code geheim waardoor het voor AMD-kaarten niet gebruikt kan worden. => gamervijandig
In contrast hiermee gaf AMD alle medewerking aan Nvidia om TressFX te implementeren toen Tomb Raider uitkwam, of daarvoor al.

Nvidia zou zeer eenvoudig FreeSync-monitors kunnen ondersteunen (kwestie van wat software in de drivers) maar Nvidia weigert om dat te doen. => gamervijandig

We kunnen het ook nog over planned obsolescence hebben. Als allerlei Nvidia-kaarten die even oud zijn als bepaalde AMD-kaarten zijn ingelopen door die AMD-kaarten doordat die laatste betere ondersteuning krijgen X jaar na het debuut....

Mensen kunnen nu gaan muggenziften over details maar dat Nvidia gamervijandig handelt lijkt me wel duidelijk gestaafd.
Iedereen mag er het zijne van vinden, alleen al omwille van dit soort gedrag koop ik sowieso geen Nvidia-kaarten. Het begon voor mij bij die PhysX-onzin, op dat punt besloot ik om geen Nvidia-kaarten meer te kopen.

[...]

Het lijkt me meer een kwestie van cultuur. AMD hoefde bijvoorbeeld niet TressFX te delen maar dat deden ze wel. Hoe dan ook, als AMD hezelfde zou doen dan zou ik uiteraard AMD links laten liggen.
Mooie opsomming en het is (jammer genoeg) nog waar ook.

  • Trygve
  • Registratie: oktober 2009
  • Laatst online: 22:59
CHBF schreef op zondag 4 december 2016 @ 01:53:
[...]
Nvidia zet de tessellataion op niveau 100 terwijl je op niveau 20 al geen verschil meer ziet, omdat Nvidia weet dat AMD-kaarten er wat zwakker in zijn (voor de 400-serie een veel minder groot probleem maar dat doet er nu even niet toe) => gamervijandig
Nog even in aanvulling hierop, AMD heeft tesselation over de generaties heen al verbeterd, GCN1 was hier destijds in vergelijking met nVidia niet zo sterk in.

TessMark, Image Set 4, 64x Tessellation. Frames Per Second - Higher Is Better
R9 280 (GCN1): 766 fps
GTX960: 1418 fps
R9 290 (GCN2): 1461 fps
R9 380 (GCN3): 1661 fps
RX480 (GCN4): 2240 fps
http://www.anandtech.com/bench/product/1751?vs=1750

Neemt inderdaad niet weg dat er een overkill aan tesselation is gebruikt in sommige spellen (Witcher 3 en Project Cars kan ik zo alleen bedenken, maar er zijn er zeker meer).

  • Trygve
  • Registratie: oktober 2009
  • Laatst online: 22:59
Hardware Canucks heeft nogmaals de RX480 en GTX1060 bekeken en vergeleken. Zoals wel vaker heeft AMD even tijd nodig om met geoptimaliseerde drivers voor nieuwe kaarten te komen:





Volgens Hardware Canucks gaat de RX480 inmiddels vrijwel gelijk op met de GTX1060 in DX11, en is de voorsprong in DX12/VK iets vergroot.
Bron

  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 00:14

Sp3ci3s8472

@ 12 graden...

Een van de redenen dat ik liever voor een AMD kaart koop, werken prima en zijn vaak even snel als hun tegenhanger als ze uitkomen totdat AMD (wat wat langer duurt dan bij Nvidia) de volle potentie kan benutten. Het maakt mij persoonljik weinig uit dat het iets langer duurt voordat een kaart zijn potentie kan laten zien, zeker als hij sneller wordt dan die van de concurrent.

Battle.net tag


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 00:14

Sp3ci3s8472

@ 12 graden...

De 260GTX zit al heel lang in legacy, Kepler kaarten krijgen tegenwoordig ook legacy drivers zover ik weet.De nieuwe Nvidia drivers zijn niks meer dan waarschijnlijk bug fixes.
Dus dat is niets meer dan een illusie die Nvidia schept :P.

Als je nu kijkt naar de R9 280x vs de GTX770 of GTX780 dan kan je gelijk zien welke nog wel performance updates krijgt en welke niet. De 280x verslaat de GTX770 tegenwoordig met gemak en komt heel dicht in de buurt van de GTX780 die vroeger vergelijkbaar was met de R9 290.


Het is dus juist andersom.
offtopic:
Voor de frequende bezoeker is dit oude koek, dit moet te vaak worden herhaald...

[Voor 7% gewijzigd door Sp3ci3s8472 op 06-12-2016 14:53]

Battle.net tag


  • Compizfox
  • Registratie: januari 2009
  • Laatst online: 23:09

Compizfox

I use Arch, btw

R.G schreef op dinsdag 6 december 2016 @ 14:42:
mmm, een punt wat ik jammer vind van amd is, dat ze driver updates snel stoppen en het dan de naam legacy geven.

Zo heb ik nog een oude 260gtx bijvoorbeeld liggen daarvoor komen nog steeds nvidia drivers uit. Tenminste ik kan ze installeren.
In wezen is er geen verschil. Je oude Nvidia-kaart is dan misschien wel supported door de laatste driver, er zijn al jaren geen changes meer voor uitgekomen. Het heeft dus in feite geen enkel nut voor die kaart om je driver te updaten.

Nvidia wekt dus de schijn dat er nog driverupdates voor die kaart uitkomen, terwijl AMD gewoon duidelijk is over het feit dat oude kaarten (pre-GCN) geen updates meer krijgen.

Sterker nog, ik zou het eerder omdraaien: bij AMD neemt de performance van kaarten over het algemeen toe, omdat tijdens de levensduur van de kaart nieuwe drivers uitkomen die veel aan de performance verbeteren. Nvidia doet exact het omgekeerde: het gerucht gaat dat die hun oudere series 'saboteren' om mensen nieuwe series te laten kopen (kon zo snel geen goede bron vinden, dus correct me if I'm wrong).

There is no system but GNU and Linux is one of its kernels


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 00:14

Sp3ci3s8472

@ 12 graden...

-The_Mask- schreef op dinsdag 6 december 2016 @ 17:46:

AMD Readies Massive Radeon Software Update with Crimson Relive Drivers – Performance Increases For Radeon GCN Cards Across The Board

[afbeelding]

http://wccftech.com/amd-r...imson-relive-driver-leak/
Die nieuwe "Chill" feature is best interessant, in feite dynamisch de framerate limiteren als een user niks doet (bijvoorbeeld still staat en geen input genereert) en als er niks op het scherm gebeurt.

Battle.net tag


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 00:14

Sp3ci3s8472

@ 12 graden...

Wat ze ook correct opmerken in het artikel is dat Intel hierdoor veel minder die space nodig heeft dan nu. Als je kijkt hoeveel die space de GPU van Intel inneemt ter vergelijking met die van AMD en welke performance ze daar uit weten te halen dan gaan ze waarschijnlijk heel veel vooruit.

Battle.net tag


  • winwiz
  • Registratie: september 2000
  • Laatst online: 22:40

Ryzen 3900X + 32GB GSKILL @3200 op Croshair VI Hero + RX Vega 64 + Philips BDM4065UC + DS1815+ + DS414 + MacbookPro 15" 2016

Pagina: 1 2

Dit topic is gesloten.



Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True