Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
https://static.tweakers.net/ext/f/fNLqSH1P5nsANvKsOif8UNor/full.png
  • 16 juni 2015: Nieuw deel; alles bijgewerkt, nieuwe logo's, FreeSync, TressFX
  • 17 juni 2015: Fiji toegevoegd bij line-up
  • 19 juni 2015: Gehele Rx 300 series toegevoegd
  • 23 juni 2015: HBM, VSR, FRTC toegevoegd
  • 24 juni 2015: Deel 131! Gaat snel :)
  • 25 augustus 2015: Deel 132 en kopje toekomst wat geupdate.
  • 21 december 2015: Deel 133, o.a. Radeon Technologie, Crimson, HDR, R9 380X toegevoegd
  • 15 april 2016: Fury X2 aangepast, naar Radeon Pro Duo, info toegevoegd, toekomst en geruchten bijgewerkt
  • 14 mei 2016: Deel 134 aangemaakt.
  • 14 juni 2016: Oude line-up vervangen door nieuwe generatie, Async Compute, DX12, HBM2 en https proof
  • 28 juni 2016: Deel 136 aangemaakt en GCN4 geüpdatet, geruchten launch overige RX 400 kaarten toegevoegd
  • 2 juli 2016: Deel 137, officiële informatie van alle Polaris kaarten toegevoegd
  • 16 augustus 2016: Deel 138 aangemaakt en officiele RX 460, RX 470 gegevens toegevoegd.
https://static.tweakers.net/ext/f/WrsUgBs8Q7c7JclXsFSfM2YE/full.png
  • Flamen & Trollen
  • Basic questions, in dit topic gaan we er van uit dat je een beetje self-research hebt gepleegd d.m.v. de search-functie.
  • Gezeur over leverbaarheid, levertijden, prijzen en dergelijke.
  • Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod! Dit kan altijd via https://tweakimg.net/g/forum/images/icons/icon_hand.gif boven aan elk topic.
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op AMD Radeon gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.
https://static.tweakers.net/ext/f/54kDo1BkALQQjlPwEtxYJj7n/full.png
https://static.tweakers.net/ext/f/0PzCkxTkdJVtwpaoCV9Loo18/full.png

Zoek je algemene informatie over oudere GPUs? Kijk dan even in de first posts van de voorgaande topics en lees hun bijbehorende FAQs.
  • ATi Radeon X700 / X800 Series; R420 / R480: Deel 1 - 20
  • ATi Radeon X1000 Series; R520 / R580: Deel 21 - 50
  • ATi Radeon HD 2000 Series; R600 / RV630 / RV610: Deel 51 - 70
  • ATi Radeon HD 3000 Series; RV670 / R680: Deel 71 - 85
  • ATi/AMD Radeon HD 4000 Series; RV770 / R700: Deel 86 - 104
  • Geschiedenis van alle ATi videokaarten t/m de RV790: Deel 100
  • ATi/AMD Radeon HD 5000 Series; Evergreen: Deel 105 - 116
  • AMD Radeon HD 6000 Series; Northern Islands: Deel 117 - 123
  • AMD Radeon HD 7000 Series; Southern Islands: Deel 123 - 125
  • AMD Radeon Rx 200 series; Sea Islands: Deel 125 - 128
  • AMD Radeon Rx 200 series; Volcanic Islands: Deel 128 - 129
  • AMD Radeon Rx 300 series; Caribbean Islands: Deel 129 - 134
  • AMD Radeon RX 400 series; Arctic Islands: 134 - 138
R420 / R480
01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19 20

R520 / R580
21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50

R600 / RV630 / RV610
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70

RV670 / R680
71 72 73 74 75 76 77 78 79 80 81 82 83 84 85

RV770 / RV700
86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104

Evergreen
105 106 107 108 109 110 111 112 113 114 115 116 117

Northern Islands
118 119 120 121 122

Southern Islands
123 124 125

Sea Islands
125 126127 128

Volcanic Islands
128 129

Caribbean Islands
129 130 131 132 133

Arctic Islands
134 135 136 137

https://static.tweakers.net/ext/f/8FkkgTS9IXMDRQSyIHkLWCOV/full.png

Op 9 september 2015 werd bekend dat de GPU tak een los bedrijfsonderdeel binnen AMD wordt. Sinds de overname van ATi meer dan 9 jaar geleden door AMD was het meer een fusie bedrijf, waarbij de APU's van AMD het perfecte voorbeeld zijn van de fusie. Nu is de GPU tak een losse divisie onder de naam Radeon Technologies Group en staat het onder leiding van Raja Koduri. Zo moet de GPU tak zich beter kunnen focussen op nieuwe GPU's en weer een groter marktaandeel krijgen.



https://static.tweakers.net/ext/f/BZHShTxuT0vo5MjfwSLYRXKA/full.png

GCN

De Graphics Core Next Generation 1 of kortweg GCN microarchitectuur zag voor het eerst het levenslicht met Southern Islands in de HD 7000 serie. Het is de opvolger van de TeraScale microarchitectuur welke gebruikt werd sinds de HD 2000 series. De TeraScale microarchitectuur is een zogenaamde VLIW SIMD architectuur. De GCN microarchitectuur is een zogenaamde RISC SIMD architectuur.

Meer informatie over de GCN microarchitectuur kun je vinden in de HD 7970 review op AnandTech.

GCN2

Met de launch van de HD 7790 (Bonaire) had de GCN microarchitectuur de eerste veranderingen ondergaan. Bij AMD noemen ze de het GCN2, maar op internet staat het vooral bekend als GCN 1.1. De veranderingen zijn o.a. een nieuwe revisie van Powertune en ondersteuning voor TrueAudio en FreeSync.

Meer informatie over de GCN microarchitectuur kun je vinden in de HD 7790 review op AnandTech.

GCN3

Met de launch van de R9 285 (Tonga) zag de derde revisie van de GCN microarchitectuur het levenslicht. AMD noemt het GCN3, maar op internet zul je vooral GCN 1.2 tegenkomen. De veranderingen bestaan o.a. uit verbeterde tesselation performance, losless delta color compressie (voor geheugenbandbreedte reductie) en een nieuwe UVD.

Meer informatie over de GCN 1.2 microarchitectuur kun je vinden in de R9 285 review op AnandTech

GCN4

Met de launch van de RX 480 (Ellesmere) zag de vierde revisie van de Graphics Core Next architectuur genaamd GCN4 het levenslicht. De veranderingen zijn o.a. TrueAudio Next, betere Delta Color Compression, H.265 GPU versnelling voor afspelen video's, HEVC/H.264 video encoding voor videorecording en streaming met OBS of Raptr, HDMI 2.0b en Display Port 1.3/1.4 ondersteuning.



https://static.tweakers.net/ext/f/lsKsgtQZFT8XeaC6AxEKllfd/full.png

Na HBM is het in de nieuwe generatie de beurt aan de opvolger met de weinig verrassende naam HBM2. Het idee bij HBM2 is nog hetzelfde als HBM. Geheugen wordt naast de GPU geplaatst op een interposer. Via de interposer wordt het HBM verbonden met de GPU.



Door HBM wordt de totale oppervlakte van de GPU en het videogeheugen dat nodig is op een videokaart vele malen kleiner in vergelijking met GDDR5 en GDDR5X. Dit maakt kleine high-end videokaarten mogelijk, zie bijvoorbeeld de Fury X en Nano. Ander voordeel van HBM2 is dat het veel minder verbruikt als hoog geklokt GDDR5 geheugen en zelfs GDDR5X verbruikt meer.



Het verschil tussen HBM en HBM2 is dat HBM2 meer geheugen en meer bandbreedte mogelijk maakt zoals je op bovenstaande afbeelding kunt zien. Zat je met HBM vast aan 4096bit geheugenbus welke 512GB/s bandbreedte gaf en maximaal 4GB geheugen had verdeeld over vier stacks. Met HBM2 kun je die zelfde 512GB/s al bereiken met twee stacks van 256GB/s en dus maar een 2048 bit geheugenbus ook zit je nu niet aan maximaal 4GB vast, maar is 8GB in deze configuratie ook prima mogelijk.

HBM2 is dus ideaal voor een kleine high-end videokaart, maar misschien nog wel perfecter voor een high-end APU van AMD voor in bijvoorbeeld een console of kleine en zuinige game PC.

https://static.tweakers.net/ext/f/Sy8KyiLSuLTMoNWElKNAlnVb/full.png

Een aantal weken nadat bekend werd dat grafische tak binnen AMD een eigen divisie kreeg, kwam al snel één van de eerste veranderingen in de zin een opvolger voor Catalyst Control Center. Catalyst Control Center, geschreven in .NET, wordt opgevolgd door Radeon Software Crimson Edition, geschreven in Qt. Naast de volledig veranderde en meer moderne interface is Radeon Software Crimson Edition ook vele malen lichter als Catalyst Control Center, het start dus veel sneller.

Bij het lanceren van de nieuwe drivers beloofde AMD ook meer drivers en minimaal 6 WHQL versies uit te brengen per jaar. Vooralsnog maken ze ook hun belofte van meer drivers waar en ook liggen ze op schema voor 6 WHQL drivers binnen een jaar.



Voor alle slides en veranderingen zie het volgende artikel op TechPowerUp.

https://static.tweakers.net/ext/f/v2kCj9ge2GfrjjF6Jr7iJSud/full.png

GPUOpen is AMD's antwoord op nVidia's GameWorks, er is alleen één heel groot verschil. Waarbij GameWorks een gesloten systeem is wat er vaak voor zorgt dat games verschrikkelijk slecht presteren op bijna alle hardware, met soms uitzondering van enkele Maxwell kaarten, die dan gewoon slecht presteren, in plaats van extreem slecht. :p Wordt GPUOpen, zoals de naam al zegt, een verzameling van meerdere Open Source projecten voor meerdere platformen.



Voor meer informatie en nog wat over zie AnandTech en Wikipedia: GPUOpen

https://static.tweakers.net/ext/f/I0fL2gZGcNNDNRWGvfIvrXb4/full.png

FreeSync is AMD's tegenhanger van nVidia's Gsync. Met FreeSync is het mogelijk om een dynamische refreshrate te krijgen, in plaats van een vaste zoals gebruikelijk. Het voordeel hiervan is dat je geen screen tearing meer krijgt. Bij screen tearing worden 2 of meerdere frames van de videokaart op één refresh weergeven. Bij een snel bewegend beeld ziet dit er nogal vreemd uit, doordat het ene stukje beeld dan al verder is al een ander stukje.

Voorbeeld van screen tearing

Screen tearing ontstaat doordat op het moment dat de monitor een nieuwe frame uit de framebuffer van de videokaart er halverwege dit proces een nieuwe frame in de framebuffer wordt geplaatst. Op zo'n moment zie je dus twee halve frames op je scherm van verschillende tijdstippen. Zoals het plaatje hierboven laat zien is dit niet ideaal.

De oplossing hiertegen was altijd het gebruik van Vsync. Met Vsync produceert de videokaart niet meer frames dan het beeldscherm kan weergeven. Maar Vsync brengt ook weer andere problemen met zich mee. Vsync zorgt namelijk voor input lag. Ook zal de framerate halveren op het moment dat de videokaart niet het benodigd aantal frames kan weergeven. Dit zorgt dan weer voor een niet soepele game ervaring.

Met FreeSync pak je alle problemen aan welke je kan krijgen met een niet FreeSync setup. In tegenstelling tot hoe het eerst was bepaald nu niet de monitor wanneer er een nieuw beeld wordt weergeven, maar bepaald nu de videokaart dat. Op het moment dat de videokaart dus klaar is met een frame geeft die dit door aan de monitor welke dan de nieuwe frame uit de framebuffer kan halen.

Zo pak je screentearing aan en heb je tegelijkertijd ook geen last input lag of een veel lagere framerate.

FreeSync heeft een bereik van 9 t/m 240Hz, al zijn er (op dit moment) geen schermen te vinden die zo'n groot bereik hebben. FreeSync zit verwerkt in de DisplayPort 1.2a specificatie en is een open standaard welke voor iedereen te gebruiken is. Naast DisplayPort is AMD op dit moment ook bezig om FreeSync in een nieuwe HDMI standaard te verwerken.



Reviews over FreeSync zijn te vinden op bijvoorbeeld AnandTech en TechReport en TFT Central.

Meer informatie over FreeSync en geschikte monitoren op AMD.com

https://static.tweakers.net/ext/f/tCder6geO1PGaWahBUS7rC4u/full.png

Low Framerate Compensation, kortweg LFC, is een nieuwe functie bij het gebruik van FreeSync. Zonder deze functie krijg je bij FreeSync last van tearing en judder als de framerate onder het minimale zakt wat het FreeSync scherm kan weergeven. Bij het gebruik van LFC met Vsync heb je hier geen last van doordat dan meermaals dezelfde frame wordt weergegeven ter compensatie. Wel moet de maximale refreshrate van de monitor minimaal 2,5 maal zo hoog zijn als de minimale.





https://static.tweakers.net/ext/f/60sT5kAuTNA5mRnfZCO6yUDi/full.png

AMD TressFX Hair is een haar physics systeem. Bedoeld om haar zo natuurlijk mogelijk te laten ogen. Op dit moment zitten we op versie 2.0 in de nieuwe Deus Ex game zal versie 3.0 worden gebruikt. TressFX is in tegenstelling tot nVidia's Hairworks open source en kan dus door iedereen gebruikt worden.



https://static.tweakers.net/ext/f/2k7wU5j4IknRlRPsv71xXF1u/full.png

Virtual Super Resolution of kortweg VSR maakt het mogelijk om een hogere resolutie in te stellen dan dat het scherm werkelijk ondersteund. Vanzelfsprekend zal dit er bij normaal desktop gebruik minder mooi uitzien, maar bij games waarbij anti aliasing niet ondersteund wordt of problemen geeft kan VSR een handige bijkomstigheid zijn.



https://static.tweakers.net/ext/f/dZd9sEGFgEhpG3GrJ5ckbLMA/full.png

Frame Rate Target Control of kortweg FRTC zorgt er voor dat je de frame rate kan afkappen tot een bepaalde maximale waarde, welke in principe los staat van de verversingssnelheid van je beeldscherm. Het werkt niet alleen bij 3D games, maar ook bij introschermen of menu's e.d. In menu's wil een fps van enkele duizenden frames per seconde wel eens voorkomen, dit heeft natuurlijk geen enkel nut, kan alleen maar zorgen voor coil whine. Met FRTC heb je daar dus geen last meer van en het verlaagt ook nog eens het verbruik van de videokaart, doordat deze minder hoeft te berekenen. Het maximale aantal frames per seconde dat ingesteld kan worden is op dit moment 200 en het minimale aantal is 30.



https://static.tweakers.net/ext/f/8hoQr59hss9VZ16LVS7YgUSK/full.png

High Dynamic Range, kortweg HDR, brengt simpelweg een groter kleurbereik. Vanzelfsprekend moet je wel een HDR scherm hebben anders kan het niet weergegeven worden. Op dit moment zijn er een handje vol TV's welke het ondersteunen, maar in de toekomst wordt dit ongetwijfeld de standaard, ook voor monitoren. Zover is het nu in ieder geval nog niet, maar de nieuwste kaarten van AMD zijn hier alvast op voorbereid.





https://static.tweakers.net/ext/f/EfbjXonk1BekCuQdMpvm1JMP/full.png


Async Compute is één van de mooie onderdelen van DirectX 12. Async Compute maakt het mogelijk om meerdere verschillende opdrachten parallel door de GPU pipeline te laten lopen. Dit kan voor een grote prestatiewinst zorgen, dus meer fps of de instellingen kunnen hoger. Alle GCN kaarten van AMD ondersteunen Async Compute. nVidia's Maxwell en ook Pascal ondersteunen geen Async Compute waardoor AMD bij gebruik van Async Compute een erg grote sprong kan maken ten opzichte van nVidia.





Whitepaper van AMD wat betreft Async Compute, artikel hierover op Anandtech.

nVidia beweert overigens wel dat ze Async Compute ondersteunen. Zo hebben ze altijd vol gehouden dat Maxwell Async Compute heeft maar dat dit uitgeschakeld is in de driver. Vanzelfsprekend is dit niet waar, als het wel waar zou zijn hadden ze het ook al lang veranderd nu meerdere games en zelfs 3DMark er gebruik van kan maken. Bij Pascal hebben ze wel iets wat ze Async Compute noemen. Dit is echter geen Async Compute, er is namelijk niks asynchroon aan hun Async Compute.



Wat nVidia doet is het pauzeren van de een berekening data opslaan, andere data inladen die berekening uitvoeren, data van de eerste berekening weer inladen en verder gaan met die berekening. Gaat dus allemaal serieel terwijl Async Compute parallel werkt. Overigens heeft wat nVidia doet ook een naam, dat heet namelijk pre-emption iets wat AMD ook ondersteund. Alleen doordat nVidia geen Async Compute ondersteund noemen ze hun pre-emption ook maar Async Compute, terwijl dat heel wat anders is. In de bovenstaande afbeelding kun je echter ook zien dat pre-emption ook nadelen heeft, door het wisselen kun je ook juist performance verlies in plaats van winst krijgen.



Hierboven zie je ook nog schematische tekening van AMD waar je pre-emption, Async Compute los en gecombineerd aan het werk ziet.

https://static.tweakers.net/ext/f/vyeGPiTK9vb2O4HLp65Z7mFJ/full.png

Met de 400 serie is AMD ook overgestapt op een een naamsverandering, zodat het simpeler en duidelijker moet worden dan het was. Hieronder kun je een afbeelding zien wat de naam ongeveer moet betekenen.



Alles met de naam RX moet geschikt zijn voor minimaal games als DOTA 2 en LoL op full HD met minimaal 60 frames per seconde en dit geld voor de traagste RX kaart. Het eerste cijfer achter het voorvoegsel (RX) blijft de generatie, in dit geval vierde generatie. Tweede cijfer blijft prestaties 9 snelste en 5 het laagste aldus de slide. Laatste cijfer is dan voor de revisie, kan een 0 of 5 zijn. Zo had je ook al de R9 285 gebaseerd op Tonga wat je kan beschouwen als een nieuw revisie van Tahiti in de R9 280. Tonga had o.a. een nieuwe GCN versie en een kleinere geheugenbus en geheugencompressie.

AMD Radeon RX 460

De AMD Radeon RX 460 is gebaseerd op de Baffin (Polaris 11) GPU. Deze GPU heeft 1024 stream processors verdeelt over 16 CU's, waarbij twee CU's in de RX 460 zijn uitgeschakeld waardoor je een totaal krijgt van 896 stream processors. De volledige GPU zal eerst alleen als notebook GPU verschijnen en misschien later ooit nog als RX 465 beschikbaar komen.





Hierboven zie je een render van hoe een RX 460 eruit kan gaan zien. Er komt geen reference versie van deze kaart dus fabrikanten kunnen hun eigen PCB lay-out en koeler maken. Uiterlijk van deze render zal dus niet met de praktijk overeen te komen.

Doordat het hier gaat om een Baffin Pro GPU en dus niet de volledig ingeschakelde Baffin XT GPU, zit de prestatie iets onder die van een GTX 950 in DirectX 11 en OpenGL games en iets boven de GTX 950 in DirectX 12 en Vulkan games.

Dit is een kaart welke moderne zware games op gemiddelde instellingen zal kunnen spelen op full HD. Maar de markt waar deze kaart vooral op gericht is zal naast de notebook de meer lichtere games zijn zoals Counter Strike, DOTA 2, Heroes of the Storm, Overwatch, Rocket League, Team Fortress 2 of de gewoon iets oudere games.

Standaard verbruik van deze kaart ligt onder de 75W, overgeklokte exemplaren gaan over de 75W heen en hebben dan ook een extra PEG connector nodig. Met een stille koeler zal dit ook een prima HTPC kaart zijn welke op de toekomst is voorbereid door HDR, H.265/HEVC, HDMI 2.0b en DisplayPort 1.3 en 1.4.

AMD Radeon RX 470

De AMD Radeon RX 470 is gebaseerd op Ellesmere Pro (Polaris 10). Deze GPU heeft 2304 stream processors verdeelt over 36 CU's, waarbij 4 CU's in de RX 470 zijn uitgeschakeld waardoor je een totaal krijgt van 2048 stream processors. De volledige GPU vind je terug in de RX 480. De basiskloksnelheid van de GPU is 926MHz en de boostfrequentie is 1206MHz. Het GDDR5 geheugen heeft een frequentie van 1650MHz wat effectief neerkomt op 6,6Gbps.



Op bovenstaande foto zie je de RX 470, dit is echter een foto met reference versie. De RX 470 verschijnt echter alleen maar als custom versie, dus elke fabrikant zal komen met zijn eigen ontwerp van deze kaart. In DirectX 11 en OpenGL games zal de kaart zo'n 10% langzamer als een GTX 970 zijn, met Direct X 12 en Vulkan games moet de kaart zo'n 10% sneller kunnen zijn. Het verwachte verbruik van de kaart zal rond de 120W zitten. De vanaf prijs zal 179 dollar worden (net onder de 200 euro inclusief btw).

AMD Radeon RX 480

De AMD Radeon RX 480 is de eerste kaart van deze nieuwe serie. Deze videokaart is gebaseerd op de volledige Ellesmere (Polaris 10) GPU en telt 2304 stream processors verdeeld over de 36 CU's. De basiskloksnelheid bedraagt 1120MHz en de maximale frequentie is 1266MHz en hier zal de kaart, gemiddeld tijdens een zware game zal de reference kaart rond de 1200MHz zitten.





De geheugenbus bedraagt net als de RX 470 256 bit, het geheugen van de reference versie draait op 2GHz (8Gbps). Het geheugen mag echter ook op 1,75GHz (7Gbps) draaien om kosten te drukken. 7Gbps geheugenchips zijn namelijk goedkoper. De keuze is dus aan de fabrikant. RX 480 gericht op een lage prijs zullen waarschijnlijk vaker 7Gbps geheugenchips bevatten, terwijl duurdere modellen vaker 8Gbps geheugenchips zullen hebben.

Geheugen hoeveelheid kan zowel 4GB als 8GB GDDR5 zijn, waarbij de 4GB kaarten een MSRP (Manufacturer's Suggested Retail Price) hebben vanaf 199 dollar (~215 euro incl btw) en de 8GB kaarten een MSRP van 229 dollar (~260 euro incl. btw) hebben meegekregen.



Zoals je kunt zien op de laatste afbeelding van hierboven heeft ook de RX 480 standaard een enkele PEG connector. Verbruik van de kaart zit zo rond de 160W, waarmee AMD de kaart beter een 8 pins PEG connector had kunnen geven. Custom versies zullen waarschijnlijk meestal dan ook een 8 pins, twee 6 pins of een 6 en 8 pins PEG connector hebben.

Prestaties van deze kaart zitten zo'n 10% onder die van een GTX 980 in DirectX 11 en OpenGL, maar moeten zo'n 10% hoger liggen in DirectX 12 en Vulkan games. Hoe meer DirectX 12 games er in de toekomst dus komen hoe sneller de kaart gemiddeld dus wordt ten opzichte van de GTX 980.




Bron: http://www.hardwarecanuck...erformance-review-24.html

https://static.tweakers.net/ext/f/gIgCGUMMumlGZX7KQeORJvC6/full.png
  • FreeSync monitoren met HDMI aansluitingen.
  • Begin 2017 staat de high-end Vega met HBM2 op de planning.




https://static.tweakers.net/ext/f/HfxXR0ER9JAl66CISeu0vkDw/full.png

Q1 2017 wordt AMD's high-end Vega10 chip verwacht. Dit zou een chip moeten zijn met 64CU's oftewel 4096 stream processors, dit is een verdubbeling van de RX 470. Verwacht wordt dat de kloksnelheid van de GPU echter iets hoger ligt dan deze kaart, waardoor dubbele prestaties mogelijk moeten zijn. Schaling is echter nooit perfect waardoor, alleen een dubbel aantal stream processors niet genoeg is voor dubbele prestaties, de hogere kloksnelheid moet dat echter wel mogelijk maken.

Dat deze GPU hetzelfde aantal stream processors heeft als Fiji zegt overigens niks over de prestaties van Vega10. Vega10 is meer vergelijkbaar met Polaris en daarvan weten we al dat die een betere IPC heeft (meer prestaties op dezelfde kloksnelheid per stream processor). Daarmee kun je dus een prestatie verwachten van waarschijnlijk iets boven de GTX 1070, maar onder de GTX 1080. Het is echter allemaal afhankelijk van de kloksnelheid en die is waarschijnlijk nog niet eens precies bepaald door AMD op dit moment.

Vega10 zou voor de rest 2 stacks HBM2 geheugen moeten hebben, een halvering van Fiji, maar doordat met HBM2 de bandbreedte verdubbeld per stack zal de bandbreedte identiek blijven aan Fiji met 512GB/s. Ook dit is geen probleem, Vega10 kan net als Polaris een stuk efficiënter omgaan met geheugenbandbreedte door compressie technieken. De RX 480 heeft dan ook 256GB/s aan geheugenbandbreedte, een verdubbeling hiervan voor Vega10 moet dus voldoende zijn. Qua geheugengrootte kan AMD gaan voor zowel 8GB als 16GB, beide zijn realistische mogelijkheden en misschien kiezen ze ook wel voor beide door twee videokaarten uit te brengen gebaseerd op deze GPU.

Doordat HBM2 een stuk zuiniger is als GDDR5 geheugen zal het verbruik van de videokaart niet verdubbelen. Het geheugen op de RX 480 neemt waarschijnlijk maar liefst iets van 50W, waarmee de rest van deze videokaart dus iets van 110W verbruikt. Een verdubbeling van 160W (RX 480) zou 320W zijn, maar doordat Vega10 geen GDDR5 gebruikt, neem je twee maal 110W wat uitkomt op 220W en daarbij komt waarschijnlijk iets van 30W voor het HBM2 geheugen. Hierdoor kom je dus uit op 250W in plaats van 320W, een besparing van 70W door alleen maar een ander type geheugen te gebruiken.

Nu is Vega10 echter geen verdubbeling van de RX 480, maar eerder van de RX 470 met waarschijnlijk wel een hogere kloksnelheid en waarschijnlijk een iets beter productieproces. Een verdubbeling van de RX 470 betekend dus een lager verbruik dan 250W, eerder iets van 200W met HBM2. De verwachte hogere kloksnelheid zal het verbruik echter weer opdrijven, maar een beter productieproces zorgt er weer voor dat het verbruik lager ligt. Al met al zou ik dus uitgaan van een verbruik van zo'n 225W.

https://static.tweakers.net/ext/f/iADoSsXVtx7g6dJllPfBgsSV/full.png

AMD-only partners

AMD / nVidia partners

Utilities

  • GPU-z - Uitlezen temperatuur en specificaties van de videokaart.
  • Asus GPU Tweak II, voor de laatste versie geschikt voor jouw videokaart zie Asus.com en zoek jouw videokaart op.
  • SAPPHIRE TriXX Sapphire's overkloktool.
  • MSI Afterburner (gebaseerd op Rivatuner)
  • MSI Kombustor (gebaseerd op Furmark)
  • AMD Clean Uninstall Utility Voor als je problemen ondervindt met de huidige driver en een schone installatie wil doen. Ook aan te raden als je van Catalyst Control Center naar Radeon Software Crimson Edition gaat.
  • DUU Display Driver Uninstaller Voor als je driver problemen ondervindt of van nVidia naar AMD of visa versa wil.

Officieel AMD-gerelateerd

Topic-gerelateerd

https://static.tweakers.net/ext/f/hBpxBNOTo3QzPyWeAwkvheRk/full.png

Deze topicstart is opgedragen aan CJ, oprichter en schrijver van de ATi/AMD Radeon topicreeks van deel 1 tot en met deel 116, welke veel te vroeg van ons is heengegaan.


Rust zacht, CJ



[Voor 4% gewijzigd door -The_Mask- op 09-12-2016 15:10]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • cherrycoke
  • Registratie: december 2009
  • Laatst online: 31-08 06:53
killerbee1958 schreef op woensdag 17 augustus 2016 @ 22:02:
[...]


Ik heb hem sinds afgelopen weekend draaien.
Werkt zeer naar tevredenheid. Had ook geen zin om verder te wachten plus prijs/prestatie van Fury is gewoon beter op die 350 euro
https://www.techpowerup.com/gpuz/details/dx7qd





120 fps in battlefied 4 alles op ultra zonder dat deze ook maar een keer stottert _/-\o_

Samsung erwartet GDDR6 mit 14-16 Gbps ab 2018

GDDR5X gibt es bisher nur von Micron, Samsung blickt deshalb auf GDDR6. Ab 2018 könnte dieser Standard verfügbar sein, im Gespräch sind zu Beginn 14 bis 16 Gbps. Das wäre zwar gegenüber GDDR5 ein größerer Sprung, GDDR5X könnte im Maximalausbau aber bereits ähnliches bieten.

Zu Beginn dieses Jahres wurde GDDR5X von der JEDEC als Speicherstandard zertifiziert. Diese beschreiben GDDR5X-SGRAM mit Kapazitäten von 4 bis 16 Gigabit pro Chip und einer Datenrate von 10 bis 14 Gigabit pro Sekunde. Die kleinste Lösung wird bereits aktiv eingesetzt, bei der Nvidia GeForce GTX 1080 kommen im Desktop und Notebook GDDR5-Chips aus der Klasse mit 10 Gbit/s zum Einsatz.

Geht es nach Samsung, soll GDDR6 genau da ansetzen, wo GDDR5X aufhört, bei 14 Gbps. In den Schubladen liegen Pläne, die den Speicher für Grafiklösungen dann bis auf 16 Gbps steigern wollen, wenngleich dies vermutlich bis zum Jahre 2020 dauern dürfte. Doch während GDDR5X nur eine kleine Evolution von GDDR5 ist, müssen für GDDR6 einige Dinge neu angepackt werden.




Eine Roadmap von Samsung zeigt die Einordnung des neuen Grafikspeichers im Verhältnis zu den weiteren Entwicklungen. Demnach würde GDDR6 im gleichen Zeitraum wie DDR5 angesiedelt, was jedoch auch bedeutet, dass zwischen Sampling und Massenprodukten gern noch einige Monate/Jahre vergehen können. Neben klassischen DDR-Speicher steht bei Samsung vor allem auch LPDDR im Fokus, da dort die Effizienz am höchsten ist.

Auf LPDDR4 soll mit einem Zwischenschritt weiter an der Front gearbeitet werden. Der abgekürzt LP4X genannte Standard soll den Takt bei gleicher oder gar verringerter Leistungsaufnahme erhöhen und so die Effizienz noch ein wenig weiter steigern, um die Zeitspanne zum neuen LPDDR5 zu verkürzen. Die Besonderheit beim LP4X gegenüber LP4 liegt im Detail: Während die Standardspannung für die Kernkomponenten bei 1,1 Volt bleibt, wird sie für die I/O-Elemente deutlich gesenkt.


https://tweakers.net/ext/f/BVaRlpgz1hdKd8m6uOosV0N1/thumb.png https://tweakers.net/ext/f/b1WgcVai7isy8mwmBVrrSJI7/thumb.png https://tweakers.net/ext/f/fr0B1MuwS22KfW05xElWdzZ3/thumb.png

Bron: https://www.computerbase....ng-gddr6-14-16-gbps-2018/




SK Hynix und Samsung über HBM2 & HBM3

Seit 2011 ist HBM in der Entwicklung, hat seit dem vergangen Jahr seinen Durchbruch erlebt. Jetzt verschiebt sich der Fokus auf die zweite Generation, die dritte zeichnet sich am Horizont ab. Doch zu Beginn gab es erst einmal die Retourekutsche in Richtung Micron, die kurz zuvor HBM als Kopie von HMC bezeichnet hatten.

Wenngleich mit der Entwicklung von HBM später begonnen wurde, habe das „ehemals kleine Kind nicht nur das große geschlagen und dem alle Süßigkeiten weggenommen, derzeit sei HBM zudem der einzig relevante Standard“, erklärte Kevin Tran, Senior Manager Technical Marketing von SK Hynix in Richtung Micron. Denn SK Hynix ist nicht alleiniger Fertiger des Speichers, mit Samsung ist zudem auch der Marktführer mit an Bord, ebenso wie die JEDEC, die daraus einen Standard gemacht hat. HMC von Micron hat in all diesen Punkten nichts entgegenzusetzen.


https://tweakers.net/ext/f/v6ql3ben2OtBUKZwyySik2SA/thumb.png https://tweakers.net/ext/f/Qm80vG5FtwBsyvjA1bhPIp4w/thumb.png https://tweakers.net/ext/f/bSS1nzjPg9aX2G3G32IRkYNT/thumb.png https://tweakers.net/ext/f/J7gHjUvUd1xmtVnYIIHDPTgt/thumb.png https://tweakers.net/ext/f/fKPcrga8U4YBabjgOg61VBjI/thumb.png https://tweakers.net/ext/f/MG8ZlNNwk25l1xVoRld7zaFT/thumb.png https://tweakers.net/ext/f/fF3h5C501aRMGl6LMHFvzfHc/thumb.png

SK Hynix widmete sich am Sonntagmittag in seiner Vorstellung fast ausschließlich der Thematik HBM. Neben den aktuell einzigen Lösungen für Grafikkarten soll HBM in Zukunft auch in anderen Märkten zum Zuge kommen. Dabei werden sowohl Möglichkeiten für den Einsatz im Notebook evaluiert als auch im HPC-Segment, wo der HBM quasi als vierte Cache-Stufe eingebaut werden könnte.

Diese Überlegung ist nicht neu, Intels Knights Landing mit HMC von Micron bietet bereits exakt so etwas an, dort kann der 16 GByte große On-Package-Speicher wahlweise als RAM oder als Cache konfiguriert werden.




Samsung sieht Möglichkeiten, HBM noch günstiger zu machen, um so eben auch den Massenmarkt wie beispielsweise Notebooks zu adressieren. Der Kostenfaktor sei nach wie vor nicht zu unterschätzen, eine geringere Menge an TSVs und deutliche Optimierungen beim Aufbau mit im Endeffekt aber nur einer leicht gesenkten Bandbreite sollen helfen, die Kosten insgesamt massiv zu drücken und so den gesamten Consumer-Markt adressieren zu können.

HBM3: Verdoppelte Bandbreite

HBM3 als dritte Ausbaustufe soll einmal mehr die Bandbreite verdoppeln. Im Gespräch sind deshalb 512 GByte pro Sekunde. Doch neben der gesteigerten Bandbreite hat man auch die Kosten im Blick, denn diese im Rahmen zu halten ist eine Herausforderung. Gleichzeitig gibt es noch andere Baustellen, um den Speicher noch mehr zu differenzieren und letztlich quasi jeden Marktbereich erobern zu können. Samsungs Vorstoß bei HBM für Low Cost zielt bereits in eine ähnliche Richtung, dort ist in Zukunft noch mehr zu erwarten. Mit der Aussage „the overall cost will be very attractive“ schloss SK Hynix die Ausführungen zu HBM.



Bron: https://www.computerbase....-hynix-samsung-hbm2-hbm3/




Micron über DRAM, Flash, 3D XPoint und HBM als HMC-Kopie

Sonntagmorgen im Flint Center in Cupertino, die Hot Chips 28 startet mit einer Vormittagsveranstaltung über Speicher. Dabei geht es um alle aktuellen Technologien, von klassischem DRAM und Flash, von HMC bis hin zu GDDR5X und das, was in Zukunft kommen könne: DDR5, 3D XPoint & Co. Und das alles mit extrem viel Ehrlichkeit.

Die erste Präsentation der Veranstaltung dieses Jahres ging an Micron. Der Speicherhersteller ging gleich zu Beginn mit einigen Buzzwords wie IoT und Zahlen ins Gericht, unter anderem auch der von Intel stetig genannten „50 Milliarden vernetzten Geräten im Jahre 2020“ – wenn es 20 Milliarden sein werden, wäre das schon viel, erklärte Micron bei Hot Chips 28. Die erfrischend ehrlichen Worte ging auch an anderer Stelle weiter, selbst bei eigenen Produkten: 3D XPoint. Dort erklärte der Speicherhersteller, dass man (mit dem Fingerzeig auf Intel) viel zu früh mit der Technik an die Öffentlichkeit gegangen ist, die Serienproduktion frühestens Ende dieses Jahres starten werde.



J. Thomas Pawlowski, Fellow & Chief Technologist in Micron’s Architecture Development Group erklärte anhand von einige Beispielen die Herausforderungen von der Weiterentwicklung von DRAM. Mit jedem Schritt wird es nicht nur komplizierter, auch steigt die benötigte Fläche an Reinraum und das Arbeitsmaterial deutlich an, selbst um nur den gleichen Ausstoß an Wafern wie zuvor beizubehalten. Erneut wies auch Micron darauf hin, dass die Bezeichnungen der Fertigungen Schall und Rauch sind. Die 10Y getaufte Fertigung bei Speicher werde beispielsweise nicht einmal ansatzweise 15 nm erreichen; und dies nur auf der Logic-Seite.

Micron: HBM ist eine schlechte Kopie von HMC

Wenig, respektive gar kein positives Wort verlor Micron über High Bandwidth Memory (HBM). Diese bezeichnete Pawlowski als schlechte Kopie des eigenen Standards HMC, der im Jahre 2011 auf einer Hot-Chips-Veranstaltung enthüllt wurde. Die zweite Generation von Hybrid Memory Cube sei in Produktion, mit vielen Features, die HBM außerhalb von Bandbreite gar nicht bieten kann. Eine Vergleichsfolie von HMC vs. HBM lehnte Micron ab und erklärte dies mit den Worten, „it's like beating up a kid and taking the candy“. Der Konter von der HBM-Fraktion folgte kurze Zeit später.

https://tweakers.net/ext/f/cMa6NUpO5oB83D8gpapGx8wh/thumb.png https://tweakers.net/ext/f/aMgUrrFeL74vj9wwWudcaqrK/thumb.png https://tweakers.net/ext/f/61GZuMnyRaVb8nyl2ddRKeSb/thumb.png

DDR5: Sampling ab 2018, Produktion frühestens ab 2019

Auch zum kommenden Next-Gen-Speicherstandard verlor Micron einige Worte. Da der Standard der JEDEC unterliegt, sei es vorab nicht erlaubt, Details dazu preiszugeben, wenn dieser noch in der Entwicklung ist. Doch die Ziele sind im Grunde genommen klar: Der Basisstandard dürfte DDR5-3.200 sein, mit Ausbaumöglichkeiten bis DDR5-6.400, die Standardspannung 1,1 Volt betragen. Einige Optimierungen werden natürlich mit im Gepäck sein, unterm Strich soll die Bandbreite des aktuellen DDR4-Standards verdoppelt werden.

Für das Jahr 2018 erwartet Micron das Sampling von DDR5, frühestens 2019 einen angehenden Start der Serienfertigung. Realistischer ist jedoch 2020+, denn wie üblich werde dies nicht über Nacht geschehen, erklärte der Mann der offenen Worte mit den Blick auf die DDR3-Fertigung, die immer noch in High Volume Production ist, obwohl DDR4 nun in jedem Markt präsent ist.


Micron zu Hot Chips 28

https://tweakers.net/ext/f/lpj2V0fah4AxFhsuBmI8BA70/thumb.png https://tweakers.net/ext/f/O7d8VUhiIlGHA0SQZWg8rh8Y/thumb.png https://tweakers.net/ext/f/NCucXaHS7BhWvlb1z4vGpyYD/thumb.png https://tweakers.net/ext/f/munEabfSSeDmQjftenUoRPmS/thumb.png https://tweakers.net/ext/f/BflNWuIsy6uDKTtSCc18TDUs/thumb.png https://tweakers.net/ext/f/WkXLrHU3sL8ojgPAomJPclYJ/thumb.png https://tweakers.net/ext/f/ibPKsjt1S6PgfdDLBcVd47a4/thumb.png https://tweakers.net/ext/f/3ZpmhGtRMiWtwyEW9QkMa8MQ/thumb.png https://tweakers.net/ext/f/ZwQaXMww5EaUbifDKjJsBMJS/thumb.png https://tweakers.net/ext/f/72KaspJdzVfCvO8H55l7muE8/thumb.png https://tweakers.net/ext/f/kJACTZF4AeOpXAQlgc4HTWXV/thumb.png https://tweakers.net/ext/f/NzVxi6eD5bqcWyrKpp8Myzfd/thumb.png https://tweakers.net/ext/f/ghE1bmaQj4VymarDCOLKOJjL/thumb.png

Bron: https://www.computerbase....dram-flash-3d-xpoint-hmc/

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • NitroX infinity
  • Registratie: januari 2002
  • Laatst online: 17:28

XFX komt met passief gekoelde RX 460



http://videocardz.com/634...ces-fanless-radeon-rx-460

I need dis! Voor €100.

[Voor 23% gewijzigd door NitroX infinity op 26-08-2016 17:06]

Mijn blog; Floating Points

Astennu schreef op maandag 29 augustus 2016 @ 16:04:
Hadden jullie deze slides al gezien? : https://app.scoutfin.com/...tch_id=297670879870932296

Op slide 8 staat dat Vega pas H1 2017 zou komen en niet meer dit jaar. Zou wel erg jammer zijn het leek goed te gaan toen ze een aantal maanden terug melde dat er een Tapeout geweest was. H1 kan natuurlijk ook Januari zijn maar kan ook Juni zijn. Maar dan geen release in december.

Op deze oudere slide stond die ook al op 2017.
Beetje het verhaal wat AMD had met de 7970 vs GTX680. Duurde lang voordat er een antwoord kwam.
Het was toen andersom, nVidia kwam toen maanden later.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 26-09 21:44
Astennu schreef op dinsdag 30 augustus 2016 @ 21:50:
[...]


Ik ben anders super blij met mijn RX480 refferenced van 230 euro welke nu een 8GB versie is.
Stock is hij redelijk stil maar heb zelf even lopen tweaken en heb nu stock prestaties op 1175Mhz (omdat hij niet meer throtteled is hij even snel) Is zuiniger dan voorheen en draait nog max 1600RPM vs 2200 capped eerst. En dan hoor je hem niet meer.

3th party kaarten kunnen idd wat hoger clocken naar 1350 Mhz maar verbruiken dan ook meer en zijn dan 10-15% sneller at best maar ook meteen 30-40% duurder.
Ik hang net de GTX 1070 erin en ik scoor, voor overclock, nu een 90e percentiel score terwijl de fans nog niet aan zijn gegaan. Tja :P .



Maar goed ik snap ook wel dat die 2x duurder is. Maar met een custom koeler kun je de RX 480 ook mooi stil krijgen. Reference heb ik persoonlijk echt geen trek in. Laatste herrie ding dat ik had was de blower van de 8800 GTS.

[Voor 10% gewijzigd door sdk1985 op 30-08-2016 23:07]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • LongBowNL
  • Registratie: juni 2009
  • Laatst online: 16:04
Als je kijkt naar benchmarks, gaat het over de GTX 1080. Die verliest inderdaad FPS tov DX11.


Source: http://www.guru3d.com/art...e_benchmark_review,8.html

  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 26-09 21:44
Ik zou een beetje oppassen van Doom net de nieuwe Ashes of Singularity te maken. Als we even naar de stats kijken dan speelt niemand die game: http://steamcharts.com/app/379720#All

Nuttiger is bijvoorbeeld Battlefield One.


Duiding: Op basis hiervan is zowel een GTX 1060 als een RX480 een prima kaart om dit jaar Battlefield One mee te spelen. Alles onder de 380X zou ik upgraden.

@Astennu
In je profiel staat een ivy bridge, geen haswell :P .

[Voor 18% gewijzigd door sdk1985 op 09-09-2016 17:51]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

sdk1985 schreef op vrijdag 09 september 2016 @ 20:39:
Van je systeemram want van het vga geheugen ga je van Windows geen melding krijgen :).
Wel dus. Is niet de eerste keer dat ik dit krijg, maar wel alleen met m'n 970 ;)

Dankzij die 3,5+0,5 gaat er iets fout in de addressering in sommige games, ik heb dit al een paar keer gezien. Shadow of Mordor had dat ook. Hoe het precies in elkaar steekt durf ik je ook niet te zeggen, maar die melding van Windows is puur gebaseerd op wat Vcache aan geeft. Het betekent niet dat je daadwerkelijk geheugen tekort komt, maar dat Vcache niet kan addresseren wat er gevraagd wordt. De melding klopt niet helemaal met het daadwerkelijke probleem :P
Maar jij bent er zo één die aan zijn windows geheugen instellingen gaat rommelen omdat je het beter weet? :+
Neen lieverd :P



Groeit tijdens bijvoorbeeld BF1 naar zo'n 8,5 GB en was niet minder in de sessies nadat ik de instellingen verlaagd had :)

Niets op de achtergrond draaien overigens, afgezien van Origin, Steam en TeamSpeak. Dat hele verhaal van "OMG SSD dus geen pagefile nodig" heb ik nooit aan mee gedaan, ik weet juist wel beter dan dat :P
Tegenwoordig ben ik geupgrade naar 16GB (kost bijna niks meer). Mijn system ram was tijdens de beta 8600-10.000, dus met 8 GB ga je aardig swappen lijkt me.
Intern geheugen wordt net als VRAM volgestouwd als het er is, puur om disk I/O te vermijden.

16 GB kost inderdaad niet veel meer (hoewel het ironisch gezien in verhouding nu wel duurder is dan toen ik deze DDR3 chips kocht..), maar inmiddels zit ik op een punt dat ik eigenlijk geen zin heb om nog geld aan DDR3 uit te geven aangezien ik binnen een jaar waarschijnlijk op DDR4 zit. Beetje zonde.

  • RmanX
  • Registratie: juni 2001
  • Laatst online: 25-09 07:44

RmanX

Mario pizza!

Dit weekend maar eens een mooi overzicht gemaakt van de relatieve prestatieniveaus van 6 generaties AMD/ATI Radeon kaarten die ik mijn bezit heb (gehad). Ik heb ook enen tabel met ingebouwd diagram gecreëerd :P :


Voor het gemiddelde prestatieniveau ben ik uitgegaan van Techpowerup reviews waar de relatieve prestaties meestal samengevat zijn voor meerdere generaties (basis 1920x1080 of gemiddelde van alle resoluties). De rood gekleurde cellen in mijn tabel geven het prestatieniveau weer ten opzichte van de R9 Fury afgerond op 5%.

Een paar leuke observaties:
  • Een HD 3850 presteert net minder dan 10% van de R9 Fury
  • Het TDP is een factor 4 gestegen, waarbij opgemerkt kan worden dat zowel de 280x als de Fury (semi) high end kaarten zijn en de rest mainstream/enthusiast. Dit zie je ook een beetje aan de chip grootte.
  • Het aantal transistors is meer dan een factor 10 toegenomen
  • Heb met de HD6870 nog eens Crossfire gedraaid, maar had last van microstuttering. Was op papier ongeveer gelijk aan een 280x wat je ook de tabel ziet
  • Een RX 480 staat niet in de tabel maar zou uitkomen op 89% van de Fury op (ref. 8 GB versie 1920x1080)
Vragen/opmerkingen/suggesties zijn welkom 8)

[Voor 3% gewijzigd door RmanX op 11-09-2016 20:06]

AMD Ryzen 7 2700 | 16 GB DDR4 3200 Mhz | AMD Radeon RX Vega 64 | 2 x SSD | 2 x 5400 RPM HDD | LG 16X DVD RW | LG BD | LG 27" 4K

Gundogan schreef op vrijdag 09 september 2016 @ 21:23:
[...]


Ik wel en straks ook nog Quake Champions op dezelfde engine. Een Fury presteert ongeveer zo goed als een 1070 met Vulkan in DOOM, dus dat maakte de keuze bij een nieuwe videokaart wat makkelijker (en een Fury is natuurlijk sowieso geen slechte kaart voor de 300-350 euro tegenwoordig).

Ook is DOOM wel een aardig voorbeeld wat er mogelijk is met goede optimalisatie. Het spel loopt goed op mindere systemen, schaalt goed naar boven en maakt goed gebruik van de nieuwe ontwikkelingen als de hardware dat ook kan. Bij de rest van de games die DX12/Vulkan ondersteunen heb ik nog een beetje van omdat-het-kan in plaats van dat je er echt iets aan hebt.
Een alternatieve verklaring is dat Vulkan een betere API is dan DX12.

Wie zou het beter uitwerken? AMD + NVidia + Intel + tal van developers + de OS-gemeenschap (handig voor het opmerken van bugs en het gebruiken als klankbord) of dat ene team van MS?

Dat de DX12-implementatie in RotTR slecht is geloof ik wel maar bij geen enkel DX12-spel is het resultaat zo indrukwekkend als bij Doom. Een andere alternatieve verklaring zou kunnen zijn dat de OpenGL-implementatie van Doom heel erg slecht was maar hoe geloofwaardig is dat in het geval van ID? :)
Het zou ook kunnen dat ID veel beter omgaat met een op Mantle gebaseerde API dan dat andere developers dat doen maar dat zou wel heel erg negatief zijn m.b.t. de andere developers.

[Voor 18% gewijzigd door CHBF op 11-09-2016 19:04]

Zelfcensuur is de meest schadelijke vorm van censuur.

Voor wie het interessant vindt en toevallig dit spel heeft gespeeld: ik speelde eerder op de avond Homefront: The Revolution met een HD 7850, ik haalde mid 30 FPS op de zwaardere stukken en mid 40 op de hogere stukken met FXAA, temporele aliassing op de default-waarde, een hoge kwaliteit van textures en alle overige instellingen (inclusief 'geavanceerde') op medium. Een console-ervaring, ik zal blij zijn als ik heb geupgrade.
Ik vind het altijd wel leuk om te weten hoe goed/slecht oude kaarten presteren.
RmanX schreef op zondag 11 september 2016 @ 20:16:
[...]


Je opmerking over TDP is een hele goede. Als je kijkt naar de RX480 dan is deze op papier gelijk aan de HD 6870 met 150 W. Ik verwacht/hoop eigenlijk een beetje dat individuele high-end kaarten niet boven 250-300 W gaan uitkomen i.v.m. warmteontwikkeling. Ben benieuwd wat Vega in dit opzicht zal brengen.
Eerst en vooral kudos dat jij die tabel hebt gemaakt.

Een stuk lager dan voor de voor de vorige Fury, een stuk hoger dan die van de 1070 (RX 490) en de 1080 (Fury Y of hoe die ook gaat heten :)), dat is zeker.
De Fury X heeft een TDP van 275 W (in theorie in ieder geval ;)), de RX 480 trekt gemiddeld minstens 164 W.
http://www.tomshardware.c...80-polaris-10,4616-9.html
De Nitro (overgeklokt of geoverklokt :?) komt zelfs op 225 W uit, een hoop extra vermogen voor een bescheiden prestatiewinst als je het mij vraagt. :)
De 1060 (de echte), de 1070 en de 1080 hebben respectievelijk een TDP van 120, 150 en 180 W.
http://www.pcadvisor.co.u...1070-vs-gtx-1060-3640925/

Maar goed, wat het vermogen van deze generatie kaarten wordt is op zichzelf nog niet eens zo'n heikele kwestie, ze gaan straks met een grotere die het vermogen in de hand moeten houden, in ieder geval voor de zwaarst draaiende kaarten. Stel dat we nog twee generaties krijgen met deze FinFET-transistor en in beide generaties moet de prestatie met 1 klasse stijgen...
Ik ben benieuwd in welke mate het HBM-, of eventueel straks GDDR6-geheugen, gaat helpen.
Maar goed, 275W is tot nu toe het hoogste vermogen wat we hebben gehad.
http://www.geeks3d.com/20...esign-power-tdp-database/
Best wel interessant: hoewel de AMD-architectuur een veel hoger vermogen heeft lag het vermogen van de Fury slechts 10% hoger dan die van de 980 Ti, met de kanttekening dat de 980 Ti iets meer geheugen had.
Ik heb de geheugen snelheden er trouwens bijstaan in de tabel inclusief effectieve snelheid. Of bedoel je misschien wat anders?
Ik had het over de datarate, zie de rechter kolom in deze tabel.

Je kan dat natuurlijk wel uitrekenen met de gegevens in die tabel.
Ps Ik kom uit op 50,4% voor de 7870 en 43,9% voor de 7850 als ik even snel de 7970 gelijk stel aan de 280x. 😊
Ik kwam eerder met de Vally-benchmark met een overklok uit op net iets minder dan de helft van de RX 480 dus dat zal wel aardig kloppen. De 7850 overklokt komt ongeveer uit op de basisklok van de 7870.

[Voor 9% gewijzigd door CHBF op 12-09-2016 00:20]

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Moi_in_actie
  • Registratie: maart 2007
  • Laatst online: 17:30
Zo, voor de gein eens een eerste overclocked benchmark gedraaid met de nieuwe setup, bestaande uit:
Core i7 6700K (stock)
Sapphire R9 Fury Nitro OC (1100Mhz Core (+30mV), 500Mhz HBM)
16GB Corsair Vengeance LED (3000Mhz)

En ik moet zeggen, het valt me zeker niet tegen. Dit is mijn eerste Time Spy score.



Had eerlijk gezegd niet verwacht dat het in een keer zou werken. Heb de core clock van 1050 naar 1100Mhz geschoven, power limit naar +50%, iets aan core voltage toegevoegd (30mV) en de fanspeed even vastgezet op 45% en hij liep er zonder enige problemen doorheen. Temperatuur kwam hierbij op max 67 graden, CPU op 77 graden.

Ik moet wellicht nog eens kijken naar de koeling van het geheel, maar daarmee wacht ik tot ik de boel gefinetuned heb (overclocks, voltages, fan profiles). Ik heb nogal wat power in een redelijk klein kastje zitten (Phanteks Enthoo Evolv ITX) met nu slechts 2 fans (standaard 200mm front intake en een 140mm Corsair AF140 als exhaust achter), dus heel koel zal dit niet blijven.
Ook kan ik dankzij mijn CPU koeler (Thermalright True Spirit 140) geen extra fans meer bovenin plaatsen. Wellicht dat ik naderhand alsnog een 240mm AIO overweeg voor de CPU, blijft die iets koeler en helpen die fans meteen met wat warme lucht naar buiten zuigen.

Ryzen 7 3700X @4275Mhz ~~ 32GB GSkill TridentZ 3600Mhz ~~ MSI X470 Gaming Plus Max ~~ Sapphire R9 Fury-X @1150/570Mhz


  • Moi_in_actie
  • Registratie: maart 2007
  • Laatst online: 17:30
Ja ach, deze pc heb ik niet gebouwd om overclocking records mee te verbreken, dat deed ik met mijn nu oude pc destijds nog wel, maar voor mij hoeft t niet meer zo. Echter, als ik met een paar simpele tweaks, zonder veel extra lawaai en hitte, een leuke stabiele overclock kan neerzetten dan zal ik dat zeker niet nalaten :)

edit: laatste tussenstand:


3DMark validation

i7 6700K @4.5Ghz
R9 Fury Nitro OC
  • 1125Mhz core
  • +72mV
  • 550Mhz memory
Bij hogere settings loopt hij op dit moment nog vast, vind het voor vandaag ook even goed. Als ik dit overzicht moet geloven, zit ik dus al boven Fury-X en GTX980Ti performance. Not bad for an afternoon of overclocking 8)

[Voor 47% gewijzigd door Moi_in_actie op 24-09-2016 17:33]

Ryzen 7 3700X @4275Mhz ~~ 32GB GSkill TridentZ 3600Mhz ~~ MSI X470 Gaming Plus Max ~~ Sapphire R9 Fury-X @1150/570Mhz


  • Trygve
  • Registratie: oktober 2009
  • Laatst online: 16:03
Freesync is nu werkend te krijgen op non-FreeSync monitoren met HDMI en DVI:
https://m.reddit.com/r/Am...hdmi_and_some_dvi_on_non/



Geen garanties, maar leuk om eens te proberen. Voor Gsync monitoren helemaal leuk om te proberen, die zouden het hardwarematig sowieso aan moeten kunnen :)

[Voor 28% gewijzigd door Trygve op 10-10-2016 12:11]


  • Trygve
  • Registratie: oktober 2009
  • Laatst online: 16:03
Hebben jullie sinds de Aniversary Update van Windows 10 ook WDDM 2.1? (bijv via dxdiag)
Dit zou het geval moeten zijn met alle kaarten op feature level 12_0 of hoger, dus GCN1 niet maar GCN2+ wel., en blijkt bij GCN1 op 11_1 ook op WDDM 2.1 te zitten.


Hierboven zie ik het bij mijn R9 380.

Met WDDM 2.1 is Shader Model 6.0 geïntroduceerd:
Shader Model 6.0 provides a more optimized pathway for shader code to make its way to the metal (GPU, hardware). The outgoing Shader Model 5.0, which is featured on DirectX 11 and DirectX 12, relies on FXC, an offline shader compiler, to both compile and optimize HLSL shader code, supporting HLSL v1.4 to v5.1 code.

Shader Model 6.0, on the other hand, dedicates compiling to Clang HLSL compiler, and optimization to multiple LLVM passes. Since Shader Model 6.0 supports HLSL code from v5.0 upwards, it should also benefit existing DirectX 11 and DirectX 12 apps
Bron



Ik had al het idee dat ik iets van verschil merkte. Bij GTA5 heeft de shader quality in mijn beleving minder impact op fps dan voorheen. Helaas geen benchmarks gedraaid van voor en na, dus heb geen harde cijfers. Wel zie ik dat de shader cache-map een stuk meer bestanden bevat (en ik speel nog steeds dezelfde games). Voorheen waren er twee bestanden van 4MB en één van 16MB. Nu zijn het er 16 van 4, 8 en 16MB. Ik heb dus het idee dat de shader cache ook veel meer gebruikt wordt dan voorheen.

  • SECURITEH
  • Registratie: februari 2008
  • Laatst online: 05:39

SECURITEH

Man of legend.

Wel leuk gedaan:


Bron.

  • Indy91
  • Registratie: oktober 2005
  • Laatst online: 13-06 11:26
Niet echt AMD GPU nieuws, maar toch wat raakvlakken...

Een copy/paste van mijn post uit de BF1 PC topic:

Een bevestiging van wat al langer in de lucht hing: de performance verbetering van de AMD CPU's in DX12.

De AMD processoren, met name de FX-8350 doen het relatief beter in DX12 t.o.v. DX11.
Intel processoren laten daarentegen nauwelijks verbetering zien.
  • FX-8350 DX11: 92 fps
  • FX-8350 DX12: 103 fps
  • Een toename van ~12% fps
De FX-8350 komt hiermee op het niveau van een Core i5 6600 :)
  • Core i5 4670K DX11: 96 fps
  • Core i5 4670K DX12: 97 fps
  • Nauwelijks verbetering in fps
  • Core i5 2500K DX11: 88 fps
  • Core i5 2500K DX12: 89 fps
  • Nauwelijks verbetering in fps
DX12:



DX11:



Laat de DX12 titels maar komen.... ;)

bron: http://gamegpu.com/action-/-fps-/-tps/battlefield-1-test-gpu

[Voor 5% gewijzigd door Indy91 op 20-10-2016 13:35]

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


  • Gundogan
  • Registratie: maart 2010
  • Laatst online: 26-09 22:37

Gundogan

Rip and tear, until it is done

Sowieso doet het AMD het wel aardig met BF1, met name de Fury kaarten.



Normale Fury op het niveau van een 980Ti, de X de 1070 voorbij. oOo

i7 4790K, 16GB, ASUS Z97-K, R9 Fury


  • Indy91
  • Registratie: oktober 2005
  • Laatst online: 13-06 11:26
En dan nu de AMD GPU's vs nVidia GPU's in BF1 (DX12 vs DX11):
  • GTX 1060 DX11: 76 fps
  • GTX 1060 DX12: 78 fps
  • Averige fps is ~3 % toegenomen.
  • RX 470 4GB DX11: 77 fps
  • RX 470 4GB DX12: 82 fps (is hier sneller dan GTX 1060?)
  • Averige fps is ruim 6% toegenomen.
  • RX 480 8GB DX11: 86 fps
  • RX 480 8GB DX12: 91 fps
  • Averige fps is met 6% toegenomen.
Saillant detail is dat de GTX 1080 en GTX 1070 juist trager zijn in DX12 in vergelijking tot DX11.
  • GTX1080 DX12: 129 fps
  • GTX1080 DX11: 139 fps
  • Afname van 7%.
  • GTX1070 DX12: 111 fps
  • GTX1070 DX11: 114 fps
  • Afname van 3%.
DX12@ 1080p



DX11@ 1080p


bron: http://gamegpu.com/action-/-fps-/-tps/battlefield-1-test-gpu

[Voor 3% gewijzigd door Indy91 op 20-10-2016 13:34]

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65

r100 schreef op vrijdag 04 november 2016 @ 18:05:
Radeon Software Crimson Edition 16.11.1 Release Notes

Radeon Software Crimson Edition 16.11.2 Release Notes

Radeon Software Crimson Edition 16.11.2 Highlights

Support For:
  • Improved Shader Cache storage limit. This will allow the Shader Cache feature to store more shaders for extremely demanding games that may have previously hit the old storage cap.
Known Issues
  • A few game titles may fail to launch, experience performance issues or crash if the third party application "Raptr" has its game overlay enabled. A workaround is to disable the overlay if this is experienced.
  • DOTA™2 may experience a crash when launched using the Vulkan™ API on some Graphics Core Next products.
  • Battlefield™1 may experience an intermittent application specific error message popup citing graphics device removal
  • Flickering may be experience while playing Overwatch™ in the main menu or viewing character models using AMD CrossFire mode.
  • H.264 content playback may experience playback issues on internet browsers with hardware acceleration when also running gaming applications or content.
  • FIFA 17™ may experience an application hang or black screen on launch for some select Hybrid Graphics or AMD PowerXpress mobile configurations.
  • H.264 content may experience blocky corruption when streaming using P2P content players on some Radeon RX 400 series graphics products.
http://support.amd.com/en...6.11.2-Release-Notes.aspx

Snelle opvolger.




Tevens:







https://www.techpowerup.c...y_Infinite_Warfare/4.html

Nogal een AMD game de nieuwe CoD en dat voor een DX11 game, opvallend.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Gebogen is bij "ultrawide" schermen wel OK, zelf stond ik er ook sceptisch tegenover maar aangezien de Acer XR341CK een "licht" gebogen scherm was met 3800R (Radius; hoe groter het getal, hoe minder gebogen), toch gekocht. Geen moment spijt van, het is een non-issue, zeker op voldoende kijkafstand. Nu heeft die AOC wel 2000R maar dan nog lijkt me dat een klein verschl als ik naar de foto's kijk.


Acer XR341CK


AOC AG352QCX

[Voor 16% gewijzigd door Phuncz op 13-11-2016 14:03]


  • nero355
  • Registratie: februari 2002
  • Laatst online: 17:25

nero355

ph34r my [WCG] Cows :P

Ben ik de enige die Crimson alleen maar een achteruitgang vindt :?

De GUI is verschrikkelijk : Alsof het voor een tablet is gemaakt.
En wil je "Advanced Settings" dan komt er toch iets van een CCC tevoorschijn! 8)7

Maar het ergste van allemaal is het verdwijnen van een simpel stukje gemak waar ik echt niet zonder kan :



Nou hebben ze wel weer gelukkig na een tijdje Profiles weer toegevoegd, maar die moet je via een snelkoppeling oproepen zoals een programma... W-T-F :/


Dus mijn vraag is : Zijn er plannen om iets van een grote overhaul van de driver te doen met nieuwe verbeteringen wat dit soort dingen betreft ?

De enige reden om geen nVidia videokaart te kopen was deze feature zo'n beetje. Bij het groene kamp ben je namelijk elke keer een paar minuten aan het rondclicken als je wil switchen tussen Eyefinity/Surround Gaming en de normale Extended Desktop! :X


Als tijdelijke workaround heb ik de laatste oude Catalyst Driver + alleen de laatste driver uit de Crimson reeks. Echter lijkt dit niet helemaal lekker te draaien af en toe helaas...

|| DPC GoT WhatPulse Team :) || Pi-Hole : Geen advertenties meer voor je hele netwerk! >:) ||


  • Trygve
  • Registratie: oktober 2009
  • Laatst online: 16:03
Hardware Canucks heeft nogmaals de RX480 en GTX1060 bekeken en vergeleken. Zoals wel vaker heeft AMD even tijd nodig om met geoptimaliseerde drivers voor nieuwe kaarten te komen:





Volgens Hardware Canucks gaat de RX480 inmiddels vrijwel gelijk op met de GTX1060 in DX11, en is de voorsprong in DX12/VK iets vergroot.
Bron

  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 15:24

Sp3ci3s8472

@ 12 graden...

De 260GTX zit al heel lang in legacy, Kepler kaarten krijgen tegenwoordig ook legacy drivers zover ik weet.De nieuwe Nvidia drivers zijn niks meer dan waarschijnlijk bug fixes.
Dus dat is niets meer dan een illusie die Nvidia schept :P.

Als je nu kijkt naar de R9 280x vs de GTX770 of GTX780 dan kan je gelijk zien welke nog wel performance updates krijgt en welke niet. De 280x verslaat de GTX770 tegenwoordig met gemak en komt heel dicht in de buurt van de GTX780 die vroeger vergelijkbaar was met de R9 290.


Het is dus juist andersom.
offtopic:
Voor de frequende bezoeker is dit oude koek, dit moet te vaak worden herhaald...

[Voor 7% gewijzigd door Sp3ci3s8472 op 06-12-2016 14:53]

Battle.net tag

Hé mijn R9 290, met R9 290X BIOS en Accelero Xtreme III koeler 8) klokt nu ook terug naar ~300MHz voor de GPU en 150MHz voor het GDDR5 geheugen en dit met een Qnix QX2710 Evolution II en mijn iiyama full HD scherm erop aangesloten. Normaal gesproken bleef het geheugen altijd op max snelheid draaien, lage frequentie was altijd artifacts vandaar dat het idle verbruik bij AMD bij meerdere monitoren altijd hoger lag, zo natuurlijk niet meer. :)

Edit: Ook bij 120Hz op 2560x1440 blijft het geheugen op de lage frequentie van 150MHz draaien. :)

[Voor 22% gewijzigd door -The_Mask- op 09-12-2016 00:21]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Compizfox
  • Registratie: januari 2009
  • Nu online

Compizfox

I use Arch, btw

flessuh schreef op donderdag 8 december 2016 @ 21:53:
De vertalingen zijn wel echt slecht zeg..Google translate niveau.
Zo snel nog niet alle opties kunnen vinden, en hotkeys veranderen voor het opnemen lukt niet. Mijn snelle tests nog weinig verschil gevonden in fps op mijn 280x, dus ik geloof dat de winst vooral voor de nieuwe generatie is. (Zoals verwacht)
Wat voor CPU heb je? Performancewinst door verbeterde draw calls merk je vooral met trage CPUs. Als je CPU niet de bottleneck vormt, ga je het waarschijnlijk niet al te veel merken.


-The_Mask- schreef op vrijdag 9 december 2016 @ 00:11:
Hé mijn R9 290, met R9 290X BIOS en Accelero Xtreme III koeler 8) klokt nu ook terug naar ~300MHz voor de GPU en 150MHz voor het GDDR5 geheugen en dit met een Qnix QX2710 Evolution II en mijn iiyama full HD scherm erop aangesloten. Normaal gesproken bleef het geheugen altijd op max snelheid draaien, lage frequentie was altijd artifacts vandaar dat het idle verbruik bij AMD bij meerdere monitoren altijd hoger lag, zo natuurlijk niet meer. :)

Edit: Ook bij 120Hz op 2560x1440 blijft het geheugen op de lage frequentie van 150MHz draaien. :)

[afbeelding]
Mijn RX480 klokt in idle terug naar 300 MHz, maar het RAM blijft altijd op 2 GHz hangen (met multi-monitor).

https://tweakers.net/ext/f/rPj4lO8w8yWU0JUEjVqQXwe3/thumb.gif

Vroeger met mijn HD6950 heb ik inderdaad wel eens gehad dat hij het RAM ging terugklokken in idle. Bij multi-monitor zorgde dat inderdaad voor vervelende flikkeringen bij clock jumps. Dat gedrag heb ik dus d.m.v. Afterburner uitgezet. Deze kaart doet het niet in elk geval.

[Voor 54% gewijzigd door Compizfox op 09-12-2016 02:13]

There is no system but GNU and Linux is one of its kernels

AMD's first VEGA accelerator: RADEON INSTINCT MI25 for deep-learning

It’s here! AMD launches INSTINCT MI25 to compete against TITAN X Pascal in deep-learning operations.



But first things first. What does this name even mean? If you look closely those MI numbers are equal to computing power (5.7 TFLOPs = 6, 8.2 TFLOPs = 8 ). But wait, there’s a catch! MI25 does not have 25 TFLOPs of FP32 computing power. MI25’s value comes from FP16 calculations. So it means that the card has 12.5 TFLOPs in 32-bit operations.

In other words, it’s 50% more than FIJI. That said, it appears that our post from September was very close to those estimations (with 24 TFLOPs in 16-bit operations). However, we do not know the clock speed this card is running, so we also don’t know how many cores it really has.

But since you are at VideoCardz, you probably expect at least an estimation, so here it is. I think it’s unlikely that VEGA would run at 1000 MHz, but lower clocks for professional GPUs are not that surprising. Well, I guess we will have to wait for official confirmation.



It’s also worth adding that INSTINCT MI25 is passively cooled card with Typical Board Power under 300W.

One more thing, those cards are not technically graphics cards, but accelerators. In fact they don’t even have any display outputs. In other words, Radeon Instinct is AMD’s response to NVIDIA TESLA, pure computing-oriented accelerator.

As for MI8 and MI6. The MI8 is quite possibly what we told you about a few months ago (S9 Nano), so this card is based on Fiji. Whereas the MI6 is based on Polaris 10.

According to this chart, MI25 is almost 2 times faster than TITAN X Maxwell in DeepBench GEMM operations.







http://videocardz.com/646...ct-mi25-for-deep-learning

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • polli_
  • Registratie: november 2010
  • Laatst online: 03:43
AMD Radeon twitter een nieuwe jaar een nieuwe architectuur, dus Vega is waarschijnlijk een nieuwe architectuur:



https://twitter.com/Radeon/status/813561408612945920

[Voor 19% gewijzigd door polli_ op 27-12-2016 18:29]


  • Trygve
  • Registratie: oktober 2009
  • Laatst online: 16:03
http://i.cubeupload.com/bVobYT.jpg
Vergezeld met de video :')

  • Phuuz
  • Registratie: april 2009
  • Laatst online: 26-09 23:32


:+ was te vinden op ve.ga website, maar nu geblocked, HBM2 confirmed?
Hebben jullie deze al gezien?

Gebaseerd op dit. http://www.freepatentsonline.com/y2016/0371873.html
Ik moet het zelf nog even gaan lezen. Ik ben benieuwd. Wat ik nu wel begrijp is dat ze minder capaciteit verspillen met de nieuwe architectuur en dat ze hier winst uit halen.
Help!!!! schreef op woensdag 4 januari 2017 @ 20:02:
Het zou toch wat zijn als Vega gewoon mee kan met 1080 a 1080Ti en wellicht tegen betere prijs!

Dat zou wel heel lekker zijn. :)
Weet je wat echt heel erg leuk zou zijn? Als morgen zou blijken dat die gelekte benchmark van de cut is en dat de volle Vega-kaart een Titan-sloper is. Een mens mag dromen. :)
Als die architectuur inderdaad veel verschil maakt dan is er best een verrassing mogelijk.

[Voor 66% gewijzigd door CHBF op 04-01-2017 20:20]

Zelfcensuur is de meest schadelijke vorm van censuur.

Robolokotobo schreef op woensdag 4 januari 2017 @ 19:53:
Hoewel je er nog niet zo heel veel door kan zeggen. Battlefront is echt een AMD game.
Niet echt hoor.


http://www.techspot.com/r...force-gtx-1080/page4.html

Gewoon een vrij gemiddelde game dus met prestaties hoe je die die eigenlijk zou verwachten. Eerder een heel klein beetje in het voordeel van nVidia, AMD is normaal gesproken iets sterker op zo'n resolutie.


http://www.techspot.com/review/1246-ludicrous-graphics-test/

Neemt niet weg dat ik het vooralsnog maar met een korreltje zout zou nemen, want dat is dus mits vergelijkbare instellingen rond de Titan X qua performance en dat lijkt mij nogal extreem snel, maar wie weet. :p
CHBF schreef op woensdag 4 januari 2017 @ 18:47:
Als je kijkt naar het aantal TFlops dan lijkt het er ook op dat het sneller is.
Dit is niet geheel wetenschappelijk verantwoord maar het geeft wellicht een leuke indicatie.
Nee het geeft ook geen indicatie als de architectuur niet identiek is. Dat zegt het he-le-maal niks over de prestaties en kun je ook niks vergelijken. Die flops is niet meer als het aantal streamprocessors, maal de frequentie maal twee. Aangezien de prestatie per stream processor heel erg kan verschillen per architectuur, ook bij AMD en nVidia GPU's onderling kun je hier dus onmogelijk iets aan afleiden. Ook in het geval van Vega aangezien de architectuur anders is dan als bij Polaris.

[Voor 28% gewijzigd door -The_Mask- op 04-01-2017 21:38]

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

-The_Mask- schreef op donderdag 5 januari 2017 @ 16:24:
[...]

Nee want dan verdubbel je ook de bandbreedte en dat is nutteloos voor gaming. Je kunt overigens wel 16GB krijgen met twee stacks, door gewoon acht HBM2 geheugenlaagjes per stack te gebruiken.
Vond dit plaatje wat volgensmij wel verhelderend is, tenminste als het de mogelijk combinaties weergeeft .



Adhv de chip foto alleen kun je niet zien wat het is. Mij lijkt 8gb/512GB/s wel het meest logisch. HBM2/4Hi.

Of sla ik de plank nu weer mis :X :P


@ Hierboven. Had iedereen kunnen weten, is zelfde als bij Polaris. Ze melken het meer uit. Was wel fijn geweest als we op zijn minst een release date hadden gekregen.

[Voor 11% gewijzigd door Help!!!! op 05-01-2017 16:49]

PC Specs
Asus Crosshair VI Hero 370X | AMD 3700X | 16GB DDR4 3200C14 B-die | MSI 1080Ti Gaming X | Crucial M500 240GB SATA | LG 38GN950-B 3840*1600p 160Hz | Corsair AX760 |

Snowdog schreef op donderdag 5 januari 2017 @ 17:14:
[...]


Nouja, uiteindelijk kan dat wel AMD's probleem worden, want het hele idee is natuurlijk wel dat je mensen ook een beetje tevreden stelt met je marketing en ze zouden juist uit eerder voorbeelden van dit soort hype kunnen/moeten leren dat promotie in deze vorm verwachtingen schept bij het gros van de mensen. Als die niet waar worden gemaakt kan dat ook nadelige gevolgen hebben , maar goed, dat is een ander verhaal en gaat wat offtopic. Het lijkt me alleen iig niet zo handig aangepakt, hoewel je in principe wel gelijk hebt.
AMD maakt de hype niet, de hype wordt gecreëerd door andere mensen, mensen waar AMD geen invloed op heeft. Als je daar zelf aan mee doet dan ligt het probleem gewoon bij jezelf. :p

Maar al hadden ze veel meer laten weten, dan had iedereen wel iets anders gehad waar ze over klaagden, zoals waarom die nog niet gelanceerd is. En als ze het doen zoals eerst, dus weinig tot niks van te voren laten weten dan hebben ze weer een probleem met hun marketing. Volgens sommigen kunnen ze het dan ook niet goed doen. Terwijl het probleem gewoon bij die mensen zelf ligt en niet bij AMD.
Help!!!! schreef op donderdag 5 januari 2017 @ 16:47:
[...]

Vond dit plaatje wat volgensmij wel verhelderend is, tenminste als het de mogelijk combinaties weergeeft .



Adhv de chip foto alleen kun je niet zien wat het is. Mij lijkt 8gb/512GB/s wel het meest logisch. HBM2/4Hi.

Of sla ik de plank nu weer mis :X :P
Nee wat daar staat is duidelijk en simpel vormgegeven. Kolommen zijn het aantal stacks en de rijen zijn de hoogte van de stacks. Daarmee is dus simpel te zien wat mogelijk is en voor deze Vega GPU komt dat dus neer op 8GB of 16GB, aangezien 4GB te weinig is en de andere configuraties te weinig of te veel bandbreedte hebben.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

Pagina: 1

Dit topic is gesloten.



Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True