Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie
https://static.tweakers.net/ext/f/fNLqSH1P5nsANvKsOif8UNor/full.png
  • 16 juni 2015: Nieuw deel; alles bijgewerkt, nieuwe logo's, FreeSync, TressFX
  • 17 juni 2015: Fiji toegevoegd bij line-up
  • 19 juni 2015: Gehele Rx 300 series toegevoegd
  • 23 juni 2015: HBM, VSR, FRTC toegevoegd
  • 24 juni 2015: Deel 131! Gaat snel :)
  • 25 augustus 2015: Deel 132 en kopje toekomst wat geupdate.
  • 21 december 2015: Deel 133, o.a. Radeon Technologie, Crimson, HDR, R9 380X toegevoegd
  • 15 april 2016: Fury X2 aangepast, naar Radeon Pro Duo, info toegevoegd, toekomst en geruchten bijgewerkt
  • 14 mei 2016: Deel 134 aangemaakt.
  • 14 juni 2016: Oude line-up vervangen door nieuwe generatie, Async Compute, DX12, HBM2 en https proof
  • 28 juni 2016: Deel 136 aangemaakt en GCN4 geüpdatet, geruchten launch overige RX 400 kaarten toegevoegd
  • 2 juli 2016: Deel 137, officiële informatie van alle Polaris kaarten toegevoegd
  • 16 augustus 2016: Deel 138 aangemaakt en officiele RX 460, RX 470 gegevens toegevoegd.
https://static.tweakers.net/ext/f/WrsUgBs8Q7c7JclXsFSfM2YE/full.png
  • Flamen & Trollen
  • Basic questions, in dit topic gaan we er van uit dat je een beetje self-research hebt gepleegd d.m.v. de search-functie.
  • Gezeur over leverbaarheid, levertijden, prijzen en dergelijke.
  • Probeer mensen niet continu te verbeteren. Een belerende toon kan heel irritant zijn, ook al heb je gelijk. Voor degenen die toch willen klagen over het gedrag van bepaalde posters... Trek aan de bel bij een mod! Dit kan altijd via https://tweakimg.net/g/forum/images/icons/icon_hand.gif boven aan elk topic.
  • Offtopic gaan. Dit topic is bedoelt om elkaar op de hoogte te houden van de laatste nieuwtjes op AMD Radeon gebied. Dus ook niet even snel er een basic vraagje tussendoor persen!
  • Op de man spelen. Dit is NOT DONE. In dit topic geldt "Speel de bal en niet de man!".
  • Dit is geen nVidia topic. Vergelijkingen maken is ok, maar ga niet -tig posts vertellen hoe goed/slecht een nV kaart is. Na 1x weten we het wel.
https://static.tweakers.net/ext/f/54kDo1BkALQQjlPwEtxYJj7n/full.png
https://static.tweakers.net/ext/f/0PzCkxTkdJVtwpaoCV9Loo18/full.png

Zoek je algemene informatie over oudere GPUs? Kijk dan even in de first posts van de voorgaande topics en lees hun bijbehorende FAQs.
  • ATi Radeon X700 / X800 Series; R420 / R480: Deel 1 - 20
  • ATi Radeon X1000 Series; R520 / R580: Deel 21 - 50
  • ATi Radeon HD 2000 Series; R600 / RV630 / RV610: Deel 51 - 70
  • ATi Radeon HD 3000 Series; RV670 / R680: Deel 71 - 85
  • ATi/AMD Radeon HD 4000 Series; RV770 / R700: Deel 86 - 104
  • Geschiedenis van alle ATi videokaarten t/m de RV790: Deel 100
  • ATi/AMD Radeon HD 5000 Series; Evergreen: Deel 105 - 116
  • AMD Radeon HD 6000 Series; Northern Islands: Deel 117 - 123
  • AMD Radeon HD 7000 Series; Southern Islands: Deel 123 - 125
  • AMD Radeon Rx 200 series; Sea Islands: Deel 125 - 128
  • AMD Radeon Rx 200 series; Volcanic Islands: Deel 128 - 129
  • AMD Radeon Rx 300 series; Caribbean Islands: Deel 129 - 134
  • AMD Radeon RX 400 series; Arctic Islands: 134 - 138
R420 / R480
01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19 20

R520 / R580
21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50

R600 / RV630 / RV610
51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70

RV670 / R680
71 72 73 74 75 76 77 78 79 80 81 82 83 84 85

RV770 / RV700
86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104

Evergreen
105 106 107 108 109 110 111 112 113 114 115 116 117

Northern Islands
118 119 120 121 122

Southern Islands
123 124 125

Sea Islands
125 126127 128

Volcanic Islands
128 129

Caribbean Islands
129 130 131 132 133

Arctic Islands
134 135 136 137

https://static.tweakers.net/ext/f/8FkkgTS9IXMDRQSyIHkLWCOV/full.png

Op 9 september 2015 werd bekend dat de GPU tak een los bedrijfsonderdeel binnen AMD wordt. Sinds de overname van ATi meer dan 9 jaar geleden door AMD was het meer een fusie bedrijf, waarbij de APU's van AMD het perfecte voorbeeld zijn van de fusie. Nu is de GPU tak een losse divisie onder de naam Radeon Technologies Group en staat het onder leiding van Raja Koduri. Zo moet de GPU tak zich beter kunnen focussen op nieuwe GPU's en weer een groter marktaandeel krijgen.



https://static.tweakers.net/ext/f/BZHShTxuT0vo5MjfwSLYRXKA/full.png

GCN

De Graphics Core Next Generation 1 of kortweg GCN microarchitectuur zag voor het eerst het levenslicht met Southern Islands in de HD 7000 serie. Het is de opvolger van de TeraScale microarchitectuur welke gebruikt werd sinds de HD 2000 series. De TeraScale microarchitectuur is een zogenaamde VLIW SIMD architectuur. De GCN microarchitectuur is een zogenaamde RISC SIMD architectuur.

Meer informatie over de GCN microarchitectuur kun je vinden in de HD 7970 review op AnandTech.

GCN2

Met de launch van de HD 7790 (Bonaire) had de GCN microarchitectuur de eerste veranderingen ondergaan. Bij AMD noemen ze de het GCN2, maar op internet staat het vooral bekend als GCN 1.1. De veranderingen zijn o.a. een nieuwe revisie van Powertune en ondersteuning voor TrueAudio en FreeSync.

Meer informatie over de GCN microarchitectuur kun je vinden in de HD 7790 review op AnandTech.

GCN3

Met de launch van de R9 285 (Tonga) zag de derde revisie van de GCN microarchitectuur het levenslicht. AMD noemt het GCN3, maar op internet zul je vooral GCN 1.2 tegenkomen. De veranderingen bestaan o.a. uit verbeterde tesselation performance, losless delta color compressie (voor geheugenbandbreedte reductie) en een nieuwe UVD.

Meer informatie over de GCN 1.2 microarchitectuur kun je vinden in de R9 285 review op AnandTech

GCN4

Met de launch van de RX 480 (Ellesmere) zag de vierde revisie van de Graphics Core Next architectuur genaamd GCN4 het levenslicht. De veranderingen zijn o.a. TrueAudio Next, betere Delta Color Compression, H.265 GPU versnelling voor afspelen video's, HEVC/H.264 video encoding voor videorecording en streaming met OBS of Raptr, HDMI 2.0b en Display Port 1.3/1.4 ondersteuning.



https://static.tweakers.net/ext/f/lsKsgtQZFT8XeaC6AxEKllfd/full.png

Na HBM is het in de nieuwe generatie de beurt aan de opvolger met de weinig verrassende naam HBM2. Het idee bij HBM2 is nog hetzelfde als HBM. Geheugen wordt naast de GPU geplaatst op een interposer. Via de interposer wordt het HBM verbonden met de GPU.



Door HBM wordt de totale oppervlakte van de GPU en het videogeheugen dat nodig is op een videokaart vele malen kleiner in vergelijking met GDDR5 en GDDR5X. Dit maakt kleine high-end videokaarten mogelijk, zie bijvoorbeeld de Fury X en Nano. Ander voordeel van HBM2 is dat het veel minder verbruikt als hoog geklokt GDDR5 geheugen en zelfs GDDR5X verbruikt meer.



Het verschil tussen HBM en HBM2 is dat HBM2 meer geheugen en meer bandbreedte mogelijk maakt zoals je op bovenstaande afbeelding kunt zien. Zat je met HBM vast aan 4096bit geheugenbus welke 512GB/s bandbreedte gaf en maximaal 4GB geheugen had verdeeld over vier stacks. Met HBM2 kun je die zelfde 512GB/s al bereiken met twee stacks van 256GB/s en dus maar een 2048 bit geheugenbus ook zit je nu niet aan maximaal 4GB vast, maar is 8GB in deze configuratie ook prima mogelijk.

HBM2 is dus ideaal voor een kleine high-end videokaart, maar misschien nog wel perfecter voor een high-end APU van AMD voor in bijvoorbeeld een console of kleine en zuinige game PC.

https://static.tweakers.net/ext/f/Sy8KyiLSuLTMoNWElKNAlnVb/full.png

Een aantal weken nadat bekend werd dat grafische tak binnen AMD een eigen divisie kreeg, kwam al snel één van de eerste veranderingen in de zin een opvolger voor Catalyst Control Center. Catalyst Control Center, geschreven in .NET, wordt opgevolgd door Radeon Software Crimson Edition, geschreven in Qt. Naast de volledig veranderde en meer moderne interface is Radeon Software Crimson Edition ook vele malen lichter als Catalyst Control Center, het start dus veel sneller.

Bij het lanceren van de nieuwe drivers beloofde AMD ook meer drivers en minimaal 6 WHQL versies uit te brengen per jaar. Vooralsnog maken ze ook hun belofte van meer drivers waar en ook liggen ze op schema voor 6 WHQL drivers binnen een jaar.



Voor alle slides en veranderingen zie het volgende artikel op TechPowerUp.

https://static.tweakers.net/ext/f/v2kCj9ge2GfrjjF6Jr7iJSud/full.png

GPUOpen is AMD's antwoord op nVidia's GameWorks, er is alleen één heel groot verschil. Waarbij GameWorks een gesloten systeem is wat er vaak voor zorgt dat games verschrikkelijk slecht presteren op bijna alle hardware, met soms uitzondering van enkele Maxwell kaarten, die dan gewoon slecht presteren, in plaats van extreem slecht. :p Wordt GPUOpen, zoals de naam al zegt, een verzameling van meerdere Open Source projecten voor meerdere platformen.



Voor meer informatie en nog wat over zie AnandTech en Wikipedia: GPUOpen

https://static.tweakers.net/ext/f/I0fL2gZGcNNDNRWGvfIvrXb4/full.png

FreeSync is AMD's tegenhanger van nVidia's Gsync. Met FreeSync is het mogelijk om een dynamische refreshrate te krijgen, in plaats van een vaste zoals gebruikelijk. Het voordeel hiervan is dat je geen screen tearing meer krijgt. Bij screen tearing worden 2 of meerdere frames van de videokaart op één refresh weergeven. Bij een snel bewegend beeld ziet dit er nogal vreemd uit, doordat het ene stukje beeld dan al verder is al een ander stukje.

Voorbeeld van screen tearing

Screen tearing ontstaat doordat op het moment dat de monitor een nieuwe frame uit de framebuffer van de videokaart er halverwege dit proces een nieuwe frame in de framebuffer wordt geplaatst. Op zo'n moment zie je dus twee halve frames op je scherm van verschillende tijdstippen. Zoals het plaatje hierboven laat zien is dit niet ideaal.

De oplossing hiertegen was altijd het gebruik van Vsync. Met Vsync produceert de videokaart niet meer frames dan het beeldscherm kan weergeven. Maar Vsync brengt ook weer andere problemen met zich mee. Vsync zorgt namelijk voor input lag. Ook zal de framerate halveren op het moment dat de videokaart niet het benodigd aantal frames kan weergeven. Dit zorgt dan weer voor een niet soepele game ervaring.

Met FreeSync pak je alle problemen aan welke je kan krijgen met een niet FreeSync setup. In tegenstelling tot hoe het eerst was bepaald nu niet de monitor wanneer er een nieuw beeld wordt weergeven, maar bepaald nu de videokaart dat. Op het moment dat de videokaart dus klaar is met een frame geeft die dit door aan de monitor welke dan de nieuwe frame uit de framebuffer kan halen.

Zo pak je screentearing aan en heb je tegelijkertijd ook geen last input lag of een veel lagere framerate.

FreeSync heeft een bereik van 9 t/m 240Hz, al zijn er (op dit moment) geen schermen te vinden die zo'n groot bereik hebben. FreeSync zit verwerkt in de DisplayPort 1.2a specificatie en is een open standaard welke voor iedereen te gebruiken is. Naast DisplayPort is AMD op dit moment ook bezig om FreeSync in een nieuwe HDMI standaard te verwerken.



Reviews over FreeSync zijn te vinden op bijvoorbeeld AnandTech en TechReport en TFT Central.

Meer informatie over FreeSync en geschikte monitoren op AMD.com

https://static.tweakers.net/ext/f/tCder6geO1PGaWahBUS7rC4u/full.png

Low Framerate Compensation, kortweg LFC, is een nieuwe functie bij het gebruik van FreeSync. Zonder deze functie krijg je bij FreeSync last van tearing en judder als de framerate onder het minimale zakt wat het FreeSync scherm kan weergeven. Bij het gebruik van LFC met Vsync heb je hier geen last van doordat dan meermaals dezelfde frame wordt weergegeven ter compensatie. Wel moet de maximale refreshrate van de monitor minimaal 2,5 maal zo hoog zijn als de minimale.





https://static.tweakers.net/ext/f/60sT5kAuTNA5mRnfZCO6yUDi/full.png

AMD TressFX Hair is een haar physics systeem. Bedoeld om haar zo natuurlijk mogelijk te laten ogen. Op dit moment zitten we op versie 2.0 in de nieuwe Deus Ex game zal versie 3.0 worden gebruikt. TressFX is in tegenstelling tot nVidia's Hairworks open source en kan dus door iedereen gebruikt worden.



https://static.tweakers.net/ext/f/2k7wU5j4IknRlRPsv71xXF1u/full.png

Virtual Super Resolution of kortweg VSR maakt het mogelijk om een hogere resolutie in te stellen dan dat het scherm werkelijk ondersteund. Vanzelfsprekend zal dit er bij normaal desktop gebruik minder mooi uitzien, maar bij games waarbij anti aliasing niet ondersteund wordt of problemen geeft kan VSR een handige bijkomstigheid zijn.



https://static.tweakers.net/ext/f/dZd9sEGFgEhpG3GrJ5ckbLMA/full.png

Frame Rate Target Control of kortweg FRTC zorgt er voor dat je de frame rate kan afkappen tot een bepaalde maximale waarde, welke in principe los staat van de verversingssnelheid van je beeldscherm. Het werkt niet alleen bij 3D games, maar ook bij introschermen of menu's e.d. In menu's wil een fps van enkele duizenden frames per seconde wel eens voorkomen, dit heeft natuurlijk geen enkel nut, kan alleen maar zorgen voor coil whine. Met FRTC heb je daar dus geen last meer van en het verlaagt ook nog eens het verbruik van de videokaart, doordat deze minder hoeft te berekenen. Het maximale aantal frames per seconde dat ingesteld kan worden is op dit moment 200 en het minimale aantal is 30.



https://static.tweakers.net/ext/f/8hoQr59hss9VZ16LVS7YgUSK/full.png

High Dynamic Range, kortweg HDR, brengt simpelweg een groter kleurbereik. Vanzelfsprekend moet je wel een HDR scherm hebben anders kan het niet weergegeven worden. Op dit moment zijn er een handje vol TV's welke het ondersteunen, maar in de toekomst wordt dit ongetwijfeld de standaard, ook voor monitoren. Zover is het nu in ieder geval nog niet, maar de nieuwste kaarten van AMD zijn hier alvast op voorbereid.





https://static.tweakers.net/ext/f/EfbjXonk1BekCuQdMpvm1JMP/full.png


Async Compute is één van de mooie onderdelen van DirectX 12. Async Compute maakt het mogelijk om meerdere verschillende opdrachten parallel door de GPU pipeline te laten lopen. Dit kan voor een grote prestatiewinst zorgen, dus meer fps of de instellingen kunnen hoger. Alle GCN kaarten van AMD ondersteunen Async Compute. nVidia's Maxwell en ook Pascal ondersteunen geen Async Compute waardoor AMD bij gebruik van Async Compute een erg grote sprong kan maken ten opzichte van nVidia.





Whitepaper van AMD wat betreft Async Compute, artikel hierover op Anandtech.

nVidia beweert overigens wel dat ze Async Compute ondersteunen. Zo hebben ze altijd vol gehouden dat Maxwell Async Compute heeft maar dat dit uitgeschakeld is in de driver. Vanzelfsprekend is dit niet waar, als het wel waar zou zijn hadden ze het ook al lang veranderd nu meerdere games en zelfs 3DMark er gebruik van kan maken. Bij Pascal hebben ze wel iets wat ze Async Compute noemen. Dit is echter geen Async Compute, er is namelijk niks asynchroon aan hun Async Compute.



Wat nVidia doet is het pauzeren van de een berekening data opslaan, andere data inladen die berekening uitvoeren, data van de eerste berekening weer inladen en verder gaan met die berekening. Gaat dus allemaal serieel terwijl Async Compute parallel werkt. Overigens heeft wat nVidia doet ook een naam, dat heet namelijk pre-emption iets wat AMD ook ondersteund. Alleen doordat nVidia geen Async Compute ondersteund noemen ze hun pre-emption ook maar Async Compute, terwijl dat heel wat anders is. In de bovenstaande afbeelding kun je echter ook zien dat pre-emption ook nadelen heeft, door het wisselen kun je ook juist performance verlies in plaats van winst krijgen.



Hierboven zie je ook nog schematische tekening van AMD waar je pre-emption, Async Compute los en gecombineerd aan het werk ziet.

https://static.tweakers.net/ext/f/vyeGPiTK9vb2O4HLp65Z7mFJ/full.png

Met de 400 serie is AMD ook overgestapt op een een naamsverandering, zodat het simpeler en duidelijker moet worden dan het was. Hieronder kun je een afbeelding zien wat de naam ongeveer moet betekenen.



Alles met de naam RX moet geschikt zijn voor minimaal games als DOTA 2 en LoL op full HD met minimaal 60 frames per seconde en dit geld voor de traagste RX kaart. Het eerste cijfer achter het voorvoegsel (RX) blijft de generatie, in dit geval vierde generatie. Tweede cijfer blijft prestaties 9 snelste en 5 het laagste aldus de slide. Laatste cijfer is dan voor de revisie, kan een 0 of 5 zijn. Zo had je ook al de R9 285 gebaseerd op Tonga wat je kan beschouwen als een nieuw revisie van Tahiti in de R9 280. Tonga had o.a. een nieuwe GCN versie en een kleinere geheugenbus en geheugencompressie.

AMD Radeon RX 460

De AMD Radeon RX 460 is gebaseerd op de Baffin (Polaris 11) GPU. Deze GPU heeft 1024 stream processors verdeelt over 16 CU's, waarbij twee CU's in de RX 460 zijn uitgeschakeld waardoor je een totaal krijgt van 896 stream processors. De volledige GPU zal eerst alleen als notebook GPU verschijnen en misschien later ooit nog als RX 465 beschikbaar komen.





Hierboven zie je een render van hoe een RX 460 eruit kan gaan zien. Er komt geen reference versie van deze kaart dus fabrikanten kunnen hun eigen PCB lay-out en koeler maken. Uiterlijk van deze render zal dus niet met de praktijk overeen te komen.

Doordat het hier gaat om een Baffin Pro GPU en dus niet de volledig ingeschakelde Baffin XT GPU, zit de prestatie iets onder die van een GTX 950 in DirectX 11 en OpenGL games en iets boven de GTX 950 in DirectX 12 en Vulkan games.

Dit is een kaart welke moderne zware games op gemiddelde instellingen zal kunnen spelen op full HD. Maar de markt waar deze kaart vooral op gericht is zal naast de notebook de meer lichtere games zijn zoals Counter Strike, DOTA 2, Heroes of the Storm, Overwatch, Rocket League, Team Fortress 2 of de gewoon iets oudere games.

Standaard verbruik van deze kaart ligt onder de 75W, overgeklokte exemplaren gaan over de 75W heen en hebben dan ook een extra PEG connector nodig. Met een stille koeler zal dit ook een prima HTPC kaart zijn welke op de toekomst is voorbereid door HDR, H.265/HEVC, HDMI 2.0b en DisplayPort 1.3 en 1.4.

AMD Radeon RX 470

De AMD Radeon RX 470 is gebaseerd op Ellesmere Pro (Polaris 10). Deze GPU heeft 2304 stream processors verdeelt over 36 CU's, waarbij 4 CU's in de RX 470 zijn uitgeschakeld waardoor je een totaal krijgt van 2048 stream processors. De volledige GPU vind je terug in de RX 480. De basiskloksnelheid van de GPU is 926MHz en de boostfrequentie is 1206MHz. Het GDDR5 geheugen heeft een frequentie van 1650MHz wat effectief neerkomt op 6,6Gbps.



Op bovenstaande foto zie je de RX 470, dit is echter een foto met reference versie. De RX 470 verschijnt echter alleen maar als custom versie, dus elke fabrikant zal komen met zijn eigen ontwerp van deze kaart. In DirectX 11 en OpenGL games zal de kaart zo'n 10% langzamer als een GTX 970 zijn, met Direct X 12 en Vulkan games moet de kaart zo'n 10% sneller kunnen zijn. Het verwachte verbruik van de kaart zal rond de 120W zitten. De vanaf prijs zal 179 dollar worden (net onder de 200 euro inclusief btw).

AMD Radeon RX 480

De AMD Radeon RX 480 is de eerste kaart van deze nieuwe serie. Deze videokaart is gebaseerd op de volledige Ellesmere (Polaris 10) GPU en telt 2304 stream processors verdeeld over de 36 CU's. De basiskloksnelheid bedraagt 1120MHz en de maximale frequentie is 1266MHz en hier zal de kaart, gemiddeld tijdens een zware game zal de reference kaart rond de 1200MHz zitten.





De geheugenbus bedraagt net als de RX 470 256 bit, het geheugen van de reference versie draait op 2GHz (8Gbps). Het geheugen mag echter ook op 1,75GHz (7Gbps) draaien om kosten te drukken. 7Gbps geheugenchips zijn namelijk goedkoper. De keuze is dus aan de fabrikant. RX 480 gericht op een lage prijs zullen waarschijnlijk vaker 7Gbps geheugenchips bevatten, terwijl duurdere modellen vaker 8Gbps geheugenchips zullen hebben.

Geheugen hoeveelheid kan zowel 4GB als 8GB GDDR5 zijn, waarbij de 4GB kaarten een MSRP (Manufacturer's Suggested Retail Price) hebben vanaf 199 dollar (~215 euro incl btw) en de 8GB kaarten een MSRP van 229 dollar (~260 euro incl. btw) hebben meegekregen.



Zoals je kunt zien op de laatste afbeelding van hierboven heeft ook de RX 480 standaard een enkele PEG connector. Verbruik van de kaart zit zo rond de 160W, waarmee AMD de kaart beter een 8 pins PEG connector had kunnen geven. Custom versies zullen waarschijnlijk meestal dan ook een 8 pins, twee 6 pins of een 6 en 8 pins PEG connector hebben.

Prestaties van deze kaart zitten zo'n 10% onder die van een GTX 980 in DirectX 11 en OpenGL, maar moeten zo'n 10% hoger liggen in DirectX 12 en Vulkan games. Hoe meer DirectX 12 games er in de toekomst dus komen hoe sneller de kaart gemiddeld dus wordt ten opzichte van de GTX 980.




Bron: http://www.hardwarecanuck...erformance-review-24.html

https://static.tweakers.net/ext/f/gIgCGUMMumlGZX7KQeORJvC6/full.png
  • FreeSync monitoren met HDMI aansluitingen.
  • Begin 2017 staat de high-end Vega met HBM2 op de planning.




https://static.tweakers.net/ext/f/HfxXR0ER9JAl66CISeu0vkDw/full.png

Q1 2017 wordt AMD's high-end Vega10 chip verwacht. Dit zou een chip moeten zijn met 64CU's oftewel 4096 stream processors, dit is een verdubbeling van de RX 470. Verwacht wordt dat de kloksnelheid van de GPU echter iets hoger ligt dan deze kaart, waardoor dubbele prestaties mogelijk moeten zijn. Schaling is echter nooit perfect waardoor, alleen een dubbel aantal stream processors niet genoeg is voor dubbele prestaties, de hogere kloksnelheid moet dat echter wel mogelijk maken.

Dat deze GPU hetzelfde aantal stream processors heeft als Fiji zegt overigens niks over de prestaties van Vega10. Vega10 is meer vergelijkbaar met Polaris en daarvan weten we al dat die een betere IPC heeft (meer prestaties op dezelfde kloksnelheid per stream processor). Daarmee kun je dus een prestatie verwachten van waarschijnlijk iets boven de GTX 1070, maar onder de GTX 1080. Het is echter allemaal afhankelijk van de kloksnelheid en die is waarschijnlijk nog niet eens precies bepaald door AMD op dit moment.

Vega10 zou voor de rest 2 stacks HBM2 geheugen moeten hebben, een halvering van Fiji, maar doordat met HBM2 de bandbreedte verdubbeld per stack zal de bandbreedte identiek blijven aan Fiji met 512GB/s. Ook dit is geen probleem, Vega10 kan net als Polaris een stuk efficiënter omgaan met geheugenbandbreedte door compressie technieken. De RX 480 heeft dan ook 256GB/s aan geheugenbandbreedte, een verdubbeling hiervan voor Vega10 moet dus voldoende zijn. Qua geheugengrootte kan AMD gaan voor zowel 8GB als 16GB, beide zijn realistische mogelijkheden en misschien kiezen ze ook wel voor beide door twee videokaarten uit te brengen gebaseerd op deze GPU.

Doordat HBM2 een stuk zuiniger is als GDDR5 geheugen zal het verbruik van de videokaart niet verdubbelen. Het geheugen op de RX 480 neemt waarschijnlijk maar liefst iets van 50W, waarmee de rest van deze videokaart dus iets van 110W verbruikt. Een verdubbeling van 160W (RX 480) zou 320W zijn, maar doordat Vega10 geen GDDR5 gebruikt, neem je twee maal 110W wat uitkomt op 220W en daarbij komt waarschijnlijk iets van 30W voor het HBM2 geheugen. Hierdoor kom je dus uit op 250W in plaats van 320W, een besparing van 70W door alleen maar een ander type geheugen te gebruiken.

Nu is Vega10 echter geen verdubbeling van de RX 480, maar eerder van de RX 470 met waarschijnlijk wel een hogere kloksnelheid en waarschijnlijk een iets beter productieproces. Een verdubbeling van de RX 470 betekend dus een lager verbruik dan 250W, eerder iets van 200W met HBM2. De verwachte hogere kloksnelheid zal het verbruik echter weer opdrijven, maar een beter productieproces zorgt er weer voor dat het verbruik lager ligt. Al met al zou ik dus uitgaan van een verbruik van zo'n 225W.

https://static.tweakers.net/ext/f/iADoSsXVtx7g6dJllPfBgsSV/full.png

AMD-only partners

AMD / nVidia partners

Utilities

  • GPU-z - Uitlezen temperatuur en specificaties van de videokaart.
  • Asus GPU Tweak II, voor de laatste versie geschikt voor jouw videokaart zie Asus.com en zoek jouw videokaart op.
  • SAPPHIRE TriXX Sapphire's overkloktool.
  • MSI Afterburner (gebaseerd op Rivatuner)
  • MSI Kombustor (gebaseerd op Furmark)
  • AMD Clean Uninstall Utility Voor als je problemen ondervindt met de huidige driver en een schone installatie wil doen. Ook aan te raden als je van Catalyst Control Center naar Radeon Software Crimson Edition gaat.
  • DUU Display Driver Uninstaller Voor als je driver problemen ondervindt of van nVidia naar AMD of visa versa wil.

Officieel AMD-gerelateerd

Topic-gerelateerd

https://static.tweakers.net/ext/f/hBpxBNOTo3QzPyWeAwkvheRk/full.png

Deze topicstart is opgedragen aan CJ, oprichter en schrijver van de ATi/AMD Radeon topicreeks van deel 1 tot en met deel 116, welke veel te vroeg van ons is heengegaan.


Rust zacht, CJ



-The_Mask- wijzigde deze reactie 09-12-2016 15:10 (4%)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • NitroX infinity
  • Registratie: januari 2002
  • Laatst online: 01:23
quote:
AMD's Vega 10 chip zal waarschijnlijk iets van het dubbele aantal stream processors hebben van een RX 470 of RX 480. Waarmee je dus op 4096 of 4608 stream processors uitkomt. Dit zal AMD's eerste GPU worden met HBM2 en waarschijnlijk een 2048 bit geheugenbus hebben. De helft van Fiji, doordat de bandbreedte per pin wordt verdubbeld bij HBM2 heb je echter als nog dezelfde bandbreedte met 512GB/s. 512GB/s is overigens ook een verdubbeling van de 256GB/s van de RX 480, waardoor dit gelijk ook een erg logisch getal is.
Ik hoop toch echt wel dat Vega beter is dan dat. 4096 streamprocessors op een kleiner procede met een kleinere geheugenbus lijkt mij niet echt geweldig. (Edit; als best presterende kaart)

https://www.techpowerup.c...orce_GTX_1080_Amp/23.html

Als je ziet dat een GTX 1070 al beter presteerd dan een R9 Fury X en GTX Titan X en daar dus de GTX 1080 weer met kop en schouders boven steekt, lijkt minder dan 6144 shaders gewoon niet redelijk. Tenzij AMD dat ding op 1600MHz+ weet te klokken, wat niet echt geloofwaardig is.

Helemaal als je je bedenkt dat Nvidia er nog een GTX 1070 Ti en GTX 1080 Ti uit kan persen.

Mijn blog; Floating Points

quote:
NitroX infinity schreef op dinsdag 16 augustus 2016 @ 12:41:
[...]


Ik hoop toch echt wel dat Vega beter is dan dat. 4096 streamprocessors op een kleiner procede met een kleinere geheugenbus lijkt mij niet echt geweldig. (Edit; als best presterende kaart)

https://www.techpowerup.c...orce_GTX_1080_Amp/23.html

Als je ziet dat een GTX 1070 al beter presteerd dan een R9 Fury X en GTX Titan X en daar dus de GTX 1080 weer met kop en schouders boven steekt, lijkt minder dan 6144 shaders gewoon niet redelijk. Tenzij AMD dat ding op 1600MHz+ weet te klokken, wat niet echt geloofwaardig is.
Eh als Vega 10 4096 stream processors krijgt betekent dat niet dat die dezelfde prestaties krijgt als een Fury X met 4096 stream processors. Dat betekent namelijk ongeveer dubbel zo snel als een RX 470, als je van dezelfde GPU frequentie uitgaat. Dan kom je dus iets boven een GTX 1070 uit en qua verbruik zit je dan rond de 200/210W doordat HBM2 zuiniger is dan GDDR5.

Met zo'n verbruik laat dat dus ook ruimte om er nog een snellere chip boven te zetten.
quote:
Helemaal als je je bedenkt dat Nvidia er nog een GTX 1070 Ti en GTX 1080 Ti uit kan persen.
Wat is een GTX 1070 Ti en GTX 1080 Ti?

-The_Mask- wijzigde deze reactie 16-08-2016 15:01 (13%)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • NitroX infinity
  • Registratie: januari 2002
  • Laatst online: 01:23
quote:
-The_Mask- schreef op dinsdag 16 augustus 2016 @ 14:59:
[...]

[...]
Wat is een GTX 1070 Ti en GTX 1080 Ti?
Chips met meer shaders dan de non-ti versies.

Mijn blog; Floating Points


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 15-12 19:31
quote:
Precies zoals met de GTX 980 Ti? De titan chip 'nerfen' en uitbrengen als 1080 Ti. Tenzij er veel titan's mislukken is daar voorlopig echter nog lang geen noodzaak toe.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

Tja AMD kan net zo goed een Vega 10 chip als RX 475 en RX 485 uitbrengen. Gaan ze dat doen? Nee natuurlijk niet totaal onlogisch. Dat geld ook voor nVidia die gaat echt geen GP102 chip gebruiken voor een GTX 1070 Ti en GTX 1080 Ti. Dat is totaal onlogisch en zoiets hebben ze ook nog nooit gedaan. Ze zullen alleen een GTX 1080 Ti uitbrengen gebaseerd op de GP102 zoals ze al een aantal generaties doen en zoals al iets van een jaar geleden is gezegd. Maar die GTX 1080 Ti heeft niks te maken met een GTX 1080.

-The_Mask- wijzigde deze reactie 16-08-2016 16:32 (6%)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 15-12 19:31
Mocht het niet duidelijk zijn. De GTX 980 Ti is gebaseerd op de vorige Titan-X. Dus dat beantwoord de vraag hoe je aan een chip met meer shaders komt (=een andere chip gebruiken). Als Vega goed wordt dan zit een 1080 Ti er dik in. De middelen zijn er dus waarom zouden ze het niet doen.

Ik had het inderdaad niet over een 1070 Ti. Dat lijkt mij ook heel onlogisch. Er is nu wel een gat maar in dat gat is (nog) geen concurrentie. Het kan natuurlijk wel zo zijn dat ze de huidige 1080 gaan doorschuiven als 1170 (Ti), maar dat is iets voor de refresh en zeker niet iets voor een 1070 Ti.

Met out-of-the-box-thinking zou je begin volgend jaar nog een 1070 met HBM kunnen combineren om zo een GTX 1070 Ti te vormen (dus met HBM maar met dezelfde 1920 cores). Maar dat is traditioneel gezien erg onwaarschijnlijk...Maar goed als we het hebben over kan het en zo ja hoe, zo dus...

sdk1985 wijzigde deze reactie 16-08-2016 16:50 (69%)
Reden: typo, duidelijkheid

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

quote:
sdk1985 schreef op dinsdag 16 augustus 2016 @ 16:34:

Met out-of-the-box-thinking zou je begin volgend jaar nog een 1070 met HBM kunnen combineren om zo een GTX 1070 Ti te vormen (dus met HBM maar met dezelfde 1920 cores). Maar dat is traditioneel gezien erg onwaarschijnlijk...Maar goed als we het hebben over kan het en zo ja hoe, zo dus...
En waarom zouden ze dat doen? Een hele nieuwe GPU ontwerpen om zo HBM erop te kunnen zetten en dat terwijl het voor de prestaties 0,0 verschil maakt. De GTX 1070 heeft al een niet gebruikte GDDR5X geheugencontroller, waarom zou je die dan niet gebruiken. Geeft ook geen prestatiewinst, maar het verbruik gaat wel omlaag net als bij de HBM en dan hoef je geen nieuwe GPU te ontwerpen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 15-12 19:31
quote:
-The_Mask- schreef op dinsdag 16 augustus 2016 @ 17:03:
[...]

En waarom zouden ze dat doen? Een hele nieuwe GPU ontwerpen om zo HBM erop te kunnen zetten en dat terwijl het voor de prestaties 0,0 verschil maakt. De GTX 1070 heeft al een niet gebruikte GDDR5X geheugencontroller, waarom zou je die dan niet gebruiken. Geeft ook geen prestatiewinst, maar het verbruik gaat wel omlaag net als bij de HBM en dan hoef je geen nieuwe GPU te ontwerpen.
Huh wat? Ze hoeven alleen een semi mislukte 1080 wat in te laseren (bijvoorbeeld tot 1920) en je hebt een 1070 Ti. Dus met hetzelfde HBMGDDR5X geheugen maar dan met minder shader cores. Als het goed is zijn die dingen nu al modulair opgebouwd dus daar komt geen herontwerp aan te pas.

Los van dat je er nu wel heel diep op ingaat is mijn "ludieke" suggestie is hij eigenlijk zo gek nog niet. Immers is de 1070 in veel gevallen memory bandwidth limited en kun je hem haast niet verder overclocken aan de geheugen kant. Mocht vega een overweldigend succes zijn (lees sneller dan een 1070, maar trager dan een 1080) dan zou dat best een leuke counter kunnen zijn. Maar dit is meer iets voor het Nvidia topic :P . Laten we eerst maar eens afwachten hoe snel Vega wordt en welk prijspunt AMD gaat zitten en wanneer die kaarten überhaupt op de markt komen. Nvidia zal ongetwijfeld hetzelfde doen.

sdk1985 wijzigde deze reactie 16-08-2016 19:21 (7%)
Reden: hmb>gddr5x

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

quote:
sdk1985 schreef op dinsdag 16 augustus 2016 @ 18:25:
[...]

Huh wat? Ze hoeven alleen een semi mislukte 1080 wat in te laseren (bijvoorbeeld tot 1920) en je hebt een 1070 Ti. Dus met hetzelfde HBM geheugen maar met minder shader cores. Als het goed is zijn die dingen nu al modulair opgebouwd dus daar komt geen herontwerp aan te pas.
Newsflash: een GTX 1080/GP104 heeft geen HBM geheugencontroller, maar alleen een GDDR5 en GDDR5X geheugencontroller.
quote:
is hij eigenlijk zo gek nog niet.
Klopt van geen kant bedoel je.
quote:
Immers is de 1070 in veel gevallen memory bandwidth limited
Ook niet waar.

-The_Mask- wijzigde deze reactie 16-08-2016 19:04 (13%)

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • tomcatha
  • Registratie: oktober 2006
  • Laatst online: 00:54
ik acht het redelijk waarschijnlijk dat Vega relatief beter is dan een dubbele polaris 10. Ze hebben nu meer ervaring met zo wel dx12 als met de kleinere process node en er zit genoeg tijd tussen voor het verwerken van deze ervaringen.

  • ColinZ
  • Registratie: februari 2010
  • Laatst online: 14-12 20:43
quote:
-The_Mask- schreef op dinsdag 16 augustus 2016 @ 16:31:
Ze zullen alleen een GTX 1080 Ti uitbrengen gebaseerd op de GP102 zoals ze al een aantal generaties doen en zoals al iets van een jaar geleden is gezegd. Maar die GTX 1080 Ti heeft niks te maken met een GTX 1080.
Ik denk dat Nitrox dit ook bedoelde met meer shaders. De GP104 chip in de GTX 1080 is immers al de volledige chip.

  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 15-12 19:31
HBM moest natuurlijk GDDR5X zijn. Verschil tussen een 1080 en een 1070 zit primair in de cutdown van 20 naar 15 SMX units en secundair in het tragere geheugen. Daarmee daalt de opgegeven TFLOP/s van 9 naar 6.45. Het is geen rocket science om de cut-down van GDDR5X te voorzien en daarmee de performance te verhogen. Dus in die zin kan een 1070 Ti technisch en economisch prima, mocht Nvidia dat willen dan kunnen ze daar volgende maand mee starten. Maar goed, historisch gezien is het een zeer onwaarschijnlijke optie. Maar onmogelijk is het niet.
quote:
tomcatha schreef op dinsdag 16 augustus 2016 @ 21:40:
ik acht het redelijk waarschijnlijk dat Vega relatief beter is dan een dubbele polaris 10. Ze hebben nu meer ervaring met zo wel dx12 als met de kleinere process node en er zit genoeg tijd tussen voor het verwerken van deze ervaringen.
Wanneer komt Vega dan uit? Laatste geruchten die ik las waren ineens 2016. Mja WFFCTech etc dus kan net zo goed zomer 2017 worden :P.

Persoonlijk vermoed ik dat tegen de tijd dat AMD grootschalig een HBM2 gebaseerde gpu kan leveren dat Nvidia dit ook kan en dat HBM an sich dus geen voordeel voor AMD oplevert. Procédé is ook gelijkwaardig, alhoewel Nvidia geruchten zijn ondertussen 14nm Samsung. Maar AMD kan volgen. Dus de winst moet dan uit de architectuur komen. Daar wring meteen de schoen omdat Polaris minder efficient is dan Pascal . Qua ontwerp fase zit Polaris en Vega dicht op elkaar, ik verwacht hooguit een revolutie in efficiëntie en zeker geen revolutie. Gezien het bovenstaande komt AMD waarschijnlijk met een veel grotere en complexere kaart. Dit gaat dan weer de bekende negativiteit mbt het stroomverbruik opleveren. Persoonlijk heb ik daar overigens niet zo'n probleem mee.

Samengevat heb ik nog geen hoge verwachtingen. Ik hoop dat Vega op tijd is om de absurde prijzen van de 1070 en 1080 te drukken. Een nieuwe "world best" zou mij verrassen.

Voor AMD lijkt het me handig als ze minimaal 3 maanden van te voren beginnen met specificaties lekken, voordat iedereen een 1070 / 1080 heeft gekocht. Dat zou echt zonde zijn. Laten we hopen dat dit niet gebeurd en RTG deze "clean slate" (dx12, nieuw procedé) kan vertalen in een gebalanceerd marktaandeel.

sdk1985 wijzigde deze reactie 16-08-2016 22:45 (19%)

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • cherrycoke
  • Registratie: december 2009
  • Laatst online: 05-12 22:59
knoop is doorgehakt geen zin om 350 euro te betalen voor een rx480 als ik voor dat geld ook een fury kan halen.

morgen komt deze binnen.

4k gaming here i come

  • madmaxnl
  • Registratie: november 2009
  • Laatst online: 09:37

FX8150 + Noctua: NH-DH15 + 1x NF-P14r redux - Fatal1ty 990FX Professional - MSI R9 290 Gaming - Corsair: TX650M V2 + 2x 4GB Vengeance 1600C9 - 2x 128GB M4 SSD - 3TB + 2TB HDD - Silverstone: Raven RV05 + 2x SST-AP181 + NB eLoop B12-4 - Ultrasharp U2412M


  • killerbee1958
  • Registratie: januari 2004
  • Nu online
quote:
cherrycoke schreef op woensdag 17 augustus 2016 @ 20:11:
knoop is doorgehakt geen zin om 350 euro te betalen voor een rx480 als ik voor dat geld ook een fury kan halen.

morgen komt deze binnen.

4k gaming here i come
Ik heb hem sinds afgelopen weekend draaien.
Werkt zeer naar tevredenheid. Had ook geen zin om verder te wachten plus prijs/prestatie van Fury is gewoon beter op die 350 euro

  • Damic
  • Registratie: september 2003
  • Nu online

Damic

Afwezig soms

Weet er iemand wat een R9 nano/fury(x)/rx470/480 doet in RC5-72? Ik heb nl nog geen speed stats zien voorbij komen op distributed.net

Damic wijzigde deze reactie 18-08-2016 10:57 (6%)

Ik kan vanalles en nog wat maar niets te goei, klinkt bekent?? Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


  • EXCalibur_EeK
  • Registratie: oktober 2000
  • Laatst online: 08-12 23:04
Ik heb de reference kaart nu een weekje. Heeft undervolting nog zin of zit dit al in de laatste drivers?

  • Ghanghis
  • Registratie: oktober 2013
  • Laatst online: 23:42

Ghanghis

Zegt ook wel eens iets

quote:
EXCalibur_EeK schreef op donderdag 18 augustus 2016 @ 10:59:
Ik heb de reference kaart nu een weekje. Heeft undervolting nog zin of zit dit al in de laatste drivers?
De reference word door verschillende fabrikanten geleverd met een koeler naar het design wat door AMD word geleverd (reference design).

De settings van de GPU worden echter door de fabrikant zelf bepaald, waaronder ook het voltage valt.
Powercolor levert ze naar mijn weten bijvoorbeeld gemiddeld met een lager voltage dan XFX dat bijvoorbeeld doet.

Of undervolten zin heeft is dus afhankelijk van welke settings deze heeft meegekregen uit de fabriek en hoeveel ruimte er nog over is.

Ik heb mijn kaart een leuk stukje kunnen undervolten wat tot een reductie in verbruik en warmte (en dus geluid heeft geleid). In mijn geval hoefde ik hier geen performance voor in te leveren.

R5 2600x / Vega 56


  • killerbee1958
  • Registratie: januari 2004
  • Nu online
quote:
Damic schreef op donderdag 18 augustus 2016 @ 10:53:
Weet er iemand wat een R9 nano/fury(x)/rx470/480 doet in RC5-72? Ik heb nl nog geen speed stats zien voorbij komen op distributed.net
Ik wil best wel even iets proberen maar heb geen zin om de client van distributed.net te installeren. ik heb een sapphire nitro r9 fury.


Kun je niet gewoon op furmark site zoeken naar R9 Fury performance?

killerbee1958 wijzigde deze reactie 18-08-2016 13:31 (15%)


  • Sanderp
  • Registratie: januari 2015
  • Laatst online: 15-12 18:48
En toch ben ik blij met mijn sapphire RX460 2gb, voor Csgo, fifa 16 en Nfs. Aanrader voor als je een pre-build pc hebt. Het enigste probleempje is dat als je hem overklokt (kleine overklok) hij enorm warm word en de fan iets te hard gaat blazen.

  • Damic
  • Registratie: september 2003
  • Nu online

Damic

Afwezig soms

quote:
killerbee1958 schreef op donderdag 18 augustus 2016 @ 12:57:
[...]


Ik wil best wel even iets proberen maar heb geen zin om de client van distributed.net te installeren. ik heb een sapphire nitro r9 fury.


Kun je niet gewoon op furmark site zoeken naar R9 Fury performance?
Hebben die daar ook rc5 benchmarks?

Ik kan vanalles en nog wat maar niets te goei, klinkt bekent?? Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


  • Freshnub
  • Registratie: december 2012
  • Laatst online: 15-12 11:59
Ik stel de vraag maar hier, maar kan eigenlijk ook in het 1060 topic. Ik zie alle kaarten hebben meerdere display ports, maar wat heb ik aan zo een poort? Ik heb op mijn tv HDMI, op mijn ps scherm DVI en HDMI. Kan iemand mij misschien uitleggen wat het voordeel is van displayports? En als ik dan en mijn tv en mijn pc scherm wil aansluiten, met slechts 1 hdmi uitgang op de kaart, hoe gaat dit in zijn werk?

Ik las iets over verloopstukjes, maar deze schijnen duurder te zijn dan een action hdmi kabel.

  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Moderne schermen hebben vaker en vaker DisplayPort, omdat het een compactere aansluiting is als DVI, wat ook bedoeld is voor PC doeleinden, en veel hogere resoluties, kleurendiepte en refreshrates toelaat. Ook laat het zoals HDMI meer functie toe dan enkel beeld, zoals geluid. Mini-DisplayPort is dan nog kleiner en biedt dezelfde mogelijkheden. Intel gebruikt Mini-DisplayPort ook nog eens voor de ThunderBolt techniek om data-transfer tussen apparaten mogelijk te maken die USB 3.1 zelfs voorbijstreven en bruikbaar zijn om extern PCIe kaarten aan te sluiten.

Dus je vraag zou eerder moeten zijn: "waarom heeft mijn monitor geen DisplayPort ?" ;)

  • Freshnub
  • Registratie: december 2012
  • Laatst online: 15-12 11:59
quote:
Phuncz schreef op donderdag 18 augustus 2016 @ 16:56:
Moderne schermen hebben vaker en vaker DisplayPort, omdat het een compactere aansluiting is als DVI, wat ook bedoeld is voor PC doeleinden, en veel hogere resoluties, kleurendiepte en refreshrates toelaat. Ook laat het zoals HDMI meer functie toe dan enkel beeld, zoals geluid. Mini-DisplayPort is dan nog kleiner en biedt dezelfde mogelijkheden. Intel gebruikt Mini-DisplayPort ook nog eens voor de ThunderBolt techniek om data-transfer tussen apparaten mogelijk te maken die USB 3.1 zelfs voorbijstreven en bruikbaar zijn om extern PCIe kaarten aan te sluiten.

Dus je vraag zou eerder moeten zijn: "waarom heeft mijn monitor geen DisplayPort ?" ;)
Hartelijk dank! Ik heb me suf gezocht en ben gelijk aan het googlen geslagen. Mijn scherm is niet eens zo oud, ik heb de BenQ GW2450HM, met de volgende poorten DVI-D, HDMI, VGA (D-Sub). Geen displayport dus?

  • Damic
  • Registratie: september 2003
  • Nu online

Damic

Afwezig soms

quote:
Phuncz schreef op donderdag 18 augustus 2016 @ 16:56:
Moderne schermen hebben vaker en vaker DisplayPort, omdat het een compactere aansluiting is als DVI, wat ook bedoeld is voor PC doeleinden, en veel hogere resoluties, kleurendiepte en refreshrates toelaat. Ook laat het zoals HDMI meer functie toe dan enkel beeld, zoals geluid. Mini-DisplayPort is dan nog kleiner en biedt dezelfde mogelijkheden. Intel gebruikt Mini-DisplayPort ook nog eens voor de ThunderBolt techniek om data-transfer tussen apparaten mogelijk te maken die USB 3.1 zelfs voorbijstreven en bruikbaar zijn om extern PCIe kaarten aan te sluiten.

Dus je vraag zou eerder moeten zijn: "waarom heeft mijn monitor geen DisplayPort ?" ;)
In hdmi zit ook audio, hdmi is alleen nog niet zo veelzijdig als DP. DP zou je kunnen door linken van scherm naar scherm en heeft veel hogere resolutie + refresh rates.

Ik kan vanalles en nog wat maar niets te goei, klinkt bekent?? Al wat ik aanraak werk niet meer zoals het hoort. Damic houd niet van zijn verjaardag


  • cherrycoke
  • Registratie: december 2009
  • Laatst online: 05-12 22:59
quote:
killerbee1958 schreef op woensdag 17 augustus 2016 @ 22:02:
[...]


Ik heb hem sinds afgelopen weekend draaien.
Werkt zeer naar tevredenheid. Had ook geen zin om verder te wachten plus prijs/prestatie van Fury is gewoon beter op die 350 euro
https://www.techpowerup.com/gpuz/details/dx7qd





120 fps in battlefied 4 alles op ultra zonder dat deze ook maar een keer stottert _/-\o_

  • aminam
  • Registratie: december 2012
  • Laatst online: 03:23
quote:
cherrycoke schreef op donderdag 18 augustus 2016 @ 21:00:
[...]


https://www.techpowerup.com/gpuz/details/dx7qd

[afbeelding]

[afbeelding]

120 fps in battlefied 4 alles op ultra zonder dat deze ook maar een keer stottert _/-\o_
Yep, de instap fury's worden een beetje in de schaduw gezet maar voor die 350 zijn het absolute 1440p koningen. :)

Alleen wat jammer dat de late batches waar de huidige instap furys van zijn bijna altijd dichtgetimmerd zijn op 3500 shaders waar de ouderen altijd de 3800 wel trokken. Maar met de laatste vulkan resultaten hoop ik dat hij over een jaar in dx12 nog steeds erg goed mee kan komen.

x370 Taichi | R5 1600 | Vega 64 Liquid| Phanteks Evolv atx

Quizvraagje. Kan je Tomb Raider Legend uit 2006 met de zwaarste ingame instellingen draaien met >30 FPS met een midrange grafische kaart HD 7850 (1030 MHz/1250 MHz) uit 2011 en uiteraard zonder CPU bottleneck?
  • Ja, natuurlijk kan dat! Het spel is 5 jaar ouder, een midrange grafische kaart van 5 jaar later kan dat met gemak aan.
  • Nee, NVidia heeft het voor elkaar gekregen om extra software (Next Generation Content) erin te stoppen wat zelfs een midrange kaart van 5 jaar later op haar knieën krijgt en wat FPS dips onder de 20 geeft in delen (begin Japan) van het spel. :+
Toch best knap van NVidia. Ik ben benieuwd wat ze hebben uitgespookt. MSI Afterburner toonde aan dat de kaart zeker niet harder werkt (percentage van maximum voor de GPU, hitte) met Next Gen Content ingeschakeld, mogelijk zelfs wat minder hard, terwijl de FPS nog maar een kwart bedraagt. Wat NVidia ook deed, de AMD-kaart kan er helemaal niets mee. :)

Ik neem aan dat jullie dit nieuws hebben meegekregen?
http://arstechnica.com/ga...nce-details-release-date/
De grote vraag, welke kloksnelheid halen ze straks?

CHBF wijzigde deze reactie 19-08-2016 15:02 (8%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • LongBowNL
  • Registratie: juni 2009
  • Laatst online: 13-12 20:32
quote:
CHBF schreef op vrijdag 19 augustus 2016 @ 14:56:
[...]

Ik neem aan dat jullie dit nieuws hebben meegekregen?
http://arstechnica.com/ga...nce-details-release-date/
De grote vraag, welke kloksnelheid halen ze straks?
Ja, in dit topic: [Algemeen] AMD nieuwsdiscussie topic - deel 34

  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

quote:
CHBF schreef op vrijdag 19 augustus 2016 @ 14:56:
Toch best knap van NVidia. Ik ben benieuwd wat ze hebben uitgespookt.
GameWorks: The Prequel ?
quote:
Ik neem aan dat jullie dit nieuws hebben meegekregen?
http://arstechnica.com/ga...nce-details-release-date/
De grote vraag, welke kloksnelheid halen ze straks?
Ik ben niet zo hoopvol. Het feit dat ze vergelijken met een behoorlijk ondergeklokte Intel chip om te laten zien dat ze klok voor klok "gelijkwaardig" zijn, is leuk, maar ze hadden dan ook gewoon kunnen vergelijken met een hoger geklokte Zen CPU en een stock Intel CPU. Zeker omdat het één cherry-picked statistiek is en omdat het nog niet eens live getoond werd

Dus mijn vermoeden is dat de performance per clock wel op orde is, maar dat ze (nog?) niet de hogere 3,5 à 4,0GHz kunnen halen waar Intel's CPUs nu op lopen. Ik hoop dat hun 4-core CPUs wel hogere clocksnelheden kunnen.

  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 22:37

Sp3ci3s8472

@ 12 graden...

quote:
CHBF schreef op vrijdag 19 augustus 2016 @ 14:56:
Quizvraagje. Kan je Tomb Raider Legend uit 2006 met de zwaarste ingame instellingen draaien met >30 FPS met een midrange grafische kaart HD 7850 (1030 MHz/1250 MHz) uit 2011 en uiteraard zonder CPU bottleneck?
  • Ja, natuurlijk kan dat! Het spel is 5 jaar ouder, een midrange grafische kaart van 5 jaar later kan dat met gemak aan.
  • Nee, NVidia heeft het voor elkaar gekregen om extra software (Next Generation Content) erin te stoppen wat zelfs een midrange kaart van 5 jaar later op haar knieën krijgt en wat FPS dips onder de 20 geeft in delen (begin Japan) van het spel. :+
Toch best knap van NVidia. Ik ben benieuwd wat ze hebben uitgespookt. MSI Afterburner toonde aan dat de kaart zeker niet harder werkt (percentage van maximum voor de GPU, hitte) met Next Gen Content ingeschakeld, mogelijk zelfs wat minder hard, terwijl de FPS nog maar een kwart bedraagt. Wat NVidia ook deed, de AMD-kaart kan er helemaal niets mee. :)

Ik neem aan dat jullie dit nieuws hebben meegekregen?
http://arstechnica.com/ga...nce-details-release-date/
De grote vraag, welke kloksnelheid halen ze straks?
Kleine vergelijking:


Wordt er niet mooier op, en je mist de "wet effects". Als het aanstaat lijken de bergen in de verte hardstikke onscherp, ik krijg precies hetzelfde effect als ik in frankrijk (hoog in de bergen) naar de bergen in de verte kijk met een geleende bril :X. Mensen die dit geimplementeerd hebben moeten wel slechte ogen hebben want zo ziet het er absoluut in het echt niet uit als je een beetje normale ogen hebt :+.
Maar denk dat Crystal Dynamics wel een mooie zak geld heeft gekregen, dus dat is winst voor hun.

Battle.net tag

quote:
Zoiets ja. :)
Zonder dat met de rest optimaal zit de FPS gemiddeld boven de 80 met wat dipjes (van hoog in de 60 (Fraps), met dat Next Generation Content zit je in de 30 met dips van net boven de 15. Best wel lachwekkend als je het mij vraagt.
quote:
Ik ben niet zo hoopvol. Het feit dat ze vergelijken met een behoorlijk ondergeklokte Intel chip om te laten zien dat ze klok voor klok "gelijkwaardig" zijn, is leuk, maar ze hadden dan ook gewoon kunnen vergelijken met een hoger geklokte Zen CPU en een stock Intel CPU. Zeker omdat het één cherry-picked statistiek is en omdat het nog niet eens live getoond werd
Op zich mogen ze met een lagere kloksnelheid vergelijken omdat het een engineering sample is en ze nog niet klaar zijn met het optimaliseren. We weten nu dat je met dezelfde kloksnelheid dezelfde prestaties krijgt als die ene CPU, alleen vraag ik me af of dat die hogere CPI gedeeltelijk ten koste is gegaan van de kloksnelheid. In theorie kan je de CPI gemakkelijk nog veel hoger maken als je maar genoegen neemt met een veel lagere kloksnelheid, de kunst is om de CPI veel meer te verhogen dan dat het aan kloksnelheid kost. Op dit moment kunnen we alleen maar raden of dat AMD hierin is geslaagd.

Nog iets om rekening mee te houden, je gaat voor AMD voorlopig geen nieuwe socket nodig hebben. Ook omdat ze steeds meer in de die zelf doen wat vroeger via de socket moest worden geregeld. Stel dat je 4 jaar later eens je CPU wil upgraden terwijl je moederbord nog gemakkelijk een paar jaar meekan dan hoef je als het goed is niet een nieuw moederbord te kopen. Intel zal waarschijnlijk voor de eerstvolgende generatie, na Kirbylake, alweer een nieuwe socket gaan gebruiken.
quote:
Sp3ci3s8472 schreef op vrijdag 19 augustus 2016 @ 15:56:
[...]


Kleine vergelijking:
[video]

Wordt er niet mooier op, en je mist de "wet effects". Als het aanstaat lijken de bergen in de verte hardstikke onscherp, ik krijg precies hetzelfde effect als ik in frankrijk (hoog in de bergen) naar de bergen in de verte kijk met een geleende bril :X. Mensen die dit geimplementeerd hebben moeten wel slechte ogen hebben want zo ziet het er absoluut in het echt niet uit als je een beetje normale ogen hebt :+.
Maar denk dat Crystal Dynamics wel een mooie zak geld heeft gekregen, dus dat is winst voor hun.
Ik had deze video gisteren ook gezien toen ik op zoek was naar wat het precies doet.
Volgens een bron die ik vond zou je ook een hogere resolutie van textures en meer polygons krijgen, daarnaast zijn er wat verschillen zoals dat je blaadjes ziet liggen op tegels (dak gebouw Japan). Belangrijker dan dat, alles wat ze doen moet die grafische kaart met speels gemak aankunnen dus NVidia heeft het op een gruwelijk amateuristische wijze geïmplementeerd.
Ik ben het met je eens dat het alles bij elkaar niet mooier is, ook omdat er veel bugs in zitten: textures die ineens verdwijnen als je de camera draait (bergen bijvoorbeeld _O-), extreme licht-donker-overgangen, textures die doorzichtbaar worden...

CHBF wijzigde deze reactie 19-08-2016 16:23 (51%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • cherrycoke
  • Registratie: december 2009
  • Laatst online: 05-12 22:59
voor de mensen die het willen zien

http://www.3dmark.com/fs/9787961 dit is met mijn crossfire 7870's

http://www.3dmark.com/fs/9848613 dit is met mijn Sapphire NITRO Radeon R9 FURY 4G HBM

  • joepiesaus
  • Registratie: mei 2011
  • Laatst online: 28-11 09:00
quote:
cherrycoke schreef op zaterdag 20 augustus 2016 @ 09:40:
voor de mensen die het willen zien

http://www.3dmark.com/fs/9787961 dit is met mijn crossfire 7870's

http://www.3dmark.com/fs/9848613 dit is met mijn Sapphire NITRO Radeon R9 FURY 4G HBM
Ja een kleine verbetering :P

  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 15-12 19:31
quote:
CHBF schreef op vrijdag 19 augustus 2016 @ 14:56:
Quizvraagje. Kan je Tomb Raider Legend uit 2006 met de zwaarste ingame instellingen draaien met >30 FPS met een midrange grafische kaart HD 7850 (1030 MHz/1250 MHz) uit 2011 en uiteraard zonder CPU bottleneck?
  • Ja, natuurlijk kan dat! Het spel is 5 jaar ouder, een midrange grafische kaart van 5 jaar later kan dat met gemak aan.
  • Nee, NVidia heeft het voor elkaar gekregen om extra software (Next Generation Content) erin te stoppen wat zelfs een midrange kaart van 5 jaar later op haar knieën krijgt en wat FPS dips onder de 20 geeft in delen (begin Japan) van het spel. :+
Toch best knap van NVidia. Ik ben benieuwd wat ze hebben uitgespookt. MSI Afterburner toonde aan dat de kaart zeker niet harder werkt (percentage van maximum voor de GPU, hitte) met Next Gen Content ingeschakeld, mogelijk zelfs wat minder hard, terwijl de FPS nog maar een kwart bedraagt. Wat NVidia ook deed, de AMD-kaart kan er helemaal niets mee. :)

Ik neem aan dat jullie dit nieuws hebben meegekregen?
http://arstechnica.com/ga...nce-details-release-date/
De grote vraag, welke kloksnelheid halen ze straks?
Wordt pas relevant zodra die next gen content wel goed draait op een vergelijkbare Nvidia kaart uit die tijd. Probeer het eens met een GTX 460/560.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 22:37

Sp3ci3s8472

@ 12 graden...

quote:
sdk1985 schreef op zaterdag 20 augustus 2016 @ 17:48:
[...]

Wordt pas relevant zodra die next gen content wel goed draait op een vergelijkbare Nvidia kaart uit die tijd. Probeer het eens met een GTX 460/560.
Klopt, las dat mensen met een 9600GT het niet aan konden zetten, natuurlijk niet te vergelijken qua snelheid :p.

Battle.net tag


  • Freaky Maus
  • Registratie: januari 2005
  • Laatst online: 13-12 00:18
quote:
cherrycoke schreef op zaterdag 20 augustus 2016 @ 09:40:
voor de mensen die het willen zien

http://www.3dmark.com/fs/9787961 dit is met mijn crossfire 7870's

http://www.3dmark.com/fs/9848613 dit is met mijn Sapphire NITRO Radeon R9 FURY 4G HBM
3DMark zegt mij niets maar heb sinds vrijdag ook dezelfde Fury kaart in mijn systeem nadat bericht kwam dat de levertijd van de RX480 Nitro OC nog onbekend blijft. Was het wachten beu, een maand geleden besteld en nog geen kijk op wanneer er wat binnen komt. Ik heb geen idee hoe Sapphire hun kaarten verdeelt maar de Benelux heeft blijkbaar weinig gehad? Teleurstellend.. ;w

Moet zeggen dat het verschil in prestaties ten opzichte van mijn GTX970 behoorlijk is op 1440p, draai TW3 nu redelijk constant rond de 60fps met alles op high settings bijvoorbeeld. Beter dan verwacht, ben benieuwd hoe Deus Ex: Mankind Divided erop loopt straks.

Op naar Vega! Weten we hier al wat meer over behalve dat het een grote dure chip wordt die pas ergens in 2017 beschikbaar wordt?

Specs


  • SAiN ONeZ
  • Registratie: april 2004
  • Laatst online: 00:39

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

https://www.alternate.nl/...9&utm_source=tweakers.net

Hier in NL ook voor 350e te krijgen nu....

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | i7 5820K Corsair H110i GTX MSI X99a Gaming7 AMD Fury X 16Gb GSkill Trident 3600mhz DDR4 1Tb SSD


  • Gundogan
  • Registratie: maart 2010
  • Nu online

Gundogan

Rip and tear, until it is done

quote:
Card #1 PCI ID: 1002:7300 - 174B:E331
DevID [7300] Rev [CB] (0), memory config: 0x00000000 (unused)
Fiji-class chip with 16 compute units per Shader Engine
SE1 hw/sw: 00030001 / 00000000 [..............xx]
SE2 hw/sw: 00030001 / 00000000 [..............xx]
SE3 hw/sw: 00030001 / 00000000 [..............xx]
SE4 hw/sw: 00030001 / 00000000 [..............xx]
56 of 64 CUs are active. HW locks: 8 (R/O) / SW locks: 0 (R/W).
Sorry, all 8 disabled CUs can't be unlocked by BIOS replacement.
:'(

Was ook wel te verwachten met deze 'latere' Fury kaarten. Niet dat ie te langzaam is. :*)

i7 4790K, 16GB, ASUS Z97-K, R9 Fury

quote:
cherrycoke schreef op zaterdag 20 augustus 2016 @ 09:40:
voor de mensen die het willen zien

http://www.3dmark.com/fs/9787961 dit is met mijn crossfire 7870's

http://www.3dmark.com/fs/9848613 dit is met mijn Sapphire NITRO Radeon R9 FURY 4G HBM
Niet verrassend voor mij. Ik had al eens vastgesteld dat de RX 480 ongeveer 2 keer zo goed presteert in zo'n synthetische benchmark (Valley) als mijn 7850 (toen overklokt naar 1025/1250 MHz, inmiddels heb ik 5 MHz toegevoegd voor de GPU, hiermee redelijk vergelijkbaar met een stock 7870). Aangezien de R9 Fury m.u.v. de beperkte hoeveelheid RAM beter is dan de RX 480 en de schaling bij zo'n synthetische benchmark best goed is is het logisch dat die Fury wat beter presteert dan 2*7870.
quote:
sdk1985 schreef op zaterdag 20 augustus 2016 @ 17:48:
[...]

Wordt pas relevant zodra die next gen content wel goed draait op een vergelijkbare Nvidia kaart uit die tijd. Probeer het eens met een GTX 460/560.
Mijn redenatie: in beide gevallen is het een screwup van NVidia. Ofwel hebben ze bewust de performance voor AMD-bezitters verpest, ofwel hebben ze het zo geprogrammeerd dat het zelfs op goede NVidia-kaarten uit die tijd niet gedraaid kon worden.
Ik ben wel benieuwd hoe het op NVidia-kaarten draait. Ik zal eens even kijken of dat ik het kan vinden op Youtube. ;)

CHBF wijzigde deze reactie 22-08-2016 19:49 (32%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 15-12 19:31
quote:
CHBF schreef op maandag 22 augustus 2016 @ 19:45:
[...]

Niet verrassend voor mij. Ik had al eens vastgesteld dat de RX 480 ongeveer 2 keer zo goed presteert in zo'n synthetische benchmark (Valley) als mijn 7850 (toen overklokt naar 1025/1250 MHz, inmiddels heb ik 5 MHz toegevoegd voor de GPU, hiermee redelijk vergelijkbaar met een stock 7870). Aangezien de R9 Fury m.u.v. de beperkte hoeveelheid RAM beter is dan de RX 480 en de schaling bij zo'n synthetische benchmark best goed is is het logisch dat die Fury wat beter presteert dan 2*7870.


[...]
Mijn redenatie: in beide gevallen is het een screwup van NVidia. Ofwel hebben ze bewust de performance voor AMD-bezitters verpest, ofwel hebben ze het zo geprogrammeerd dat het zelfs op goede NVidia-kaarten uit die tijd niet gedraaid kon worden.
Ik ben wel benieuwd hoe het op NVidia-kaarten draait. Ik zal eens even kijken of dat ik het kan vinden op Youtube. ;)
Anti AMD is heel iets anders dan niet optimaal voor oude kaarten. We hebben ooit ook een tijd gehad dat ambient occlusion gewoon niet te draaien was. Dan ging je van 60+ fps naar 30 fps (saints row 2 als ik me niet vergis). Anti anti aliasing is tegenwoordig ook vrijwel gratis, anisotropisch filteren helemaal. Dus voor je zo'n conclusie trekt zou ik dat eerst even uitsluiten... Als je ergens "next gen content" op plakt dan moet je niet raar opkijken dat het niet goed draait op hardware uit 2011.

sdk1985 wijzigde deze reactie 22-08-2016 21:49 (3%)

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

quote:
sdk1985 schreef op maandag 22 augustus 2016 @ 21:48:
[...]

Anti AMD is heel iets anders dan niet optimaal voor oude kaarten. We hebben ooit ook een tijd gehad dat ambient occlusion gewoon niet te draaien was. Dan ging je van 60+ fps naar 30 fps (saints row 2 als ik me niet vergis). Anti anti aliasing is tegenwoordig ook vrijwel gratis, anisotropisch filteren helemaal. Dus voor je zo'n conclusie trekt zou ik dat eerst even uitsluiten... Als je ergens "next gen content" op plakt dan moet je niet raar opkijken dat het niet goed draait op hardware uit 2011.
Het was next gen content uit 2006 of eerder, dat dat niet goed draait op midend hardware (iets duurder dan wat de RX 480 kost en wat de R9 380 kostte) uit 2011 vind ik nogal extreem. Dan moet je je m.i. afvragen of dat de gebruikte algorithmes wel voldoende efficiënt waren. Dat die software tegenwoordig veel beter is zal iedereen direct zien die zowel Tomb Raider Legend net NGC aan als Tomb Raider (2013) heeft gespeeld en die de FPS heeft gemeten. Het tweede spel haalt een twee keer zo'n hoge FPS met veel betere graphics. :)
Ik las trouwens dat de NGC gericht was op de XBox 360 en de PS3, de HD 7850 is ongeveer wat er in de PS4 op de APU zit.

CHBF wijzigde deze reactie 23-08-2016 08:59 (4%)

Zelfcensuur is de meest schadelijke vorm van censuur.

quote:
sdk1985 schreef op dinsdag 16 augustus 2016 @ 22:36:
HBM moest natuurlijk GDDR5X zijn. Verschil tussen een 1080 en een 1070 zit primair in de cutdown van 20 naar 15 SMX units en secundair in het tragere geheugen. Daarmee daalt de opgegeven TFLOP/s van 9 naar 6.45. Het is geen rocket science om de cut-down van GDDR5X te voorzien en daarmee de performance te verhogen. Dus in die zin kan een 1070 Ti technisch en economisch prima, mocht Nvidia dat willen dan kunnen ze daar volgende maand mee starten. Maar goed, historisch gezien is het een zeer onwaarschijnlijke optie. Maar onmogelijk is het niet.
Dus AMD moet bang zijn voor een kaart die precies tussen een GTX 1070 en GTX 1080 in valt en die ze dan GTX 1070 Ti noemen? Dat slaat toch nergens op. nVidia zou alleen maar met zichzelf gaan concurreren met zo'n product en het zou voor AMD totaal geen verschil maken. Al zou nVidia tien verschillende videokaarten tussen een GTX 1070 en GTX 1080 instoppen welke allemaal gebaseerd waren op dezelfde GP104 GPU het zou hun alleen zelf maar geld kosten en niks veranderen aan de concurrentiepositie met AMD.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

Samsung erwartet GDDR6 mit 14-16 Gbps ab 2018

GDDR5X gibt es bisher nur von Micron, Samsung blickt deshalb auf GDDR6. Ab 2018 könnte dieser Standard verfügbar sein, im Gespräch sind zu Beginn 14 bis 16 Gbps. Das wäre zwar gegenüber GDDR5 ein größerer Sprung, GDDR5X könnte im Maximalausbau aber bereits ähnliches bieten.

Zu Beginn dieses Jahres wurde GDDR5X von der JEDEC als Speicherstandard zertifiziert. Diese beschreiben GDDR5X-SGRAM mit Kapazitäten von 4 bis 16 Gigabit pro Chip und einer Datenrate von 10 bis 14 Gigabit pro Sekunde. Die kleinste Lösung wird bereits aktiv eingesetzt, bei der Nvidia GeForce GTX 1080 kommen im Desktop und Notebook GDDR5-Chips aus der Klasse mit 10 Gbit/s zum Einsatz.

Geht es nach Samsung, soll GDDR6 genau da ansetzen, wo GDDR5X aufhört, bei 14 Gbps. In den Schubladen liegen Pläne, die den Speicher für Grafiklösungen dann bis auf 16 Gbps steigern wollen, wenngleich dies vermutlich bis zum Jahre 2020 dauern dürfte. Doch während GDDR5X nur eine kleine Evolution von GDDR5 ist, müssen für GDDR6 einige Dinge neu angepackt werden.




Eine Roadmap von Samsung zeigt die Einordnung des neuen Grafikspeichers im Verhältnis zu den weiteren Entwicklungen. Demnach würde GDDR6 im gleichen Zeitraum wie DDR5 angesiedelt, was jedoch auch bedeutet, dass zwischen Sampling und Massenprodukten gern noch einige Monate/Jahre vergehen können. Neben klassischen DDR-Speicher steht bei Samsung vor allem auch LPDDR im Fokus, da dort die Effizienz am höchsten ist.

Auf LPDDR4 soll mit einem Zwischenschritt weiter an der Front gearbeitet werden. Der abgekürzt LP4X genannte Standard soll den Takt bei gleicher oder gar verringerter Leistungsaufnahme erhöhen und so die Effizienz noch ein wenig weiter steigern, um die Zeitspanne zum neuen LPDDR5 zu verkürzen. Die Besonderheit beim LP4X gegenüber LP4 liegt im Detail: Während die Standardspannung für die Kernkomponenten bei 1,1 Volt bleibt, wird sie für die I/O-Elemente deutlich gesenkt.


https://tweakers.net/ext/f/BVaRlpgz1hdKd8m6uOosV0N1/thumb.png https://tweakers.net/ext/f/b1WgcVai7isy8mwmBVrrSJI7/thumb.png https://tweakers.net/ext/f/fr0B1MuwS22KfW05xElWdzZ3/thumb.png

Bron: https://www.computerbase....ng-gddr6-14-16-gbps-2018/




SK Hynix und Samsung über HBM2 & HBM3

Seit 2011 ist HBM in der Entwicklung, hat seit dem vergangen Jahr seinen Durchbruch erlebt. Jetzt verschiebt sich der Fokus auf die zweite Generation, die dritte zeichnet sich am Horizont ab. Doch zu Beginn gab es erst einmal die Retourekutsche in Richtung Micron, die kurz zuvor HBM als Kopie von HMC bezeichnet hatten.

Wenngleich mit der Entwicklung von HBM später begonnen wurde, habe das „ehemals kleine Kind nicht nur das große geschlagen und dem alle Süßigkeiten weggenommen, derzeit sei HBM zudem der einzig relevante Standard“, erklärte Kevin Tran, Senior Manager Technical Marketing von SK Hynix in Richtung Micron. Denn SK Hynix ist nicht alleiniger Fertiger des Speichers, mit Samsung ist zudem auch der Marktführer mit an Bord, ebenso wie die JEDEC, die daraus einen Standard gemacht hat. HMC von Micron hat in all diesen Punkten nichts entgegenzusetzen.


https://tweakers.net/ext/f/v6ql3ben2OtBUKZwyySik2SA/thumb.png https://tweakers.net/ext/f/Qm80vG5FtwBsyvjA1bhPIp4w/thumb.png https://tweakers.net/ext/f/bSS1nzjPg9aX2G3G32IRkYNT/thumb.png https://tweakers.net/ext/f/J7gHjUvUd1xmtVnYIIHDPTgt/thumb.png https://tweakers.net/ext/f/fKPcrga8U4YBabjgOg61VBjI/thumb.png https://tweakers.net/ext/f/MG8ZlNNwk25l1xVoRld7zaFT/thumb.png https://tweakers.net/ext/f/fF3h5C501aRMGl6LMHFvzfHc/thumb.png

SK Hynix widmete sich am Sonntagmittag in seiner Vorstellung fast ausschließlich der Thematik HBM. Neben den aktuell einzigen Lösungen für Grafikkarten soll HBM in Zukunft auch in anderen Märkten zum Zuge kommen. Dabei werden sowohl Möglichkeiten für den Einsatz im Notebook evaluiert als auch im HPC-Segment, wo der HBM quasi als vierte Cache-Stufe eingebaut werden könnte.

Diese Überlegung ist nicht neu, Intels Knights Landing mit HMC von Micron bietet bereits exakt so etwas an, dort kann der 16 GByte große On-Package-Speicher wahlweise als RAM oder als Cache konfiguriert werden.




Samsung sieht Möglichkeiten, HBM noch günstiger zu machen, um so eben auch den Massenmarkt wie beispielsweise Notebooks zu adressieren. Der Kostenfaktor sei nach wie vor nicht zu unterschätzen, eine geringere Menge an TSVs und deutliche Optimierungen beim Aufbau mit im Endeffekt aber nur einer leicht gesenkten Bandbreite sollen helfen, die Kosten insgesamt massiv zu drücken und so den gesamten Consumer-Markt adressieren zu können.

HBM3: Verdoppelte Bandbreite

HBM3 als dritte Ausbaustufe soll einmal mehr die Bandbreite verdoppeln. Im Gespräch sind deshalb 512 GByte pro Sekunde. Doch neben der gesteigerten Bandbreite hat man auch die Kosten im Blick, denn diese im Rahmen zu halten ist eine Herausforderung. Gleichzeitig gibt es noch andere Baustellen, um den Speicher noch mehr zu differenzieren und letztlich quasi jeden Marktbereich erobern zu können. Samsungs Vorstoß bei HBM für Low Cost zielt bereits in eine ähnliche Richtung, dort ist in Zukunft noch mehr zu erwarten. Mit der Aussage „the overall cost will be very attractive“ schloss SK Hynix die Ausführungen zu HBM.



Bron: https://www.computerbase....-hynix-samsung-hbm2-hbm3/




Micron über DRAM, Flash, 3D XPoint und HBM als HMC-Kopie

Sonntagmorgen im Flint Center in Cupertino, die Hot Chips 28 startet mit einer Vormittagsveranstaltung über Speicher. Dabei geht es um alle aktuellen Technologien, von klassischem DRAM und Flash, von HMC bis hin zu GDDR5X und das, was in Zukunft kommen könne: DDR5, 3D XPoint & Co. Und das alles mit extrem viel Ehrlichkeit.

Die erste Präsentation der Veranstaltung dieses Jahres ging an Micron. Der Speicherhersteller ging gleich zu Beginn mit einigen Buzzwords wie IoT und Zahlen ins Gericht, unter anderem auch der von Intel stetig genannten „50 Milliarden vernetzten Geräten im Jahre 2020“ – wenn es 20 Milliarden sein werden, wäre das schon viel, erklärte Micron bei Hot Chips 28. Die erfrischend ehrlichen Worte ging auch an anderer Stelle weiter, selbst bei eigenen Produkten: 3D XPoint. Dort erklärte der Speicherhersteller, dass man (mit dem Fingerzeig auf Intel) viel zu früh mit der Technik an die Öffentlichkeit gegangen ist, die Serienproduktion frühestens Ende dieses Jahres starten werde.



J. Thomas Pawlowski, Fellow & Chief Technologist in Micron’s Architecture Development Group erklärte anhand von einige Beispielen die Herausforderungen von der Weiterentwicklung von DRAM. Mit jedem Schritt wird es nicht nur komplizierter, auch steigt die benötigte Fläche an Reinraum und das Arbeitsmaterial deutlich an, selbst um nur den gleichen Ausstoß an Wafern wie zuvor beizubehalten. Erneut wies auch Micron darauf hin, dass die Bezeichnungen der Fertigungen Schall und Rauch sind. Die 10Y getaufte Fertigung bei Speicher werde beispielsweise nicht einmal ansatzweise 15 nm erreichen; und dies nur auf der Logic-Seite.

Micron: HBM ist eine schlechte Kopie von HMC

Wenig, respektive gar kein positives Wort verlor Micron über High Bandwidth Memory (HBM). Diese bezeichnete Pawlowski als schlechte Kopie des eigenen Standards HMC, der im Jahre 2011 auf einer Hot-Chips-Veranstaltung enthüllt wurde. Die zweite Generation von Hybrid Memory Cube sei in Produktion, mit vielen Features, die HBM außerhalb von Bandbreite gar nicht bieten kann. Eine Vergleichsfolie von HMC vs. HBM lehnte Micron ab und erklärte dies mit den Worten, „it's like beating up a kid and taking the candy“. Der Konter von der HBM-Fraktion folgte kurze Zeit später.

https://tweakers.net/ext/f/cMa6NUpO5oB83D8gpapGx8wh/thumb.png https://tweakers.net/ext/f/aMgUrrFeL74vj9wwWudcaqrK/thumb.png https://tweakers.net/ext/f/61GZuMnyRaVb8nyl2ddRKeSb/thumb.png

DDR5: Sampling ab 2018, Produktion frühestens ab 2019

Auch zum kommenden Next-Gen-Speicherstandard verlor Micron einige Worte. Da der Standard der JEDEC unterliegt, sei es vorab nicht erlaubt, Details dazu preiszugeben, wenn dieser noch in der Entwicklung ist. Doch die Ziele sind im Grunde genommen klar: Der Basisstandard dürfte DDR5-3.200 sein, mit Ausbaumöglichkeiten bis DDR5-6.400, die Standardspannung 1,1 Volt betragen. Einige Optimierungen werden natürlich mit im Gepäck sein, unterm Strich soll die Bandbreite des aktuellen DDR4-Standards verdoppelt werden.

Für das Jahr 2018 erwartet Micron das Sampling von DDR5, frühestens 2019 einen angehenden Start der Serienfertigung. Realistischer ist jedoch 2020+, denn wie üblich werde dies nicht über Nacht geschehen, erklärte der Mann der offenen Worte mit den Blick auf die DDR3-Fertigung, die immer noch in High Volume Production ist, obwohl DDR4 nun in jedem Markt präsent ist.


Micron zu Hot Chips 28

https://tweakers.net/ext/f/lpj2V0fah4AxFhsuBmI8BA70/thumb.png https://tweakers.net/ext/f/O7d8VUhiIlGHA0SQZWg8rh8Y/thumb.png https://tweakers.net/ext/f/NCucXaHS7BhWvlb1z4vGpyYD/thumb.png https://tweakers.net/ext/f/munEabfSSeDmQjftenUoRPmS/thumb.png https://tweakers.net/ext/f/BflNWuIsy6uDKTtSCc18TDUs/thumb.png https://tweakers.net/ext/f/WkXLrHU3sL8ojgPAomJPclYJ/thumb.png https://tweakers.net/ext/f/ibPKsjt1S6PgfdDLBcVd47a4/thumb.png https://tweakers.net/ext/f/3ZpmhGtRMiWtwyEW9QkMa8MQ/thumb.png https://tweakers.net/ext/f/ZwQaXMww5EaUbifDKjJsBMJS/thumb.png https://tweakers.net/ext/f/72KaspJdzVfCvO8H55l7muE8/thumb.png https://tweakers.net/ext/f/kJACTZF4AeOpXAQlgc4HTWXV/thumb.png https://tweakers.net/ext/f/NzVxi6eD5bqcWyrKpp8Myzfd/thumb.png https://tweakers.net/ext/f/ghE1bmaQj4VymarDCOLKOJjL/thumb.png

Bron: https://www.computerbase....dram-flash-3d-xpoint-hmc/

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 15-12 19:31
quote:
-The_Mask- schreef op dinsdag 23 augustus 2016 @ 11:24:
[...]

Dus AMD moet bang zijn voor een kaart die precies tussen een GTX 1070 en GTX 1080 in valt en die ze dan GTX 1070 Ti noemen? Dat slaat toch nergens op. nVidia zou alleen maar met zichzelf gaan concurreren met zo'n product en het zou voor AMD totaal geen verschil maken. Al zou nVidia tien verschillende videokaarten tussen een GTX 1070 en GTX 1080 instoppen welke allemaal gebaseerd waren op dezelfde GP104 GPU het zou hun alleen zelf maar geld kosten en niks veranderen aan de concurrentiepositie met AMD.
Je begint weer over de waarschijnlijkheid. Iemand anders kwam met de suggestie, jij vroeg hoe het zou kunnen, ik heb die vraag beantwoord. Prima dat je vervolgens wil argumenteren dat jij het onwaarschijnlijk vindt maar ik ben niet de persoon die je daarvan moet overtuigen.

Wat ik al veel eerder heb beweerd qua verwachting is dat ik een Titan en een 1080 Ti verwacht (dus voor we überhaupt iets wisten over Pascal). De Titan is er ondertussen al en de 1080 Ti zal vermoedelijk achter de hand worden gehouden tot na Vega. Een 1070 Ti zie ik voorlopig geen reden toe en is historisch ook afwijkend.

sdk1985 wijzigde deze reactie 23-08-2016 13:08 (17%)
Reden: duidelijker gemaakt

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • kellhus
  • Registratie: december 2005
  • Laatst online: 10-12 22:46
edit

kellhus wijzigde deze reactie 23-08-2016 16:20 (98%)
Reden: verkeerde thread


  • chim0
  • Registratie: mei 2000
  • Laatst online: 08:10
Wat is nou Boost/Base clock? Bij Nvidia zie ik wel de Boost clock staan, maar bij AMD niet. Ben benieuwd hoe groot die bij AMD is want bij Nvidia is het 200MHz. Dat vind ik aardig wat. De OC mode t.o.v. de Silent mode, vind ik overigens wel wat magertjes: 25Mhz maar bij allebei.

AMD:
quote:
1230 MHz (OC Mode)
1218 MHz (Gaming Mode)
1206 MHz (Silent Mode)
Nvidia:
quote:
1746 MHz / 1531 MHz (OC Mode)
1733 MHz / 1518 MHz (Gaming Mode)
1708 MHz / 1506 MHz (Silent Mode)
Allebei de MSI Gaming gepakt.

https://www.msi.com/Graph...G.html#hero-specification

https://www.msi.com/Graph...G.html#hero-specification

  • Vipeax
  • Registratie: september 2007
  • Laatst online: 09:53
quote:
chim0 schreef op woensdag 24 augustus 2016 @ 09:03:
Dat vind ik aardig wat. De OC mode t.o.v. de Silent mode, vind ik overigens wel wat magertjes: 25Mhz maar bij allebei.
Je zit nu te ranten over iets wat MSI zelf heeft verzonnen en 0 relatie heeft tot de GPU die erop zit.

  • chim0
  • Registratie: mei 2000
  • Laatst online: 08:10
quote:
Vipeax schreef op woensdag 24 augustus 2016 @ 10:33:
[...]

Je zit nu te ranten over iets wat MSI zelf heeft verzonnen en 0 relatie heeft tot de GPU die erop zit.
Verkeerde been uit bed gestapt? Dat is juist mijn vraag of het van MSI zelf komt of de GPU, alleen was ik vergeten het erbij te zetten.

Ik zie het al bij Sapphire. Daar staat ook de Boost/Base clock bij, dus mijn vraag is beantwoord. Maar bij veel staat het niet.

chim0 wijzigde deze reactie 24-08-2016 12:10 (15%)

quote:
chim0 schreef op woensdag 24 augustus 2016 @ 09:03:
Wat is nou Boost/Base clock? Bij Nvidia zie ik wel de Boost clock staan, maar bij AMD niet. Ben benieuwd hoe groot die bij AMD is want bij Nvidia is het 200MHz. Dat vind ik aardig wat. De OC mode t.o.v. de Silent mode, vind ik overigens wel wat magertjes: 25Mhz maar bij allebei.
Bij AMD staat juist geen Base clock. Goed lezen. En het is MSI die hier geen zin heeft dat te vermelden.

Een reference (mja :P) 470 heeft een base clock van 926 MHz, boost clock van 1206 MHz. Voor de 480 is dat 1120/1266.

  • chim0
  • Registratie: mei 2000
  • Laatst online: 08:10
quote:
Werelds schreef op woensdag 24 augustus 2016 @ 12:54:
[...]

Bij AMD staat juist geen Base clock. Goed lezen. En het is MSI die hier geen zin heeft dat te vermelden.

Een reference (mja :P) 470 heeft een base clock van 926 MHz, boost clock van 1206 MHz. Voor de 480 is dat 1120/1266.
Ze (of Sapphire) noemen het Engine clock.
quote:
1143 MHz  Engine Clock
1260 MHz Boost Engine Clock
SAPPHIRE NITRO+ Radeon™ RX 470 4G D5

http://www.sapphiretech.c...386443583FE&lang=eng#tab2

  • Falzer
  • Registratie: oktober 2009
  • Laatst online: 14-12 18:25
Verkeerde topic, foutje :)

Falzer wijzigde deze reactie 25-08-2016 13:36 (95%)


  • SAiN ONeZ
  • Registratie: april 2004
  • Laatst online: 00:39

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Lijkt me meer een post voor het ervaringen topic, heel vervelend voor je, maar natuurlijk geen nieuws ;)

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | i7 5820K Corsair H110i GTX MSI X99a Gaming7 AMD Fury X 16Gb GSkill Trident 3600mhz DDR4 1Tb SSD


  • NitroX infinity
  • Registratie: januari 2002
  • Laatst online: 01:23

XFX komt met passief gekoelde RX 460



http://videocardz.com/634...ces-fanless-radeon-rx-460

I need dis! Voor ¤100.

NitroX infinity wijzigde deze reactie 26-08-2016 17:06 (23%)

Mijn blog; Floating Points

Kan iemand verklaren hoe het komt dat Deus Ex Mankind Division zoveel beter presteert voor de RX 480 dan voor de 1060 (de echte 1060 ;)) terwijl het een DX11 spel is?
YouTube: Deus Ex Mankind Divided - GTX 1060, 1070, 1080, RX 480 Performance
Gemiddelde FPS: 61,4 vs. 55,6

Zelfcensuur is de meest schadelijke vorm van censuur.


  • LongBowNL
  • Registratie: juni 2009
  • Laatst online: 13-12 20:32
AMD sponsored game?

  • enchion
  • Registratie: februari 2002
  • Niet online
CPU komt nooit boven de 30% uit ? Who needs cpu`s anyway ?

Beetje vreemd geoptimaliseerd imho. (waarom resources weggooien ? )

btw de RX480 heeft de laagste CPU belasting, dus DX11 driveroverhead = solved ?

  • Gundogan
  • Registratie: maart 2010
  • Nu online

Gundogan

Rip and tear, until it is done

quote:
Geen kans om kreupel gemaakt te worden door Nvidia? :*)

Geen idee of dat met de patch is of niet. Heb het spel zelf niet, maar er zou een patch zijn of moeten komen die prestatie verbeteringen brengt. Misschien schetst dat een ander plaatje... tot DX12 erbij komt.

i7 4790K, 16GB, ASUS Z97-K, R9 Fury


  • bloodlynx
  • Registratie: december 2009
  • Laatst online: 22:28
quote:
CHBF schreef op vrijdag 26 augustus 2016 @ 21:43:
Kan iemand verklaren hoe het komt dat Deus Ex Mankind Division zoveel beter presteert voor de RX 480 dan voor de 1060 (de echte 1060 ;)) terwijl het een DX11 spel is?
YouTube: Deus Ex Mankind Divided - GTX 1060, 1070, 1080, RX 480 Performance
Gemiddelde FPS: 61,4 vs. 55,6
Omdat ze de Hitman engine gebruiken? Zover ik weet heeft AMD meegeholpen met optimaliseren ect dus vandaar. Meestal presteerd de 480 een stuk minder inn gameworks titels.

bloodlynx wijzigde deze reactie 26-08-2016 22:19 (12%)

[quote]
quote:
bloodlynx schreef op vrijdag 26 augustus 2016 @ 22:15:
[...]

Omdat ze de Hitman engine gebruiken? Zover ik weet heeft AMD meegeholpen met optimaliseren ect dus vandaar. Meestal presteerd de 480 een stuk minder inn gameworks titels.
De Hitman-engine ondersteunt DX12, waarom dit spel dan niet? :?
Stel je voor dat ze goed aan multithreading zouden doen, niet alleen zouden de GPU-'s van AMD dan beter presteren (meer parallellisme), ook zou je de resterende CPU-kernen hard kunnen laten werken aan AI, natuurkundige berekeningen, meer gevariëerde NPC's, een betere botsingsdetectie etc.
Zonde dat ze dat nog steeds laten liggen terwijl we nu wel API's hebben die dat mogelijk maken.
quote:
Gundogan schreef op vrijdag 26 augustus 2016 @ 22:11:
[...]


Geen kans om kreupel gemaakt te worden door Nvidia? :*)
Ik denk dat je dat rustig mag zeggen. :)
NVidia verdedigt zonder blikken of blozen het geheim houden van de Gameworkscode (een groot deel ervan, alle nieuwere dingen in ieder geval) en dat terwijl blijkt dat een deel van die code van Github komt. :F

CHBF wijzigde deze reactie 26-08-2016 23:07 (212%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Vipeax
  • Registratie: september 2007
  • Laatst online: 09:53
quote:
CHBF schreef op vrijdag 26 augustus 2016 @ 22:46:
en dat terwijl blijkt dat een deel van die code van Github komt. :F
Wat/waar?

Vipeax wijzigde deze reactie 26-08-2016 23:37 (5%)


  • ColinZ
  • Registratie: februari 2010
  • Laatst online: 14-12 20:43
quote:
CHBF schreef op vrijdag 26 augustus 2016 @ 22:46:

en dat terwijl blijkt dat een deel van die code van Github komt. :F
Heb je hier ook een bron van? Ik denk eerder dat je in de war bent met Ansel en de SweetFX code. (trouwens ook weer debunked)

  • Freaky Maus
  • Registratie: januari 2005
  • Laatst online: 13-12 00:18
quote:
CHBF schreef op vrijdag 26 augustus 2016 @ 22:46:
[quote]
[...]

De Hitman-engine ondersteunt DX12, waarom dit spel dan niet? :?
De ondersteuning voor DX12 komt begin september: nieuws: Deus Ex: Mankind Divided krijgt DX12-ondersteuning enkele weken na re...

Specs

quote:
Ik denk dat hij het heeft over het feit dat Nvidia in Ansel een hoop van ReShade heeft gebruikt zonder toestemming of bronvermelding. Dat laatste gaan ze toevoegen.

Zie LongBowNL in "[Algemeen] nVidia Nieuwsdiscussie Topic - Deel 56"

"Ansel is not a commercial product" moest ik stiekem wel even om lachen, dat is natuurlijk je reinste onzin aangezien het niet beschikbaar is op AMD.

  • Vipeax
  • Registratie: september 2007
  • Laatst online: 09:53
Ansel heeft volgens mij niets met Gameworks te maken, toch?

  • ColinZ
  • Registratie: februari 2010
  • Laatst online: 14-12 20:43
CHBF schreef op vrijdag 26 augustus 2016 @ 22:46:
quote:
[...]

De Hitman-engine ondersteunt DX12, waarom dit spel dan niet? :?
Deus Ex draait op een gemodificeerde Glacier Engine (Hitman Engine) genaamd Dawn. Ik neem aan dat daarom de DX12 ondersteuning nog even op zich laat wachten.
quote:
Vipeax schreef op zaterdag 27 augustus 2016 @ 13:03:
Ansel heeft volgens mij niets met Gameworks te maken, toch?
Klopt, Ansel maakt geen deel uit van GameWorks.

  • mchaos
  • Registratie: april 2010
  • Laatst online: 07-12 11:39
Voor iedereen die een vergelijkende tabel en summaries van al de verschillende RX 480s en de RX 470s zoekt, inclusief links naar de reviews van de originele sites.
https://www.reddit.com/r/...d_480s_not/?compact=false

Battlenet: Cha0sMast4r#2452 - Origin: Cha0sMast4r


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 22:37

Sp3ci3s8472

@ 12 graden...

AMD rockets past 100 FreeSync displays as Lenovo jumps on board

quote:
AMD’s game-smoothing FreeSync monitors launched a full year after Nvidia’s rival G-Sync displays, but they’ve been coming fast and furious ever since. Late Thursday, the company revealed that its technology surpassed not one, but two major milestones with the launch of the 27-inch Y27f ($400 on Amazon) earlier this month. This curved, 144Hz 1080p display is both Lenovo’s first-ever FreeSync display, as well as the 101st FreeSync display released overall.

FreeSync and G-Sync monitors synchronize the refresh rate of your graphics card with your display. That eliminates stutter and tearing, resulting in gameplay so buttery smooth that you’ll never be able to use a traditional non-variable refresh rate monitor again. Both technologies are utterly superb.
Goed nieuws voor AMD dat de adoptie zo lekker loopt.

Met wat Samsung reclame:


Eerste scherm in de video is een Freesync scherm wat ook Freesync via HDMI heeft!

offtopic:
Merk overigens dat dit soort nieuws helemaal niet meer op de FP komt ook al commit je het. Enige wat we zien is telefoon en tablets :(.
Ook dat Intel geen EUV gaat gebruiken voor 10nm of 8? en dus ASML een Nederlands bedrijf dus een klant misloopt, lees je niks van op de FP maar wel op Fok 8)7.

Sp3ci3s8472 wijzigde deze reactie 29-08-2016 12:47 (18%)
Reden: /rant

Battle.net tag


  • Astennu
  • Registratie: september 2001
  • Laatst online: 06-12 02:33
Hadden jullie deze slides al gezien? : https://app.scoutfin.com/...tch_id=297670879870932296

Op slide 8 staat dat Vega pas H1 2017 zou komen en niet meer dit jaar. Zou wel erg jammer zijn het leek goed te gaan toen ze een aantal maanden terug melde dat er een Tapeout geweest was. H1 kan natuurlijk ook Januari zijn maar kan ook Juni zijn. Maar dan geen release in december.

Beetje het verhaal wat AMD had met de 7970 vs GTX680. Duurde lang voordat er een antwoord kwam. Nu heeft AMD maanden lang al geen antwoord op de1070, 1080 en Titan X P.
nVidia heeft inmiddels al wel een 480 concurrent in de markt gezet in de vorm van de GTX1060 3GB en 6GB.

AMD heeft dan alleen de 460 en 470 nog als voordeel maar het zal vast niet lang duren voordat nVidia daar ook een kaart aan zal bieden in de vorm van de 1050.

Sys -=Game PC=- -LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....

quote:
Astennu schreef op maandag 29 augustus 2016 @ 16:04:
Hadden jullie deze slides al gezien? : https://app.scoutfin.com/...tch_id=297670879870932296

Op slide 8 staat dat Vega pas H1 2017 zou komen en niet meer dit jaar. Zou wel erg jammer zijn het leek goed te gaan toen ze een aantal maanden terug melde dat er een Tapeout geweest was. H1 kan natuurlijk ook Januari zijn maar kan ook Juni zijn. Maar dan geen release in december.

Op deze oudere slide stond die ook al op 2017.
quote:
Beetje het verhaal wat AMD had met de 7970 vs GTX680. Duurde lang voordat er een antwoord kwam.
Het was toen andersom, nVidia kwam toen maanden later.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Het was toch al langer bekend dat AMD zelf niet 2016 als datum aanhield voor Vega maar 2017. De beschikbaarheid van custom RX480's is helaas ook nog niet op een aanvaardbaar niveau. De RX470 en RX460 daarintegen wel, misschien is dat de strategie deze generatie: Nvidia de >250¤ range laten bedienen terwijl AMD volledig inzet op de <250¤.
Het is geen strategie, het is een probleem. Dat nVidia niet genoeg GTX 1080's en GTX 1070's kon leveren maanden na de launch is ook echt geen strategie, maar een probleem.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Phuncz
  • Registratie: december 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Zijn de yields dan zo slecht gebleken ?

  • Racing_Reporter
  • Registratie: januari 2012
  • Laatst online: 00:42

Racing_Reporter

Mediaproducent

Zoals?

Als je dit leest, heb je teveel tijd.

Nou verzin wat, lage yields is er één, niet meer productiecapaciteit beschikbaar bij GloFo, hogere kosten die AMD niet wil/kan betalen en zijn ongetwijfeld nog wel tientallen redenen te verzinnen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • bluebear
  • Registratie: februari 2009
  • Laatst online: 15-12 08:40
quote:
-The_Mask- schreef op maandag 29 augustus 2016 @ 18:01:
Nou verzin wat, lage yields is er één, niet meer productiecapaciteit beschikbaar bij GloFo, hogere kosten die AMD niet wil/kan betalen en zijn ongetwijfeld nog wel tientallen redenen te verzinnen.
Of gewoon prima op schema liggen en zich niets aantrekken van hype or rumours die zich op het internet ontwikkelen. AMD zelf heeft nooit 2016 voor Vega in de mond genomen, maar dat is door verschillende sites zo ingevuld. Nu staat het zwart op wit en lijkt iedereen massaal teleurgesteld en wordt er verondersteld "dat er dus problemen bij AMD zijn".

  • Racing_Reporter
  • Registratie: januari 2012
  • Laatst online: 00:42

Racing_Reporter

Mediaproducent

quote:
bluebear schreef op dinsdag 30 augustus 2016 @ 12:01:
[...]


Of gewoon prima op schema liggen en zich niets aantrekken van hype or rumours die zich op het internet ontwikkelen. AMD zelf heeft nooit 2016 voor Vega in de mond genomen, maar dat is door verschillende sites zo ingevuld. Nu staat het zwart op wit en lijkt iedereen massaal teleurgesteld en wordt er verondersteld "dat er dus problemen bij AMD zijn".
Hij heeft het over de beschikbaarheid van de huidige generatie :)

Als je dit leest, heb je teveel tijd.


  • Habana
  • Registratie: oktober 2005
  • Laatst online: 15-12 15:01
Niet alleen de karige beschikbaarheid, maar ook de nu nog belachelijke prijzen van bv MSI Radion Gamimg X 8G RX480 van ¤354 euries houden mij nog tegen.
Alle MSI Gaming X kaarten zijn erg overprijsd en allemaal zijn ze daarom weinig interessant, dat geld ook voor de nVidia GTX 1060, GTX 1070 en GTX 1080. Het toevoegen van de letter X betekend volgens mij een meerprijs van zo rond de 20% bij MSI. :')

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • tomcatha
  • Registratie: oktober 2006
  • Laatst online: 00:54
ik dacht dat met vega dat 2017 eerst op de planning stond maar toen er geruchten kwamen dat ze voorliepen op de schema en dat het misschien nog eind 2016 uit zou komen.

  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 15-12 19:31
quote:
-The_Mask- schreef op dinsdag 30 augustus 2016 @ 13:15:
Alle MSI Gaming X kaarten zijn erg overprijsd en allemaal zijn ze daarom weinig interessant, dat geld ook voor de nVidia GTX 1060, GTX 1070 en GTX 1080. Het toevoegen van de letter X betekend volgens mij een meerprijs van zo rond de 20% bij MSI. :')
Ik ben traditioneel erg gecharmeerd van MSI. Met name door de snelle RMA afhandeling de (toen nog) Nederlandse support en de kwaliteit van de Twin Frozr koeling. Echter geef ik je nu gelijk, de MSI kaarten zijn veel te duur en de concurrentie heeft minstens zo goede koelers ontwikkelt.

Zelf ben ik deze keer dan ook voor EVGA gegaan. De AXC 3.0 koeler heeft fans-off tot 60 graden en scoorde bij TPU als stilste kaart tijdens gaming. Nu maakt EVGA geen AMD kaarten maar het hoeft dus niet persé MSI te zijn. Ik kon dit jaar echt geen reden bedenken om de meerprijs van MSI goed te praten.
quote:
Habana schreef op dinsdag 30 augustus 2016 @ 13:05:
Niet alleen de karige beschikbaarheid, maar ook de nu nog belachelijke prijzen van bv MSI Radion Gamimg X 8G RX480 van ¤354 euries houden mij nog tegen.
Ik heb ook gewacht op prijsnotering van die kaart, een stock kaart wil ik niet. Ik vond de ¤330 euro voor de GTX 1060 van MSI eigenlijk ook al te dol. Maar toen ik de MSI RX 480 prijzen zag was mijn geduld echt op. Nog duurder dan de GTX 1060!!!

Ik zit al 4 jaar met dezelfde gpu en had deze zomer graag een upgrade gedaan. Dus ik heb gisteren de knoop doorgehakt en de EVGA GTX 1070 FTW versie besteld (¤469). Bij ¤200-¤250 was ik voor de RX 480 gegaan. Meer zou ik persoonlijk niet betalen voor een midrange kaart aangekondigd als 199 dollar.

Over 5 dagen komt de MSI RX480 bij CDROMLAND voor 329, maar ook dat zou ik niet doen. De GTX 1070 zit met een index waarde van 153%. Als je dan de 459 euro corrigeert voor dat verschil dan kom je op een maximale prijs van 300 euro. Dit terwijl we weten dat je normaal gesproken juist relatief meer betaalt voor een sneller kaart.

sdk1985 wijzigde deze reactie 30-08-2016 14:52 (54%)

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Richh
  • Registratie: augustus 2009
  • Laatst online: 15-12 22:10

Richh

Zeg maar Richard

MSI gaat gewoon ASUS achterna. ASUS was 2 jaar geleden van mening dat ze zo goed waren, dat ieder ASUS component een soort 'premium tax' kreeg waardoor ze opeens duurder waren. Dat duurt nog steeds voort, heb ik het idee. En nu krijgt MSI het idee dat ze door de goede verkopen ook een hogere prijs mogen vragen.

Tja, als mensen het willen betalen, geef ze eens ongelijk. Ik zou echter ook voor de EVGA gaan.

Mijn PC


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 15-12 19:31
Maar hoe lang gaat dat goed? Nu hebben ze de reputatie omdat ze in het verleden normaal geprijsd waren voor degelijke service en kwaliteit. Dat is voor mij reden geweest om standaard MSI aan te raden (scheelt weer een hoop uitzoek werk :P).

Dankzij mij heeft MSI minstens 5 videokaarten verkocht. Per direct stop ik daarmee en ik zal niet de enige zijn. Op termijn zal dat vast wel doorwerken in de verkopen.

sdk1985 wijzigde deze reactie 30-08-2016 14:59 (7%)

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

quote:
sdk1985 schreef op dinsdag 30 augustus 2016 @ 14:08:
[...]

Ik ben traditioneel erg gecharmeerd van MSI. Met name door de snelle RMA afhandeling de (toen nog) Nederlandse support
Geen idee, ik koop goed spul scheelt mij RMA's. :p
quote:
en de kwaliteit van de Twin Frozr koeling.
Je bedoeld de gare kwaliteit van de fans die ze bijna altijd gebruikten, behalve nu in de nieuwste generatie? De fatsoenlijke kwaliteit fans kost overigens maar iets van hooguit een euro meer, dus verklaard niet waarom er nu tientallen tot dik honderd euro's meer gevraagd moet worden voor een Gaming X kaart.
quote:
Zelf ben ik deze keer dan ook voor EVGA gegaan. De AXC 3.0 koeler heeft fans-off tot 60 graden en scoorde bij TPU als stilste kaart tijdens gaming. Nu maakt EVGA geen AMD kaarten maar het hoeft dus niet persé MSI te zijn. Ik kon dit jaar echt geen reden bedenken om de meerprijs van MSI goed te praten.
Jij zegt dat je een EVGA GeForce GTX 1070 FTW GAMING ACX 3.0 hebt, maar die heeft TPU geen review van geschreven. Je hebt een review bekeken van een kaart die er misschien op lijkt, maar toch totaal anders is. ;)
quote:
Ik zit al 4 jaar met dezelfde gpu en had deze zomer graag een upgrade gedaan. Dus ik heb gisteren de knoop doorgehakt en de EVGA GTX 1070 FTW versie besteld (¤469).
De GTX 1070 is in Duitsland eindelijk gezakt naar de beloofde prijs van ~400 euro na iets meer dan 2,5 maand.
http://geizhals.eu/kfa-ge...0nsh6dhl4xk-a1491976.html

De RX 480 zat bij launch al op de beloofde ~220 euro, alleen nu zit die er alleen enkele tientjes boven, door slechte verkrijgbaarheid. Maar het mag idd wel weer enkele tientjes omlaag. De RX 470 zit overigens wel dicht bij de beloofde ~200 euro. In de UK en Duitsland zit die bij de goedkoopste winkels precies op 200 euro. Die is dus net wat beter geprijsd en beschikbaar op dit moment.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 15-12 19:31
Uuu ja en nee.

In de tijd dat ik mijn eerste MSI kocht, de GTX 460 Hawk, was de Twin Frozr koeling echt superieur ten aanzien van geluid en prestaties. Een alternatief was bijvoorbeeld de triple fan van Gigabyte (Windforce), maar die dingen bleken volledig in de soep te draaien in SLI opstellingen. MSI deed toen ook nog bijzondere dingen. Zoals dus die Hawk die gewoon 925 Mhz haalt, v-check points heeft en power phase leds. Ook de MSI 660 Ti PE was heel bijzonder, daar haalde ze een truukje uit met de boost (1200-1280 Mhz).

Mbt de kwaliteit. Klopt die lagers gingen inderdaad vrij snel kapot. Maar in die tijd was er niet echt een betere keuze. Belangrijker: een paar maanden voor de garantie verliep heb ik dat aangemeld en toen heb ik een gloed nieuwe GTX 460 Hawk (in doos) van MSI ontvangen.

Mbt de 1070 van EVGA. Ik heb hem nog niet, hij komt vanavond :P. In het andere topic heb ik een overzichtje gepost van de verschillen:
quote:
sdk1985 schreef op dinsdag 30 augustus 2016 @ 13:20:
[...]

Ik heb gisteren de FTW versie besteld. Op de EVGA website staat onderaan de product pagina een vergelijkings tabel.

Even samenvattend is het FTW model de meest luxe variant:
FTW = 2 bios chips, 1797 MHz, 215W max power draw, 10+2 stroom, 2x 8 pins
SC = 1 bios chips, 1784 MHz, 170W max power draw, 4+1 stroom, 8 pins
standaard= 1 bios chips, 1683 MHz, 150W max power draw, 4+1 stroom, 8 pins

De FTW heeft ook RGB ledverlichting, weet niet zeker hoe dat bij de andere twee zit. Nadeel van de FTW is dus wel dat hij lastiger in een oude pc is te zetten (over 3+ jaar) omdat je 2x Pci-E 8-pins nodig hebt. Voordeel is dat hij 'over engineered' is. In mijn tweede pc zit toevallig een V-550 die dat heeft dus ik ben toch maar voor de FTW editie gegaan. Ik heb ook nog een 4670K met een XFX Pro 550W waar dat dus wel een probleem gaat opleveren (1x 8-pins).

Verder hebben ze alle 3 dezelfde chips met dezelfde koeler (fans off tot 60 graden). Prijsverschil was bij mijn bestelling circa 10 euro. Kaart komt vanavond tussen 17:00 en 20:00.
De clocks zijn niet zo spannend, dat worden haast onmeetbare gains verwacht ik. Wie weet overclockt de FTW als een malle maar eerlijk gezegd heb ik daar geen hoge verwachtingen van ;). Het prijsverschil is letterlijk 10 euro tov de SC (die bij TPU is getest) dus tja doen eens gek...

De RX 480 reference is voor niemand interessant. Meer herrie tijdens het gamen is bijna niet mogelijk: https://tpucdn.com/review.../images/fannoise_load.png . Met een goede koeler erop wordt het een stuk beter. Maar zoals gezegd zitten die boven de grens van ¤300 euro. Bovendien heb je dan een compromis product (multi monitor power draw bug). Bij een compromis product verwacht ik een compromis prijs en geen premium prijs :). De basis prijs (220) + 25 euro voor de koeler had ik wel gedaan hoor.

sdk1985 wijzigde deze reactie 30-08-2016 16:19 (3%)

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

quote:
ColinZ schreef op zaterdag 27 augustus 2016 @ 00:56:
[...]

Heb je hier ook een bron van? Ik denk eerder dat je in de war bent met Ansel en de SweetFX code. (trouwens ook weer debunked)
Nee, maar het zou wel kunnen dat ik iets verkeerd om had geïnterpreteerd. Ik herinner me van 1-2 jaar geleden een uitspraak van een hooggeplaatste werknemer (werd aangevallen omwille van Gameworks) dat bepaalde algorithmes uit Gameworks op Github staan. Ik herinner het me als dat hij beweerde dat ze het van Github hadden gehaald maar het zou ook kunnen dat hij bedoelde dat NVidia die code op Github had gezet.
Maar goed, wat ook het geval is, laten we blij zijn dat NVidia wordt gepusht om de code open te maken ( http://www.redgamingtech....commits-to-vr-with-unity/ ). Hopelijk gaat AMD de moeite nemen om reeds bestaande spellen beter te ondersteunen zo gauw bepaalde code openbaar wordt (bijv. hairworks en TW3 en die nieuwe belichting bij RotTR).
quote:
Weinig verrassend maar inderdaad. Wellicht komen er binnen een jaar ook televisisies die het ondersteunen, het ligt in de lijn van de verwachtingen (consoles) en een medewerker van AMD gaf aan dat hij van een collega (bij een bedrijf wat televisies maakt) vernam dat ze er\mee bezig zijn. Ik ben benieuwd hoelang NVidia voet bij stuk blijft houden, het wordt een beetje belachelijk. :)
Je kan niet met droge ogen blijven beweren dat de kwaliteit beter is als dat verschil er enkel is bij lage FPS, nu valt daar nog iets voor te zeggen (dipjes onder de 30-40 fps) maar naar het schijnt kunnen ze binnenkort een veel lagere minimale FPS bieden bij dezelfde maximale verversingsfrequentie.
quote:
de video is een Freesync scherm wat ook Freesync via HDMI heeft!
offtopic:
Merk overigens dat dit soort nieuws helemaal niet meer op de FP komt ook al commit je het. Enige wat we zien is telefoon en tablets :(.
Ook dat Intel geen EUV gaat gebruiken voor 10nm of 8? en dus ASML een Nederlands bedrijf dus een klant misloopt, lees je niks van op de FP maar wel op Fok 8)7.
Eens! Telefoontjes trekken wellicht meer casual bezoekers (meer inkomsten met reclame)?
quote:
Astennu schreef op maandag 29 augustus 2016 @ 16:04:
Hadden jullie deze slides al gezien? : https://app.scoutfin.com/...tch_id=297670879870932296

Op slide 8 staat dat Vega pas H1 2017 zou komen en niet meer dit jaar. Zou wel erg jammer zijn het leek goed te gaan toen ze een aantal maanden terug melde dat er een Tapeout geweest was. H1 kan natuurlijk ook Januari zijn maar kan ook Juni zijn. Maar dan geen release in december.
Ze zijn er blijkbaar niet zeker van dat het in de eerste 3 maanden zal zijn, anders hadden ze wel aangegeven - zoals voor Zen - dat die in het eerste kwartiel gelanceerd zou worden. Ik ga er daarom van uit dat het niet voor maart zal zijn en dat de kans groot is dat het niet voor april/mei gaat zijn.
quote:
AMD heeft dan alleen de 460 en 470 nog als voordeel maar het zal vast niet lang duren voordat nVidia daar ook een kaart aan zal bieden in de vorm van de 1050.
Daar hoeven ze zich weinig zorgen over te maken, zie de '1060' 3GB die zelfs voor DX11-spellen niet de RX 480 (4 GB) verslaat. :)
NVidia kan wat meer leveren voor relatief meer meer geld, meer performance voor hetzelfde bedrag dat doet NVidia niet. :)

CHBF wijzigde deze reactie 30-08-2016 18:10 (65%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 15-12 19:31
Als AMD echt wil doorbreken met Freesync dan zorgen ze dat het ook gaat werken op Nvidia kaarten. In dat geval heeft het voor de Nvidia klanten (lees 80% van de dedicated gpu markt) ook nut om voor een Freesync monitor te gaan. Dat zou dan weleens de doodsteek voor G-sync kunnen betekenen.
quote:
CHBF schreef op dinsdag 30 augustus 2016 @ 17:57:

Daar hoeven ze zich weinig zorgen over te maken, zie de '1060' 3GB die zelfs voor DX11-spellen niet de RX 480 (4 GB) verslaat. :)
NVidia kan wat meer leveren voor relatief meer meer geld, meer performance voor hetzelfde bedrag dat doet NVidia niet. :)
Het is natuurlijk geen kwestie van kunnen maar van willen. Voorlopig lijkt Nvidia te kunnen vragen wat ze willen. Het verkoopt als zoete broodjes en AMD kan momenteel niet leveren (medium range RX 480 slecht leverbaar en high-end laat waarschijnlijk nog 6+ maanden op zich wachten).

Zelfs de GTX 1060 staat nu als "Hugely higher market share. +136%". Dat ding is nu ook niet bepaald lekker leverbaar. Bij de 1070 komen we al op "Hugely higher market share.+309%"

Ik maak me wat dat betreft ondertussen echt grote zorgen dat Polaris weer de zoveelste management faal van AMD wordt. (Daar kunnen de engineers niks aan doen, die maken een prima product). De basis van economie blijft dat je bij een beperkt aanbod de prijs gaat verhogen tot de vraag daalt. Dat lijken ze bij AMD keer op keer niet te begrijpen (199 doellancering). Natuurlijk staat het ze vrij te lanceren met 199, echter zorg dan dat je er 3 miljoen kunt leveren in het eerste halfjaar. Weet je van te voren dat dit niet gaat lukken? Kom dan met 275 dollar oid, tot je wel aan de vraag kunt voldoen en tegelijkertijd meer geld verdient aan elke kaart.

sdk1985 wijzigde deze reactie 30-08-2016 18:19 (74%)

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 22:37

Sp3ci3s8472

@ 12 graden...

quote:
sdk1985 schreef op dinsdag 30 augustus 2016 @ 18:11:
Als AMD echt wil doorbreken met Freesync dan zorgen ze dat het ook gaat werken op Nvidia kaarten. In dat geval heeft het voor de Nvidia klanten (lees 80% van de dedicated gpu markt) ook nut om voor een Freesync monitor te gaan. Dat zou dan weleens de doodsteek voor G-sync kunnen betekenen.
Het werkt ook op Nvidia kaarten alleen is Nvidia te gierig om het te implementeren. Er staat werkelijk niks Nvidia in de weg om gebruik te maken van de open Adaptive Sync specificatie uit DP1.2a.
Er is een reden dat laptops G-Sync hebben, daar zit volgens mij helemaal geen module van Nvidia in.

Het ligt in dit geval echt niet aan AMD. Het enige wat AMD zou kunnen doen is een tooltje schrijven (of eigenlijk een driver hack) zodat het ook op Nvidia kaarten werkt, maar dat zullen ze nooit doen.

Sp3ci3s8472 wijzigde deze reactie 30-08-2016 18:20 (5%)

Battle.net tag


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 15-12 19:31
quote:
Sp3ci3s8472 schreef op dinsdag 30 augustus 2016 @ 18:19:
[...]


Het werkt ook op Nvidia kaarten alleen is Nvidia te gierig om het te implementeren. Er staat werkelijk niks Nvidia in de weg om gebruik te maken van de open Adaptive Sync specificatie uit DP1.2a.

Het ligt in dit geval echt niet aan AMD. Het enige wat AMD zou kunnen doen is een tooltje schrijven (of eigenlijk een driver hack) zodat het ook op Nvidia kaarten werkt, maar dat zullen ze nooit doen.
Dat is precies wat ik dacht, AMD kan met een tooltje komen. Als Nvidia daar tegen gaat protesteren is dat flink negatieve pr. Of ze hadden FreeSync in een standaard moeten proppen (DX12 of OpenGL oid).

sdk1985 wijzigde deze reactie 30-08-2016 18:22 (10%)

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 22:37

Sp3ci3s8472

@ 12 graden...

quote:
sdk1985 schreef op dinsdag 30 augustus 2016 @ 18:20:
[...]

Dat is precies wat ik dacht, AMD kan met een tooltje komen.
Waarom zou AMD dat doen? De adoptie van Freesync gaat veel sneller dan G-Sync. Tevens gaan ze Nvidia klanten belonen dat ze Nvidia hebben gekozen en AMD vangt hiervoor helemaal geen royalties van de beeldscherm fabrikanten want het is een open standaard.
Laten we ook niet vergeten dat Nvidia elke driver hack gigantisch hard gaat blokeren.

offtopic:
Reactie komt wat vijandig over, is niet zo bedoelt :D.

Sp3ci3s8472 wijzigde deze reactie 30-08-2016 18:24 (7%)

Battle.net tag


  • sdk1985
  • Registratie: januari 2005
  • Laatst online: 15-12 19:31
Waarom maakt O&O (primaire product: O&O Defrag) de ShutUp10 tool gratis beschikbaar? Lijkt me mooie reclame voor AMD. Het kan wellicht de overstap drempel verlagen. Blokkade is de mooiste uitkomst, zie eerdere bericht edit :P.

sdk1985 wijzigde deze reactie 30-08-2016 18:27 (12%)

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 22:37

Sp3ci3s8472

@ 12 graden...

Op zich wel een punt ja, en het zet misschien Nvidia gebruikers met kennis van de materia aan het denken en wellicht maken die eenzelfde tool :P.

Battle.net tag


  • Help!!!!
  • Registratie: juli 1999
  • Niet online

Help!!!!

Mr Majestic

Het zou goed zijn als Intel Freesync ging implementeren. Helaas lees ik dat dit bij Kaby Lake nog niet het geval is.

PC Specs
Why BF4 is broken & current state gaming industry

quote:
Sp3ci3s8472 schreef op dinsdag 30 augustus 2016 @ 18:19:
[...]


Het werkt ook op Nvidia kaarten alleen is Nvidia te gierig om het te implementeren.
Volgens mij heeft het meer met prestige te maken. Zoveel kan het niet kosten om dat te implementeren, zeker niet in vergelijking met al hun andere projectjes. Misschien zijn ze ook wat bang voor boze reacties van klanten die net een dure G-Syncmonitor hadden gekocht? Hoe dan ook, ik vind het onverstandig, zeker voor de budgetkaarten (250 euro en minder) lopen ze hierdoor snel klanten mis, als je 200 euro voor een kaart betaalt dan ga je niet 100-200 euro extra betalen voor G-Sync, dan kies je tussen FreeSync of tearing/inputlag (VSync).
quote:
Er staat werkelijk niks Nvidia in de weg om gebruik te maken van de open Adaptive Sync specificatie uit DP1.2a.
Er is een reden dat laptops G-Sync hebben, daar zit volgens mij helemaal geen module van Nvidia in.
Dat zou me verbazen. DIe FPGA-module (een soort van op hardwareniveau programmeerbare CPU) neemt heel erg weinig ruimte in beslag, dat kan je nagenoeg plat maken, net als de grafische kaart zelf, je kan dat dus heel erg gemakkelijk in het beeldscherm verwerken.
quote:
Het enige wat AMD zou kunnen doen is een tooltje schrijven (of eigenlijk een driver hack) zodat het ook op Nvidia kaarten werkt, maar dat zullen ze nooit doen.
Dat niet maar NVidia een handje helpen door de code te geven zie ik AMD nog wel doen. AMD doet gewoon niet zo moeilijk over die code openbaar maken. Net als dat ze er niet moeilijk over doen dat Microsoft gebruikte als basis voor DX12.
https://pbs.twimg.com/media/CBBu9COWwAAPzZB.jpg:large (om de een of andere reden wordt de afbeelding niet geplaatst)
Uitgaan van je eigen kracht is hun motto. Nu ja, voor grafische kaarten en CPU's in ieder geval.
spoiler:
Ze moeten niet meer een AMD-stickertje op SSD's en RAM-latjes plakken en dat presenteren op een persbijeenkomst. :D

Zelfcensuur is de meest schadelijke vorm van censuur.


  • TomasH
  • Registratie: januari 2009
  • Laatst online: 15-12 14:07
quote:
CHBF schreef op dinsdag 30 augustus 2016 @ 18:53:
[...]

Dat zou me verbazen. DIe FPGA-module (een soort van op hardwareniveau programmeerbare CPU) neemt heel erg weinig ruimte in beslag, dat kan je nagenoeg plat maken, net als de grafische kaart zelf, je kan dat dus heel erg gemakkelijk in het beeldscherm verwerken.
G-Sync voor laptops is gewoon Adaptive Sync-based en dus zonder module.
quote:
sdk1985 schreef op dinsdag 30 augustus 2016 @ 18:11:
Het is natuurlijk geen kwestie van kunnen maar van willen. Voorlopig lijkt Nvidia te kunnen vragen wat ze willen. Het verkoopt als zoete broodjes en AMD kan momenteel niet leveren (medium range RX 480 slecht leverbaar en high-end laat waarschijnlijk nog 6+ maanden op zich wachten).

Zelfs de GTX 1060 staat nu als "Hugely higher market share. +136%". Dat ding is nu ook niet bepaald lekker leverbaar. Bij de 1070 komen we al op "Hugely higher market share.+309%"
Alleen de 1060 of de 1060 en de '1060'? ;)
Tja, wat betreft de RX 480 heb jij een punt. Die 1070 en hoger zijn niet zo heel erg belangrijk voor het marktaandeel, de 1070 is populair onder de fanatieke gamers die zelf hun computer bouwen, de RX 480 zal dat ongetwijfeld ook worden maar die mindere kaarten komen ook veel terecht in die prebuilts en laptops.
De hoge prijs van de RX 480 (ook voor mij een reden om die niet te kopen, ook al zou ik die volgend jaar waarschijnlijk weer verkopen) helpt ook niet maar dat zou best veroorzaakt kunnen worden door de schaarste.
quote:
TomasH schreef op dinsdag 30 augustus 2016 @ 18:58:
[...]

G-Sync voor laptops is gewoon Adaptive Sync-based en dus zonder module.
Ik neem het van jou aan maar is het dan wel G-Sync? Het lijkt mij van niet. Een onderdeel van het concept van G-Sync is dat er dubbele of zelfs drievoudige frames worden geplaast wanneer de FPS te laag wordt (beneden de minimale verversingssnelheid van de monitor). Hoe dan ook, als NVidia dit inderdaad al heeft geïmplementeerd voor laptops die gene FPGA-module bevatten dan zou NVidia dat duidelijk per direct ook voor de monitors bij desktops kunnen implementeren. Schimmig. Ik vind het oliedom van NVidia want als ze gewoon FreeSync zouden ondersteunen dan zou de 1070 minder per frame per seconde kosten dan de RX 480. :)

CHBF wijzigde deze reactie 30-08-2016 19:06 (25%)

Zelfcensuur is de meest schadelijke vorm van censuur.


  • Sp3ci3s8472
  • Registratie: maart 2007
  • Laatst online: 22:37

Sp3ci3s8472

@ 12 graden...

quote:
CHBF schreef op dinsdag 30 augustus 2016 @ 18:59:
[...]

Ik neem het van jou aan maar is het dan wel G-Sync? Het lijkt mij van niet. Een onderdeel van het concept van G-Sync is dat er dubbele of zelfs drievoudige frames worden geplaast wanneer de FPS te laag wordt (beneden de minimale verversingssnelheid van de monitor). Hoe dan ook, als NVidia dit inderdaad al heeft geïmplementeerd voor laptops die gene FPGA-module bevatten dan zou NVidia dat duidelijk per direct ook voor de monitors bij desktops kunnen implementeren. Schimmig. Ik vind het oliedom van NVidia want als ze gewoon FreeSync zouden ondersteunen dan zou de 1070 minder per frame per seconde kosten dan de RX 480. :)
Die extra frames kunnen prima via de driver, dat lijkt mij zelfs ook een betere implementatie dan het in de monitor te doen want hoe weet die module dat hij een frame moet verdubbelen? Juist dat verteld de driver hem dus je hebt extra communicatie.

Nvidia had ineens G-Sync in de laptops en in al bestaande modellen. Dat is gewoon de eDP 1.3 DP1.2a dus.

Sp3ci3s8472 wijzigde deze reactie 30-08-2016 20:58 (0%)
Reden: foutje

Battle.net tag

Pagina: 1 2 3 ... 11 Laatste

Dit topic is gesloten.



Apple iPhone XS Red Dead Redemption 2 LG W7 Google Pixel 3 XL OnePlus 6T (6GB ram) FIFA 19 Samsung Galaxy S10 Google Pixel 3

Tweakers vormt samen met Tweakers Elect, Hardware.Info, Autotrack, Nationale Vacaturebank en Intermediair de Persgroep Online Services B.V.
Alle rechten voorbehouden © 1998 - 2018 Hosting door True