Het ligt niet aan Globalfoundries, maar op de manier hoe AMD hun GCN toepast. Je moet het zo zien. Nvidia gebruikt 2 snelwegen waar beide 150kmph op gereden wordt. AMD daarintegen gebruikt 4 snelwegen met ieder een maximumsnelheid van 75kmph. Beide kunnen 300kmph aan. Voor kleine chunks van data is de manier van Nvidia effectiever, maar wanneer er veel verkeer doorheen moet ondanks de wat lagere snelheid, heeft AMD weer de overhand. Dit zie je ook terug in brute rekenkracht zoals Bitcoin mining, het encoden van Video en nog meer taken dat leunt op parallellisme.
Om voor AMD hetzelfde niveau van een 1080 te bereiken, moet het dus inzetten op grof geschut (HBM2), brute rekenkracht, ten koste van dingen zoals stroomverbruik. Dit is wat je nu ziet en wat al overduidelijk sinds de Fury aanwezig was. De kaart is absoluut niet slecht, in tegendeel. Het is nek aan nek met op dit moment Nvidia top model met een wat hoger verbruik.
Toch is het een interessante kaart, omdat de adviesprijs lager ligt dan die van Nvidia, en zo'n kaart als dit de komende 2 jaar makkelijk mee zal kunnen gaan. Driver updates gaan een 10% eruit halen, je kunt met de drivers in combinatie ook met freesync een hoop tweaken en mischien is de GPU gewoon goed te undervolten. Het komt vaak voor dat bij AMD dat ze daar kiezen voor een one size fits all voltage voor alle GPU's. Dit was ook zo met de 9570 van AMD, daar kon enkele mv's vanaf worden geschaafd en zelfs worden overclocked om zo tot -60W lager uit te komen op het stopcontact.
Ik denk dat men de verwachting had (en ik ook) dat het een 1080 killer zou gaan worden en zelfs de pan zou vegen met Volta. Echter ben ik van mening dat de keuze van het ontwerp eigenlijk niet zo geschikt is voor games maar meer voor applicaties die leunen op parallellisme. Want hier zie je AMD namelijk wel in shinen.
AMD heeft gewoon een beperkt budget. Ze ontwikkelen op papier gewoon 1 chip, dat was oorspronkelijk bedoeld voor de zakelijke/render/content creator markt. Daar is later een game-variant vanuit gekomen welk minder strak door het testproces heen hoeft. Immers voor games heb je geen kaart met ECC of iets in die richting nodig.
Dit ontwerp zie je ook terug bij de Ryzen. Er is rekening gehouden met 1 chip dat alle markten moet gaan voorzien (Desktop, zakelijk, Servers, HEDT etc) en waar AMD makkelijk en veel goedkoper chips kan produceren dan Intel. Het nadeel ook hieraan is dat je de infinity fabric er altijd voor zal zorgen dat er een minimale lag tussen cores ontstaat. Het tegeneffect is om juist wat sneller geheugen te gaan gebruiken.
Als de kaart mooi geprijsd is, en je speelt toch al niet veel games dan af en toe, dan zou ik 'm gewoon kopen. Ik wil de Vega 64 wel hebben met waterkoeling. Gewoon op -25% zetten, FPS limiter desnoods, en het verbruik wordt echt niet groter dan mijn huidige RX480.
AMD loopt overigens qua techniek vaak te vroeg voorop. GCN zit al jaren in consoles zoals de PS4 en Xbox. Het is aan devs GCN te ontdekken en het maximale uit de GPU's van AMD te kunnen halen. Wanneer men dit door heeft en GCN optimaal weet te benutten dan kan je prima graphics op zowel de console als PC tak gaan tonen want alle hardware is immers ook universeel.
Ik ben geen pro-gamer (meer), dat iedere nanoseconde van wat er op m'n beeld plaatsvind belangrijk is. Ik lees veel tegenstrijdige berichten over crossfire, maar eerlijk gezegd werkt het uitstekend. Ik heb altijd prima gedraaid met een 270X en zou er niet over twijfelen om op een Crossfire RX480 setup te gaan zitten.
De RX480 was voor ~ 200 euro een uitstekende kaart. Prima prijs / prestaties. Echter de high-end is de huidige GCN gewoon niet geschikt. Het roer moet in het ontwerp gewoon drastisch om.
[
Voor 16% gewijzigd door
Verwijderd op 14-08-2017 21:07
]