foppe-jan schreef op zaterdag 20 mei 2017 @ 19:51:
[...]
Tja, het punt dat de meeste mensen negeerden is dat Intel het grootste deel v/d markt in handen had, en dat het dus problemen/klachten zou hebben opgeleverd om te gaan optimaliseren voor multicore/MT CPUs, omdat te veel mensen daar niet/nauwelijks over beschikten, en dat je markt dus verkleint. Dat kan nu veel makkelijker veranderen, aangenomen dat de verkoopcijfers laten zien dat dit goed wordt ontvangen.
Dat is echt een argument waar zo ongeveer iedereen gebruik van maakt naar eigen wensen, maar denk ik een totaal non issue is.
Wat is een CPU nu werkelijk? Het is een behoorlijk hoeveelheid, zeer domme transistoren die alleen seriële berekeningen aankunnen. Game heeft via de API instructies voor zoveel berekeningen, CPU rekent, en klaar. Natuurlijk bestaan er kleine optimalisaties, maar uiteindelijk zijn er geen CPU drivers. Het is gewoon brute force werk.
Tot dusver yay voor Intel fanboys. Nou nee, niet echt. Het maakt namelijk geen ene f uit of je een i5 quadcore hebt @3,4ghz of een R5 hexacore @3,2 in realistische applicaties. Dus 1080p en een RX580/GTX1060. Bij AMD krijg je alleen wel meer cores, die al worden aangesproken door moderne games en overclocking, en daarom is die dus beter. Niet zozeer voor gemiddelde, maar voor minima omdat ladingen beter verdeeld kunnen worden. Wederom, domme hoop transistoren die via de software van de game en API, extra lading op een lege core dumpen en dus geen bottleneck vormen. Dus yay AMD fanboys? Nee, dat ook niet. Ga je naar een totaal overkill scenario qua GPU, dan is een 7700k beter, dus 1080p/144hz met een GTX1080.
Dat brengt mij bij Vega. Ergens vermoed ik dat het bij Vega geen ene f uit gaat maken of je een 7700k of R5 1600 hebt voor 1080p/144hz, tenminste niet veel. Ik vermoed namelijk dat Nvidia haar software scheduler op een safe default draait met Ryzen. CPU niet herkent, dus geen extra cores in gebruik, maar wel extra driveroverhead wat frames kost. Dat lijkt het verschil in prestaties behoorlijk te verklaren, meer dan het geringe verschil in IPC tussen Intel en AMD op het moment. Ik verwacht dan ook op een gegeven moment een "super geweldige driver van Nvidia, die magisch alle Ryzen prestatieproblemen fixed, want Nvidia drivers zijn geweldig". Iedereen zing het gospel van Jen-Hsun Huang voor deze magische doorbraak.
Het bewijs voor mijn theorie zullen uiteraard 1080p testen zijn met Vega en Nvidia tegenhangers, met zowel een 7700k als Ryzen. Dus kom op AMD, gib Vega plox.

Verwijderd schreef op zaterdag 20 mei 2017 @ 20:03:
[...]
Daar valt wel degelijk over te discussiëren aangezien het afhangt van je definitie van een kern en die definitie is echt niet eenvoudig te geven. Behoort een FPU wel of niet tot een kern? Jij vindt blijkbaar van niet maar kom maar eens met objectieve criteria die rechtvaardigen om te stellen dat het objectief bezien zo is.
In beide consoles zitten custom Jaguar APU's. Jaguar heeft niks te maken met Bulldozer en is gewoon een normale quadcore. Voor beide custom Jaguar's geld twee CPU units van elk vier cores, en een GCN GPU. Octacores dus.
Kwestie van semantiek (omdat het niet open werd gesteld voor andere bedrijven en andere organisaties en individuele gebruikers) maar het klopt dat Mantle als API gebruikt zou kunnen worden als AMD dat toe zou staan.
Nee, het is gewoon een API. Niet erg wijdverbreid, maar dat was denk ik ook nooit de bedoeling. Het was meer een proof of concept.
Het zou volstrekt nutteloos zijn aangezien Vulkan en DX12 hier meer geschikt voor zijn gemaakt maar in theorie zou het inderdaad kunnen. Of dat AMD Mantle uit handen gaf omdat het niet van de grond kwam is speculatief, zeker is dat bij een informele ontmoeting (je kan hier meer over vinden als je zoekt, ik heb het niet gebookmarkt) iemand van de KG iemand van AMD aangaf dat developers aan de KG vroegen om een opvolger van OpenGL te ontwikkelen en dat die medewerker van AMD vervolgens Mantle aanbood. Ik kan me voorstellen dat AMD dit o.a. deed vanuit de strategie dat de adoptie beter zou zijn als het breder ondersteund zou worden maar dat is speculatief.
Vulkan = Mantle 2.0. Zo simpel is het. De code voor Vulkan komt voornamelijk van Mantle. In de Kronos Group gegooid zodat Nvidia het ook zou ondersteunen en standaard maken. OpenGL was nooit echt een succes tegenover DX van Microsoft. Vulkan is een nieuwe poging met iets meer kans. Denk dat DX12 uiteindelijk nog steeds wint, maar Vulkan is ook niet kansloos.
Ik deel jouw optimisme m.b.t. de mogelijkkheden die Vulkan en DX12 bieden maar ik houd wel mijn hart vast voor het feit dat we meer afhankelijk worden van de developers. Op de lange termijn zullen die developers zich aanpassen maar als je weet dat AMD en Nvidia nu een hele reeks hacks in hun driver hebben ingebouwd die ze per spel aan- of uitzetten om fouten van developers (of beter gezegd, de programmeurs die voor hen werken) op te vangen...
Het kan rommelig worden tijdens de transitieperiode. Uiteindelijk zullen ze het wel leren, ze zullen wel moeten.

De meeste developers pakken gewoon een engine van de plank en die moet de nieuwe API ondersteunen. EA gaat zo goed als kan Frostbite exclusief, daar zijn ze al jaren mee bezig. Gaat ook niet altijd goed, zie Mass Effect Andromeda, maar de focus blijft. Wel op DX12. Vanuit EA komt het wel goed met de ondersteuning. CryEngine gaat ook Vulkan ondersteunen, Id tech 6 is natuurlijk Vulkan, Unreal 4.0 ook. Ubisoft kan door de stront zakken met hun Gameworks voorliefde. De laatste jaren was het trainwreck release na trainwreck release en elke keer was het een Gameworks titel.
Een CoD port draait bizar goed op AMD want extra cores en hardware scheduler en totaal geen optimalisaties. Daarnaast zijn er nog de minder bijzondere games. Het ligt eraan of er focus ligt op zeer goede graphics. Zo ja, dan loop je vanzelf tegen een limiet aan, en moet je wel. Zo nee, dan kan menig GPU de game al draaien met weinig driveroptimalisaties en in brute force mode.
Alles bij elkaar maak ik me weinig zorgen. Elke keer als er meer rekenkracht beschikbaar kwam, werd het bij de volgende cyclus van games al gebruikt. Werd er tegen een limiet aangelopen, dan werd er een manier omheen gevonden. Nu lopen de nieuwste games tegen een limiet aan qua aantal CPU cores, en een enorme sprong in resolutie waar het lastig is geworden om de GPU te voorzien met een CPU core. De oplossingen zijn er al, in rest implementatie. Tot die tijd gewoon gamen. Je kan je tot in den treuren dood staren op een paar frames verschil, maar waarom zou je? Als het goed draait, dan ga je echt niet panisch benches opzoeken hoe het met andere GPU's gesteld is. Dat is het enige dat Vega moet doen, draaien, en wat bieden over Nvidia. Is dit alles van prijs tot DX12/Vulkan zoals AMD hoopt? Mooi voor AMD. Is het want minder, dan is het ook goed genoeg.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.