Ryzen 5950x + 32GB GSKILL @3600 op Rog Strix Gaming E x570 + Asrock Phantom Gaming 6800XT+ Gigabyte Aorus FV43U Zwart + DS1621+ + DS414 + MacbookPro 16" 2021 + Mac Mini M4 Pro + Tesla MY RWD 2023 BYD
Soms zit hij er wel net naast wat betreft de feiten. Feit dat hij vind dat AMD GimpWorks allang had moeten fixen is gewoon een domme stelling.
Ik vind deze ook zwak. Af en toe had ik al dat hij te snel conclusies trekt over zaken rond GPU's, maar AMD de schuld geven van Gameworks slaat gewoon nergens op. Zeker omdat Primitive Shaders dus ook in staat zouden moeten zijn tot extra culling van primitives die geen onderdeel gaan vormen van de te renderen frame. Moet het natuurlijk wel werken. AMD is in ieder geval bezig met dergelijke zaken. Verder ben ik het er ook niet mee eens dat het voordeel in GPU ontwerp nu zo gigantisch is voor Nvidia. Natuurlijk is Maxwell/Pascal beter dan GCN voor gaming, maar enorm is het voordeel ook weer niet.Sp3ci3s8472 schreef op donderdag 8 februari 2018 @ 12:38:
[...]
Soms zit hij er wel net naast wat betreft de feiten. Feit dat hij vind dat AMD GimpWorks allang had moeten fixen is gewoon een domme stelling.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Immers nVidia maakt toch eigenlijk twee chips. 1 voor “professioneel” gebruik en 1 voor gaming. Deze specifiek getunede chips worden vergeleken met 1 manusje van alles chip die AMD maakt.
Stel dat AMD wel de middelen had om hetzelfde kunstje als nvidia te doen, dan vraag ik me af of nVidia de vergelijking zou winnen ?
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Of je het zo kan stellen durf ik zo ook niet te zeggen, imho maakt AMD een chip voor het top end van de zakelijke markt waarvan met zeer veel mazzel er een paar voor gamers geschikbaar komen. En ja, als ik kijk naar de bovenkant van de markt is Nvidia daar imho ook "gewoon" aan het winnen. AMD verkoopt zeker kaarten in dat segment (instinct en Radeon Pro in het wat lagere zakelijke segment), maar als ik kijk naar de vraag die wij zien is het grotendeels allemaal Nvdia, Nvidia, Nvidia. Ik verwacht dat AMD mogelijk wat marktaandeel pakt in de segmenten waar geoptimaliseerde software om de kaarten geschreven wordt. Maar zo'n beetje al onze die vraag hebben naar GPU's bestellen Nvidia omdat de (standaard) software die zij gebruiken daar nu eenmaal het best op gesupport wordt. Wat dat betreft heeft AMD imho zeker in dat segment nog heel wat stappen te zetten om de CUDA hegemonie te doorbreken.Help!!!! schreef op donderdag 8 februari 2018 @ 14:41:
Kun je uberhaupt stellen dat bijv Pascal in de basis beter is dan CGN
Immers nVidia maakt toch eigenlijk twee chips. 1 voor “professioneel” gebruik en 1 voor gaming. Deze specifiek getunede chips worden vergeleken met 1 manusje van alles chip die AMD maakt.
Stel dat AMD wel de middelen had om hetzelfde kunstje als nvidia te doen, dan vraag ik me af of nVidia de vergelijking zou winnen ?
Verder snap ik denk ik wel wat Jim bedoeld met Gameworks en AMD, ik krijg niet het idee dat Jim bedoeld dat AMD de schuld is van Gameworks of dat zij dat moet fixen. Maar dat hij vind dat AMD er minder passief tegenover moet staan. Meer tegengas geven aan Gameworks, zelf met alternatieven komen en die dan niet opensource zonder support beschikbaar maken en verwachten dat mensen ze wel gaan gebruiken, maar juist actief de gamedevs supporten deze technieken te gaan gebruiken. Want devs gaan echt niet ineens wat anders doen dan de makkelijkste weg kiezen, en als die makkelijkste weg Nvidia is met hun leger aan software engineers die de devs wel even komen helpen moet AMD daar wat tegenover zetten of de hardware zo inrichten (ik denk dat hij dit met fixen bedoeld) dat Gameworks geen negatieve invloed meer heeft. En ik ben het daar zeker niet mee oneens.
Zoals ik laatst ook al in volgens mij het CPU topic aangaf, AMD is volgens velen een bedrijf dat vaak technisch zeer goede producten maakt, maar vaak laten ze het op marketing en support gebied liggen. Iets dat in de zakelijke markt (en ook bij gaming) er belangrijk is. Als ze die vlakken nu ook eens naar het niveau zouden krijgen van de rest van het bedrijf....
Nee, dat is ook een beetje mijn punt wat ik iets duidelijker had moeten maken zie ik. Maxwel/Pascal is zeker beter voor gaming dan GCN. Kleinere chip, hoge clocks, goede geometrie prestaties, efficiënte GDDR5 controller en geen overduidelijke bottlenecks maar een gebalanceerde architectuur die ook nog eens behoorlijk schaalbaar. Ook vermoed ik dat Nvidia hun cachestructuur voor de rekenclusters/SM's/CU's/whatever efficiënter is maar daar moet ik echt eens induiken. Vind je ook moeilijker dan het meeste andere.Help!!!! schreef op donderdag 8 februari 2018 @ 14:41:
Kun je uberhaupt stellen dat bijv Pascal in de basis beter is dan CGN
Immers nVidia maakt toch eigenlijk twee chips. 1 voor “professioneel” gebruik en 1 voor gaming. Deze specifiek getunede chips worden vergeleken met 1 manusje van alles chip die AMD maakt.
Stel dat AMD wel de middelen had om hetzelfde kunstje als nvidia te doen, dan vraag ik me af of nVidia de vergelijking zou winnen ?
Voor compute gaan GP/GV100 eigenlijk meer richting GCN dan Geforce Pascal. Dat is iets waar AMD eigenlijk ook aan moet beginnen. Met Terascale hadden ze een dedicated gaming architectuur die de GPGPU architectuur van Nvidia, Tesla gewoon versloeg. Misschien niet absoluut met de 3870 en 4870, maar zeker in prijs.kwaliteit. De Nvidia GPGPU opvolger Fermi was helemaal slecht. Nog steeds is de GTX480 de ultieme "vlammenwerper", niet RX Vega 64 tenzij je er zelf 400W+ doorheen wil jagen en naar de 1750MHz wil overclocken.
Maar volg de lijntjes en tijd eens. Voor een GPU architectuur ontwerpen staat iets van vier jaar van concept naar product in de winkel. Maxwell was 2014, dus ontwerpconcept stamt uit 2010 of 2009. Wat waren de kaarten om te kopen toen? Juist, de geweldige 5xxx serie. Dat is echt geen toeval.
Daar heeft AMD gewoon alweer een gigantische fout gemaakt, eigenlijk al twee jaar ervoor. Ze gingen mee met de GPGPU als reactie op Tesla, terwijl Nvidia zag dat gaming wel belangrijk zou blijven en terugging en uiteindelijk splitste naar een GPGPU en een Geforce GPU.

Verder heeft AMD ook een enorm imagoprobleem, en dat maken ze met de RTG alleen maar erger. De waardeloze marketing, jaren van dom overvolten om een paar procent prestaties, slechte stockkoelers nog slechter maken met overvolten etc.
[ Voor 4% gewijzigd door DaniëlWW2 op 08-02-2018 15:49 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Kleine update van mijn kant met betrekking tot eerder deze week: het bier was niet lauw, dus ik heb geen tijd gehad om weer eens diep in de repo's te duiken
Zit nu weer in de trein richting het vliegveld, dus dat wordt iets voor het weekend.
Zojuist even een snelle blik geworpen en er zit in elk geval een hoop broncode in het HairWorks repo, in hoeverre dat daarna afhankelijk is van gesloten blobs kan ik nu niet zeggen. Er zitten verhoudingsgewijs wel een stuk meer header files in, dat zou kunnen duiden op een gesloten blob.
Er worden vast calls gegenereerd die specifiek voor gameworks zijn, vang die af en plaats daar de originele kwaliteit voor in de plaats. Is nu veel werk, maar is eenmalig lijkt me.
If liberty means anything at all it means the right to tell people what they do not want to hear - Eric Arthur Blair
Verwijderd
Het is hit or miss, part of the game.Sp3ci3s8472 schreef op donderdag 8 februari 2018 @ 12:38:
[...]
Soms zit hij er wel net naast wat betreft de feiten. Feit dat hij vind dat AMD GimpWorks allang had moeten fixen is gewoon een domme stelling.
Tja, ik zou niet weten wat AMD meer had kunnen doen.
- Mantle met succes opgezet wat later de kern van Vulkan is gaan vormen
- een eigen open source bibliotheek opgezet die goed werkt
- de samenwerking gezocht met developers met de beperkte middelen die AMD heeft
- op driverniveau negatieve effecten van Gimpworks beperken, iets wat al die mensen die benchmarks doen ook eens zouden moeten doen wanneer er geen visueel verschil waarneembaar is.
Wat had AMD nog meer kunnen doen? Ik denk dat deze reactie van hem aardig zijn sentiment verwoordt: I'm done making excuses for RTG being made Nvidia's bitch over and over. They need to grow a pair and start acting like ATI of old.
Verwijderd
Hij wil in ieder geval een meer agressief beleid zien, hoe hij dat ook invult.Dennism schreef op donderdag 8 februari 2018 @ 15:04:
Want devs gaan echt niet ineens wat anders doen dan de makkelijkste weg kiezen, en als die makkelijkste weg Nvidia is met hun leger aan software engineers die de devs wel even komen helpen moet AMD daar wat tegenover zetten of de hardware zo inrichten (ik denk dat hij dit met fixen bedoeld) dat Gameworks geen negatieve invloed meer heeft.
Hardware fixen? Het lijkt me geen recept voor succes als je je hardware aanpast aan wat een ander bedrijf doet. De beste kans heeft AMD m.i. door veel eigen software aan te bieden en mannetjes naar developers te sturen die helpen om die software te gebruiken. AMD moet langzaam maar zeker hun omzet en winst verhogen zodat ze hier meer middelen beschikbaar voor kunnen stellen, Zen is een mooie eerste stap, nu moet AMD voldoende van die extra omzet investeren in de software-kant van de GPU, in combinatie met een aangepaste architectuur kunnen ze dan wel weer terugkomen. Voor de klanten lijkt het er helaas op dat die ook bij Navi het beste een €200-450 kostende kaart kunnen kopen (MSRP uiteraard), een hoger segment zal weer weinig winst leveren als het klopt dat Navi "just as bad as Vega" wordt. Als de mining-gekte gaat luwen dan wordt dit een realistische optie, zo niet, dan zullen mensen naar Nvidia uit moeten wijken, zelfs ik ben niet van plan om op de opvolger van Navi te wachten, daarvoor is mijn HD 7850 te oud.
Omdat meer header-files een indicatie is voor meer andere code-bestanden (waar functies uit worden gehaald en data mee wordt uitgewisseld) en daarom de kans groter is dat een deel daarvan niet openbaar is?Werelds schreef op donderdag 8 februari 2018 @ 16:33:
offtopic:
Kleine update van mijn kant met betrekking tot eerder deze week: het bier was niet lauw, dus ik heb geen tijd gehad om weer eens diep in de repo's te duiken
Zit nu weer in de trein richting het vliegveld, dus dat wordt iets voor het weekend.
Zojuist even een snelle blik geworpen en er zit in elk geval een hoop broncode in het HairWorks repo, in hoeverre dat daarna afhankelijk is van gesloten blobs kan ik nu niet zeggen. Er zitten verhoudingsgewijs wel een stuk meer header files in, dat zou kunnen duiden op een gesloten blob.
Heel dat Gameworks is inderdaad dubieus. Zoals een AMD-medewerker het formuleerde - in een video waar ik laatst naar verwees - :"On the level of an individual pixel you won't see any difference between X16 and X64 for tesellation". Ik parafraseer het nu maar dit was 100% de strekking.Derby schreef op donderdag 8 februari 2018 @ 19:20:
Is het niet mogelijk voor AMD om drivers te ontwerpen die het hele gameworks verhaal teniet doen zo gauw als het gedetecteerd wordt?
Met de huidige software kan de gebruiker helaas enkel voor alle functies tessellation etc. beperken, hiermee neutraliseer je crapware zoals Hairworks maar je krijgt mogelijk - afhankelijk van het spel en de instellingen - eveneens een minder goed visueel effect voor andere functies, waar ik aan toe moet voegen dat meer tessellation het zeker niet altijd mooier maakt.
Of dat het mogelijk is voor AMD om op driverniveau enkel waardes te verminderen voor specifieke functies durf ik niet te zeggen aangezien ik te weinig van drivers en de API's weet. Wanneer een spel specifieke functies gebruikt dan wordt via de API en de CPU naar de grafische kaarten gecommuniceerd wat ze moeten doen, nietwaar? Krijgt die driver van AMD specifiek informatie over welke functie wordt geladen zodat Gimpworks gedetecteerd kan worden? Zo ja, kan de driver dan parameters wijzigen of zelfs de functie vervangen?
[ Voor 66% gewijzigd door Verwijderd op 08-02-2018 21:21 ]
Hoe moet AMD dit dan bereiken? Meestal is PhysX een van de grootste problemen. Nvidia gooit een game helemaal vol met nutteloze physics effecten die bij hun op de GPU draaien. Bij AMD draaien die op de CPU met als enige doel een CPU bottleneck veroorzaken. Wat moet AMD hieraan doen? Physics gewoon helemaal uitschakelen voor de game?Derby schreef op donderdag 8 februari 2018 @ 19:20:
Is het niet mogelijk voor AMD om drivers te ontwerpen die het hele gameworks verhaal teniet doen zo gauw als het gedetecteerd wordt? De kwaliteits winst is dubieus en als AMD communiceert dat hun driver alle gameworks meuk omzeilt is het ook geen cheat. Voor een appels tegen appels vergelijking is het dan niet eerlijk als het voor Nvidia wel aangezet wordt. (ondermijnt daarmee meteen de relevantie van gameworks)
Er worden vast calls gegenereerd die specifiek voor gameworks zijn, vang die af en plaats daar de originele kwaliteit voor in de plaats. Is nu veel werk, maar is eenmalig lijkt me.

Extreme tesselation of AA kunnen ze fixen door zaken te forceren op een maximum. Onzichtbare primitives zoals een complete zee onder de map of nu die rare haarballen in FFXV zullen botweg niet gerendered moeten worden als je ze niet kan zien op het scherm dankzij de Primitive Discard Accelerator.
Blijft de echt venijnige sabotage staan waar AMD niks tegen kan doen zoals PhysX. Voor developers is het ook schadelijk omdat hun game niet speelbaar is en ze het vaak na release zelf kunnen gaan fixen na ook flink wat reputatieschade en mensen die de aankoop ontbinden op steam of de game uberhaupt niet kopen. En dat allemaal omdat ze bij Nvidia zich als een stelletje kleuters op moeten stellen en de concurrentie moeten saboteren.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Ideaal gesproken elke functie van PhysX vervangen met een eigen functie en deze laten uitvoeren door de grafische kaart in plaats van de CPU, de vraag is of dat dit technisch gezien mogelijk is. Later zien we wel of dat het praktisch haalbaar is maar ik zou graag eerst van iemand die er (wisselwerking drivers, API's en programma's) meer verstand van heeft of dat het technisch gezien mogelijk is. Bij Wine doen ze zoiets, ze vervangen de bibliotheken van DX9/DX11 met hun eigen open source functies. Het is duidelijk dat dit vaak een matig resultaat geeft, soms werkt het echter wel goed, Tomb Raider kregen ze bijvoorbeeld zo redelijk goed werkend, goed genoeg dat wij het met veel plezier zouden spelen en zonder enige problemen het spel van het begin tot het einde spelen.DaniëlWW2 schreef op donderdag 8 februari 2018 @ 21:18:
[...]
Hoe moet AMD dit dan bereiken? Meestal is PhysX een van de grootste problemen. Nvidia gooit een game helemaal vol met nutteloze physics effecten die bij hun op de GPU draaien. Bij AMD draaien die op de CPU met als enige doel een CPU bottleneck veroorzaken. Wat moet AMD hieraan doen? Physics gewoon helemaal uitschakelen voor de game?
[ Voor 7% gewijzigd door Verwijderd op 08-02-2018 21:27 ]
Zou kunnen ja. Zal van het weekend eens kijken wat er precies in zit, het hoeft namelijk niet zo te zijnVerwijderd schreef op donderdag 8 februari 2018 @ 20:50:
Omdat meer header-files een indicatie is voor meer andere code-bestanden (waar functies uit worden gehaald en data mee wordt uitgewisseld) en daarom de kans groter is dat een deel daarvan niet openbaar is?
Wat tessellation betreft, even een korte birdseye-view: het komt er op neer dat je polygonen (de driehoekjes waarmee alles gerenderd wordt) vermenigvuldigt.
Om een "rond" oppervlak te renderen heb je het liefst zo veel mogelijk én zo klein mogelijke polygonen die allemaal onder een kleine hoek van elkaar staan; hoe meer je er hebt en hoe kleiner ze zijn, hoe mooier rond het uit ziet. Dat kost echter veel render tijd. Met tessellation render je er in eerste instantie minder, waarna de tessellation hardware er overheen gaat en eigenlijk elke poly in tweeën verdeelt*. Waarom het precies sneller is via die hardware laat ik even buiten beschouwing, om het simpel te houden moet je dat gewoon zien als CPU vs GPU rendering.
Hoe verder de camera van een object verwijderd is, hoe minder poly's er nodig zijn om het rond te laten lijken. Als het object uiteindelijk maar 10x10 pixels groot is, heb je er niets aan om dat met een miljoen poly's te renderen - dit is wat we kennen als level of detail (LoD). En dat is precies waar HairWorks met standaard instellingen de mist in gaat. Haren zijn uitermate klein tenzij je ver in zoomt, dus het heeft geen nut elke poly tientallen keren op te delen. Hoewel tessellation in hardware sneller is dan de individuele poly's direct te renderen, kost het nog steeds tijd en dus performance. Het LoD van HairWorks is gewoon veel hoger dan je ooit kunt waarnemen met die paar pixels (relatief gezien) die het object uiteindelijk in beslag neemt.
Als ik wat meer tijd had zou ik graag een super simpele render demo hiervan maken, maar ik vrees dat ik het voorlopig nog te druk heb om dat taaltje weer een beetje vloeiend te kunnen leren spreken
@hierboven: er draait minder op de GPU dan je wellicht denkt. PhysX zelf is tegenwoordig niet echt het probleem meer.
* ja, grove vereenvoudiging, maar dit is wel waar tessellation in de praktijk vaak op neer komt. Dat je er nog veel meer mee kunt en bijna hele objecten kunt renderen is een ander verhaal, maar in het geval van de haren in games is dat niet zo
Het het maar even in het goede draadje gezet
[ Voor 93% gewijzigd door Werelds op 11-02-2018 15:24 ]
The new Ultimate Answer to the Ultimate Question of Life, The Universe, and Everything: Debt: The First 5,000 Years
Omdat deze in sommige spellen significant sneller is? Prey bijvoorbeeld, 2x zo snel.foppe-jan schreef op dinsdag 13 februari 2018 @ 11:13:
iemand trouwens een idee waarom de rx550 2gb (begint bij 90) al vanaf dag 1 (dus ver voor de mining boom) zoveel duurder is dan de gt1030 (meeste tussen 70-85)?
[YouTube: https://www.youtube.com/watch?v=kgUVcI-8468]
Oei, een Vega 64 die 20% van de tijd onder de 60fps zit op 1080p is niet best.r100 schreef op maandag 26 februari 2018 @ 08:55:
Cool, bij HWI hebben ze wat nieuwe graphs van frame times opgenomenDie RX 580 doet het zo gek nog niet in Kingdom Come!
[afbeelding]
[afbeelding]
Ik hoop dat daar nog een driveroptimalisatie voor komt maar gezien de Polaris resultaten gok ik dat het verschil niet door de drivers te verklaren valt.
Laat weer zien wat een mislukking Vega eigenlijk is voor gaming...
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Het is een DX11 titel hé.Blaat schreef op maandag 26 februari 2018 @ 09:12:
[...]
Oei, een Vega 64 die 20% van de tijd onder de 60fps zit op 1080p is niet best.
Ik hoop dat daar nog een driveroptimalisatie voor komt maar gezien de Polaris resultaten gok ik dat het verschil niet door de drivers te verklaren valt.
Laat weer zien wat een mislukking Vega eigenlijk is voor gaming...
Verder laat deze game wederom zien wat er mis is met Vega 10 en gaming. 1080P is er nauwelijks een verschil tussen de RX Vega 56 en 64. Beiden lopen tegen een keiharde bottleneck aan gezien de beduidend hogere maximale rekenkracht van beide videokaarten. 1440P en daar is de RX Vega 64, de GTX1080 alweer voorbij en dat blijft zo bij 4K.
https://www.guru3d.com/ar...e-benchmark-review,4.html
Ik begrijp alleen niet welke malloot bij Guru3D heeft bedacht dat een RX580 vergeleken moet worden met een GTX1070.
https://www.guru3d.com/ar...e_benchmark_review,7.html
Maar pak er vervolgens een DX12/Vulkan titel bij en dan zitten beide RX Vega's dichter bij de GTX1080Ti dan de GTX1080. Dat is dus geen hardware bottleneck zoals een tekort aan ROP's. Dat is een softwarematige bottleneck waardoor de frontend niet 100% draait. Dat zie ik ook in elke DX11 game. Meestal haal ik maar tussen de 70 en 80% utilisatie. Dat is een keiharde draw call bottleneck waar ik al eerder op in ben gegaan. Je ziet dat bij elke DX11 game gebeuren.
DX12/Vulkan is gewoon 95%+ utilisatie en presteren. Het leukste voorbeeld voor mij is CiV 6. Framerate wordt maar bijna verdubbeld tussen DX11 en DX12 met mijn RX Vega 56.
Het is zeker geen mislukking voor gaming, Vega 10. Je hebt alleen wel de juiste games nodig en wat geduld. Uiteindelijk gaat Vega 10 ruim over GP104 presteren.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Maar mijn mening blijft hetzelfde. Vega heeft op dit moment alles tegen. Ze presteren (relatief) slecht op lage resolutie en op de API die op dit moment door 95% van alle games gebruikt wordt. Dat in combinatie met de dramatische verkrijgbaarheid van Vega kaarten die als er geen mining gekte zou zijn ook gewoon slecht is, met exorbitante prijzen tot gevolg.
Het komt erop neer dat een Vega64 die 2e hands 700 a 800 euro kost een de helft kostende NVidia kaart niet bij kan houden en/of geen strakke 60fps kan handhaven op de meest gangbare resolutie die er is op de meest gangbare API.
Vanuit dat perspectief is het erg lastig de "goed product" stempel te verantwoorden op Vega.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Dus wat je eigenlijk zegt is dat je beter deze generatie kan overslaan. Op het moment dat de benodigde APIs wat meer de standaard zullen zijn, heb je naar alle waarschijnlijkheid de optie om een product te kopen dat betere prestaties biedt voor minder geld...DaniëlWW2 schreef op maandag 26 februari 2018 @ 10:42:
[...]
Vega 10. Je hebt alleen wel de juiste games nodig en wat geduld. Uiteindelijk gaat Vega 10 ruim over GP104 presteren.
Tenzij je er €400 of iets meer voor een RX Vega 56 betaald zou ik ze niet kopen.Paprika schreef op maandag 26 februari 2018 @ 11:38:
[...]
Dus wat je eigenlijk zegt is dat je beter deze generatie kan overslaan. Op het moment dat de benodigde APIs wat meer de standaard zullen zijn, heb je naar alle waarschijnlijkheid de optie om een product te kopen dat betere prestaties biedt voor minder geld...
Ik zou niemand een Vega 10 aanraden voor meer dan de MSRP. Ze presteren rond de GTX1070Ti en GTX1080 in de meeste games als je zelf gaat undervolten. Krijg je ook het belachelijke verbruik op orde. Voor MSRP zijn het geweldige videokaarten die alleen maar beter zullen worden want "FineWine".
Boven MSRP zou ik ze niet kopen. Dat bekent dus dat je geen Vega 10 meer moet kopen voor gaming want die prijzen gaan niet meer herstellen denk ik. Laat de miners maar direct Vega FE's kopen en AMD flink wat omzet en winst opleveren. De rest naar Baidu voor deep learning of Apple.
Ik blijf ook bij mijn vermoeden dat Navi ook eerder komt dan veel mensen denken. Krijg je dadelijk een nieuwe "Polaris 10" situatie. Prestaties van Vega 10 of meer, voor mainstream prijzen. Dat lijkt me toch niet slecht. De hogere segmenten zitten er voor AMD niet in met de huidige API standaard en GCN.
[ Voor 13% gewijzigd door DaniëlWW2 op 26-02-2018 11:50 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
De 290 wordt volledig geütiliseerd, gebaseerd op de temperatuur.
Sta af en toe gewoon perplex nog als ik zie wat voor scenes de 290 kan tonen met een fps van boven de 50, iets wat mede door freesync perfect mee te spelen is in KC:D.
http://www.twitch.tv/jannustitannus
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
[ Voor 19% gewijzigd door DoubleYouPee op 26-02-2018 12:54 ]
Ik zou er ook niet op wachten...DoubleYouPee schreef op maandag 26 februari 2018 @ 12:50:
Bijna maart nu en je kan nog steeds geen Vega kaart kopen (voor een realistische prijs)......
AMD verkoopt chips voor de RX lijn waarschijnlijk met verlies. Natuurlijk hebben ze geen enkele interesse in chips zo verkopen als ze alternatieven hebben. Die alternatieven hebben ze ruimschoots.
[ Voor 29% gewijzigd door DaniëlWW2 op 26-02-2018 12:58 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Moet wel wachten, van NVIDIA kan ik ook niks kopen voor een normale prijs. (en heb freesync).DaniëlWW2 schreef op maandag 26 februari 2018 @ 12:57:
[...]
Ik zou er ook niet op wachten...
AMD verkoopt chips voor de RX lijn waarschijnlijk met verlies. Natuurlijk hebben ze geen enkele interesse in chips zo verkopen als ze alternatieven hebben. Die alternatieven hebben ze ruimschoots.
Ding heeft jaren op 1160 mhz gedraaid met lichte overvolt, maar draait nu zonder overvolt. Reden: Hij mag niet kapot, want een 580 (op welk niveau de 290 presteert in veel games) kost 350 euro of meer, de zelfde prijs als ik voor de 290 heb neergelegd, 4 jaar geleden...DaniëlWW2 schreef op maandag 26 februari 2018 @ 12:36:
Maar de 290(X) is samen met de 79xx dan ook de ultieme "FineWine". Moet je nagaan dat er voor de R9 290 nog een sprong aan zit te komen met DX12/Vulkan API games. Niet zo groot als Fiji of zeker Vega, maar merkbaar.
http://www.twitch.tv/jannustitannus
Graphene; a material that can do everything, except leave the lab. - Asianometry
Ik ben er ook bang voor.NitroX infinity schreef op maandag 26 februari 2018 @ 13:43:
Ik ben er van overtuigd dat we pas in 2019 met 7nm chips betere prestaties voor vergelijkbare prijzen zullen krijgen. 2018 wordt naar mijn mening een verloren jaar qua gpu's.
Zelfs al zou NVidia met een nieuwe serie kaarten komen, gaan ze zichzelf echt niet beconcurreren door de price/performance te verbeteren. Nee, ik denk dat als er een nieuwe serie komt dat die sneller is, maar ook duurder.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.

Nvidia heeft er alleen wel belang bij om iets uit te brengen. Stel AMD komt Navi echt in Q3 of Q4/2018 gebakken op 7nm en Nvidia heeft niks, dan heeft AMD vrij spel in de mainstream markt. Een GTX1060 kan niet op tegen een die shrink Vega 10. Meer dan een die shrink van Vega zal Navi ook niet zijn in termen van prestaties denk ik zo. Het hele verhaal over MCM met Navi ga ik hier niet weer afdraaien. Dat is relevant voor de prijs, niet de prestaties. Onder Navi zal er waarschijnlijk wel een SKU zijn die een GTX1080 nipt kan verslaan, voor minder dan €400. Dat is een probleem voor Nvidia.
De verhalen of mindshare etc geloof ik niet zo in. Natuurlijk heb je behoorlijke groepen die werkelijk niks goeds kunnen zeggen over het ene of het andere kamp. Dat zal met name AMD niet helpen omdat de Nvidia groep groter is, of tenminste beter is in schreeuwen. Dat neemt niet weg dat AMD een behoorlijke winst in marketshare realiseerde met Polaris 10. Zeker de RX470/RX570 zijn gewoon uitstekende mainstream kaarten waar Nvidia weinig tegenover kon zetten. Genoeg mensen die dat zagen. Dat kan AMD zo weer doen met Navi.
Verder concurreert Nvidia ook met zichzelf. Zodra de cryptomining niet meer rendabel is, en dat punt komt er door oplopende moeilijkheid of PoS, krijg je een stortvloed aan tweedehands Polaris 10, GP104 en GP106 kaarten. Dat is het moment dat je een nieuwe generatie uit wil brengen omdat je eigen omzet anders instort. Nvidia heeft er alle belang om de komende maanden met een nieuwe generatie te komen. Ze moeten Navi te snel af zijn om hun dominante marktpositie te behouden, zeker als ze nu met 12nm komen. Nvidia moet ook de tweedehands verkopen de kop indrukken want anders gaat ze enorme omzet mislopen.
[ Voor 3% gewijzigd door DaniëlWW2 op 26-02-2018 15:42 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
40nm HD 5870 230W
28nm HD 7850 130W
14nm RX 560 75W
Graphene; a material that can do everything, except leave the lab. - Asianometry
Pascal is in een vergelijkbare setting uitgekomen, dus het kan wel.Blaat schreef op maandag 26 februari 2018 @ 13:48:
[...]
Ik ben er ook bang voor.
Zelfs al zou NVidia met een nieuwe serie kaarten komen, gaan ze zichzelf echt niet beconcurreren door de price/performance te verbeteren.
Verwijderd
Tenzij die 'mining' ineenstort. Waarschijnlijker lijkt mij dat we mogen wachten op de volgende kaart van AMD, wat die ook is.DaniëlWW2 schreef op maandag 26 februari 2018 @ 15:39:
Ik denk dat we het er allemaal over eens zijn dat Vega 10 niet gaat gebeuren voor gaming.
Dan zijn de chips alsnog te duur om te verkopen aan AIB partners zonder verlies te maken. Een 484mm2 die en 8GB aan HBM2 zal met gemak richting of over de €200 gaan. Moet er nog een PCB, koeling, andere kosten en dan ook nog eens marges voor de AIB en de gehele retailketen bij...Verwijderd schreef op dinsdag 27 februari 2018 @ 00:14:
[...]
Tenzij die 'mining' ineenstort. Waarschijnlijker lijkt mij dat we mogen wachten op de volgende kaart van AMD, wat die ook is.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Veel winst zullen ze niet maken maar je zou wel Vega-56-kaarten voor €450-500 in de markt kunnen zetten. Verre van ideaal maar m.i. nog wel te verantwoorden t.o.v. het alternatief (GTX 1070( Ti)) gezien de betere performance met Vulkan en DX12 en het feit dat er nog wel flink wat rek in zit voor de CU-load. En FreeSync niet te vergeten. Soms vraag ik me af waarom AMD niet direct aan de klanten verkoopt, als je die retail eruit haalt dan zou het toch goedkoper moeten kunnen? Bij ons (Nederland) zitten er al snel minstens 2 distributeurs, een retailer en een AIB-partner tussen, de retailer en AIB-partner pakken minstens zo'n 10%. Waarom niet een goede heatsink en koeler erop en het direct zelf verkopen aan de klant zoals Nvidia voor sommige kaarten doet?DaniëlWW2 schreef op dinsdag 27 februari 2018 @ 00:18:
[...]
Dan zijn de chips alsnog te duur om te verkopen aan AIB partners zonder verlies te maken. Een 484mm2 die en 8GB aan HBM2 zal met gemak richting of over de €200 gaan. Moet er nog een PCB, koeling, andere kosten en dan ook nog eens marges voor de AIB en de gehele retailketen bij...
Dat ligt nogal voor de hand, de RX 480 functioneert al prima met 150 W als je een heel klein beetje ondervolt (bij de meeste samples uiteraard). De RX 470 komt op pak hem beet 90% daarvan uit, 135 W is dus genoeg. Ja, nog eens 65W, <50% , eraf moet wel kunnen met de dieschrink, dat is geen gewaagde voorspelling.NitroX infinity schreef op maandag 26 februari 2018 @ 15:53:
Het enige waar ik naar uitkijk met 7nm, is RX 470 prestaties op een 75Watt kaart. Ik heb er wel vertrouwen in dat dat gaat gebeuren gezien de voorgaande nodeshrinks, steeds wat betere prestaties voor flink lager stroomverbruik;
40nm HD 5870 230W
28nm HD 7850 130W
14nm RX 560 75W

Ongeacht of dat ze GF of TSMC gebruiken. De vraag is dan nog wat die gaat kosten, ongeveer wat een RX 460 en RX 560 kostten voordat de 'miners' toesloegen? Zelf vind ik een opvolger van de RX 580 die gelijk presteert aan de Vega 56 interessanter aangezien ik toch wel graag eens met 1440p (>100 FPS) of ultrawide (100 FPS en 100 Hz) zou willen gaan gamen. Als je zo'n kaart voor €250 zou kunenn kopen dan zou dat mogelijk een goede boost geven voor dit segment van de monitor-markt, als meer mensen het kopen dan kan de prijs dalen, dan gaan weer mensen het kopen...
[ Voor 60% gewijzigd door Verwijderd op 27-02-2018 00:42 ]
Omdat ze er dan alsnog verlies op maken. HBM2 alleen lijkt al $150 te zijn, en die prijs zal alleen maar opgelopen zijn het afgelopen halfjaar omdat er tekorten zijn. Dan komt die interposer nog eens en dan ook nog eens de 484mm2 die. Ze zullen met gemak over de $300 per chip gaan en dan kom jij aanzetten met MSRP of iets meer...Verwijderd schreef op dinsdag 27 februari 2018 @ 00:25:
[...]
Veel winst zullen ze niet maken maar je zou wel Vega-56-kaarten voor €450-500 in de markt kunnen zetten. Verre van ideaal maar m.i. nog wel te verantwoorden t.o.v. het alternatief (GTX 1070( Ti)) gezien de betere performance met Vulkan en DX12 en het feit dat er nog wel flink wat rek in zit voor de CU-load. En FreeSync niet te vergeten. Soms vraag ik me af waarom AMD niet direct aan de klanten verkoopt, als je die retail eruit haalt dan zou het toch goedkoper moeten kunnen? Bij ons (Nederland) zitten er al snel minstens 2 distributeurs, een retailer en een AIB-partner tussen, de retailer en AIB-partner pakken minstens zo'n 10%. Waarom niet een goede heatsink en koeler erop en het direct zelf verkopen aan de klant zoals Nvidia voor sommige kaarten doet?
Verder waarom zou AMD dit doen? Laat ze lekker de chips voor een paar duizend dollar per stuk verkopen aan Baidu ofzo. Bij Apple zullen ze niet veel verdienen, maar ook geen verlies draaien. Vega FE zal ook honderden dollars per kaart opleveren als ze die aan miners verkopen. De rest gaat naar andere Instinct MI25 of Radeon Pro klanten.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Het is m.i. duidelijk dat Vega ontwikkeld is om de performance kroon te pakken maar dat dit niet helemaal is gelukt. Het gevolg is dat ze de kaarten (aan gamers iig) voor minder moeten verkopen dan waar de business case waarschijnlijk rekening mee hield.
Naja, denkt AMD, dan maar meer chips de pro kant uit, daar valt tenminste nog wat te verdienen. En gelijk hebben ze imo.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Lijkt me ook logisch. Daarnaast zouden waarschijnlijk heel veel van die kaarten anders naar miners verdwijnen en daarmee dus nog steeds weinig goeds doen voor AMD in de gamers markt.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Oh er zullen genoeg van die kaarten verdwijnen hoor naar miners. Wel Vega FE met 16GB. Kunnen de miners voorlopig minen, en AMD verdient er ook goed aan.Help!!!! schreef op dinsdag 27 februari 2018 @ 09:50:
^
Lijkt me ook logisch. Daarnaast zouden waarschijnlijk heel veel van die kaarten anders naar miners verdwijnen en daarmee dus nog steeds weinig goeds doen voor AMD in de gamers markt.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Wegens dezelfde reden dat ieder ander bedrijf het doet: andere business, andere focus, andere mensen nodig, andere connecties, andere wetgeving, andere markt (B2B vs B2C) en zo kan ik er nog wel 100 opnoemen. Je hebt een management team dat ervaren is in de tech industrie met over het algemeen 0 ervaring in de retail wereld. Zo zie je ook dat de meeste bedrijven een pand huren i.p.v. kopen, externen inhuren voor verschillende taken: om de planten water te komen geven, schoonmaker is meestal extern, restaurant/kantine is meestal extern. Noem maar eens een merk dat wereldwijd opereert met een vergelijkbare omzet en zijn handel van idee tot aftersales in zijn geheel binnen eigen deuren regelt. Ik ken er oprecht nog niet eens eentje bedenken.Verwijderd schreef op dinsdag 27 februari 2018 @ 00:25:
[...]
Soms vraag ik me af waarom AMD niet direct aan de klanten verkoopt, als je die retail eruit haalt dan zou het toch goedkoper moeten kunnen? Bij ons (Nederland) zitten er al snel minstens 2 distributeurs, een retailer en een AIB-partner tussen, de retailer en AIB-partner pakken minstens zo'n 10%. Waarom niet een goede heatsink en koeler erop en het direct zelf verkopen aan de klant zoals Nvidia voor sommige kaarten doet?
Effectief kost het je meer geld om voor al die disciplines iets in te regelen i.p.v. het over te laten aan een partij die juist gespecialieerd is in een bepaalde dienst. Een grote retailer heeft veel minder last van overbezetting (of juist te veel personeel). Op het moment dat AMD even 'niets' verkoopt (nu dus) heeft een dergelijke partij wel andere producten (concurrent, ander onderdeel of zelfs een totaal andere markt) die als warme broodjes over de toonbank gaan en zo heb je geen staffing probleem.
[ Voor 18% gewijzigd door Paprika op 27-02-2018 17:14 ]
Ben benieuwd wat er uit Navi gaat komen. Zou mij niet verbazen als dat allemaal zo lang gaat duren dat het weer een RX480/4870 achtige launch gaat worden die qua performance stopt aan het einde van het midden segment. Nvidia zal in de zomer wel weer met een 40% snellere x80 kaart komen (relatief, TPU grafiek).
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Ze zitten er eigenlijk vrij dicht bij gezien hun mogelijkheden wat alleen maar aantoont dat jouw argument van beperkte(re) R&D mogelijkheden helemaal niet zo sterk is als het lijkt.
Dat zie je ook weer terug bij Ryzen, dat succes zou volgens jouw argumentatie eigenlijk ook niet mogelijk moeten zijn.
Kijk jij neemt gewoon een aantal obvious elementen zoals R&D budget en gaat jezelf dan achteraf op de borst slaan hoe goed je glazen bol is. Ik vind het allemaal niet zo sterk. Het is de veilige weg.
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Met Ryzen lijkt het gat behoorlijk gedicht. De afstand op gpu lijkt groter dan ooit. Als chipbakker kun je qua performance altijd wel iets in de buurt maken, afhankelijk van hoe dol je het durft te maken. Kwestie van grotere chip met meer stroomverbruik inzetten om een 'concurrerend' product neer te zetten. Dit met aanhalingstekens omdat een product technisch concurrerend kan zijn, maar als je er net break-even mee draait dan is het eigenlijk geen concurrerend product... AMD doet eigenlijk vaak aan product dumping, het onder de kostprijs verkopen van producten.Help!!!! schreef op dinsdag 27 februari 2018 @ 18:15:
Ach, waren een paar zaken net anders gevallen zoals bijv HBM2 ramp up dan had het er waarschijnlijk ook weer anders uitgezien.
Ze zitten er eigenlijk vrij dicht bij gezien hun mogelijkheden wat alleen maar aantoont dat jouw argument van beperkte(re) R&D mogelijkheden helemaal niet zo sterk is als het lijkt.
Het kan wel alleen je bent dan enorm beperkt (wat ze slim hebben opgelost met 1fits all design) en het duurt lang.Dat zie je ook weer terug bij Ryzen, dat succes zou volgens jouw argumentatie eigenlijk ook niet mogelijk moeten zijn.
Succes is er met Ryzen nog niet echt behaald. Voorlopig zit AMD nog niet op het omzet niveau van <2008 toen de fout werd gemaakt het R&D budget te verlagen. Ook bij de marktaandelen wil het nog niet vlotten. De echte comeback moet nog komen. Dat heeft wat tijd nodig.
Ter indicatie: in 2006 deed amd nog $5,367 omzet met alleen computing (cpu). Toen ze Ati overnamen was dat circa 1 miljard aan omzet bij aan die kant. Anno 2017 doet AMD $3,029 voor zowel computing ALS graphics bij elkaar. Los van de inflatie er is nog 2-3 miljard te gaan. Dan is AMD weer waar ze 10 jaar geleden waren, voor ze Ati kochten.
Hoho, toen ik daar jaren geleden mee kwam werd er nogal tegen geageerd. Er is heel wat afgeflamed dus veilig was het zeker niet. Vooral dat AMD high-end gpu zou verlaten wilde er echt niet in. Ook niet toen+- 3 jaar later de eerste tekenen duidelijk zichtbaar waren (steeds latere time to market). Laatste tegenargument was bijvoorbeeld dat de overstap naar nieuwe nm het speelveld weer gelijk zou trekken en dat AMD het op DX12 veel beter zou doen. Dat samen zou de comeback van AMD in graphics garanderen.Kijk jij neemt gewoon een aantal obvious elementen zoals R&D budget en gaat jezelf dan achteraf op de borst slaan hoe goed je glazen bol is. Ik vind het allemaal niet zo sterk. Het is de veilige weg.
Verder staat het iedereen vrij om een andere voorspelling te doen en die op zijn of haar manier te onderbouwen. Dat juich ik alleen maar toe.
Wat ik nu zie is Ryzen overal op voorraad voor flink lagere prijzen. De 1700X kwam voor 450 en is nu +- 300. Ook zie ik dat de omzet van Q4 2017 200 miljoen lager lag dan die van Q3. De run op Ryzen lijkt dus eigenlijk al voorbij. Ik vrees dat AMD het moet hebben van de notebooks en epyc. De vraag is hoe lang het gaat duren voor ze daar weer een voet aan de grond krijgen. Notebook zou snel kunnen gaan mits ze volumes gaan leveren aan OEMs. Epyc heb ik een hard hoofd in gezien de eerder genoemde argumenten. Niet veel bedrijven zullen de gok durven nemen.
[ Voor 18% gewijzigd door sdk1985 op 28-02-2018 00:15 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
Om fair te zijn, de superioriteit in Vulkan en DX12 (het kleine broertje van Vulkan wat MS kopiëerde/plagieerde voor DX12, daarom als tweede genoemd
De lagere prijzen van Ryzen kan je niet buiten de context van zowel Coffee Lake als Ryzen+ zien. Met Coffee Lake is er gewoon geen markt meer voor een 1700X/1800X die meer dan dat kost, De prijs van de 1600 en 1700 is niet zo sterk gedaald, slechts een beetje. AMD kon bij de launch die prijzen fors hoger maken omdat Intel zulke gigantische winstmarges hanteerde en weigerde om die snel aan te passen, wat m.i. veel strategischer zou zijn geweest voor Intel. Het is nogal wiedes dat op het moment dat Intel eindelijk eens voorzichtig reageert (Coffee Lake) dat AMD dan de prijzen van de 1700X/1800X moet aanpassen, immers kan je onmogelijk een hogere prijs voor die modellen vragen dan wat de 8700k kost. Ik zou dat dus niet duiden als Ryzen wat minder populair is geworden maar als Intel die nu realistischere prijzen hanteert voor hun CPU's, zie ook dat de voormalige dual-core-modelnummers nu quadcoremodelnummers zijn, ook bij laptops gelukkig.
Ik ben het wel met jou eens dat het gat in gaming-graphics nu groot is, vooral omdat AMD i.t.t. Nvidia niet twee verschillende GPU's kan ontwerpen voor twee verschillende markten want in de markt waarvoor Vega ontworpen lijkt te zijn presteert de kaart prima, aanzienlijk beter dan de 1080 en zelfs beter dan de 1080 Ti en de Titan XP.
Of eigenlijk Titan Vista aangezien de Titan daarvoor al de Titan XP heet
De grote vraag is momenteel of dat een one size fits all oplossing voor GPU's eveneens mogelijk is. Het lijkt mij dat dit in belangrijke mate afhangt van hoe hoog je IF kan klokken, daarvan hangt het af of dat je wel of niet een relevante latency-penalty krijgt als je op een modulaire wijze een GPU samenstelt. Gelukkig zijn inmiddels aardig wat specificaties over de IF bekend dus dat zouden we eens nader kunnen bekijken. Los daarvan is het dan nog de vraag of GCN zich hier goed voor leent. Het lijkt erop dat voor AMD de CPU de grotere prioriteit was aangezien hiermee meer te winnen valt op de korte termijn, er zijn aanwijzingen dat er meer in de GPU R&D wordt geïnvesteerd dankzij het succes van Ryzen. We zouden daar over een jaar of 3-4 (opvolger van Navi?) de vruchten van moeten zien.
@Paprika
Ik neem het van jou aan, ik zal wel onderschatten wat er bij komt kijken om zelf zo'n tak op te zetten als AMD/Nvidia/Intel.
[ Voor 100% gewijzigd door Verwijderd op 01-03-2018 15:14 ]
Toch jammer dat het waarschijnlijk vooral door mining komt.AMD Increased GPU Market Share in Q4
Q4 was a good quarter for AMD as they increased their market share by 8.1%. Jon Peddie Research attributes some of this to the cryptocurrency market and says over 3M add-in boards went to cryptocurrency miners in 2017. Overall this is a nice jump for AMD and should help them out in the short term as long as cryptomining is profitable. Also, Dr. Peddie is on the same page as Nvidia and doesn't believe GPU prices are going to start dropping anytime soon.
News Image
AMD’s overall unit shipments increased 8.08% quarter-to-quarter, Intel’s total shipments decreased -1.98% from last quarter, and Nvidia’s decreased -6.00%.
The attach rate of GPUs (includes integrated and discrete GPUs) to PCs for the quarter was 134% which was down -10.06% from last quarter.
Discrete GPUs were in 36.88% of PCs, which is down -2.67%
Is dat door het tekort aan gddr5?
Want verkopen doen hun gpu's wel.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
http://www.tomshardware.c...u-market-share,36592.html
edit: Nog wat extra data over GPU verkopen. Nou AMD is dankzij de miners hard op weg naar de 35% marktaandeel. Het diepe dal van de R9 200 en R9 300 serie hebben ze in ieder geval verlaten. Zal dus ook weer geld binnenkomen bij de RTG.
https://www.anandtech.com...hics-card-shipment-report
[ Voor 25% gewijzigd door DaniëlWW2 op 01-03-2018 20:38 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Dat laatste blijkt ook wel uit de cijfers die bij Anantech worden gequote. Peddle schat de omzet van AMD gpu op 776 miljoen. Als je dan in het Q3 2017 rapport kijkt dan zie je computing & graphics (dus inclusief Ryzen EN Epyc) $819 miljoen doen. Cijfers van Peddle kunnen dus niet kloppen.
Dit is wel heel tof:
Een Zuid-Koreaanse website heeft een review van de Hades Canyon-NUC met Intel Core i7-8809G gepubliceerd. Dat is de chip die is gecombineerd met een RX Vega M GH-gpu. Uit de benchmarks blijkt dat de gpu sneller is dan de Nvidia GTX 1050 Ti.
[ Voor 25% gewijzigd door sdk1985 op 01-03-2018 23:46 ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Dat kan best kloppen aangezien elke kaart op de markt wel opgekocht is. Ik vraag me serieus af hoe de resulaten zich nu verhouden onder de gamers zelf. Ik zie dat je eerste link daar al antwoord op geeft.DaniëlWW2 schreef op donderdag 1 maart 2018 @ 18:20:
edit: Nog wat extra data over GPU verkopen. Nou AMD is dankzij de miners hard op weg naar de 35% marktaandeel. Het diepe dal van de R9 200 en R9 300 serie hebben ze in ieder geval verlaten. Zal dus ook weer geld binnenkomen bij de RTG.![]()
https://www.anandtech.com...hics-card-shipment-report
Het is dus niet te zeggen wat AMD momenteel echt doet in marketshare (voor nVidia ook op dit moment)."JPR said that over 3 million discrete graphics cards were sold to cryptocurrency miners in 2017, for an estimated total of $776 million in revenue. The firm further stated that AMD is the largest benefactor of those sales, but it didn't provide specific percentages. "
AMD is short term enorm aan het profiteren van crypto, maar is dezelfde trend uberhaupt wel gaande onder gaming? Wat gaat er gebeuren als crypo straks geen sales boost meer geeft voor hen? Ik denk dat die 35% verdampt waar je bij staat als AMD niet vlot nVidia echt gaat beconcureren met een winstgevend design.
Verder moet AMD eigenlijk in H2/2018 met Navi komen. De Nvidia geruchtenmolen is begonnen en het begint steeds meer te lijken op TSMC 7nm chips die in H2/2018 te krijgen zullen zijn. Dan kan Navi niet lang op zich laten wachten.
Meer dan een GTXxx60, misschien GTXxx70 concurrent verwacht ik eigenlijk niet van Navi. Navi gaat gewoon een nieuwe iteratie van GCN zijn met dezelfde frontend bottleneck. Ik verwacht eigenlijk dezelfde aanpassingen als in Vega zitten, maar nu als iets meer toegespitst MCM ontwerp en met GDDR6. Breekt DX12/Vulkan dit jaar nu eens door, dan kan gaan Navi presteren tegen de gehele Nvidia lijn en op prijs eronder gaan zitten, anders niet.
Niet dat zelfs GTXxx60 prestatieniveau nu echt slecht zou zijn. Dan zal je ongeveer Vega 10 prestaties voor minder dan €300 in de winkel krijgen. Dat is goed mogelijk met een die shrink naar 7nm TSMC. Dat zou voldoende moeten zijn om in de mainstream markt te blijven en daar zit veel marktaandeel.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Waarom ben je zo zeker dat bij Navi de frontend bottleneck niet aangepakt wordt?
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Lijkt mij dat ze al lang van die front-end weten, maar in zowel Tonga/Fiji, Polaris en Vega hebben ze daar niets aan gedaan.Help!!!! schreef op vrijdag 2 maart 2018 @ 14:36:
^
Waarom ben je zo zeker dat bij Navi de frontend bottleneck niet aangepakt wordt?
Navi gaat gewoon een testbed zijn voor CCX modules voor gpu's, zoals Fiji een testbed was voor HBM en Vega voor primitive discard shaders en die andere troep die niet werkt.
Van GCN hoef je geen wonderen meer te verwachten. Die werd door Maxwell doodgeschoten en door Pascal in de kist gelegd. De volgende Nvidia architectuur zal GCN begraven.
Graphene; a material that can do everything, except leave the lab. - Asianometry
Omdat ze al tegen een limiet aanliepen bij Hawaï, er niks aan deden bij Fiji of Vega, er er ook niks aan kunnen doen vanuit de hardware kant zonder radicale aanpassingen aan de GCN architectuur. Navi kan wel eens de laatste iteratie van GCN gaan worden. Na Navi zou er wel eens een puur gaming georiënteerde architectuur kunnen verschijnen. Daar zijn een aantal redenen voor te geven. De belangrijkste misschien de hint die ze zelf geven in hun eigen marketing slides met "Next Gen".Help!!!! schreef op vrijdag 2 maart 2018 @ 14:36:
^
Waarom ben je zo zeker dat bij Navi de frontend bottleneck niet aangepakt wordt?
Maar ik denk dus niet dat AMD tegen een specifiek hardware probleem aanloopt in welke iteratie van GCN dan ook. Misschien Fiji want die 4GB vram gaat die kaarten binnenkort opbreken. Vega in ieder geval niet en Polaris 10 ook niet. Nee, de kaarten lopen al tegen een botteneck aan voordat ze beginnen met een frame te renderen. Dat is een draw call bottleneck die ik hier al eens heb toegelicht.
DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 143"
Nvidia heeft hier geen last van omdat ze draw calls softwarematig plannen en via hun driverstack meerdere CPU cores aan kunnen spreken. AMD videokaarten kunnen dit niet. In een DX12 of Vulkan game zie je AMD kaarten gigantische sprongen in prestaties maken omdat ze niet meer tegen een bottleneck aanlopen. Polaris 10 gaat dan al richting de GTX1070, RX Vega's passeren de GTX1080 en gaan richting de GTX1080Ti.
Nu stel je voor dat Navi die MCM videokaart is waar ze meerdere GPU chips op een interposer hebben "gelijmd". Wat houdt AMD precies tegen om met een gigantische monster te komen? 64CU's zijn zo 2015, nee ze komen bijvoorbeeld met 96CU's, verdeeld over acht pipelines van elk 12CU's en 16 ROP's. Maak je er vier chips van, dan heb je het over 24CU's en 32 ROP's per chip. Laat een chip van deze verhoudingen toevallig een chip zijn die AMD op het moment aan Intel verkoopt als RX Vega M. Op het 14nm procedé zal deze ongeveer 200mm2 zijn. Op het 7nm procedé van TSMC zal deze rond de 120mm2 zitten schat ik zo in.
Pak vier van die dingen, "lijm" ze op een interposer, aparte controlechip erbij voor zaken zoals de geheugencontroller of I/O, GDDR6 erbij, kaart omheen bouwen en dit kan je waarschijnlijk in de winkel zien voor €400, misschien €450. Heb je een videokaart die een GTX1080Ti waarschijnlijk met iets van 40-50% verslaat in elke DX12 of Vulkan game. Best aardig totdat je een DX11 titel speelt en je misschien 10% voorbij de RX Vega 64 komt.
En dat is het probleem hier. Ik denk dat ik gelijk heb over mijn draw call theorie. Ik kan het niet bewijzen want draw calls kan je niet zomaar tevoorschijn toveren. Ik let wel op de utilisatie van mijn RX Vega 56 als ik bepaalde games speel. Het blijft me opvallen dat de utilisatiegraad daalt in stukken van een game met veel grafisch detail. Dat is geen toeval.
En dat is waarom ik dus sceptisch ben over Navi. Zijn (bijna) alle "AAA" games van het komende jaar gebaseerd op DX11 en DX12 of Vulkan API, dan kan Navi een gigantische sprong voorwaarts zijn. Is dat niet zo dan verwacht ik hooguit een kleine verbetering ten opzichte van Vega.
Als laatste nog even een korte demonstratie van wat RX Vega nu echt kan met DX12.
CiV 6 DX11:

CiV 6 DX12:

Zoals je kan zien is DX12 net even wat beter. Net.
Moet er wel bij zeggen dat CiV 6 een extreem voorbeeld is. Meestal verdubbelt de framerate namelijk niet als ik tussen DX11 en DX12 wissel. Aan de andere kant is de GPU utilisatie in CiV 6 DX11 ook gewoon slecht.
[ Voor 7% gewijzigd door DaniëlWW2 op 03-03-2018 00:16 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Het kan ook dat AMD met opzet niets deed aan deze bottleneck aangezien het vermogen te hoog zou worden als ze die front-end een grotere bandbreedte geven. We weten in ieder geval dat elke keer weer - bij GCN - het vermogen uit de hand loopt zo gauw de GPU's teveel CU's hebben. Ik ben het met Daniël eens dat het voor de hand ligt dat ook bij Navi het beste van AMD niet direct de concurrentie aan kan met het beste van Nvidia, tenzij Vulkan en DX12 standaard en goed worden gebruikt, veronderstellende dat ook voor Navi GCN wordt gebruikt.NitroX infinity schreef op vrijdag 2 maart 2018 @ 15:10:
[...]
Lijkt mij dat ze al lang van die front-end weten, maar in zowel Tonga/Fiji, Polaris en Vega hebben ze daar niets aan gedaan.
Dat denk ik niet, AMD kan de competitie aan tot en met het segment van rond de $400-450 (MSRP, reference-kaarten), daarboven krijg je de bekende problemen met AMD-GPU's die onderpresteren in spellen, de GPU's schalen prima voor 'zakelijke' applicaties maar niet voor spellen en AMD kan nu eenmaal nog niet twee types GPU's ontwerpen voor 2 markten zoals Nvidia dat doet, Su heeft echter wel gehint dat AMD speelt met de gedachte om dit te gaan doen maar tegen de tijd dat het zo ver is zijn we weer jaren verder. De problemen van Vega64 zijn niets nieuws, je zag bijvoorbeeld hetzelfde bij de FuryX. Vega56 daarentegen is een prima GPU! Als AMD bij Navi voor pak hem beet $200 (MSRP, een simpel blower-koelertje en geen mooie heatsink) een shrink van de Vega56 (minder CU's maar hogere klokfrequentie etc.) kan uitbrengen en de opvolger van de Vega56 gelijk zou presteren aan een 1080 Ti dan kan AMD prima de concurrentie aan, alleen niet in het topsegment waarvan nauwelijks grafische kaarten worden verkocht. Het is vooral een prestige-kwestie en misschien heeft het enige invloed op de marketing als mensen zich blindstaren op het topsegment en abusievelijk redeneren dat het topsegment representatief is voor hoe de twee bedrijven zich verhouden tot elkaar voor lagere segmenten.De volgende Nvidia architectuur zal GCN begraven.
Meer concreet merkte Su het op in dat laatste grote interview waarnaar werd gelinkt in de andere Tweakers-forum-draad over AMD.DaniëlWW2 schreef op vrijdag 2 maart 2018 @ 19:43:
De belangrijkste misschien de hint die ze zelf geven in hun eigen marketing slides met "Next Gen".
[ Voor 54% gewijzigd door Verwijderd op 03-03-2018 16:45 ]
Je kan het moeilijk met me eens zijn als je mijn argument niet begrijpt.Verwijderd schreef op zaterdag 3 maart 2018 @ 16:19:
[...]
Het kan ook dat AMD met opzet niets deed aan deze bottleneck aangezien het vermogen te hoog zou worden als ze die front-end een grotere bandbreedte geven. We weten in ieder geval dat elke keer weer - bij GCN - het vermogen uit de hand loopt zo gauw de GPU's teveel CU's hebben. Ik ben het met Daniël eens dat het voor de hand ligt dat ook bij Navi het beste van AMD niet direct de concurrentie aan kan met het beste van Nvidia, tenzij Vulkan en DX12 standaard en goed worden gebruikt, veronderstellende dat ook voor Navi GCN wordt gebruikt.
Het is geen hardware limitering die voor de problemen zorgt maar een softwarematige limitering. De frontend een grotere bandbreete geven slaat nergens op. Je hebt je vier graphics pipelines in elke prestatiegerichte GCN videokaart. Bij een videokaart zoals een RX Vega 56 heb je 14CU's per pipeline. Om het maar even heel grof te generaliseren doen CU's 13 en 14 meestal helemaal niks. Of CU's 11 en 12 wat doen is vaak al uiterst twijfelachtig. Er is geen tekort aan rauwe rekenkracht in welke GCN videokaart dan ook. Extra CU's zijn ook niet de oorzaak van een hoger verbruik. Doen CU's niks, dan worden ze dynamisch uitgeschakeld en gaan pas weer aan als er wat te berekenen valt. Ze dan maar weghalen is al helemaal een slecht idee gezien de duale functie van GCN chips als videokaart en GPGPU accelerator.
Verder is AMD al jaren bezig is met de oplossing. Er is geen hardware fix voor GCN mogelijk, of nodig. De oplossing is softwarematig. Instructies van een game om lijntjes te trekken en deze om te zetten in 3D objecten moet via de API verdeeld worden over meerdere CPU cores die vervolgens deze opdrachten aan de GPU geven. Dat is wat Mantle deed, dat is wat Vulkan doet en dat is was DX12 doet. Er moeten botweg meer instructies worden geleverd aan de videokaart dan een CPU core kan leveren.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
New architecture/appliance video/virtualisation interface ?
iemand anders wel eens aan het brainstormen geweest dat die codenamen eigenlijk afkortingen kunnen zijn ?
Vega was een codenaam voordat ze besloten hadden dat het ook gebruikt ging worden bij release.
How do you save a random generator ?
Wat gebeurd er met je cpu load wanneer je SMT uitschakeld? Bij mij lijkt Civ VI namelijk niks te doen met HT, ik lijk tegen een cap van 50% aan te lopen. Daarbij haal ik dan overigens wel 133 fps wat gelukkig niet zo erg is als 40 fpsDaniëlWW2 schreef op vrijdag 2 maart 2018 @ 19:43:
[...]
Omdat ze al tegen een limiet aanliepen bij Hawaï, er niks aan deden bij Fiji of Vega, er er ook niks aan kunnen doen vanuit de hardware kant zonder radicale aanpassingen aan de GCN architectuur. Navi kan wel eens de laatste iteratie van GCN gaan worden. Na Navi zou er wel eens een puur gaming georiënteerde architectuur kunnen verschijnen. Daar zijn een aantal redenen voor te geven. De belangrijkste misschien de hint die ze zelf geven in hun eigen marketing slides met "Next Gen".
Maar ik denk dus niet dat AMD tegen een specifiek hardware probleem aanloopt in welke iteratie van GCN dan ook. Misschien Fiji want die 4GB vram gaat die kaarten binnenkort opbreken. Vega in ieder geval niet en Polaris 10 ook niet. Nee, de kaarten lopen al tegen een botteneck aan voordat ze beginnen met een frame te renderen. Dat is een draw call bottleneck die ik hier al eens heb toegelicht.
DaniëlWW2 in "CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 143"
Nvidia heeft hier geen last van omdat ze draw calls softwarematig plannen en via hun driverstack meerdere CPU cores aan kunnen spreken. AMD videokaarten kunnen dit niet. In een DX12 of Vulkan game zie je AMD kaarten gigantische sprongen in prestaties maken omdat ze niet meer tegen een bottleneck aanlopen. Polaris 10 gaat dan al richting de GTX1070, RX Vega's passeren de GTX1080 en gaan richting de GTX1080Ti.
Nu stel je voor dat Navi die MCM videokaart is waar ze meerdere GPU chips op een interposer hebben "gelijmd". Wat houdt AMD precies tegen om met een gigantische monster te komen? 64CU's zijn zo 2015, nee ze komen bijvoorbeeld met 96CU's, verdeeld over acht pipelines van elk 12CU's en 16 ROP's. Maak je er vier chips van, dan heb je het over 24CU's en 32 ROP's per chip. Laat een chip van deze verhoudingen toevallig een chip zijn die AMD op het moment aan Intel verkoopt als RX Vega M. Op het 14nm procedé zal deze ongeveer 200mm2 zijn. Op het 7nm procedé van TSMC zal deze rond de 120mm2 zitten schat ik zo in.
Pak vier van die dingen, "lijm" ze op een interposer, aparte controlechip erbij voor zaken zoals de geheugencontroller of I/O, GDDR6 erbij, kaart omheen bouwen en dit kan je waarschijnlijk in de winkel zien voor €400, misschien €450. Heb je een videokaart die een GTX1080Ti waarschijnlijk met iets van 40-50% verslaat in elke DX12 of Vulkan game. Best aardig totdat je een DX11 titel speelt en je misschien 10% voorbij de RX Vega 64 komt.
En dat is het probleem hier. Ik denk dat ik gelijk heb over mijn draw call theorie. Ik kan het niet bewijzen want draw calls kan je niet zomaar tevoorschijn toveren. Ik let wel op de utilisatie van mijn RX Vega 56 als ik bepaalde games speel. Het blijft me opvallen dat de utilisatiegraad daalt in stukken van een game met veel grafisch detail. Dat is geen toeval.
En dat is waarom ik dus sceptisch ben over Navi. Zijn (bijna) alle "AAA" games van het komende jaar gebaseerd op DX11 en DX12 of Vulkan API, dan kan Navi een gigantische sprong voorwaarts zijn. Is dat niet zo dan verwacht ik hooguit een kleine verbetering ten opzichte van Vega.
Als laatste nog even een korte demonstratie van wat RX Vega nu echt kan met DX12.
CiV 6 DX11:
[afbeelding]
CiV 6 DX12:
[afbeelding]
Zoals je kan zien is DX12 net even wat beter. Net.![]()
Moet er wel bij zeggen dat CiV 6 een extreem voorbeeld is. Meestal verdubbelt de framerate namelijk niet als ik tussen DX11 en DX12 wissel. Aan de andere kant is de GPU utilisatie in CiV 6 DX11 ook gewoon slecht.



De eerste deed 97% gpu en 50% cpu en de tweede deed 98% gpu en 46% gpu. Verschil is 2 en 4 MSAA. Ik kan de AVX offset wat verlangen maar het zit nu zo dicht op elkaar dat dit weinig nut heeft.
Het zou mij niet verbazen als jij met een 8600K op 5-5.2 GHz ineens wel 60 fps op DX11 kunt halen.
[ Voor 13% gewijzigd door sdk1985 op 03-03-2018 23:12 . Reden: ik dacht 49% cpu usage te zien, maar dat was gpu usage ]
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

Waarom? Omdat early game er nauwelijks wat wordt gerendered in CiV 6. GPU utilisatie is ook behoorlijk goed met 80+. De meeste DX11 games zitten tussen de 70 en 80% in en zakken weg bij plekken met veel detail en dus veel primitives om te renderen.
Dat is een gigantische CPU bottleneck voor mijn videokaart. Een 8600K @5GHz gaat nauwelijks een deukje hierin slaan. De DX11 API gooit botweg veel te veel berekeningen op een master CPU core om nog lang relevant te zijn voor grafisch intensieve games. Dat Nvidia GPU's überhaupt 95%+ belasting halen in DX11 titels komt door de Nvidia drivers die softwarematig draw call instructies verdelen over meerdere CPU cores. Zonder die drivers zouden de prestaties van kaarten zoals de GTX1080Ti ook helemaal instorten in elke DX11 titel.
Dat kunnen GCN based videokaarten niet doen omdat ze dit hardwarematig doen. Dit aanpassen gaat AMD ook nooit doen. Het zou de GPGPU prestaties verzwakken, meer CPU overhead veroorzaken en low level acces van de videokaart onmogelijk maken. Daarmee zou AMD vijf jaar van low level API's pushen in een keer weggooien, op het moment dat ze langzaam tractie beginnen te krijgen en spectaculaire resultaten laten zien voor AMD videokaarten. Elke game waar ik DX12 kan gebruiken, ik dit ook doe. Iedereen met een Hawaï, Fiji, Polaris en al helemaal een Vega GPU moet dit ook doen om precies deze reden. Omdat draw calls niet meer afhankelijk zijn van een CPU core in low level API's, worden extreme clockspeeds dat ook niet meer. Nee, aantal cores en threads, dat gaat tellen.
[ Voor 14% gewijzigd door DaniëlWW2 op 04-03-2018 12:26 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Dat is allemaal evident en ik ben het hier dan ook volmondig mee eens, het probleem is alleen dat AMD voor 100% afhankelijk is van developers die veel te weinig en veel te laat overstappen naar Vulkan en DX12. Hopelijk gaan de beide API's, maar vooral Vulkan, in de komende 2 jaar wel voor 100% doorbreken, buiten wat kleine en 'simpele' spellen die dat niet nodig hebben. We moeten een beetje realistisch zijn, Vulkan is nu sinds 1-2 jaar beschikbaar, DX12 sinds 2-3 jaar. Je mag op minstens 4 jaar rekenen voordat het doorbreekt als developers direct de nieuwe API's gebruiken gezien de ontwikkeltijd voor spellen. Als ze ook nog eerst een paar jaar nodig hebben om het licht te zien (dat deze API's betere mogelijkheden bieden) en om te leren hoe ze ermee werken...DaniëlWW2 schreef op zaterdag 3 maart 2018 @ 17:40:
[...]
Je kan het moeilijk met me eens zijn als je mijn argument niet begrijpt.![]()
Het is geen hardware limitering die voor de problemen zorgt maar een softwarematige limitering. De frontend een grotere bandbreete geven slaat nergens op. Je hebt je vier graphics pipelines in elke prestatiegerichte GCN videokaart. Bij een videokaart zoals een RX Vega 56 heb je 14CU's per pipeline. Om het maar even heel grof te generaliseren doen CU's 13 en 14 meestal helemaal niks. Of CU's 11 en 12 wat doen is vaak al uiterst twijfelachtig. Er is geen tekort aan rauwe rekenkracht in welke GCN videokaart dan ook. Extra CU's zijn ook niet de oorzaak van een hoger verbruik. Doen CU's niks, dan worden ze dynamisch uitgeschakeld en gaan pas weer aan als er wat te berekenen valt. Ze dan maar weghalen is al helemaal een slecht idee gezien de duale functie van GCN chips als videokaart en GPGPU accelerator.
Verder is AMD al jaren bezig is met de oplossing. Er is geen hardware fix voor GCN mogelijk, of nodig. De oplossing is softwarematig. Instructies van een game om lijntjes te trekken en deze om te zetten in 3D objecten moet via de API verdeeld worden over meerdere CPU cores die vervolgens deze opdrachten aan de GPU geven. Dat is wat Mantle deed, dat is wat Vulkan doet en dat is was DX12 doet. Er moeten botweg meer instructies worden geleverd aan de videokaart dan een CPU core kan leveren.
Voor nu is de realiteit dat de meeste zogenaamde DX12-spellen slechts een DX12-patch hebben en dat we voor Vulkan pak hem beet 2 spellen van 1 developer (Doom en Wolfenstein) hebben waarin deze API een groot verschil maakt, en dat ligt niet aan de API.
Tegen de tijd dat Vulkan en DX12 echt doorbreken - ja, dat zal vast wel ergens in de komende 5 jaar gaan gebeuren - zal Nvidia hun architectuur er ook wel aan hebben aangepast.
[ Voor 17% gewijzigd door Verwijderd op 04-03-2018 14:18 ]
De DX12 en Vulkan releases stammen dan ook uit respectievelijk juli 2015 en februari 2016. De meeste "AAA" games zijn tegenwoordig drie jaar in ontwikkeling. Dat is relevant omdat je geen driver optimalisaties kan uitvoeren als de game op een low level API draait. Het zijn de game developers die dus eerst de API moeten doorgronden en vervolgens hun code zelf moeten optimaliseren voordat ze gebruik kunnen maken van een low level API. Dat proces draaien ze niet in een paar weken af. Kies je als studio voor DX12 of Vulkan implementatie dan gaat dit gepaard met extra inzet van de studio om het eindproduct goed te laten werken. Deze inzet moet vervolgens wel een extra prestaties of grafische kwaliteit opleveren, anders maken studio's die stap niet.Verwijderd schreef op zondag 4 maart 2018 @ 14:11:
[...]
Dat is allemaal evident en ik ben het hier dan ook volmondig mee eens, het probleem is alleen dat AMD voor 100% afhankelijk is van developers die veel te weinig en veel te laat overstappen naar Vulkan en DX12. Hopelijk gaan de beide API's, maar vooral Vulkan, in de komende 2 jaar wel voor 100% doorbreken, buiten wat kleine en 'simpele' spellen die dat niet nodig hebben. We moeten een beetje realistisch zijn, Vulkan is nu sinds 1-2 jaar beschikbaar, DX12 sinds 2-3 jaar. Je mag op minstens 4 jaar rekenen voordat het doorbreekt als developers direct de nieuwe API's gebruiken gezien de ontwikkeltijd voor spellen. Als ze ook nog eerst een paar jaar nodig hebben om het licht te zien (dat deze API's betere mogelijkheden bieden) en om te leren hoe ze ermee werken...
Voor nu is de realiteit dat de meeste zogenaamde DX12-spellen slechts een DX12-patch hebben en dat we voor Vulkan pak hem beet 2 spellen van 1 developer (Doom en Wolfenstein) hebben waarin deze API een groot verschil maakt, en dat ligt niet aan de API.
Tegen de tijd dat Vulkan en DX12 echt doorbreken - ja, dat zal vast wel ergens in de komende 5 jaar gaan gebeuren - zal Nvidia hun architectuur er ook wel aan hebben aangepast.
Kies je dus voor DX12/Vulkan, dan moet je er een reden voor hebben, en zowel de technisch als financiële middelen hebben om het uit te voeren. Het is in ieder geval niet iets dat ze een maand voor de release even in elkaar zetten op een brakke basis. Dat werkt voor geen meter. Daarom zie je bepaalde studio's die constant proberen te innoveren al met DX12 modi zijn gekomen. Niet alle implementaties zijn hier even sterk in gewest. Het lijkt in veel gevallen een beetje om experimenteren te gaan voor toekomstige titels waar ze met betere implementaties willen komen. Het is ook niet toevallig dat de studio's achter veel "AAA" games die DX12 ondersteunen ook sterke relaties met AMD hebben. Achter de schermen is AMD druk bezig om studio's te helpen om te gaan met low level API's. Daar doen ze ook niet geheimzinnig over. Nee, ze hebben alles wat ze weten gewoon online gezet onder hun Gameworks tegenhanger GPUOpen.
Al deze zaken gaat Far Cry 5 ook interesant maken als release. Het is een Ubisoft titel en ze hebben een verdient waardeloze reputatie als het om QA gaat. Nu zijn ze van Nvdia Gameworks naar AMD gegaan voor de nieuwste Far Cry. Dat biedt mogelijkheden en nieuwe problemen. Er is nog geen AMD sponsored titel geweest de afgelopen twee jaar die geen DX12 of Vulkan ondersteunde, en ik vraag me af of dit nu weer het geval gaat zijn. Ik heb er namelijk nog niks over gehoord. Implementeren ze DX12 dan zou het betekenen dat een Ubisoft titel daadwerkelijk wat QA gehad zou moeten hebben op prestatiegebied. Ze implementeren in ieder geval specifieke Vega features gezien de relatie met AMD.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Ondersteuning in een game engine betekent alleen niet dat ze studio er ook mee om kan gaan. Zeker als je zelf moet optimaliseren kan het wel eens misgaan. Denk bijvoorbeeld aan DICE en de BF games die DX12 ondersteunen en Mass Effect Andromeda, ook op Frostbite 3.0 is DX11. Verder had die game volgens mij wat probleempjes met QA.Paprika schreef op zondag 4 maart 2018 @ 17:31:
De meeste games maken gebruiken van engines die al lang ondersteuning hebben voor minstens 1 van de 2.

Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Aanvullend op wat DaniëlWW2 zegt, kijk maar eens naar PUBG. De Unreal 4 Engine is volgens mij best een rappe en goed geoptimaliseerde engine, maar dat betekend nog niet dat elk spel met die engine goed draait.Paprika schreef op zondag 4 maart 2018 @ 17:31:
De meeste games maken gebruiken van engines die al lang ondersteuning hebben voor minstens 1 van de 2.
Er zit best nog wat werk in om dat goed te krijgen; dat zal voor DX11 en voor DX12/Vulkan gelden.
Tja, en dat gaat niet gebeuren voor die ultiem kleine minderheid die daar profijt van zou hebben.DaniëlWW2 schreef op zondag 4 maart 2018 @ 17:49:
[...]
Ondersteuning in een game engine betekent alleen niet dat ze studio er ook mee om kan gaan. Zeker als je zelf moet optimaliseren kan het wel eens misgaan. Denk bijvoorbeeld aan DICE en de BF games die DX12 ondersteunen en Mass Effect Andromeda, ook op Frostbite 3.0 is DX11. Verder had die game volgens mij wat probleempjes met QA.
Dat heeft niets met het optimaliseren van de rendering engine te maken, maar alles met incompetentie voor het gebruik van de engine zelf...Sp3ci3s8472 schreef op zondag 4 maart 2018 @ 18:50:
[...]
Aanvullend op wat DaniëlWW2 zegt, kijk maar eens naar PUBG. De Unreal 4 Engine is volgens mij best een rappe en goed geoptimaliseerde engine, maar dat betekend nog niet dat elk spel met die engine goed draait.
Er zit best nog wat werk in om dat goed te krijgen; dat zal voor DX11 en voor DX12/Vulkan gelden.
Daar kan ik weer twee argumenten tegenover zetten.Paprika schreef op zondag 4 maart 2018 @ 19:28:
[...]
Tja, en dat gaat niet gebeuren voor die ultiem kleine minderheid die daar profijt van zou hebben.
Ten eerste houdt die kleine minderheid menig developer niet tegen om DX12 of Vulkan ondersteuning in te bouwen in recente titels. Er zitten ook de nodige voordelen aan low level acces API's waaronder betere grafische details kunnen weergeven omdat je de videokaart veel beter kan aansturen. Daarmee kan je dus met slim programmeren, meer frames behalen met relatief minder hardware. Dit omdat je met een low level API ook het nodige aan overhead verliest. Ook is het zo dat DX12 of Vulkan, Nvidia GPU's niet inherent benadelen. Ze zijn mits goed gecodeerd juist neutraal.
Belangrijker nog zit er ook een limiet aan Nvidia haar softwarematige scheduler implementatie. Met de GTX1080Ti zal je al ruim over de 1,5 miljoen draw calls per seconde gaan aangezien dat ongeveer het punt is waar Vega 10 tegen een bottleneck aanloopt. We weten van benchmarks dat Nvidia GPU's een maximum van 2,4 miljoen zitten. Komt waarschijnlijk nog wat bij de komende tijd vanwege snellere single thread van CPU's, maar het is niet eindeloos. Waarschijnlijk niet de aankomende, maar de generatie erop kan het best wel eens afgelopen zijn met Nvidia hun implementatie en dan moet je wel naar een low level API.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Hieronder nog een lijst met borden die toch HDMI 2.0 kunnen op Windows.
https://smallformfactor.n...-request-megathread.6709/
Quote van phoronix wat betreft Linux en HDMI 2.0:
Last updated on 3/1/2018 at 10:36 AM EST
Warning to Linux users: Linux, depending on the kernel, checks the BIOS tables for the explicitly coded support as defined by the manufacturer, so HDMI 2.0 does not work in Linux. This is despite the fact that the hardware itself is more than capable. Details below:
No exactly true. There are physical requirements for various HDMI versions. The OEM has to validate the port for the version of HDMI they want to support. The driver checks the connector tables in the bios provided by the OEM to determine what connectors are present and what they support.
The Linux driver since some months ago checks those tables, any refuses to utilize HDMI 2.0 features offered by the GPU/APU, even if they work just fine and the manufacturer was just too lazy to "validate" or to update his BIOS image.
Meanwhile the Windows drivers don't give a d*** about that BIOS table and HDMI 2.0 works like advertised for the affected GPUs.
This is clearly (like with ACPI-parsing for so many years) another case of "Linux kernel developers want to do 'the right thing' according to written specification", with just bad results for Linux users because neither Windows drivers nor the firmware follows the written specification.
We krijgen op termijn eindelijk Raytracing in gaming.

De Nvidia marketingpraat over Volta exclusiviteit kan je negeren. Dit is een add on voor DX12. Reken er maar op dat AMD hier ook snel met een geoptimaliseerde variant zal komen onder de GPUOpen licentie, naast natuurlijk gewoon de MS standaard volgen. MS geeft ook aan dat het op al bestaande hardware werkt.
MSDN: Announcing Microsoft DirectX Raytracing! – DirectX Developer BlogWhat Hardware Will DXR Run On?
Developers can use currently in-market hardware to get started on DirectX Raytracing. There is also a fallback layer which will allow developers to start experimenting with DirectX Raytracing that does not require any specific hardware support. For hardware roadmap support for DirectX Raytracing, please contact hardware vendors directly for further details.
De belangrijkste implicatie hier is alleen niet dat we Raytracing krijgen, maar dat er eindelijk een zeer concrete reden is voor de adoptie van low level API's als standaard. Dat is natuurlijk uitstekend nieuws voor ons als gamers omdat we dan eens een flinke stap in grafische kwaliteit kunnen zien. In het bijzonder is het goed nieuws voor iedereen met een AMD kaart.
Zie ook:
https://arstechnica.com/g...phics-directx-raytracing/
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
https://www.anandtech.com...ounces-directx-raytracingDaniëlWW2 schreef op maandag 19 maart 2018 @ 19:28:
So, this just happened.
We krijgen op termijn eindelijk Raytracing in gaming.![]()
De Nvidia marketingpraat over Volta exclusiviteit kan je negeren. Dit is een add on voor DX12. Reken er maar op dat AMD hier ook snel met een geoptimaliseerde variant zal komen onder de GPUOpen licentie, naast natuurlijk gewoon de MS standaard volgen. MS geeft ook aan dat het op al bestaande hardware werkt.
Technically speaking GPUs are already generic enough that today developers could implement a form of ray tracing just through shaders, however doing so would miss out on the opportunity to tap into specialized GPU hardware units to help with the task, not to mention the entire process being non-standard. So both to expose new hardware capabilities and abstract some of the optimization work around this process to GPU vendors, instead this functionality is being implemented through new API commands for DirectX 12.
But like Microsoft’s other DirectX APIs it’s important to note that the company isn’t defining how the hardware should work, only that the hardware needs to support certain features. Past that, it’s up to the individual hardware vendors to create their own backends for executing DXR commands. As a result – and especially as this is so early – everyone from Microsoft to hardware vendors are being intentionally vague about how hardware acceleration is going to work.
At the base level, DXR will have a full fallback layer for working on existing DirectX 12 hardware. As Microsoft’s announcement is aimed at software developers, they’re pitching the fallback layer as a way for developers to get started today on using DXR. It’s not the fastest option, but it lets developers immediately try out the API and begin writing software to take advantage of it while everyone waits for newer hardware to become more prevalent. However the fallback layer is not limited to just developers – it’s also a catch-all to ensure that all DirectX 12 hardware can support ray tracing – and talking with hardware developers it sounds like some game studios may try to include DXR-driven effects as soon as late this year, if only as an early technical showcase to demonstrate what DXR can do.
In the case of hitting the fallback layer, DXR will be executed via DirectCompute compute shaders, which are already supported on all DX12 GPUs. On the whole GPUs are not great at ray tracing, but they’re not half-bad either. As GPUs have become more flexible they’ve become easier to map to ray tracing, and there are already a number of professional solutions that can use GPU farms for ray tracing. Faster still, of course, is mixing that with optimized hardware paths, and this is where hardware acceleration comes in.
Microsoft isn’t saying just what hardware acceleration of DXR will involve, and the high-level nature of the API means that it’s rather easy for hardware vendors to mix hardware and software stages as necessary. This means that it’s up to GPU vendors to provide the execution backends for DXR and to make DXR run as efficiently as possible on their various microarchitectures. When it comes to implementing those backends in turn, there are some parts of the ray tracing process that can be done in fixed-function hardware more efficiently than can be done shaders, and as a result Microsoft is giving GPU vendors the means to accelerate DXR with this hardware in order to further close the performance gap between ray tracing and rasterization.
Nog een leuke...For today’s reveal, NVIDIA is simultaneously announcing that they will support hardware acceleration of DXR through their new RTX Technology. RTX in turn combines previously-unannounced Volta architecture ray tracing features with optimized software routines to provide a complete DXR backend, while pre-Volta cards will use the DXR shader-based fallback option. Meanwhile AMD has also announced that they’re collaborating with Microsoft and that they’ll be releasing a driver in the near future that supports DXR acceleration. The tone of AMD’s announcement makes me think that they will have very limited hardware acceleration relative to NVIDIA, but we’ll have to wait and see just what AMD unveils once their drivers are available.
Though ultimately, the idea of hardware acceleration may be a (relatively) short-lived one. Since the introduction of DirectX 12, Microsoft’s long-term vision – and indeed the GPU industry’s overall vision – has been for GPUs to become increasingly general-purpose, with successive generations of GPUs moving farther and farther in this direction. As a result there is talk of GPUs doing away with fixed-function units entirely, and while this kind of thinking has admittedly burnt vendors before (Intel Larrabee), it’s not unfounded. Greater programmability will make it even easier to mix rasterization and ray tracing, and farther in the future still it could lay the groundwork for pure ray tracing in games.
Alsof miners hierin geinteresseerd zijnDaniëlWW2 schreef op maandag 19 maart 2018 @ 19:28:In het bijzonder is het goed nieuws voor iedereen met een AMD kaart.
[ Voor 76% gewijzigd door Paprika op 19-03-2018 21:49 ]
Dat houdt wel een keertje op, ooit...Paprika schreef op maandag 19 maart 2018 @ 21:45:
[...]
[...]
Alsof miners hierin geinteresseerd zijn. Vraag is natuurlijk of recente AMD kaarten er hardware ondersteuning voor gaan hebben, of dat het softwarematig zal zijn net zoals pre-Volta kaarten. Denk aan tessellation bijvoorbeeld.
Langzaam aan zouden de 4GB kaarten door hun VRAM heen moeten zijn voor veel coins en er zitten ASIC's aan te komen voor een aantal grote coins. Dat zou de druk op leveringen in ieder geval moeten verminderen. Verder is het jaar toch grotendeels verloren met de opgelopen GDDR5 prijzen. We wachten dus op GDDR6 zodat de miners die kaarten allemaal kunnen kopen want meer geheugen bandbreedte en waarschijnlijk ook meer VRAM op lager gepositioneerde chips.
Verder is hardwareondersteuning vanuit Vega 10 een interessante vraag waar ik ook wel een antwoord op zal willen. Navi zie ik wel gebeuren, maar de vraag is of je speciale rekeneenheden nodig hebt op de chip om er effectief gebruik van te maken. Heb je die niet nodig dan gaan die extra CU's eens wat doen.
Oh en weer een nieuwe driver. Niks bijzonders, gewoon een update. Hoewel...
https://support.amd.com/e...18.3.3-Release-Notes.aspxA random system hang may be experienced after extended periods of use on system configurations using 12 GPU's for compute workloads.
Nice one AMD.
[ Voor 13% gewijzigd door DaniëlWW2 op 19-03-2018 22:00 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Verwijderd
Aangezien er voorlopig toch geen grafische kaart voor een redelijk bedrag gekocht kan worden kunnen we het net zo goed over het minen hebben, zeg ik zwartgallig.
Als AMD met een GPUOpen-tool komt dan zal het ongetwijfeld ook snel in het betere (al is het maar omdat het cross-platform is) Vulkan worden opgenomen.DaniëlWW2 schreef op maandag 19 maart 2018 @ 19:28:
So, this just happened.
We krijgen op termijn eindelijk Raytracing in gaming.![]()
De Nvidia marketingpraat over Volta exclusiviteit kan je negeren. Dit is een add on voor DX12. Reken er maar op dat AMD hier ook snel met een geoptimaliseerde variant zal komen onder de GPUOpen licentie, naast natuurlijk gewoon de MS standaard volgen. MS geeft ook aan dat het op al bestaande hardware werkt.
[ Voor 47% gewijzigd door Verwijderd op 19-03-2018 23:14 ]
Anders gesteld, zou Apple zonder raytracing willen komen te zitten ?Verwijderd schreef op maandag 19 maart 2018 @ 23:08:
Als AMD met een GPUOpen-tool komt dan zal het ongetwijfeld ook snel in het betere (al is het maar omdat het cross-platform is) Vulkan worden opgenomen.
Lijkt me niet dus raytracing zal wel snel naar Vulkan komen.
How do you save a random generator ?
Ik kan me zo voorstellen dat tensor cores uitermate geschikt zijn voor raytracing.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Tensor cores specifiek? Nee.Blaat schreef op dinsdag 20 maart 2018 @ 09:32:
Ik kan me zo voorstellen dat tensor cores uitermate geschikt zijn voor raytracing.
Ray Tracing heeft vrij veel profijt van FP16; FP32 is niet altijd nodig. Daarom kent Nvidia dit specifiek aan Volta toe, omdat ze daar daadwerkelijk iets van FP16 performance hebben. Op Pascal en dergelijke is dat niet noemenswaardig. AMD daarentegen doet FP16 al jaren op 1:1 rate; en met Vega zelfs 2:1. Om dat in harde cijfers uit te drukken; waar een Titan XP 10-12 TF (10000-12000 GF) met FP32 doet, haalt dat ding ook slechts 170-190 GF met FP16. Een RX540 haalt al 1,25 TF; een 580 doet 6 TF en Vega 23-27,5 TF. En dat laatste is dan weer ongeveer even veel als GV100 (~24,5-30 TF).
Tensor Cores specifiek zijn bedoeld voor werken met matrices, daar heb je bij Ray Tracing niet veel aan. Waar ze dan wel weer voor gebruikt kunnen worden is deep learning. En dat doen ze dan ook, lees de aankondiging nog maar eens goed. Ze worden toegepast voor "denoising" zodat je met minder rays een vergelijkbaar (!) effect kan bereiken.
Het daadwerkelijke ray tracing vermoed ik dat AMD even snel als Nvidia voor elkaar kan krijgen als je naar Vega vs GV100 kijkt. Dit is iets waar je rauwe rekenkracht heel goed toe kunt passen en Vega/GV100 liggen wat dat betreft heel dicht bij elkaar. Waar Nvidia vervolgens winst kan boeken is minder rays tracen met behulp van DL.
Ray Tracing is overigens exact wat de woorden zeggen: lichtstralen trekken* (1 per pixel vanuit het camera oogpunt). De ene straal heeft in principe geen invloed op de andere (vandaar dat je niet veel aan matrices hebt). Op 1080p heb je dus sowieso 1920 * 1080 = 2073600 stralen te berekenen. En per straal/pixel heb je meerdere samples. En dat dan 60 keer per seconde. Naast al het andere werk. Als Nvidia met wat DL bijvoorbeeld van 2 samples per pixel naar 1 sample kan zakken voor frames vlak na elkaar waarin weinig is veranderd, is het al 50% minder werk voor de GPU.
* jaja, ik vereenvoudig het weer behoorlijk. Dit is echter geen graphics rendering/programmeer/wiskunde forum
[ Voor 3% gewijzigd door Werelds op 20-03-2018 13:35 ]
Dus even kijken of ik het goed begrepen heb.Werelds schreef op dinsdag 20 maart 2018 @ 13:34:
[...]
Tensor cores specifiek? Nee.
Ray Tracing heeft vrij veel profijt van FP16; FP32 is niet altijd nodig. Daarom kent Nvidia dit specifiek aan Volta toe, omdat ze daar daadwerkelijk iets van FP16 performance hebben. Op Pascal en dergelijke is dat niet noemenswaardig. AMD daarentegen doet FP16 al jaren op 1:1 rate; en met Vega zelfs 2:1. Om dat in harde cijfers uit te drukken; waar een Titan XP 10-12 TF (10000-12000 GF) met FP32 doet, haalt dat ding ook slechts 170-190 GF met FP16. Een RX540 haalt al 1,25 TF; een 580 doet 6 TF en Vega 23-27,5 TF. En dat laatste is dan weer ongeveer even veel als GV100 (~24,5-30 TF).
Tensor Cores specifiek zijn bedoeld voor werken met matrices, daar heb je bij Ray Tracing niet veel aan. Waar ze dan wel weer voor gebruikt kunnen worden is deep learning. En dat doen ze dan ook, lees de aankondiging nog maar eens goed. Ze worden toegepast voor "denoising" zodat je met minder rays een vergelijkbaar (!) effect kan bereiken.
Het daadwerkelijke ray tracing vermoed ik dat AMD even snel als Nvidia voor elkaar kan krijgen als je naar Vega vs GV100 kijkt. Dit is iets waar je rauwe rekenkracht heel goed toe kunt passen en Vega/GV100 liggen wat dat betreft heel dicht bij elkaar. Waar Nvidia vervolgens winst kan boeken is minder rays tracen met behulp van DL.
Ray Tracing is overigens exact wat de woorden zeggen: lichtstralen trekken* (1 per pixel vanuit het camera oogpunt). De ene straal heeft in principe geen invloed op de andere (vandaar dat je niet veel aan matrices hebt). Op 1080p heb je dus sowieso 1920 * 1080 = 2073600 stralen te berekenen. En per straal/pixel heb je meerdere samples. En dat dan 60 keer per seconde. Naast al het andere werk. Als Nvidia met wat DL bijvoorbeeld van 2 samples per pixel naar 1 sample kan zakken voor frames vlak na elkaar waarin weinig is veranderd, is het al 50% minder werk voor de GPU.
offtopic:
* jaja, ik vereenvoudig het weer behoorlijk. Dit is echter geen graphics rendering/programmeer/wiskunde forum
NVidia heeft een marketing hype de wereld ingeslingerd voor Ray Tracing, terwijl hun concurrent daar hardwaretechnisch beter voor ingericht is?
Dat klinkt als een goede manier om je geloofwaardigheid een deuk te laten oplopen. Bijna RTG waardig qua marketingstunt.
Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.
Nee nee, dat is ook niet wat Nvidia doet. Ze zijn voor de verandering vrij eerlijk en direct over het geheelBlaat schreef op dinsdag 20 maart 2018 @ 13:54:
[...]
Dus even kijken of ik het goed begrepen heb.
NVidia heeft een marketing hype de wereld ingeslingerd voor Ray Tracing, terwijl hun concurrent daar hardwaretechnisch beter voor ingericht is?
Dat klinkt als een goede manier om je geloofwaardigheid een deuk te laten oplopen. Bijna RTG waardig qua marketingstunt.
Nvidia beweert nergens dat Volta hardware specifiek voor RT heeft, of dat Volta dit als enige kán doen. Als je uit gaat van FP16 RT (overigens kan dat ook met FP32 of FP64 - voor veel doeleinden is FP16 echter al toereikend) zijn Vega en GV100 in de basis best aan elkaar gewaagd (op papier - het is aan AMD om de software in orde te hebben, wat de laatste tijd wel snor zit). Wat Nvidia verder beweert is dat ze RT kunnen versnellen door met DL (waar GV100 wél specifiek hardware voor heeft en dat weldegelijk sneller dan alle andere chips kan) het gehele proces te "vereenvoudigen". Ik gebruik aanhalingstekens, want eenvoudiger wordt het niet echt; wel efficiënter. En dat klopt gewoon; als jij door een slim leermodel met bijvoorbeeld half zo veel werk toch 90% van het resultaat kunt behalen, is dat het waard en is dat mooi werk.
Als er enige sites zijn die wel beweren dat dit uniek aan Volta/Nvidia is, dan hebben die sites niet goed gelezen.
Waar iedereen nu wel te snel over denkt is de realiteit van RT an sich. RT zal de komende 5 jaar nog geen gemeengoed worden en we zullen ook geen geheel ray-traced games gaan krijgen. Daarvoor is het nog veel te intensief.
Mijn grote vraag bij het geheel is hoe ver RTX gaat. Mijn vrees is dat RTX ook meteen dusdanig buiten de "standaard" gaat (al het werk dat MS nu doet met DXR) dat AMD achter blijft. Met name UE is dan uiteraard de risico engine. Als UE echter in de basis gewoon op DXR vertrouwt en RTX als bonus kan gebruiken (wat het geval zou moeten zijn) is het vooral aan AMD om te zorgen dat die basis goed loopt.
En dat is het antwoord op precies wat ik me gisteren al afvroeg.Werelds schreef op dinsdag 20 maart 2018 @ 13:34:
[...]
Tensor cores specifiek? Nee.
Ray Tracing heeft vrij veel profijt van FP16; FP32 is niet altijd nodig. Daarom kent Nvidia dit specifiek aan Volta toe, omdat ze daar daadwerkelijk iets van FP16 performance hebben. Op Pascal en dergelijke is dat niet noemenswaardig. AMD daarentegen doet FP16 al jaren op 1:1 rate; en met Vega zelfs 2:1. Om dat in harde cijfers uit te drukken; waar een Titan XP 10-12 TF (10000-12000 GF) met FP32 doet, haalt dat ding ook slechts 170-190 GF met FP16. Een RX540 haalt al 1,25 TF; een 580 doet 6 TF en Vega 23-27,5 TF. En dat laatste is dan weer ongeveer even veel als GV100 (~24,5-30 TF).

Dan ga je je ook afvragen hoe lang MS al bezig was met Raytracing en of het niet AMD was die het zetje hebben gegeven. AMD lijkt dus de grote winnaar te worden als Raytracing geintroduceerd wordt omdat zij de hardwareondersteuning al hebben.
Nah, dit is typisch Nvidia hoor. Nieuwe technologie die niet door Nvidia is ontwikkeld claimen, suggereren alsof het alleen op hun hardware werkt en als puntje bij paaltje komt dan werkt het wel, maar met heel wat mis en maren terwijl het bij AMD gewoon perfect werkt. Verder lijkt Nvidia vrij transparant te zijn, voor hun standaarden van transparantie.Blaat schreef op dinsdag 20 maart 2018 @ 13:54:
Dus even kijken of ik het goed begrepen heb.
NVidia heeft een marketing hype de wereld ingeslingerd voor Ray Tracing, terwijl hun concurrent daar hardwaretechnisch beter voor ingericht is?
Dat klinkt als een goede manier om je geloofwaardigheid een deuk te laten oplopen. Bijna RTG waardig qua marketingstunt.
Dat staat in contract met de RTG marketing waar ze regelmatig maar wat zeggen zonder enige duidelijk coherentie.
Als we het toch over marketing en claimen hebben. GPP lijkt in actie te zijn gekomen en Gigabyte en MSI lijken al gezwicht te zijn...
Gigabyte Gaming Box:
https://www.gigabyte.com/Graphics-Card/GV-N1070IXEB-8GD#kf
https://www.gigabyte.com/Graphics-Card/GV-RX580IXEB-8GD#kf
Nvidia is AORUS branded, AMD geen speciale branding.
MSI maakt het helemaal mooi op hun website zeg. Op de Gigabyte site kan je nog AMD Radeon AORUS of Gaming vinden. Waar zijn de Gaming X kaarten van AMD? Oh, die zijn van de website gehaald.
https://www.msi.com/Graph...ga%3Csup%3E64%3C%2Fsup%3E
GPP is dus hardstikke echt. Dit is echt geen "foutje"...
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Nou, nee. RT is uitermate intensief, een RX580 zal met z'n 6 TF FP16 ook niet toereikend zijn dat op een redelijk tempo te doen. Daarnaast moet AMD uiteraard ook wel een degelijke implementatie van DXR hebben; de vraag is wat zij op hun beurt kunnen doen om het geheel zo veel mogelijk te versnellen.DaniëlWW2 schreef op dinsdag 20 maart 2018 @ 14:32:
En dat is het antwoord op precies wat ik me gisteren al afvroeg.![]()
Dan ga je je ook afvragen hoe lang MS al bezig was met Raytracing en of het niet AMD was die het zetje hebben gegeven. AMD lijkt dus de grote winnaar te worden als Raytracing geintroduceerd wordt omdat zij de hardwareondersteuning al hebben.
De reden dat dit nu "gemeengoed" wordt (in de zin dat er iets van een standaard komt) is hoogstwaarschijnlijk juist omdat zowel Nvidia als AMD nu FP16 op dubbele snelheid kunnen doen en GPU's nu qua snelheid in de buurt beginnen te komen van wat je nodig hebt om een hele scene te renderen én nog wat RT te doen.
RT is niet nieuw, het wordt al jaren gedaan. Om dat echter real-time op 60 FPS te doen is een ander verhaal; laat staan met de grote scenes in games. Zie bijvoorbeeld deze:
YouTube: Quake 2 Realtime GPU Pathtracing: August 2017
Dat is allemaal FP32 op een Titan Xp; let op hoe de framerate verre van een constante 60 FPS is. En dit is een spel uit 1997 met polycounts die je nu in de vinger van een model hebt
Vandaar dus dat dit nu allemaal een beetje begint te komen. Met ~25 TF aan FP16 rekenkracht begint het interessant te worden wat aan RT te gaan doen. We zijn er echter nog lang niet, dit gaat nog jaren duren.
Ik weet wat raytracing is. Ben niet zo enorm onwetend meer als een jaar geleden.Werelds schreef op dinsdag 20 maart 2018 @ 14:46:
[...]
Nou, nee. RT is uitermate intensief, een RX580 zal met z'n 6 TF FP16 ook niet toereikend zijn dat op een redelijk tempo te doen. Daarnaast moet AMD uiteraard ook wel een degelijke implementatie van DXR hebben; de vraag is wat zij op hun beurt kunnen doen om het geheel zo veel mogelijk te versnellen.
De reden dat dit nu "gemeengoed" wordt (in de zin dat er iets van een standaard komt) is hoogstwaarschijnlijk juist omdat zowel Nvidia als AMD nu FP16 op dubbele snelheid kunnen doen en GPU's nu qua snelheid in de buurt beginnen te komen van wat je nodig hebt om een hele scene te renderen én nog wat RT te doen.
RT is niet nieuw, het wordt al jaren gedaan. Om dat echter real-time op 60 FPS te doen is een ander verhaal; laat staan met de grote scenes in games. Zie bijvoorbeeld deze:
YouTube: Quake 2 Realtime GPU Pathtracing: August 2017
Dat is allemaal FP32 op een Titan Xp; let op hoe de framerate verre van een constante 60 FPS is. En dit is een spel uit 1997 met polycounts die je nu in de vinger van een model hebt
Vandaar dus dat dit nu allemaal een beetje begint te komen. Met ~25 TF aan FP16 rekenkracht begint het interessant te worden wat aan RT te gaan doen. We zijn er echter nog lang niet, dit gaat nog jaren duren.
Maar ik zie dat ik weer eens een paar stappen heb overgeslagen in mijn reactie. Niet handig, I know...
Ik doelde echt niet dat raytracing nu opeens de standaard gaat worden en rasterization snel gaat verdwijnen. Nee, raytracing als aanvulling op rasterization voor bepaalde zaken zoals schaduwen. Dat zou je al moeten kunnen doen op een Vega kaart. Op een duale functie lijkt AMD ook te hinten met hun "Real time Ray Tracing". Wel voor Vulkan.
YouTube: Announcing Real Time Ray Tracing
Overigens vermoed ik zo dat dit ook een slecht voorbeeld was voor raytracing.

Verder is jouw voorbeeld ook niet optimaal omdat je zelf al aangeeft dat een GP102 chip haar FP16 prestaties erg matig zijn. Natuurlijk draait die Quake 2 demo dan slecht. De game zelf kan je gewoon draaien op een aardappel dus dat is het probleem niet.
Vervolgens kan AMD wel een enorme stap gaan zetten in theoretische prestaties met Navi en MCM ontwerpen. Het is niet moeilijk om in te denken dat een lager gepositioneerde Navi MCM al Vega 10 prestaties neer gaat zetten.
Neem bijvoorbeeld de Vega 24CU's, 32 ROPS chip die AMD nu verkoopt aan Intel. Deze kan je opnieuw gebruiken met een GDDR6 memory bus/controller en op 7nm bakken. Twee op een interposer zetten met een controlechip voor I/O en scheduling. Heb je een 48CU GPU voor waarschijnlijk iets meer dan Polaris 10 MSRP prijzen. Bij deze schatting hou ik al rekening met de verdubbeling van waferkosten tussen 14nm en 7nm wafers waar AMD vanuit gaat. Hebben we het nog niet over een serieuze stap in clockspeeds gehad omdat AMD naar de 7nm node van TSMC gaat. Daar is natuurlijk ook een high power variant van beschikbaar is in tegenstelling tot 14nm waar Vega 10 nu op wordt gebakken. Fors hogere clocks behoren dan zeker tot de mogelijkheid. Alles bij elkaar goed mogelijk dat deze chip qua TFlops niet of nauwelijks onder zal doen voor de volle Vega 10.
Stel dat ze 1800MHz halen, dan zou 48CU met exact dezelfde architectuur 22,08 TFops FP16 moeten halen. 20TFlops is dus goed haalbaar.
Zet je er vervolgens niet twee maar vier op een interposer dan kan je zomaar al bij of over de 40TFlops aan FP16 rekenvermogen gaan. Dat is helemaal geen vreemde inschatting lijkt me als AMD voor Navi een MCM van de Vega architectuur maakt. Dat lijkt ook de insteek te zijn aangezien er na Navi best wel een einde kan komen aan GCN voor de RX lijn.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Echter draait dat gewoon op FP32 (bij mijn weten althans wel), dus op zo'n 12 TFDaniëlWW2 schreef op dinsdag 20 maart 2018 @ 16:21:
Verder is jouw voorbeeld ook niet optimaal omdat je zelf al aangeeft dat een GP102 chip haar FP16 prestaties erg matig zijn. Natuurlijk draait die Quake 2 demo dan slecht. De game zelf kan je gewoon draaien op een aardappel dus dat is het probleem niet.(Sorry, kon het niet laten)
Wat zoals je zelf al zegt te weinig is voor een volledige implementatie, zeker voor iets recenters dan Quake 2.Werelds schreef op dinsdag 20 maart 2018 @ 20:13:
[...]
Echter draait dat gewoon op FP32 (bij mijn weten althans wel), dus op zo'n 12 TF
Als je raytracing met 16 bit berekeningen per ray kan uitvoeren, dan is 32 bit natuurlijk ook overkill. Nu tikt een Vega 64 de 25 TFlops aan wat meer is dan welke Geforce Pascal kaart dan ook. Als die kaart niet gebottlenecked wordt dan zitten ze dichter op GP102 dan GP104. Zoals je zelf stelt is dit een beginpunt waar ray tracing potentieel uit te voeren is in real time, op beperkte schaal. Neem ik zo van je aan.
Ik zet daar tegenover dat de volgende generatie van AMD hardware wel eens ver voorbij die 25TFlops kan gaan voor het hogere segment, en de mainstreamkaarten al richting de 25TFlops kunnen gaan. Tussen de overstap naar het 7nm procedé en de redelijke waarschijnlijkheid dat Navi de Vega architectuur is maar dan als MCM maakt het voor AMD ook mogelijk om een flink groter aantal CU's, en dus een flink hogere FP16 TFlop waarde te halen. Je zou in theorie 10TFlops aan ray tracing kunnen besteden als AMD met Navi echt voorbij de 40TFlops FP16/20TFlops FP32 gaat. Je houdt genoeg rekenkracht over voor zelfs je 4K frame.
Dan wordt het vanuit technisch oogpunt opeens haalbaar en praktisch uitvoerbaar op bepaalde zaken zoals schaduws met ray tracing te gaan renderen. Dat is mijn punt.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Buiten dat het echt achterlijk is en totaal oneerlijk...DaniëlWW2 schreef op dinsdag 20 maart 2018 @ 14:32:
Als we het toch over marketing en claimen hebben. GPP lijkt in actie te zijn gekomen en Gigabyte en MSI lijken al gezwicht te zijn...
Gigabyte Gaming Box:
https://www.gigabyte.com/Graphics-Card/GV-N1070IXEB-8GD#kf
https://www.gigabyte.com/Graphics-Card/GV-RX580IXEB-8GD#kf
Nvidia is AORUS branded, AMD geen speciale branding.
MSI maakt het helemaal mooi op hun website zeg. Op de Gigabyte site kan je nog AMD Radeon AORUS of Gaming vinden. Waar zijn de Gaming X kaarten van AMD? Oh, die zijn van de website gehaald.
https://www.msi.com/Graph...ga%3Csup%3E64%3C%2Fsup%3E
GPP is dus hardstikke echt. Dit is echt geen "foutje"...
Kunnen ze niet gewoon een nieuwe brand maken voor AMD kaarten... Natuurlijk, je zit dan met naamsonbekendheid... Maar zullen de meeste daar toch niet voor vallen... Of de ene nou AORUS of VENUS ofzo heet. En wat als MSI voor Gaming Y gaat ofzo.... Ik weet natuurlijk niet hoe strikt de naam moet zijn voor Nvidia... Asus gaat het misschien wel moet moeilijker krijgen. Alhoewel.... Empire of Gamers ofzo...
Asus had destijds ook twee namen voor hun dual cards voor AMD en Nvidia (al zit dat misschien wat anders in elkaar...)
Ik ben bang dat ze niet eens een aparte gaming brand kunnen maken voor AMD kaarten.Zeara schreef op woensdag 21 maart 2018 @ 10:25:
[...]
Buiten dat het echt achterlijk is en totaal oneerlijk...
Kunnen ze niet gewoon een nieuwe brand maken voor AMD kaarten... Natuurlijk, je zit dan met naamsonbekendheid... Maar zullen de meeste daar toch niet voor vallen... Of de ene nou AORUS of VENUS ofzo heet. En wat als MSI voor Gaming Y gaat ofzo.... Ik weet natuurlijk niet hoe strikt de naam moet zijn voor Nvidia... Asus gaat het misschien wel moet moeilijker krijgen. Alhoewel.... Empire of Gamers ofzo...
Asus had destijds ook twee namen voor hun dual cards voor AMD en Nvidia (al zit dat misschien wat anders in elkaar...)

Waarschijnlijk kunnen ze wel een "high performance" brand neerzetten, als het maar niet gericht is op gaming. Eigenlijk zou AMD een klacht moeten indienen bij mededingingswaakhonden.
Ik snap Gigabyte, MSI en waarschijnlijk ASUS hun handelen ook echt niet. Videokaarten maken van GPU's levert relatief weinig op en Nvidia ging ook nog eens een extra graai uit de pot doen met hun FE kaarten. Nu gooien ze hun gaming brands gewoon kwakkelloos weg. Die brands hebben ze zelf opgebouwd en kunnen ze nu niet eens meer gebruiken voor al hun producten.
Steek gewoon je middelvinger op en zeg dat ze het kunnen uitzoeken. Gigabyte, MSI en ASUS overleven het wel als ze geen GPP partner zijn. Levert Nvidia bewust minder chips tot het punt dat er niks meer te verdienen valt, dan gaan ze gewoon weg bij Nvidia. Overleven ze ook. Vervolgens kunnen ze SLI botweg vernietigen door het niet meer aan te bieden op hun borden, en Gsync kunnen ze ook enorm onderuit trappen. In het uiterste geval kunnen ze samen met AMD en Intel een nieuwe standaard ontwikkelen die PCI-E moet vervangen, en Nvidia buiten de deur houden. Dag Nvidia.

Voor Nvidia zou het vertrek van ASUS, MSI en Gigabyte al een flinke klap zijn omdat ze drie van de grotere videokaart producten verliezen en ze dan zelf minder chips kunnen bestellen omdat ze niet verkocht worden. EVGA, PNY etc kunnen alle chips echt niet verwerken tot videokaarten en zomaar verkopen. Dat kost Nvidia enorme omzet. Palit waaronder ook Gainward en Galaxy kan wel heel wat volume verschepen. Palit schijnt al een aantal jaar de allergrootste AIB te zijn qua volume. Ze doen heel veel met OEM waardoor je minder van ze hoort. Of Palit ook de volumes van ASUS, MSI en Gigabyte erbij kunnen draaien is twijfelachtig.
Ondertussen lachen ze zich bij XFX, Powercolor etc helemaal rot. Komt ASRock ook de AMD markt in op het moment dat ASUS, MSI en Gigabyte hun volumes zullen zien verminderen omdat ze geen 'gaming" meer op de doos mogen zetten van Nvidia. De echte winnaar hier is PC Partner. Dat is de eigenaar van Sapphire, maar ook van Zotac. Die schijnt ook groter te zijn dan ASUS of MSI. Sapphire kan dus mooi in het gat springen.
Misschien gaat Diamond Multimedia wel uitbreiden met hun lijn AMD kaarten onder een nieuwe naam. Ze hebben jaren geleden een interessante merknaam gekocht van een oude en zeer bekende speler in de AIB markt. Wel eens van BFG gehoord neem ik aan?
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Tja.. Dan moeten MSI, Asus en Gigabyte dus met elkaar om de tafel gaan zitten. Maar dat hebben ze blijkbaar niet gedaan... En dan is de angst dat eentje er wel in mee gaat blijkbaar groot, dus gaan ze er maar in mee... Dus in dat op zicht snap ik het wel... Maar ja, ze kunnen zo wel mooi Nvidia buiten spel zetten.
BFG is wel erg oud.... Was dat niet nog Geforce 4MX tijd ofzo...??
Edit:
Waar staat trouwens waar ze überhaupt geen gaming brand voor AMD mogen maken...?? Ok, ik weet dat het Nvidia is, dus het zal wel tussen de regels staan... Maar voor mij komt het tot nu toe over dat de gaming brand die ze voor Nvidia gebruiken, exclusief moet zijn. Dus als Asus Federation of Gamers voor AMD zou gebruiken, zou het toch goed moeten zijn...??
[ Voor 29% gewijzigd door Zeara op 21-03-2018 11:49 ]
MSI staat al jaren bovenaan de pricewatch met allemaal nVidia producten...DaniëlWW2 schreef op woensdag 21 maart 2018 @ 11:22:
[...]
Ik snap Gigabyte, MSI en waarschijnlijk ASUS hun handelen ook echt niet. Videokaarten maken van GPU's levert relatief weinig op en Nvidia ging ook nog eens een extra graai uit de pot doen met hun FE kaarten. Nu gooien ze hun gaming brands gewoon kwakkelloos weg. Die brands hebben ze zelf opgebouwd en kunnen ze nu niet eens meer gebruiken voor al hun producten.
Steek gewoon je middelvinger op en zeg dat ze het kunnen uitzoeken. Gigabyte, MSI en ASUS overleven het wel als ze geen GPP partner zijn. Levert Nvidia bewust minder chips tot het punt dat er niks meer te verdienen valt, dan gaan ze gewoon weg bij Nvidia. Overleven ze ook. Vervolgens kunnen ze SLI botweg vernietigen door het niet meer aan te bieden op hun borden, en Gsync kunnen ze ook enorm onderuit trappen. In het uiterste geval kunnen ze samen met AMD en Intel een nieuwe standaard ontwikkelen die PCI-E moet vervangen, en Nvidia buiten de deur houden. Dag Nvidia.

Betekent niet dat ze de meeste kaarten maken, verre van.Paprika schreef op woensdag 21 maart 2018 @ 11:48:
[...]
MSI staat al jaren bovenaan de pricewatch met allemaal nVidia producten...
[afbeelding]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
Er is ook een simpele en meer consumentvriendelijke oplossing voor dit programma: AMD komt met een HD5870 achtige kaart (snel, vernieuwend en het liefst verpest Nvidia hun release cycle) dan maakt het allemaal niet meer uit.
[ Voor 95% gewijzigd door Paprika op 21-03-2018 12:30 ]
Zeg ik dit dan?Paprika schreef op woensdag 21 maart 2018 @ 11:58:
Tja, we kunnen ook allemaal in de waan blijven dat MSI meer verdient aan AMD dan Nvidia...
Ik zeg dat er relatief weinig winst valt te behalen in het maken van videokaarten en dat is al jaren zo. Om dan volume te gaan verliezen bij de AMD kant gaat echt niet helpen. Zeker niet als Nvidia al een hap uit de taart neemt met FE. Vervolgens maken ASUS, MSI en Gigabyte hun videokaart divisie afhankelijk van het succes en de grillen van Nvidia. We hebben het hier over het bedrijf dat er geen enkele moeite mee heeft om reviewers of hun zakelijke contacten en klanten te intimideren of uit te sluiten als ze het wagen om iets negatiefs te zeggen of uit de pas lopen.
Wat is dat voor bedrijfsvoering? Het opent alleen maar de mogelijkheid dat Nvidia ze nog zwaarder onder druk kan zetten. Dit terwijl anderen klaar staan om hun markt voor het AMD kamp over te nemen. Hebben ze niet eens meer een ontsnappingsroute als Nvidia te ver gaat of opeens met echte concurrentie te maken krijgt. Uit de GPP stappen betekent gewoon dat je op Nvidia hun "lijst" komt te staan en je de Geforce markt kan verlaten. Heeft Nvidia ook al eerder gedaan met BFG, XFX en Club3D. Waren er vorig jaar ook de geruchten dat EVGA ook AMD kaarten wou gaan maken en verkopen.
Verder als we Kyle Bennett mogen geloven, en daar lijkt het wel op, dan was MSI ook de enige die er nog echt een probleem van wou maken. Terecht, want dit gaat hoe dan ook pijn doen voor ASUS, MSI en Gigabyte. Of ze verliezen Geforce, of ze verliezen marktaandeel bij AMD. Op korte termijn is de GPP dan de logische keuze, op langere termijn niet. Kudos dat ze het bij MSI hebben geprobeerd, maar ze lijken nu wel het hardst de andere kant op te zijn gegaan.
AMD hoeft niet eens een "5870" neer te zetten. Een "3870" is al voldoende, of helemaal een "4870". In het enthousiast segment hoeft AMD ook helemaal geen rol in te spelen. Heeft ATi/AMD ook zelden gedaan en daar zitten de volumes simpelweg niet. Mainstream en high-end, daar moeten ze een rol spelen met een betere prijs/kwaliteitsverhouding. Dat deden ze al met Polaris, niet met Vega. Moet ik nu echt alweer de potentiële voordelen van Navi en een MCM architectuur gaan toelichten? Ik hoop toch van niet.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
En tja, Navi / Volta, het duurt allemaal erg lang.
[ Voor 8% gewijzigd door Paprika op 21-03-2018 12:54 ]
In 2010 waren er genoeg die alsnog voor de "GTX vlammenwerper" gingen hoor over de uitstekende 58xx kaarten.Paprika schreef op woensdag 21 maart 2018 @ 12:50:
De HD5870 is vanuit timing ideaal en het verplicht Nvidia fans om zichzelf toch even achter de oren te krabben of ze nog blijven wachten. Uiteraard is een HD4870 top vanuit €/value perspectief, maar toen kochten nog altijd veel mensen GTX260/280 kaarten (jammergenoeg en onterecht).
Je kan daar niet van winnen en het kan me eigenlijk ook niks schelen. AMD lijkt die les ook wel geleerd te hebben. Wat je wel kan doen is de segmenten eronder pakken. Dat kan AMD best aardig met kaarten zoals Polaris of de 38xx/48xx. Daar moet de focus op liggen, en AMD roadmaps geven dit ook aan. Dit voor zover je marketing vanuit de RTG serieus kan nemen. Toch een dingetje.
Dit jaar is dan ook verloren tenzij mijn vermoeden over een "vroege" (herfst 2018) Navi launch blijkt te kloppen. Heb je nu een Polaris, Vega of Pascal of zelfs een Maxwell of Hawaï dan speel je gewoon je games en kijk je wel wanneer de volgende generatie verschijnt. Wil je een nieuwe videokaart kopen, well good luck with that.En tja, Navi / Volta, het duurt allemaal erg lang.
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
De mijne is "binnenkort" alweer twee jaar oud en eigenlijk begint de hele pc oud te worden, maar de geheugenprijzen helpen ook niet echt en dat vind ik echt zonde van het geld, puur uit principe omdat dezelfde stick ooit een kwart heeft gekost.DaniëlWW2 schreef op woensdag 21 maart 2018 @ 13:05:
[...]
Dit jaar is dan ook verloren tenzij mijn vermoeden over een "vroege" (herfst 2018) Navi launch blijkt te kloppen. Heb je nu een Polaris, Vega of Pascal of zelfs een Maxwell of Hawaï dan speel je gewoon je games en kijk je wel wanneer de volgende generatie verschijnt. Wil je een nieuwe videokaart kopen, well good luck with that.
Nadeel van dit alles is dat de innovatie er een beetje door stil komt te staan, terwijl de CPU wereld wel in beweging is gekomen het afgelopen jaar, dus het momentum had er kunnen zijn.
Overdrijven is ook een vak "alweer twee jaar oud". Tot voorkort speelde ik nog met het onderstaande systeem de meeste games zonder enig probleem, wel eens waar niet op ultra, mara toch kon ik prima meekomen.Paprika schreef op woensdag 21 maart 2018 @ 13:19:
[...]
De mijne is "binnenkort" alweer twee jaar oud en eigenlijk begint de hele pc oud te worden, maar de geheugenprijzen helpen ook niet echt en dat vind ik echt zonde van het geld, puur uit principe omdat dezelfde stick ooit een kwart heeft gekost.
Nadeel van dit alles is dat de innovatie er een beetje door stil komt te staan, terwijl de CPU wereld wel in beweging is gekomen het afgelopen jaar, dus het momentum had er kunnen zijn.
AMD Phenom X6 1090T
16 GB RAM geheugen
Gigabyte 990FX moederbord
X-Fire AMD Radeon R9 290 4GB
960 GB SSD
Op de SSD en VGA kaarten na is het systeem bijna 10 jaar oud...
Voor bepaalde doeleinden ben ik nu opzoek naar een VGA kaart met tenminste 8GB geheugen. Overigens heb ik beide R9 290 kaarten al verkocht en daar 100 euro winst op gemaakt (ruim twee jaar geleden ook 2e hands gekocht), heb ik toch ook een beetje kunnen profiteren van de gefrustreerde markt. De nood is niet zo heel hoog, want de meeste games die ik speel kan mijn Dell XPS 15 nog aardig af, het is meer wat ik wil gaan doen.
Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/
[ Voor 4% gewijzigd door Paprika op 21-03-2018 13:33 ]
Het is ook niet dat je op een oud systeem geen games kan spelen of zeker niet kan meekomen. Lagere IQ settings zijn vaak ook een voordeel Toch ben ik heel blij dat ik niet meer op een systeem van 10 jaar oud en 1080p speel.
Een systeem van 2 jaar oud kan ook al oud aanvoelen maar het ligt er aan wat je er in hebt zitten natuurlijk. Los vd GPU, een budget CPU, 4gb geheugen en harddisk of goede intel quadcore met 8 a 16gb geheugen en een goede ssd. Is wereld van verschil.
Iedereen heeft natuurlijk zijn eigen budget en afwegingen maar denk niet dat je er ongelukkiger van wordt mocht je besluiten te upgraden naar bijv een moderne 6 core.
[ Voor 5% gewijzigd door Help!!!! op 21-03-2018 13:45 ]
PC Specs
Asus ROG Strix B650E-E | AMD 9800X3D |TR Phantom Spirit 120 SE | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | 3840*1600p 160Hz | Corsair RM1000x Shift
Ik heb begrepen dat AMD ook met een ZEN2 komt met een maandje of twee... dus, zolang maar even volhouden met wat ik heb.
Sinds 1999@Tweakers | Bij IT-ers gaat alles automatisch, maar niets vanzelf. | https://www.go-euc.com/
GPU innovatie staat alleen al wat langer dan een jaar of twee stil.Paprika schreef op woensdag 21 maart 2018 @ 13:19:
[...]
De mijne is "binnenkort" alweer twee jaar oud en eigenlijk begint de hele pc oud te worden, maar de geheugenprijzen helpen ook niet echt en dat vind ik echt zonde van het geld, puur uit principe omdat dezelfde stick ooit een kwart heeft gekost.
Nadeel van dit alles is dat de innovatie er een beetje door stil komt te staan, terwijl de CPU wereld wel in beweging is gekomen het afgelopen jaar, dus het momentum had er kunnen zijn.

Nvidia heeft sinds 2014 eigenlijk niks noemenswaardigs meer laten zien voor GeForce. AMD heeft in de periode 2012-2017 ook nauwelijks iets noemenswaardigs gedaan. De uitzondering was de Primitive Discard Accelerator. Vega was echt een stap geweest, als alle features werkte. Primitives Shaders via de driver lijkt dood en dat had een serieuze stap kunnen zijn...
Staat allemaal in schril contract met 2000-2010 waar je maar beter elk jaar met minstens 50% verbeteringen kon komen, anders werd je neergesabeld door de techreviewers. Na 2010 was dat afgelopen. AMD was blut en Nvidia hoefde niet meer want mensen kochten toch blind de volgende GeForce.
AMD heeft verder rond 2008 de zoveelste fout in bedrijfsvoering gemaakt waar ze nog steeds last van hebben. De conceptualisering voor GCN als GPGPU architectuur stamt namelijk uit die periode. Vervolgens heeft AMD nauwelijks moeite gestoken in de ontwikkeling van een ecosysteem waardoor GCN niet op kon tegen Nvidia haar nieuwe architecturen in de HPC markt, en hun voordelen in gaming ook verloren ging. Nvidia heeft ondertussen in 2008 eens kritisch naar hun Tesla architectuur gekeken en ging toen stappen zetten naar een veel efficiëntere, pure gaming architectuur. Eerst Kepler in 2012, maar later en veel belangrijker Maxwell. Maxwell is ook interessant omdat het deze architectuur het directe antwoord op Terascale 2 en de 5xxx serie is.
Deze beslissing breekt AMD na tien jaar nog steeds op. Navi zie ik op prjis/kwaliteit wel presteren, maar het gaat denk ik geen serieuze stap zetten. Hogere clocks, hopelijk wat efficiënter qua memory controller zodat de chips wat zuiniger zijn en de Vega features. Meer verwacht ik echt niet.
De echte stap komt erna pas. Lisa Su hintte een tijdje terug op een splitsing van architecturen, eentje voor HPC en eentje voor gaming. Dat lijkt er na Navi te komen in 2021. Kan ook niet eerder omdat vorig jaar R&D budgetten omhoog lijken te zijn gegaan voor de RTG waardoor ze met iets nieuws kunnen komen. Ze komen het komende jaar wel met een splitsing van GCN, maar niet van architecturen. Vega 20 gaat een grote HPC only chip worden met veel meer HBM2. Navi gaat waarschijnlijk GDDR6 en efficiënter om te maken worden. Het is iets, maar echt innovatief is het niet vanuit oogpunt van prestaties.

Niet Zen 2, maar Ryzen 2 en die komen waarschijnlijk 19 april uit.[b]_Dune_ schreef op woensdag 21 maart 2018 @ 14:01:[/b
Ik heb begrepen dat AMD ook met een ZEN2 komt met een maandje of twee... dus, zolang maar even volhouden met wat ik heb.
[ Voor 5% gewijzigd door DaniëlWW2 op 21-03-2018 14:19 ]
Never argue with an idiot. He will drag you down to his own level and beat you with experience.
We krijgen de laatste tijd vanuit verschillende hoeken klachten over de gevoerde toon in deze topicserie. Laten we het een beetje gezellig houden. Probeer alleen op de feiten te reageren en je statements te onderbouwen met bronnen. Dram daarbij niet door, als een ander ook na onderbouwing een andere mening toegedaan blijft is daar niets mis mee. Laat sneren en op de man teksten achterwege, dan blijft het voor iedereen leuk.