Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Mechwarrior Online: Flapdrol
Verwijderd
Zelfde ervaring hier maar ik moet zeggen dat ik ook met ATI niet veel problemen heb gehad net zo min met de HD 5870 cf. Het is onkunde bij mensen die af en toe eens achter een pc kruipen en alles laat doen zonder schone installaties en dergelijke.sdk1985 schreef op maandag 07 september 2015 @ 17:25:
[...]
Dat komt voort uit de users die nooit driver problemen hebben. De laatste keer dat ik een Nvidia driver probleem had stamt uit bij mij uit een oude hitman game (contracts, 2004?). Dat was alleen een game die ik 2 weken voor de release speelde. Tegen de tijd dat de game officieel uitkwam was het probleem (met de shadows) opgelost. De laatste keer dat ik met AMD driver problemen had was de launch van de e350 APU waarbij het ongeveer 11 maanden heeft geduurd voor het werkte zoals het hoorde.
AMD heeft de naam niet voor niets, er zijn gewoon veel voorbeelden te vinden van games waarbij de hotfix op zich liet wachten. Daarnaast hebben we het frametimes debacle gehad waarbij AMD heeft toegegeven de drivers gewoon nooit op consistentie te testen (terwijl Nvidia dit wel deed). Om van die naam af te komen (heb ik al vaker vemeld hier) zullen ze Nvidia niet moeten evenaren maar voorbij streven.
Edit
Trash talk on Rededit
AMD claims that it has the majority of DX12 games signed up in a partnership.
AMD's Head of Global Technical Marketing Robert Hallock claims that the vast majority of DX12 titles in the next two years will be partnering with AMD.
Bron AMD medewerker marketing.
http://www.fudzilla.com/n...-games-partnered-with-amd
Eerst maar eens zien dan geloven gezien er ook Nidia dx 12 titels komen met 12_1 features er in.
[ Voor 15% gewijzigd door Verwijderd op 08-09-2015 11:51 ]
Nvidia heeft als partner alle DX11 spellen in de komende twee jaarVerwijderd schreef op dinsdag 08 september 2015 @ 10:02:
[...]
Zelfde ervaring hier maar ik moet zeggen dat ik ook met ATI niet veel problemen heb gehad net zo min met de HD 5870 cf. Het is onkunde bij mensen die af en toe eens achter een pc kruipen en alles laat doen zonder schone installaties en dergelijke.
Edit
Trash talk on Rededit
AMD claims that it has the majority of DX12 games signed up in a partnership.
AMD's Head of Global Technical Marketing Robert Hallock claims that the vast majority of DX12 titles in the next two years will be partnering with AMD.
Bron AMD medewerker marketing.
http://www.fudzilla.com/n...-games-partnered-with-amd
Eerst maar eens zien dan geloven gezien er ook Nidia dx 12 titels komen met 12_1 features er in.
Het programmeren van Async Compute schijnt lastiger te zijn op Nvidia kaarten voor ontwikkelaars. Van wat ik ervan heb begrepen is dat ze moeten wachten tot een compute shader klaar is voordat ze een nieuwe opdracht kunnen geven. Op GCN hoef je niet te wachten omdat ze out of order kunnen werken.
Bij Nvidia moet je er dus voor zorgen dat de compute units klaar zijn met de taak voor het einde van het frame, indien je die deadline niet haalt krijg je tearing (en dus meer latency).
Indien ik dit fout heb zie ik graag een mooie uitleg
Volgens mij al eerder gepost maar dan in het CJ topic, hier wordt dieper ingegaan op de Async Compute oplossingen van beide fabrikanten:
http://www.overclock.net/...wd-sourcing#post_24385652
Die titels zullen er vast wel komen, maar dit zullen waarschijnljk vooral TWIMTBP titels zijn totdat ook AMD DX12_1 heeft. Denk dat het dan pas meer zal worden gebruikt, de reden hiervoor is al eerder besproken.
Mochten meer mensen dit probleem hebben, ik had het opgelost door mijn monitor op 120hz ipv 144hz te zetten (beetje jammer dat dat nodig is, maargoed) en power consumption op adaptive te zetten. Daarna was idle clock zo'n 175mhz en de temperatuur op een comfortabele ~40 graden.
Hmmm helaas kan ik dat niet reproduceren, heb maar een 60Hz schermThermometer schreef op dinsdag 08 september 2015 @ 15:08:
Bij mijn nieuwe MSI GTX 980Ti Gaming videokaart had ik het probleem dat de idle clock op 1136 mhz bleef hangen. Hierdoor was de kaart standaard ~60 graden doordat de fans nog niet aan gingen.
Mochten meer mensen dit probleem hebben, ik had het opgelost door mijn monitor op 120hz ipv 144hz te zetten (beetje jammer dat dat nodig is, maargoed) en power consumption op adaptive te zetten. Daarna was idle clock zo'n 175mhz en de temperatuur op een comfortabele ~40 graden.
Witcher 3, company of heroes 2 alles op ultra brengt me interne kacheltje toch op 71 graden en blijft daar netjes op staan
-- My Gaming Rig Power -- -- <SG> Diabolic --
Verwijderd
Betekent dit dat het precies zoals bij AMD werkt. Meerdere cores die aparte berekeningen kunnen maken alleen is het nog niet ingeschakeld via de drivers om die hardware te laten werken?
Ik vraag dit maar hier want mijn Engels is brak dus heb weinig aan info wat allemaal in het Engels is.
[ Voor 26% gewijzigd door Verwijderd op 10-09-2015 14:01 ]
Bij VR kan je op amd kaarten ook op het juiste moment (zo laat mogelijk, vlak voor het scherm refresht) een "timewarp" doen, dan verschuif je het beeld met de laatste positiedata van de headset, zodat de input lag minimaal lijkt, bij VR moet je toch al warpen om een normaal gevormd beeld bij je ogen te krijgen, dus het gaat niet echt ten koste van de beeldkwaliteit, en je ziet ook niet gelijk een zwarte rand als je een beetje marge hebt. Bij nvidia kan je niet op elk moment het renderen pauzeren, dus moet je die timewarp waarschijnlijk eerder doen en ervaar je meer input lag.
Mechwarrior Online: Flapdrol
Dat is de simpele versie.
Het gaat wel iets verder dan dat.dahakon schreef op donderdag 10 september 2015 @ 18:54:
Het verschil is dat Maxwell 2 de eerste 2 stappen in software moet doen, waar GCN die stappen (normaalgesproken) in hardware doet. Dit houdt dus in dat nVidia een grotere driver overhead heeft en dus de CPU meer belast voor bepaalde zaken die in DX12 dus ook via de GPU gedaan zouden kunnen worden, waar GCN het dus in de GPU doet, met als gevolg minder CPU belasting.
Dat is de simpele versie.
Nvidia heeft meer latency. Als je bij AMD 6 taken naar queues 7 t/m 12 stuurt, komt dat ook vrijwel meteen zo aan op de GPU in die specifieke queues en neemt de hardware het over. Bij Nvidia blijft dat sowieso eerst nog even hangen op de CPU en is het maar de vraag of het precies zo naar de GPU gaat als jij wil.
Vervolgens komt het op de GPU aan en dan kan het wederom even blijven hangen, afhankelijk van hoe de Warp alles in deelt. En als je dan ook nog mixed taken uit wil voeren krijg je te maken met context switches, nog meer latency.
Dat is even afgezien van het feit dat Nvidia de driver wel intelligenter kan maken, maar ze zullen nooit zo efficiënt gebruik kunnen maken van alle hardware als AMD; los van het aantal queues en de wavefronts, heb je bij Nvidia eerst een scheduler die maar moet "gokken" waar werk verricht kan worden, voordat het bij een scheduler (Warp) komt die weet waar hij ruimte voor heeft.
Dus nee, Nvidia heeft bij lange na niet hetzelfde als AMD en zal dat ook nooit op kunnen lossen met software. Ze kunnen de impact verminderen door de software intelligenter te maken, maar daar blijft het ook bij.
[ Voor 6% gewijzigd door Werelds op 10-09-2015 19:46 ]
Hier ben ik het met je eens. Ze hebben met async compute een foute weg ingeslagen. Amd doet het in hardware direct en nvidia moet eerst het langs zijn drivers doen.Werelds schreef op donderdag 10 september 2015 @ 19:45:
[...]
Het gaat wel iets verder dan dat.
Nvidia heeft meer latency. Als je bij AMD 6 taken naar queues 7 t/m 12 stuurt, komt dat ook vrijwel meteen zo aan op de GPU in die specifieke queues en neemt de hardware het over. Bij Nvidia blijft dat sowieso eerst nog even hangen op de CPU en is het maar de vraag of het precies zo naar de GPU gaat als jij wil.
Vervolgens komt het op de GPU aan en dan kan het wederom even blijven hangen, afhankelijk van hoe de Warp alles in deelt. En als je dan ook nog mixed taken uit wil voeren krijg je te maken met context switches, nog meer latency.
Dat is even afgezien van het feit dat Nvidia de driver wel intelligenter kan maken, maar ze zullen nooit zo efficiënt gebruik kunnen maken van alle hardware als AMD; los van het aantal queues en de wavefronts, heb je bij Nvidia eerst een scheduler die maar moet "gokken" waar werk verricht kan worden, voordat het bij een scheduler (Warp) komt die weet waar hij ruimte voor heeft.
Dus nee, Nvidia heeft bij lange na niet hetzelfde als AMD en zal dat ook nooit op kunnen lossen met software. Ze kunnen de impact verminderen door de software intelligenter te maken, maar daar blijft het ook bij.
Maar alsnog, was ook al eerder benoemd. Async compute is een functie die voor ontwikkelaar gebruikt kan worden voor de shaders.
Maarrrrrr....het is niet noodzakelijk. Want we kennen nvidia allemaal wel, halen we geen hogere scores via de benchmarks met de aanpassing in de drivers...dan smakken we wel onze portomonnee's open voor de ontwikkelaars en zorgen we wel ervoor dat de spellen sneller zijn met een nvidia kaart.
Denk hoe je het went, draait of keert. Iedereen is omkoopbaar als men genoeg cijfers laat zien. Daar zal nvidia weer een triomf van maken. Want ze willen hun naam uiteraard niet besmeerd zien aangezien hun dure kaarten zo marketing aangeprezen is met sneller dit en sneller dat en dx12 ready en opeens het spit moet onderdelven.
Ik maak me geen zorgen en weet toch wel hoe dit verhaaltje gaat verlopen. Daarom blijf ik mooi bij me kaartje. Gaat al jaren zo en zal ook jaren zo doorgaan.
-- My Gaming Rig Power -- -- <SG> Diabolic --
Geen last van. Lees het wel vaker maar heb het zelf nog niet kunnen reproduceren. Alle 3 de gtx 970's gingen naar z'n laagste punt en de 980ti gaat ook netjes naar 135mhz op 144hz.Thermometer schreef op dinsdag 08 september 2015 @ 15:08:
Bij mijn nieuwe MSI GTX 980Ti Gaming videokaart had ik het probleem dat de idle clock op 1136 mhz bleef hangen. Hierdoor was de kaart standaard ~60 graden doordat de fans nog niet aan gingen.
Mochten meer mensen dit probleem hebben, ik had het opgelost door mijn monitor op 120hz ipv 144hz te zetten (beetje jammer dat dat nodig is, maargoed) en power consumption op adaptive te zetten. Daarna was idle clock zo'n 175mhz en de temperatuur op een comfortabele ~40 graden.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Ik weet niet of die vlieger nu op gaat. Wat Async Compute mogelijk maakt zijn dingen waar ontwikkelaars al jaren om vragen. En ik kan het blijven aanhalen, maar simpelweg asynchroon Copy kunnen uitvoeren is het al waard. Het hele punt van DX12 is dat de ontwikkelaar de controle heeft en dat is bij Nvidia niet het geval.Xtr3me4me schreef op donderdag 10 september 2015 @ 21:26:
Maarrrrrr....het is niet noodzakelijk. Want we kennen nvidia allemaal wel, halen we geen hogere scores via de benchmarks met de aanpassing in de drivers...dan smakken we wel onze portomonnee's open voor de ontwikkelaars en zorgen we wel ervoor dat de spellen sneller zijn met een nvidia kaart.
En vergeet niet dat er met DX12 veel minder sprake is van optimalisatie voor een specifieke vendor. Vergeet niet dat die optimalisaties al in de spec verwerkt zitten (de verschillende tiers voor resource binding, tiled resources). Qua optimalisaties heb je het eigenlijk alleen over bijvoorbeeld het aantal tessellation samples. Gameworks zal wel een doorn blijven, daar verandert DX12 niets aan, ook niet als Pascal er is en wel fatsoenlijk asynchroon kan werken. Als een game/engine echter voor DX12 geoptimaliseerd is, komt het vooral op de hardware aan en dat zit bij AMD gewoon beter in elkaar.
Wel denk ik dat we de komende 18-24 maanden nog genoeg games zullen zien die primair gebouwd zijn voor DX11. Enkele uitzonderingen daar gelaten; Frostbite bijvoorbeeld zal over een jaar wel primair op DX12 lopen, met DX11 als fallback (zorgt Andersson wel voor
Ik zie Nvidia geen ontwikkelaar zo ver krijgen om DX12 uit een engine te slopen waar het al in zit en in die gevallen heeft AMD gewoon een streepje voor in de benchmarks. Zal het Nvidia pijn doen? Zeer zeker niet. Maar het is wel goed voor AMD
Eerlijk gezegd ben ik vooral benieuwd naar de GPU's van volgend jaar. AMD heeft op korte termijn profijt van DX12, maar de volgende generatie is veel belangrijker dan de huidige. AMD heeft nu al een ijzersterk ontwerp, de vraag is of ze ook weer terug kunnen naar hun sweet spot. Voor Nvidia is de vraag of Pascal beter in elkaar zit en of ze daarmee ook de efficiëntie van Maxwell kunnen behouden.
Het enige waar ik binnen nu en een jaar wel potentieel problemen voor Nvidia zie zijn Multi-Adapter en VR. Als UE of Frostbite op korte termijn ondersteuning voor MA bieden zou dat een hoop enthousiasten naar de AMD kant kunnen trekken (AMD is daar al verder mee, ik verwacht dat dat bij hen lekkerder werkt).
.. dn houd ik mijn hart alweer vast. AMD verdient het imo gewoon om ook de vruchten te plukken van goede design choices. Fck nvidia.edward2 schreef op vrijdag 11 september 2015 @ 00:10:
Wat ik al dacht, Ark dx12 vertraagd omdat NV nog niet mee kan in dx12 (dx9 all over?)
Notice in patch notes for ARK DX12 is upcoming and has been delayed http://steamcommunity.com...ons/0/594820656447032287/ and one of the widcard DEV's tweeted theyre having issues with performance from DX12 on Nvidia side and delayed it's release because of this until they get further info as to why another of the DEV's tweeted before AMD cards were getting gains of 50%+ while Nvidia cards were lucky to get 15%-20% gains these tweets have since been romoved or I would link them they were in the Wildcard / ARK dev thread where people talked with the DEV's which all these posts have since been removed.
http://www.overclock.net/...-ark-survival-evolved/230
Hopelijk wordt het dx12-pad niet gesaboteerd voor AMD.
Elke perceptie is belangrijk: Als AMD nu (veel) beter zou scoren op deze DX12 game is dat iets wat toch blijft hangen: "AMD is goed in DX12".
AMD heeft elk positief ding nodig om hun merk (weer) op te bouwen.
PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2
Het is er nog steeds, bij dx12 moet je als gamedeveloper voor elke architectuur apart optimaliseren.Werelds schreef op donderdag 10 september 2015 @ 23:47:
En vergeet niet dat er met DX12 veel minder sprake is van optimalisatie voor een specifieke vendor.
Je ziet het al bij mantle, bf4 draait op gcn 1.2 kaarten beter onder dx11 omdat die optimalisaties niet gedaan zijn.
Mechwarrior Online: Flapdrol
Verwijderd
Wereld wel een hoop speculatie wat wel en niet gebruikt word dat kun je niet weten zonder er zelf bij te zijn.
Er zijn ook 2 nvidia titels die volledig dx 12 zijn Finale fantasy en die andere
[ Voor 56% gewijzigd door Verwijderd op 11-09-2015 10:56 ]
Juist, en daarom zal ik bij gelijkwaardige prijs/performance, NIMMER voor nVidia kaart kiezen maar juist voor AMD.Help!!!! schreef op vrijdag 11 september 2015 @ 10:05:
Als ik dit dan weer lees:
[...]
.. dn houd ik mijn hart alweer vast. AMD verdient het imo gewoon om ook de vruchten te plukken van goede design choices. Fck nvidia.
Naar mijn mening dient zo'n bedrijf moet juist niet gestimuleerd worden om dergelijke praktijken voort te zetten. Voor mij heeft nVidia de laatste 10 jaar gewoon te vaak de vooruitgang tegen gehouden (DX9 debacle, DX10 done wrong debacle, DX10.1 debacle, onnodig veel Tesselation in sommige spellen, geen AA mogelijk in andere spellen, en nu weer de uitstel van de DX12 patch).
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Wat mij betreft wel iets om rekening mee te houden bij budget builds met zwakke CPU's. Kans dat een Nvidia GPU dan beter presteert dan een AMD in CPU limited situaties (aangezien budget gamers meestal op 1080p zitten)
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
[ Voor 103% gewijzigd door Bolletje op 11-09-2015 12:38 ]
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
Alsof ze zelf GPU chipmakers zijn hahaha! O o o o, mensen mensen. Wacht nou maar gewoon af!
En laten we het bashen tussen AMD is god en Nvidia is de duivel hier achterwegen laten, voordat het topic naar de knoppen gaat.
Laten we gewoon maar eerst eens zien wat Nvidia gaat doen en hoe dat gaat werken met games. Want nogmaals, van de hoogste toren gaan schreeuwen heeft geen enkele zin en slaat totaal nergens op als de feiten nog niet op tafel staan.
Er is niks uit, er zijn geen nieuwe drivers nog, consument heeft ook niet kunnen testen zelf. Nog helemaal niks.
Speculaties gebasseerd op fictie is wat we hier aan het maken zijn.
Ik ben zowel geen AMD fan als Nvidia fan. Ik ben een consument, die zijn games graag op zijn best speelt. En of Nvidia dat nu beter doet of dat AMD het nu beter doet, maakt mij echt geen fluit uit.
Ja ik heb 750 euro uitgegeven aan een videokaart, ja Nvidia doet het met 2 stappen in software aansturing. Zegt dat verder iets? Neen, helemaal niks. Aangezien de game ontwikkelaars hierin ook een zegje hebben en dat vergeten de meeste blijkbaar.
Hoe zou je het vinden dat er volgend jaar een spel uitkomt wat misschien wel het spel van het jaar gaat worden en daarbij DX12 ondersteunend en opeens benchmarks komen waarbij Nvidia meer FPS haalt dan AMD.
Dan gaan jullie de ontwikkelaar allemaal de schuld geven hierop? Hoe je het ook zegt, komt er dus op neer dat AMD "moet" de winnaar worden met DX12 en mag niet anders zijn.

Hilarisch sommige tweakers echt!

[ Voor 36% gewijzigd door Xtr3me4me op 11-09-2015 11:14 ]
-- My Gaming Rig Power -- -- <SG> Diabolic --
Dat is als in een Ferrari rijden waar alleen maar een carburateur van een fiat 500 inpast, om nog maar eens kromme vergelijking te maken
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®
Gaat alvast sparen voor een GTX 1050 Ti van 500 euro.Von Henkel schreef op vrijdag 11 september 2015 @ 11:51:
Zolang Nvidia de beste videokaarten maakt en Intel de beste processors zal amd het echt niet gaan maken..
Nvidia is qua software vaak beter dan AMD, AMD maakt over het algemeen betere/meer geavanceerde hardware. Nu heb ik het over gpu's en niet over cpu's waar AMD duidelijk wat steektjes laat vallen.
@Spliffire
Ze zullen wat worden "opgevangen" door de driver maar dat zal het niet oplossen. Zie de post van Werelds, en voor je terugkomt op dat het allemaal speculatie is raad ik je aan om alle posts van Werelds eens door te lezen. Dan kan je zien dat zijn "speculatie" in 99% van de gevallen de waarheid betreft.
een softwarematige oplossing, die blijkbaar al niet zo makkelijk is, vs een hardware matige afhandeling, dat blijft een geneuzel binnen de marge, dat zet geen zoden aan de dijk.Verwijderd schreef op vrijdag 11 september 2015 @ 12:23:
Fails die misschien opgelost worden via de drivers.
En het gaat er niet om, om je dit onder je neus te wrijven, tis meer dat er hier een aantal zitten die dat proberen uit te leggen, maar dat blijft niet echt plakken hier.
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®
Verwijderd
Vreemd dat de gtx 980 in THW review in eens wel beter uit in dx 12 performance. Staat Acs uit?
http://www.tomshardware.c...adeon-r9-nano,4285-8.html
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Amd heeft een vooruitstrevender architectuur, maar tot nu toe levert dat weinig op. Een 390x heeft een 10% grotere chip dan een 980, 2x zo brede memorybus en trekt 50% meer vermogen. Als de 980 dan niet meer sneller is is het opeens een dx12 fail van nvidia?SAiN ONeZ schreef op vrijdag 11 september 2015 @ 12:19:
Daar wringt de schoen dus, tis duidelijk dat ze niet de beste VGA's hebben, qua hardware, getuige de DX12 fails, en nog kan men dat niet toegeven. Had het ook wel in het AMD topic kunnen posten, maar daar weten ze dit al..
een softwarematige oplossing, die blijkbaar al niet zo makkelijk is, vs een hardware matige afhandeling, dat blijft een geneuzel binnen de marge, dat zet geen zoden aan de dijk.
En het gaat er niet om, om je dit onder je neus te wrijven, tis meer dat er hier een aantal zitten die dat proberen uit te leggen, maar dat blijft niet echt plakken hier.
Puur op specs zou je zeggen dat een 390x 30% sneller zou moeten zijn, maar ook in ashes is hij dat niet, en de fury X en 980Ti presteren vergelijkbaar.
Wat wel een echte meerwaarde is van de amd architectuur is die timewarp voor VR, bij amd kan die echt op het laatste moment uitgevoerd worden, bij nvidia moet dat eerder, omdat je anders het risico loopt dat je hem mist. Bij "gewoon dx12" zie ik weinig problemen, behalve dat nvidia hopelijk hun prijzen moet verlagen.
Mechwarrior Online: Flapdrol
Precies dit.haarbal schreef op vrijdag 11 september 2015 @ 13:19:
[...]
Amd heeft een vooruitstrevender architectuur, maar tot nu toe levert dat weinig op. Een 390x heeft een 10% grotere chip dan een 980, 2x zo brede memorybus en trekt 50% meer vermogen. Als de 980 dan niet meer sneller is is het opeens een dx12 fail van nvidia?
Puur op specs zou je zeggen dat een 390x 30% sneller zou moeten zijn, maar ook in ashes is hij dat niet, en de fury X en 980Ti presteren vergelijkbaar.
Wat wel een echte meerwaarde is van de amd architectuur is die timewarp voor VR, bij amd kan die echt op het laatste moment uitgevoerd worden, bij nvidia moet dat eerder, omdat je anders het risico loopt dat je hem mist. Bij "gewoon dx12" zie ik weinig problemen, behalve dat nvidia hopelijk hun prijzen moet verlagen.
AMD maakt volgens mij vaak de keuze om op "de verkeerde dingen" in te zetten.
Nvidia geeft de producten nog GDDR5, en een kleine bus.
AMD trekt alles uit de kast om geheugenbandbreedte te maximaliseren.
Effect:
Not much, want zoals je al kon verwachten, zijn de meeste titels helemaal niet bandwidth limited.
En bij de settings waarbij AMD eindelijk voordeel haalt uit die setup (4K Maxed), is het op geen van de kaarten van beide teams meer speelbaar....
Kwestie van de juiste dingen prioriteren.
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Als de situatie omgekeerd was, dus Nvidia had Async Compute op orde en AMD liep achter de feiten aan, dan stond het AMD topic vol berichten met "Argh $%@# AMD waar blijft die DX12 support ?!" en "altijd hetzelfde verhaal met AMD", terwijl die DX12 patch voor ARK Evolved er al zou zijn.
[ Voor 4% gewijzigd door Phuncz op 11-09-2015 14:38 ]
Rustig maarPhuncz schreef op vrijdag 11 september 2015 @ 14:38:
Als de situatie omgekeerd was, dus Nvidia had Async Compute op orde en AMD liep achter de feiten aan, dan stond het AMD topic vol berichten met "Argh $%@# AMD waar blijft die DX12 support ?!" en "altijd hetzelfde verhaal met AMD", terwijl die DX12 patch voor ARK Evolved er al zou zijn.
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Hmm, interessant, heb je toevallig ook meer dan 1 monitor aangesloten? Las op Reddit dat iemand het alleen kon reproduceren met twee beeldschermen en dat het niet optrad met 144hz op 1 scherm.OMD schreef op donderdag 10 september 2015 @ 23:09:
[...]
Geen last van. Lees het wel vaker maar heb het zelf nog niet kunnen reproduceren. Alle 3 de gtx 970's gingen naar z'n laagste punt en de 980ti gaat ook netjes naar 135mhz op 144hz.
Ik denk dat HBM voor amd de juiste keuze was, qua kosten en beschikbaarheid is het nu matig, maar het maakt de fury X wel gigantisch veel efficienter dan de andere gcn kaarten. Met gddr5 hadden ze dat niet bereikt.Jeroenneman schreef op vrijdag 11 september 2015 @ 14:21:
[...]
Precies dit.
AMD maakt volgens mij vaak de keuze om op "de verkeerde dingen" in te zetten.
Nvidia geeft de producten nog GDDR5, en een kleine bus.
AMD trekt alles uit de kast om geheugenbandbreedte te maximaliseren.
Effect:
Not much, want zoals je al kon verwachten, zijn de meeste titels helemaal niet bandwidth limited.
En bij de settings waarbij AMD eindelijk voordeel haalt uit die setup (4K Maxed), is het op geen van de kaarten van beide teams meer speelbaar....
Kwestie van de juiste dingen prioriteren.
Geheugenbandbreedte is zeker wel belangrijk, nvidia heeft niet voor niets hun cache vergroot en compressie verbeterd, puur om alles uit die bus te persen. HBM is efficienter, maar nvidia compenseert dit doordat de rest van de kaart ook efficienter is. Nog amper DP compute, en cpu sceduling, maar voor graphics en sp compute lijkt het vooralsnog prima te werken.
Maar ik denk niet dat het voor amd reëel was geweest om in een hele nieuwe architectuur te investeren. Als de shrink straks komt heeft gcn voor desktopkaarten waarschijnlijk toch geen problemen met powerefficiency meer. Alleen jammer voor amd dat die shrink zo lang duurt.
Ik zou ook niet zeggen dat amd "te vaak" op verkeerde dingen inzet, nvidia doet het ook pas beter sinds de gtx 680, en dat was ook maar voor de helft, want de 290x gaf wel meer performance per oppervlak dan de 780Ti. Of met de gtx280 tegen de 4870.


Pakte ook wel eens goed uit, met de 8800gtx, 8800GT cashcow die ze een paar keer verkleind en gerebrand hebben.
Mechwarrior Online: Flapdrol
AMD investeert in de toekomst, door het ontwikkelen van nieuwe technieken. HBM is hier slechts een enkel voorbeeld van. Die 'verkeerde dingen' zijn namelijk nodig om vooruit te kunnen blijven gaan, ook voor nVidia, die maar wat blij is dat AMD HBM heeft ontwikkeld, opdat ze het ook kunnen gaan toepassen in hun volgende generatie GPU's.Jeroenneman schreef op vrijdag 11 september 2015 @ 14:21:
[...]
Precies dit.
AMD maakt volgens mij vaak de keuze om op "de verkeerde dingen" in te zetten.
Bovendien lijkt het in de benchmarks niet echt verkeerd uit te pakken, wanneer je Fury met Titan/980Ti vergelijkt, met als bonus een erg bijzondere kaart als de Nano, wat niet echt mogenlijk was geweest met gDDR5.
Enfin, ik ga er van uit dat 'de verkeerde dingen' als HBM met de lancering van Pascal als het nieuwe wonder naar voren wordt geschoven. Laten we verder als gamers hopen dat DX12 ook bij nVidia in afzienbare tijd correct gaat werken, zodat de developers er volop op in gaan zetten.
De echte volledige DX12 functies zullen pas niet in aankomende maar misschien in de daarop volgende generatie kaarten komen.
Als je eens nagaat dat er 4 Titan x kaarten nodig was voor de demo Witch Cry. Laat staan een volledig gemaakt spel met de volle potentie van DX12 nodig heeft om 60fps of meer te draaien.
Aankomende tijd zal DX11 volop nog nodig zijn. En DX12 zal langzaam inrollen.
Ja we denken van, ja maar er komen toch al DX12 games uit. Ja klopt, maar ook deze benutten nog niet de volle potentie van DX12 omdat de huidige kaarten niet eens er gebruik van maken, dus nutteloos.
Ik ben van mening dat we de zaak gewoon moeten laten rusten en pas over 2 generaties verder kunnen aankijken wie het beste doet in de wereld van volle potentie in DX12.
-- My Gaming Rig Power -- -- <SG> Diabolic --
Verschil is dat nVidia er echt een game GPU van heeft gemaakt en bij AMD is de GPU niet gestript en daarmee in verhouding veel beter in professionele niet game toepassingen. Natuurlijk is dan voor de meesten van ons niet van belang, maar gamers zijn niet de enigen die high-end GPU's gebruiken. Dus voor nVidia en AMD is het wel degelijk van belang.haarbal schreef op vrijdag 11 september 2015 @ 13:19:
[...]
Amd heeft een vooruitstrevender architectuur, maar tot nu toe levert dat weinig op. Een 390x heeft een 10% grotere chip dan een 980, 2x zo brede memorybus en trekt 50% meer vermogen. Als de 980 dan niet meer sneller is is het opeens een dx12 fail van nvidia?
Puur op specs zou je zeggen dat een 390x 30% sneller zou moeten zijn, maar ook in ashes is hij dat niet, en de fury X en 980Ti presteren vergelijkbaar.
Wat wel een echte meerwaarde is van de amd architectuur is die timewarp voor VR, bij amd kan die echt op het laatste moment uitgevoerd worden, bij nvidia moet dat eerder, omdat je anders het risico loopt dat je hem mist. Bij "gewoon dx12" zie ik weinig problemen, behalve dat nvidia hopelijk hun prijzen moet verlagen.
Nee helemaal niet, wat hebben ze dan volgens jouw verkeerd gedaan aan de GPU's?Jeroenneman schreef op vrijdag 11 september 2015 @ 14:21:
[...]
AMD maakt volgens mij vaak de keuze om op "de verkeerde dingen" in te zetten.
Ja wel, (beperkte) review van het overklokken van Fury X gelezen op TechPowerUp, nog steeds gaf overklokken van het geheugen veel winst.Nvidia geeft de producten nog GDDR5, en een kleine bus.
AMD trekt alles uit de kast om geheugenbandbreedte te maximaliseren.
Effect:
Not much, want zoals je al kon verwachten, zijn de meeste titels helemaal niet bandwidth limited.
Dus nog steeds een geheugenbandbreedte "te kort". Een architectuur verander je niet zo één, twee, drie, daar gaat jaren overheen. Dus dan is meer geheugenbandbreedte gewoon het enige juiste wat AMD kan doen en dat hebben ze ook gedaan.
Je kan ook gewoon 4K op medium doen... Is gewoon bekend dat AMD meer driver overhead heeft bij DX11, daar zal zo snel ook niks aan veranderen. Alleen per game kunnen zullen ze nog wel winst halen, maar alle DX11 games in één keer kun je vergeten.En bij de settings waarbij AMD eindelijk voordeel haalt uit die setup (4K Maxed), is het op geen van de kaarten van beide teams meer speelbaar....
Toch wel, Intel heeft ondertussen Broadwell en Skylake uitgebracht, dus de positie van AMD is verslechterd op CPU gebied.sdk1985 schreef op vrijdag 11 september 2015 @ 15:16:
Je hier op tweakers bijvoorbeeld de AMD cpu's steeds minder worden aangeraden. Dat was vorig jaar heel anders (terwijl er eigenlijk niets is verandert aan de positie van AMD).
Absoluut, er was geen andere serieuze optie. Een GCN GPU met 4096 streamprocessors koppelen aan een 512 bit geheugenbus met het snelst mogelijke GDDR5 geheugen zou zorgen voor een minder geheugenbandbreedte en een veel hoger verbruik. Denk niet dat iemand daarop zat te wachten.haarbal schreef op vrijdag 11 september 2015 @ 16:05:
[...]
Ik denk dat HBM voor amd de juiste keuze was, qua kosten en beschikbaarheid is het nu matig, maar het maakt de fury X wel gigantisch veel efficienter dan de andere gcn kaarten. Met gddr5 hadden ze dat niet bereikt.
Vrijwel zeker? Dit is gewoon bekend.Xtr3me4me schreef op vrijdag 11 september 2015 @ 18:42:
Ik ben er vrijwel zeker van dat de huidige kaarten pre-DX12 kaarten zijn.
Dat ligt gewoon ook aan de textures. Zegt vrij weinig over hoe zwaar DX12 is.Als je eens nagaat dat er 4 Titan x kaarten nodig was voor de demo Witch Cry. Laat staan een volledig gemaakt spel met de volle potentie van DX12 nodig heeft om 60fps of meer te draaien.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.
Verwijderd
Verschil is alleen dat Nvidia zich op dit gebied gewoon compleet toelegt op de écht professionele klant en die koopt gewoon Quadro's omdat ze ook support willen. Je gaat daarvoor niet een consumentenkaart kopen, zeker niet van een bedrijf dat al jaren achterloopt qua driver support.-The_Mask- schreef op vrijdag 11 september 2015 @ 19:39:
[...]
Verschil is dat nVidia er echt een game GPU van heeft gemaakt en bij AMD is de GPU niet gestript en daarmee in verhouding veel beter in professionele niet game toepassingen. Natuurlijk is dan voor de meesten van ons niet van belang, maar gamers zijn niet de enigen die high-end videokaarten gebruiken. Dus voor nVidia en AMD is het wel degelijk van belang.
Met betrekking tot investeren in toekomstige techniek kan ik kort zijn: daardoor lopen ze al jaren achter. Het is elke keer weer een tegenvaller als AMD met een nieuwe kaart komt.
Ik heb inderdaad maar 1 scherm aangesloten. Ik heb helaas geen 2e display om mee te testen.Thermometer schreef op vrijdag 11 september 2015 @ 15:50:
[...]
Hmm, interessant, heb je toevallig ook meer dan 1 monitor aangesloten? Las op Reddit dat iemand het alleen kon reproduceren met twee beeldschermen en dat het niet optrad met 144hz op 1 scherm.
R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X
Vollediger: ze investeren op een te vroeg moment in de juiste techniek. HBM klinkt mooi, maar toch nog niet ver genoeg ontwikkeld. Nvidia wacht rustig af en gebruikt het pas volgend jaar.dahakon schreef op vrijdag 11 september 2015 @ 18:11:
[...]
AMD investeert in de toekomst, door het ontwikkelen van nieuwe technieken. HBM is hier slechts een enkel voorbeeld van. Die 'verkeerde dingen' zijn namelijk nodig om vooruit te kunnen blijven gaan, ook voor nVidia, die maar wat blij is dat AMD HBM heeft ontwikkeld, opdat ze het ook kunnen gaan toepassen in hun volgende generatie GPU's.
Bovendien lijkt het in de benchmarks niet echt verkeerd uit te pakken, wanneer je Fury met Titan/980Ti vergelijkt, met als bonus een erg bijzondere kaart als de Nano, wat niet echt mogenlijk was geweest met gDDR5.
Enfin, ik ga er van uit dat 'de verkeerde dingen' als HBM met de lancering van Pascal als het nieuwe wonder naar voren wordt geschoven. Laten we verder als gamers hopen dat DX12 ook bij nVidia in afzienbare tijd correct gaat werken, zodat de developers er volop op in gaan zetten.
Net zoals DX10.1. Leuk dat AMD het kon, maar hoeveel meer hebben ze erdoor verkocht?
| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340
Hynix en AMD hebben HBM toch samen ontwikkelt... Wie weet was er op dit moment en dan ook volgend jaar nog wel geen HBM geweest zonder AMD.Jeroenneman schreef op vrijdag 11 september 2015 @ 21:21:
[...]
Vollediger: ze investeren op een te vroeg moment in de juiste techniek. HBM klinkt mooi, maar toch nog niet ver genoeg ontwikkeld. Nvidia wacht rustig af en gebruikt het pas volgend jaar.
Net zoals DX10.1. Leuk dat AMD het kon, maar hoeveel meer hebben ze erdoor verkocht?
Nvidia moet volgens mij ook nog maar afwachten of er genoeg HBM 2.0 is. Ik dacht dat AMD voorrang had.
Als AMD niet jaren geleden was begonnen met het ontwikkelen van HBM, dan zou nVidia nooit volgend jaar HBM kunnen gaan gebruiken voor hun GPU's. Wat is 'te vroeg', wanneer je zelf 1 van de belangrijkste ontwikkelaars bent? Je wilt het toch op gegeven moment gaan gebruiken. Was AMD ook te vroeg met gDDR5 op de HD4870?Jeroenneman schreef op vrijdag 11 september 2015 @ 21:21:
Vollediger: ze investeren op een te vroeg moment in de juiste techniek. HBM klinkt mooi, maar toch nog niet ver genoeg ontwikkeld. Nvidia wacht rustig af en gebruikt het pas volgend jaar.
Verder is HBM niet het 'unique selling point' van Fury (X). Heel misschien een beetje voor de Nano, omdat deze dankzij HBM zo klein kan zijn, maar HBM is niets meer dan een weg naar een bepaald doel, zijnde prestaties.
Verwijderd
Volgens mij is HMB alleen leuk voor als je 12gb vol moet pompen?
[ Voor 6% gewijzigd door Verwijderd op 12-09-2015 10:51 ]
Bottleneck is misschien het verkeerde woord. Zie het als een stel weerstanden in serie, als je 1 van de weerstanden lager maakt wordt de totale weerstand lager, en loopt er meer stroom, maar het is natuurlijk het effectiefst om de hoogste weerstand aan te pakken.
Mechwarrior Online: Flapdrol
Ik had het ook niet over GeForce of Radeon kaarten, de Quadro en FirePro kaarten hebben namelijk dezelfde GPU.Verwijderd schreef op vrijdag 11 september 2015 @ 19:54:
[...]
Verschil is alleen dat Nvidia zich op dit gebied gewoon compleet toelegt op de écht professionele klant en die koopt gewoon Quadro's omdat ze ook support willen. Je gaat daarvoor niet een consumentenkaart kopen.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
bandbreedte is busbreedte * kloksnelheid, dus je test wel met een verschil in bandbreedte.Phuncz schreef op zaterdag 12 september 2015 @ 12:19:
Dat scenario test alleen het (1) verschil in geheugensnelheid (niet bandbreedte) voor (2) dat type GPU op (3) die specifieke test.
Mechwarrior Online: Flapdrol
Verwijderd
Is dus moeilijk te zeggen wat goedkoper is, wij krijgen de prijzen namelijk nooit te zien.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Meer bandbreedte geeft ook lagere latency, dus dat is waarschijnlijk ook de reden dat je een performance toename ziet bij het overclocken van het geheugen op een Fury (x). Als je alles in een keer kan verstouwen dan hoef je niet nog een keer je geheugen aan te spreken.-The_Mask- schreef op zaterdag 12 september 2015 @ 14:05:
Geen één GPU heeft op dit moment een te veel aan geheugenbandbreedte. En een bredere geheugenbus hoeft ook niet te zorgen voor meer kosten. Snellere geheugenchips zijn namelijk duurder (verbruiken ook meer) en minder bandbreedte zorgt er voor dat er meer kosten aan de GPU moeten worden gemaakt om de minder bandbreedte op te vangen. Zoals de extra L2 cache bij Maxwell en verder verbeterde compressie.
Is dus moeilijk te zeggen wat goedkoper is, wij krijgen de prijzen namelijk nooit te zien.
GCN heeft ook L2 cache. De Fury X heeft net zoals Maxwell (1 en 2) 2mb L2 cache, de oudere GCN kaarten hebben 1mb L2 cache. Kepler daarentegen heeft maar 256kb L2 cache.
http://www.anandtech.com/...radeon-r9-fury-x-review/4
http://www.anandtech.com/...-gtx-750-review-maxwell/3
http://www.anandtech.com/...-geforce-gtx-980-review/2
Was het niet eerder een selling point dat de diehard Nvidia fanboys riepen dat Maxwell L2 cache had en dat ze geen geheugen bandbreedte nodig hadden?
Verwijderd
Stop eens met met het woord fanboys iedereen die dat roept moet eens bij zichzelf gaan kijken en het is ook nog eens vrij irritant voor diegenen die die dingen niet roepen al is het sarcastisch bedoeld ik vind het trollen en apengedrag
Je snapt toch dat Maxwell HBM2 zal hebben met de "dubbel zo extreme" bandbreedte ? Het is maar dat je je kan voorbereiden om dan random zaken uit je duim te zuigen waarom Nvidia zo goed is.Verwijderd schreef op zaterdag 12 september 2015 @ 17:14:
Nvidia laat juist zien hoe het ook met minder kan zonder dat extreme. Ik vind dat juist positief om een gpu zo efficient mogelijk te maken. Dat men daar om gaat klagen is een beetje raar.
Efficiënt kan je langs meerdere kanten bekijken, zoals lage latency door een bredere geheugenbus met een lager verbruik is in mijn ogen efficiënter dan hoger geclocked geheugen dat door een smallere geheugenbus moet.
Beide GPU bakkers hebben hun eigen efficiënte aspecten hoor. Het ligt er maar aan van welke kant je het bekijkt.
De ironie !

Verwijderd

Draai het eens om. nVidia gebruikt geheugen dat op 7000MHz draait om zijn kaart van voldoende bandbreedte te voorzien, terwijl AMD geheugen gebruikt dat slechts op 1000MHz draait. AMD probeert het geheugen juist zo efficient mogenlijk te maken en niet in het extreme te gaan. Beetje raar dat men daar dan over gaat klagen...Verwijderd schreef op zaterdag 12 september 2015 @ 17:14:
Nvidia laat juist zien hoe het ook met minder kan zonder dat extreme. Ik vind dat juist positief om een gpu zo efficient mogelijk te maken. Dat men daar om gaat klagen is een beetje raar.
Stop eens met met het woord fanboys iedereen die dat roept moet eens bij zichzelf gaan kijken en het is ook nog eens vrij irritant voor diegenen die die dingen niet roepen al is het sarcastisch bedoeld ik vind het trollen en apengedrag![]()
Misschien zie je de ironie in deze niet, maar het is precies wat AMD heeft gedaan met Fury en wat nVidia maar al te graag gaat doen met Pascal, de extreme geheugen snelheid wat terugdringen.
Verwijderd
Ik zit nog een beetje in het GDDR 5 tijdperk te denken en oordelen.
Mannen/misschien vrouwen ik zal de links zorgvuldig doornemen en minder snel oordelen over iets waar ik blijkbaar toch minder goed over geïnformeerd ben dan ik dacht.
Ik stel de moeite er voor de uitleg ook zeer op prijs.
[ Voor 23% gewijzigd door Verwijderd op 12-09-2015 18:15 ]
Waar zeg ik dat dat niet mooi is? Ze boeten hierdoor wel op andere punten in, delta color compression werkt niet in alle gevallen. Je ziet dat de 290x (terwijl deze tegenover de GTX780Ti moet staan) in cf voorbij de GTX980 gaat op 4k, wellicht was dit met meer geheugenbandbreedt niet het geval. Op 4k zie je nauwelijks het verschil tussen 2 of 3 kaarten terwijl je het juist op die resolutie nodig hebt.Verwijderd schreef op zaterdag 12 september 2015 @ 17:14:
Nvidia laat juist zien hoe het ook met minder kan zonder dat extreme. Ik vind dat juist positief om een gpu zo efficient mogelijk te maken. Dat men daar om gaat klagen is een beetje raar.
Ze missen hardware matige scheduling van Async Compute. Hebben over het algemeen op GPGPU ingeboet (floating point double precision etc).
Wat ze hiervoor terugkrijgen is een GPU met een hele goede performance/watt ratio, die goed presteerd op de lagere resoluties en redelijk goed op hoge (4k en meer) en soms in DX11 beter is doordat ze minder cpu limited zijn.
AMD heeft doormiddel van HBM een zuinige GPU kunnen maken en heeft minder hoeven inboeten op hun andere sterke punten. Als Nvidia met Pascal over gaat op HBM2 dan zal je ook zien dat hun kaarten weer een stuk zuiniger worden ten opzichte van kaarten met GDDR5.
Beide fabrikanten hebben andere ontwerp beslissingen genomen en hebben gpu's die vergelijkbaar presteren. AMD heeft duidelijk gemikt op Mantle (en daardoor (toevallig?) ook op DX12 en Vulkan) en 4k. Nvida heeft kaarten die goed zijn in DX11, de huidige generatie games en gemikt op de wat lagere resoluties.
http://www.hardocp.com/ar...ard_review/1#.VfRLbkAmBRI
https://www.techpowerup.c...eForce_GTX_980_SLI/1.html
http://www.guru3d.com/art...gtx_980_sli_review,1.html
Verwijderd
Dan snap ik je hele stelling niet meer. Je geeft juist aan dat AMD hun game cpu's niet stripped en ze professionele mogelijkheden geeft (dual precision etc.) Waarop ik juist zeg dat je hiermee zo'n enorme kleine markt aanboort dat het gewoon niet relevant is.-The_Mask- schreef op zaterdag 12 september 2015 @ 13:38:
[...]
Ik had het ook niet over GeForce of Radeon kaarten, de Quadro en FirePro kaarten hebben namelijk dezelfde GPU.
Zal even snel reageren op een aantal mensen die op mij reageerden:
@haarbal: er is geen Mantle driver voor GCN 1.2 (althans, was er niet, zelfs ten tijde van de Fury X release, weet niet of dat inmiddels veranderd is), heeft niets met DICE's implementatie te maken
Optimalisatie per vendor in DX12 draait om tweaks. Zorgen dat je op AMD niet 64xT toe past bijvoorbeeld, puur omdat AMD minder brute geometry kracht in huis heeft. In DX11 zijn "optimalisaties" per architectuur meer hacks dan iets anders; zo moet je voor Alpha to Coverage bij elke vendor een ander render target (en FOURCC) gebruiken voor optimale resultaten. Render target op Nvidia loopt ook via de geometry units, omdat D3D het anders verkeert interpreteert en je geen alpha channel naar de GPU krijgt gestuurd (

@ Spliffire: sommige dingen die ik zeg zijn pure speculatie, tuurlijk. Maar ik praat regelmatig met developers en ik weet gewoon waar men naar uit kijkt. Ik heb het al eerder genoemd, maar als je alleen al op Beyond3D rond hangt zie je al genoeg mensen uit de industrie die echt wel weten waar ze het over hebben. Sommigen hier hebben het lef die gasten "amateurtjes" te noemen

Jullie willen niet weten waar sommige van die gasten werken.
Enfin, ik heb nog geen enkele developer gesproken die niet uit kijkt naar AC of er zelfs al mee bezig is. Één van de gasten waar ik mee heb gesproken werkt aan een open world game (sorry, mag niet zeggen welke
@ Xtr3me4me: ze ondersteunen maar een paar dingen die DX12 kan?

GCN ondersteunt alles dat niet in 12_1 zit; GCN 1.0 zit op Tiled Resources Tier 1, wat wel een kleine beperking is, maar voor de rest heb je met een 7970 uit 2012 gewoon een hele solide DX12 kaart in handen. Ik denk dat je daarmee het grootste deel van AMD gebruikers echt wel te pakken hebt.
Maxwell 2.0 heeft een beperktere heap dan GCN en heeft een probleem met Async Compute, maar voor de rest zit alles er in. Tussen deze twee architecturen heb je toch al zo'n 15-20% van de markt te pakken die 90% van de features in D3D12 ondersteunen.
Pre-Maxwell 2.0 is het een ander verhaal ja. Fermi, Kepler en zelfs Maxwell 1.0 (750 Ti) ondersteunen vrijwel niets. De Tiled Resources "ondersteuning" betreft een tier 1 emulatie via de shaders. En voor de rest mist zo'n beetje alles.
Verwijderd
Edit
Opgezocht maar kan het niet meer terug vinden is al een redelijk oude demo ook meende ik.
Kan natuurlijk ook fake zijn zo dat het lijkt die winsten om dx12 goed te praten op nvidia hardware?
[ Voor 57% gewijzigd door Verwijderd op 13-09-2015 18:01 ]
Verwijderd
YouTube: Fable Legends: DirectX 12 vs DirectX 11
Ze emuleren DX11 zeggen ze, hoe accuraat dat is weet ik niet. Het spel is waarschijnlijk zoals spNk zegt DX12 only. In de video meldt hij dat hij 10fps erbij krijgt met het optimale UAV patroon, in dat geval een verbetering van 20% in fps. Niet zo dramatisch als van 25 naar 60 gelukkig.Verwijderd schreef op zondag 13 september 2015 @ 20:19:
Volgens mij was dit hem maar weet het nu ok niet meer zeker.
YouTube: Fable Legends: DirectX 12 vs DirectX 11
[ Voor 0% gewijzigd door Sp3ci3s8472 op 13-09-2015 21:24 . Reden: verbeterd ]
Verwijderd schreef op zondag 13 september 2015 @ 17:51:
Ik vind Fable legends anders goede wisten boeken op nvidia hardware tussen dx 11 en dx 12 van 25 fps naar 60 fps. Dit was tijdens een demo van Nvidia over dx 12 in unreal engine 4
Edit
Opgezocht maar kan het niet meer terug vinden is al een redelijk oude demo ook meende ik.
Kan natuurlijk ook fake zijn zo dat het lijkt die winsten om dx12 goed te praten op nvidia hardware?
Dat komt hier uit: https://channel9.msdn.com...-Graphics-and-PerformanceVerwijderd schreef op zondag 13 september 2015 @ 20:19:
Volgens mij was dit hem maar weet het nu ok niet meer zeker.
YouTube: Fable Legends: DirectX 12 vs DirectX 11
Vanaf 48:15 ongeveer.
However:
- Geen demo van Nvidia, maar van MS tijdens GDC 2015; Max McMullen is het hoofd van de D3D afdeling
- Niet 25 -> 60, maar ±50 naar ±60 (+20%); die 25 aan het begin is omdat hij aan het laden is (legt hij ook uit)
- Geen Nvidia hardware, maar AMD (te zien in de debugger; AmdDxGsaFreeCompiledShader
- Gaat om een situatie waarin je in D3D11 moet wachten op UAVs en dat simuleren ze door in de code op de momenten waar D3D11 die "wait" zou hebben ook een instructie te geven om op die UAVs te wachten. Dat komt vrijwel geheel overeen, dus ja, die emulatie die is wel goed.
- En nee, Fable Legends is gewoon UE4, dus draait ook op D3D11; zie ook de video, ze zetten D3D12 optimalisaties aan/uit
Edit: zelfde video laat overigens een ander praktijk voorbeeld zien; D3D12 draait net zo snel op 1080p als D3D11 op 900p; 44% meer pixels
[ Voor 17% gewijzigd door Werelds op 13-09-2015 21:05 ]
Verwijderd
[ Voor 26% gewijzigd door Verwijderd op 14-09-2015 13:06 ]
-- My Gaming Rig Power -- -- <SG> Diabolic --
In principe: JA.Verwijderd schreef op maandag 14 september 2015 @ 13:06:
De vraag blijft krijgt Nvidia dan ook zulke fps winsten met Maxwell 2 in Fable? Kort antwoord is genoeg van de kenners hier JA of NEE
Het hangt echter van de workload af. Of het voor dit specifieke voorbeeld geldt, geen flauw benul, dan zouden ze ons moeten laten zien wat ze precies doen. Als de workload echter uit mixed asynchrone taken bestaat, zal er bij Nvidia weinig tot geen winst te behalen zijn omdat ze dan alsnog een barrier in moeten voeren.
Onthoudt wel dat dit een heel specifiek voorbeeld is en niet opgevat dient te worden als "DX12 geeft +20% FPS !!1!1" (op zowel AMD als Nvidia).
[ Voor 10% gewijzigd door Werelds op 14-09-2015 21:36 ]
Ik hoop van niet. NV heeft de reserves om even tweede te draaien. AMD kan dat eigenlijk even niet hebben. Al zal nV het even alles op alles zetten gezien hun manie om de kroon te hebben. Maar ja ze kunnen niet toveren.
Dat AMD het zo slecht doet met DX11 hoefd geen driver isue te zijn. Het is diezelfde hardware beperking waar nVidia tegen aanloopt met DX12.
GCN 1.1 en 1.2 is zeer parralele architectuur die zwaarder ACE ondersteund.
Dat past heel goed bij een zwaar multitreaded efficente API.
Als nV hardware dat niet kan dan past dat veel beter bij de sequentiele API.DX11.
AMD loopt gewoon in CPU bound setting in DX11 zo slecht omdat hun architectuur parralel is en dus ashync architectuur zwaar parrallel niet optimaal gebruikt kan worden door maximaal twee treads effectieve API.
Nvidia architectuur past kwa api koppeling gewoon veel beter bij DX11.
Waar nVidia ook nog heel veel multithreaded doet in de driver zoals shader code recompile en game detectie en profiling en daarmee kwa drawcalls soms dubbele van AMD GCN kan halen.
DX11 is ook multitreaden maar de overhead is zo hoog dat het wachten van de werk treads op de maintread zo hoog is dat multitreaded aanpak effect nihil is.
En het is maar de vraag of Pascal een ACE zwaare implementatie wordt, aangezien nV ook verrast is door de API evolutie waar ze maximaal jaar van op de hoogte zijn. Dus genoeg tijd voor drivers. Mogelijk geen tijd voor een architectuur gericht op DX12 en vulkan.
Wetende dat Vulkan chronos group dev team AMD bedankt voor Mantle donatie.
En DX12 daar ook zwaar op gebaseerd is dat men uiteindelijk bij latere revisies ook de documentatie heeft aangepast. Dus AMD heeft wat voorsprong. En GCN1.1 lijkt eerder op te wijzen dat dit toch een lange termijn planning was.
Dus heeft pascal architectuur mogelijk deze to the metal API gebeuren compleet gemist. Of had nV nog even de tijd om iets aan te passen?
Als het daadwerkelijk een hardware architectuur probleem is kan komende jaar een AMD feestje worden. En bij nV moeten ze dan even wachten op de zware ACE refresh. Mischien is dat Pascal al. Maar ook redelijke kans van niet.
AMD moet voor hun next gen niet zo zuinig zijn met ROPs en testalatie engine ( s ).
Maar ja een kleinere DIE heeft ook minder kwa logic in de mix.
Het worden spannende tijden.
Nv heeft voordeel dat het even duurt eer DX12 geweld op gang komt en er voorlopig ook DX11 path in moet zitten. Dus de meeste titels zullen niet zo snel wild gaan met drawcalls of complexiteit.
X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K
Verwijderd
[ Voor 4% gewijzigd door Verwijderd op 15-09-2015 11:06 ]
Daarin weet je zeker dat je de komende tijd goed zit toch?
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®
Verwijderd
Daar waag ik me pas weer aan als ik geen videokaart had dan was het wel een fury x geweest en later een 2e Maar goed ik had bijna een jaar eerder de ti al. Zit sowieso wel goed met 2 van die ti's in sli zonder dx 12SAiN ONeZ schreef op dinsdag 15 september 2015 @ 12:37:
er zijn ook kaarten van een ander merk, maar daar waag je je niet aan?
Daarin weet je zeker dat je de komende tijd goed zit toch?
[ Voor 12% gewijzigd door Verwijderd op 15-09-2015 12:41 ]
DX11 is passé, je wilt toch van de nieuwste techniek gebruik maken?Verwijderd schreef op dinsdag 15 september 2015 @ 12:40:
[...]
Daar waag ik me pas weer aan als ik geen videokaart had dan was het wel een fury x geweest en later een 2e Maar goed ik had bijna een jaar eerder de ti al. Zit sowieso wel goed met 2 van die ti's in sli zonder dx 12
[ Voor 72% gewijzigd door SAiN ONeZ op 15-09-2015 12:44 ]
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®
Verwijderd
[ Voor 33% gewijzigd door Verwijderd op 15-09-2015 12:45 ]
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®
Verwijderd
[ Voor 45% gewijzigd door Verwijderd op 15-09-2015 12:52 ]
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®
N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®
Verwijderd
Hoort niet echt in dit topic thuis, maar hierbij komt ook nog dat AMD in de huidige generatie consoles zit met een GCN architectuur. Dat i.s.m. met Mantle (de figuurlijke vader van DX12 en Vulkan) maakt dat ze een sterke basis hebben zich te onderscheiden van nVidia in positieve zin.SG schreef op dinsdag 15 september 2015 @ 07:38:
Dus genoeg tijd voor drivers. Mogelijk geen tijd voor een architectuur gericht op DX12 en vulkan.
Wetende dat Vulkan chronos group dev team AMD bedankt voor Mantle donatie.
En DX12 daar ook zwaar op gebaseerd is dat men uiteindelijk bij latere revisies ook de documentatie heeft aangepast. Dus AMD heeft wat voorsprong. En GCN1.1 lijkt eerder op te wijzen dat dit toch een lange termijn planning was.
Als nVidia er niet voor kiest om je kaart bij de komst van Pascal te ondermijnenVerwijderd schreef op dinsdag 15 september 2015 @ 13:00:
Maar meent niet weg dat je met de ti SLI de komende 2 jaar wel goed zit.
[ Voor 14% gewijzigd door madmaxnl op 15-09-2015 13:12 ]
Aangezien ze in het verleden van de Geforce 9000-series naar de G/GT/GTX 200-series zijn gegaan, verwacht ik voor Pascal een nieuwe modelreeks. Ik zie het niet gebeuren dat ze de volgende de GTX 1000-series gaan noemen, GTX 1080 lijkt ook maar meh.
Ze hebben er vaker naast gezeten: de GTX 880 stond er eerst ook opVerwijderd schreef op dinsdag 15 september 2015 @ 15:28:
Wiki zegt Nvidia 1000 series ze hebben blijkbaar een glazenbol.
Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca
Misschien iets in de zin van "Nvidia GTX 10-series" bestaande uit:
Nvidia GTX 11 --> OEM oplossing ~750Ti
Nvidia GTX 12 --> volgt GTX 950
-
Nvidia GTX 14 --> volgt GTX 960
-
Nvidia GTX 16 --> volgt GTX 970
-
Nvidia GTX 18 --> volgt GTX 980
Nvidia GTX 18 Plus --> placeholder voor Ti-versie GTX 18
Nvidia GTX 19 --> placeholder voor dual-GPU
Dan kunnen ze nog eens 9 generaties verder
Wikipedia: GeForce 100 series
Dus ga uit van de 1000 serie of een gehele nieuwe naamgeving.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Maar volgens mij is de 100 serie nimmer voor de consumenten markt uitgebracht.
Ik kan me namelijk nog heel goed de strijd tussen de hd4800 serie en de 9800gtx (+) / gtx260/gtx280 heugen.
Maar je zult wel gelijk hebben...het lijkt me inderdaad sterk dat nvidia wederom de 100 serie uitbrengt.
[ Voor 19% gewijzigd door Indy91 op 16-09-2015 07:21 ]
AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65
En aangezien ze de 4-cijferige combinatie ook al gebruikt hebben, lijkt het me logisch dat ze ofwel naar twee cijfers gaan ofwel een compleet nieuwe naamvoering, dus zonder GTX en/of Geforce.
Wel voor consumenten, maar niet voor de retailmarkt, was een rebrand van de vorige generatie.Indy91 schreef op woensdag 16 september 2015 @ 07:19:
Please correct me if I am wrong,
Maar volgens mij is de 100 serie nimmer voor de consumenten markt uitgebracht.
Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!
Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.
Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.