Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:42

XanderDrake

Build the future!

Werelds schreef op maandag 07 september 2015 @ 20:20:
Overscan/underscan gaat nog steeds faliekant fout en het heeft 2,5 jaar geduurd eer je dat eens bij kon stellen in de driver. Meerdere monitors is nog steeds een drama tenzij je ze in Surround gebruikt. En laten we het maar even niet over Nvidia + RGB hebben ;)
Breek me de bek niet open over AMD en overscan. Ik heb een jaar lang een bat file in de opstart sequentie van win7 gehad omdat mijn AMD HD3200 altijd 10% over scan deed op mijn hdmi scherm. In de drivers zat geen optie, was gedwongen om een command line commando te gebruiken.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • marcop82
  • Registratie: Maart 2013
  • Niet online
Dat is toch een laptop chip ? Wil je zeggen dat de laptop standaard met overscan verkocht werd ?

Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Nee, AFAIK is dat een embedded (onboard) chip op diverse mobo's. Maar dat kan net zo goed met je monitor te maken hebben.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:27
Tv van m'n ouders had dat ook met een onboard 3200 en een externe 3450. Vrij vervelend dat je elke keer de ccc in moet om het aan te passen. Ik snap uberhaupt niet waarom het aan staat bij een hdmi apparaat.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

sdk1985 schreef op maandag 07 september 2015 @ 17:25:
[...]

Dat komt voort uit de users die nooit driver problemen hebben. De laatste keer dat ik een Nvidia driver probleem had stamt uit bij mij uit een oude hitman game (contracts, 2004?). Dat was alleen een game die ik 2 weken voor de release speelde. Tegen de tijd dat de game officieel uitkwam was het probleem (met de shadows) opgelost. De laatste keer dat ik met AMD driver problemen had was de launch van de e350 APU waarbij het ongeveer 11 maanden heeft geduurd voor het werkte zoals het hoorde.

AMD heeft de naam niet voor niets, er zijn gewoon veel voorbeelden te vinden van games waarbij de hotfix op zich liet wachten. Daarnaast hebben we het frametimes debacle gehad waarbij AMD heeft toegegeven de drivers gewoon nooit op consistentie te testen (terwijl Nvidia dit wel deed). Om van die naam af te komen (heb ik al vaker vemeld hier) zullen ze Nvidia niet moeten evenaren maar voorbij streven.
Zelfde ervaring hier maar ik moet zeggen dat ik ook met ATI niet veel problemen heb gehad net zo min met de HD 5870 cf. Het is onkunde bij mensen die af en toe eens achter een pc kruipen en alles laat doen zonder schone installaties en dergelijke.

Edit

Trash talk on Rededit

AMD claims that it has the majority of DX12 games signed up in a partnership.

AMD's Head of Global Technical Marketing Robert Hallock claims that the vast majority of DX12 titles in the next two years will be partnering with AMD.

Bron AMD medewerker marketing.
http://www.fudzilla.com/n...-games-partnered-with-amd

Eerst maar eens zien dan geloven gezien er ook Nidia dx 12 titels komen met 12_1 features er in.

[ Voor 15% gewijzigd door Verwijderd op 08-09-2015 11:51 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op dinsdag 08 september 2015 @ 10:02:
[...]


Zelfde ervaring hier maar ik moet zeggen dat ik ook met ATI niet veel problemen heb gehad net zo min met de HD 5870 cf. Het is onkunde bij mensen die af en toe eens achter een pc kruipen en alles laat doen zonder schone installaties en dergelijke.

Edit

Trash talk on Rededit

AMD claims that it has the majority of DX12 games signed up in a partnership.

AMD's Head of Global Technical Marketing Robert Hallock claims that the vast majority of DX12 titles in the next two years will be partnering with AMD.

Bron AMD medewerker marketing.
http://www.fudzilla.com/n...-games-partnered-with-amd

Eerst maar eens zien dan geloven gezien er ook Nidia dx 12 titels komen met 12_1 features er in.
Nvidia heeft als partner alle DX11 spellen in de komende twee jaar :+.

Het programmeren van Async Compute schijnt lastiger te zijn op Nvidia kaarten voor ontwikkelaars. Van wat ik ervan heb begrepen is dat ze moeten wachten tot een compute shader klaar is voordat ze een nieuwe opdracht kunnen geven. Op GCN hoef je niet te wachten omdat ze out of order kunnen werken.
Bij Nvidia moet je er dus voor zorgen dat de compute units klaar zijn met de taak voor het einde van het frame, indien je die deadline niet haalt krijg je tearing (en dus meer latency).
Indien ik dit fout heb zie ik graag een mooie uitleg :p.

Volgens mij al eerder gepost maar dan in het CJ topic, hier wordt dieper ingegaan op de Async Compute oplossingen van beide fabrikanten:
http://www.overclock.net/...wd-sourcing#post_24385652

Die titels zullen er vast wel komen, maar dit zullen waarschijnljk vooral TWIMTBP titels zijn totdat ook AMD DX12_1 heeft. Denk dat het dan pas meer zal worden gebruikt, de reden hiervoor is al eerder besproken.

Acties:
  • 0 Henk 'm!

  • Thermometer
  • Registratie: Juli 2005
  • Laatst online: 11-09 12:44

Thermometer

Whoop Whoop!

Bij mijn nieuwe MSI GTX 980Ti Gaming videokaart had ik het probleem dat de idle clock op 1136 mhz bleef hangen. Hierdoor was de kaart standaard ~60 graden doordat de fans nog niet aan gingen.

Mochten meer mensen dit probleem hebben, ik had het opgelost door mijn monitor op 120hz ipv 144hz te zetten (beetje jammer dat dat nodig is, maargoed) en power consumption op adaptive te zetten. Daarna was idle clock zo'n 175mhz en de temperatuur op een comfortabele ~40 graden.

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Thermometer schreef op dinsdag 08 september 2015 @ 15:08:
Bij mijn nieuwe MSI GTX 980Ti Gaming videokaart had ik het probleem dat de idle clock op 1136 mhz bleef hangen. Hierdoor was de kaart standaard ~60 graden doordat de fans nog niet aan gingen.

Mochten meer mensen dit probleem hebben, ik had het opgelost door mijn monitor op 120hz ipv 144hz te zetten (beetje jammer dat dat nodig is, maargoed) en power consumption op adaptive te zetten. Daarna was idle clock zo'n 175mhz en de temperatuur op een comfortabele ~40 graden.
Hmmm helaas kan ik dat niet reproduceren, heb maar een 60Hz scherm :'( . Enige wat ik wel merk dat me kaart idle 36 graden blijft, totdat ik ga spelen.
Witcher 3, company of heroes 2 alles op ultra brengt me interne kacheltje toch op 71 graden en blijft daar netjes op staan _/-\o_

-- My Gaming Rig Power -- -- <SG> Diabolic --


Verwijderd

Maxwell 2: Queues in Software, work distributor in software (context switching), Asynchronous Warps in hardware, DMA Engines in hardware, CUDA cores in hardware.

Betekent dit dat het precies zoals bij AMD werkt. Meerdere cores die aparte berekeningen kunnen maken alleen is het nog niet ingeschakeld via de drivers om die hardware te laten werken?

Ik vraag dit maar hier want mijn Engels is brak dus heb weinig aan info wat allemaal in het Engels is.

[ Voor 26% gewijzigd door Verwijderd op 10-09-2015 14:01 ]


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:27
Als ik het goed begrepen heb doet maxwell graphics en compute niet tegelijk (maar wel meerdere compute taken tegelijk). Bij amd kan er (vooral op de 290 en nieuwer) wel van alles tegelijk gebeuren, omdat die taken elkaar niet noodzakelijkerwijs heel erg in de weg zitten ben je dan eerder klaar. Maar de nvidia kaarten zijn wel weer sneller en zuiniger in bepaalde individuele taken.

Bij VR kan je op amd kaarten ook op het juiste moment (zo laat mogelijk, vlak voor het scherm refresht) een "timewarp" doen, dan verschuif je het beeld met de laatste positiedata van de headset, zodat de input lag minimaal lijkt, bij VR moet je toch al warpen om een normaal gevormd beeld bij je ogen te krijgen, dus het gaat niet echt ten koste van de beeldkwaliteit, en je ziet ook niet gelijk een zwarte rand als je een beetje marge hebt. Bij nvidia kan je niet op elk moment het renderen pauzeren, dus moet je die timewarp waarschijnlijk eerder doen en ervaar je meer input lag.

Mechwarrior Online: Flapdrol


  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Het verschil is dat Maxwell 2 de eerste 2 stappen in software moet doen, waar GCN die stappen (normaalgesproken) in hardware doet. Dit houdt dus in dat nVidia een grotere driver overhead heeft en dus de CPU meer belast voor bepaalde zaken die in DX12 dus ook via de GPU gedaan zouden kunnen worden, waar GCN het dus in de GPU doet, met als gevolg minder CPU belasting.

Dat is de simpele versie.

  • Mastasidaz
  • Registratie: December 2003
  • Laatst online: 31-08 18:33
Aangezien de GTX 980 & GTX 970 nu bijna een jaar uit zijn, vraag ik me af wat er in de toekomst nog gaat komen. Ik van plan mijn inmiddels stokoude GTX 460 te vervangen, maar vraag me of ik beter nog even kan afwachten. Hebben jullie een idee hoe snel er weer een nieuwe generatie zal gaan uitkomen?

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Ergens half 2016. Je zou een 2e hands kaart kunnen kopen, bijvoorbeeld een 970 of 290. Vooral de 290 is momenteel goedkoop in V&A en is maar net iets trager dan de 970.

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
dahakon schreef op donderdag 10 september 2015 @ 18:54:
Het verschil is dat Maxwell 2 de eerste 2 stappen in software moet doen, waar GCN die stappen (normaalgesproken) in hardware doet. Dit houdt dus in dat nVidia een grotere driver overhead heeft en dus de CPU meer belast voor bepaalde zaken die in DX12 dus ook via de GPU gedaan zouden kunnen worden, waar GCN het dus in de GPU doet, met als gevolg minder CPU belasting.

Dat is de simpele versie.
Het gaat wel iets verder dan dat.

Nvidia heeft meer latency. Als je bij AMD 6 taken naar queues 7 t/m 12 stuurt, komt dat ook vrijwel meteen zo aan op de GPU in die specifieke queues en neemt de hardware het over. Bij Nvidia blijft dat sowieso eerst nog even hangen op de CPU en is het maar de vraag of het precies zo naar de GPU gaat als jij wil.

Vervolgens komt het op de GPU aan en dan kan het wederom even blijven hangen, afhankelijk van hoe de Warp alles in deelt. En als je dan ook nog mixed taken uit wil voeren krijg je te maken met context switches, nog meer latency.

Dat is even afgezien van het feit dat Nvidia de driver wel intelligenter kan maken, maar ze zullen nooit zo efficiënt gebruik kunnen maken van alle hardware als AMD; los van het aantal queues en de wavefronts, heb je bij Nvidia eerst een scheduler die maar moet "gokken" waar werk verricht kan worden, voordat het bij een scheduler (Warp) komt die weet waar hij ruimte voor heeft.

Dus nee, Nvidia heeft bij lange na niet hetzelfde als AMD en zal dat ook nooit op kunnen lossen met software. Ze kunnen de impact verminderen door de software intelligenter te maken, maar daar blijft het ook bij.

[ Voor 6% gewijzigd door Werelds op 10-09-2015 19:46 ]


  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Werelds schreef op donderdag 10 september 2015 @ 19:45:
[...]

Het gaat wel iets verder dan dat.

Nvidia heeft meer latency. Als je bij AMD 6 taken naar queues 7 t/m 12 stuurt, komt dat ook vrijwel meteen zo aan op de GPU in die specifieke queues en neemt de hardware het over. Bij Nvidia blijft dat sowieso eerst nog even hangen op de CPU en is het maar de vraag of het precies zo naar de GPU gaat als jij wil.

Vervolgens komt het op de GPU aan en dan kan het wederom even blijven hangen, afhankelijk van hoe de Warp alles in deelt. En als je dan ook nog mixed taken uit wil voeren krijg je te maken met context switches, nog meer latency.

Dat is even afgezien van het feit dat Nvidia de driver wel intelligenter kan maken, maar ze zullen nooit zo efficiënt gebruik kunnen maken van alle hardware als AMD; los van het aantal queues en de wavefronts, heb je bij Nvidia eerst een scheduler die maar moet "gokken" waar werk verricht kan worden, voordat het bij een scheduler (Warp) komt die weet waar hij ruimte voor heeft.

Dus nee, Nvidia heeft bij lange na niet hetzelfde als AMD en zal dat ook nooit op kunnen lossen met software. Ze kunnen de impact verminderen door de software intelligenter te maken, maar daar blijft het ook bij.
Hier ben ik het met je eens. Ze hebben met async compute een foute weg ingeslagen. Amd doet het in hardware direct en nvidia moet eerst het langs zijn drivers doen.

Maar alsnog, was ook al eerder benoemd. Async compute is een functie die voor ontwikkelaar gebruikt kan worden voor de shaders.

Maarrrrrr....het is niet noodzakelijk. Want we kennen nvidia allemaal wel, halen we geen hogere scores via de benchmarks met de aanpassing in de drivers...dan smakken we wel onze portomonnee's open voor de ontwikkelaars en zorgen we wel ervoor dat de spellen sneller zijn met een nvidia kaart.

Denk hoe je het went, draait of keert. Iedereen is omkoopbaar als men genoeg cijfers laat zien. Daar zal nvidia weer een triomf van maken. Want ze willen hun naam uiteraard niet besmeerd zien aangezien hun dure kaarten zo marketing aangeprezen is met sneller dit en sneller dat en dx12 ready en opeens het spit moet onderdelven.

Ik maak me geen zorgen en weet toch wel hoe dit verhaaltje gaat verlopen. Daarom blijf ik mooi bij me kaartje. Gaat al jaren zo en zal ook jaren zo doorgaan. :)

-- My Gaming Rig Power -- -- <SG> Diabolic --


  • OMD
  • Registratie: September 2003
  • Laatst online: 22:00

OMD

Thermometer schreef op dinsdag 08 september 2015 @ 15:08:
Bij mijn nieuwe MSI GTX 980Ti Gaming videokaart had ik het probleem dat de idle clock op 1136 mhz bleef hangen. Hierdoor was de kaart standaard ~60 graden doordat de fans nog niet aan gingen.

Mochten meer mensen dit probleem hebben, ik had het opgelost door mijn monitor op 120hz ipv 144hz te zetten (beetje jammer dat dat nodig is, maargoed) en power consumption op adaptive te zetten. Daarna was idle clock zo'n 175mhz en de temperatuur op een comfortabele ~40 graden.
Geen last van. Lees het wel vaker maar heb het zelf nog niet kunnen reproduceren. Alle 3 de gtx 970's gingen naar z'n laagste punt en de 980ti gaat ook netjes naar 135mhz op 144hz.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Xtr3me4me schreef op donderdag 10 september 2015 @ 21:26:
Maarrrrrr....het is niet noodzakelijk. Want we kennen nvidia allemaal wel, halen we geen hogere scores via de benchmarks met de aanpassing in de drivers...dan smakken we wel onze portomonnee's open voor de ontwikkelaars en zorgen we wel ervoor dat de spellen sneller zijn met een nvidia kaart.
Ik weet niet of die vlieger nu op gaat. Wat Async Compute mogelijk maakt zijn dingen waar ontwikkelaars al jaren om vragen. En ik kan het blijven aanhalen, maar simpelweg asynchroon Copy kunnen uitvoeren is het al waard. Het hele punt van DX12 is dat de ontwikkelaar de controle heeft en dat is bij Nvidia niet het geval.

En vergeet niet dat er met DX12 veel minder sprake is van optimalisatie voor een specifieke vendor. Vergeet niet dat die optimalisaties al in de spec verwerkt zitten (de verschillende tiers voor resource binding, tiled resources). Qua optimalisaties heb je het eigenlijk alleen over bijvoorbeeld het aantal tessellation samples. Gameworks zal wel een doorn blijven, daar verandert DX12 niets aan, ook niet als Pascal er is en wel fatsoenlijk asynchroon kan werken. Als een game/engine echter voor DX12 geoptimaliseerd is, komt het vooral op de hardware aan en dat zit bij AMD gewoon beter in elkaar.

Wel denk ik dat we de komende 18-24 maanden nog genoeg games zullen zien die primair gebouwd zijn voor DX11. Enkele uitzonderingen daar gelaten; Frostbite bijvoorbeeld zal over een jaar wel primair op DX12 lopen, met DX11 als fallback (zorgt Andersson wel voor :P). Epic timmert ook hard aan UE4+DX12 en gezien het feit dat Nvidia vooralsnog weinig baat heeft bij DX12, heeft Epic er niets aan om die ontwikkeling stop te zetten en heeft AMD hier alleen maar profijt van. Epic heeft ook al ondersteuning voor CR in VXGI (en ROVs), maar dat zullen ontwikkelaars niet of nauwelijks gebruiken wegens een gebrek aan ondersteuning er voor. In beide gevallen zullen de engines onder DX12 soepeler draaien en waarschijnlijk iets aggressiever met resources om gaan.

Ik zie Nvidia geen ontwikkelaar zo ver krijgen om DX12 uit een engine te slopen waar het al in zit en in die gevallen heeft AMD gewoon een streepje voor in de benchmarks. Zal het Nvidia pijn doen? Zeer zeker niet. Maar het is wel goed voor AMD ;)

Eerlijk gezegd ben ik vooral benieuwd naar de GPU's van volgend jaar. AMD heeft op korte termijn profijt van DX12, maar de volgende generatie is veel belangrijker dan de huidige. AMD heeft nu al een ijzersterk ontwerp, de vraag is of ze ook weer terug kunnen naar hun sweet spot. Voor Nvidia is de vraag of Pascal beter in elkaar zit en of ze daarmee ook de efficiëntie van Maxwell kunnen behouden.

Het enige waar ik binnen nu en een jaar wel potentieel problemen voor Nvidia zie zijn Multi-Adapter en VR. Als UE of Frostbite op korte termijn ondersteuning voor MA bieden zou dat een hoop enthousiasten naar de AMD kant kunnen trekken (AMD is daar al verder mee, ik verwacht dat dat bij hen lekkerder werkt).

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Als ik dit dan weer lees:
edward2 schreef op vrijdag 11 september 2015 @ 00:10:
Wat ik al dacht, Ark dx12 vertraagd omdat NV nog niet mee kan in dx12 (dx9 all over?)

Notice in patch notes for ARK DX12 is upcoming and has been delayed http://steamcommunity.com...ons/0/594820656447032287/ and one of the widcard DEV's tweeted theyre having issues with performance from DX12 on Nvidia side and delayed it's release because of this until they get further info as to why another of the DEV's tweeted before AMD cards were getting gains of 50%+ while Nvidia cards were lucky to get 15%-20% gains these tweets have since been romoved or I would link them they were in the Wildcard / ARK dev thread where people talked with the DEV's which all these posts have since been removed.

http://www.overclock.net/...-ark-survival-evolved/230

Hopelijk wordt het dx12-pad niet gesaboteerd voor AMD.
.. dn houd ik mijn hart alweer vast. AMD verdient het imo gewoon om ook de vruchten te plukken van goede design choices. Fck nvidia.

Elke perceptie is belangrijk: Als AMD nu (veel) beter zou scoren op deze DX12 game is dat iets wat toch blijft hangen: "AMD is goed in DX12".

AMD heeft elk positief ding nodig om hun merk (weer) op te bouwen.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:27
Werelds schreef op donderdag 10 september 2015 @ 23:47:
En vergeet niet dat er met DX12 veel minder sprake is van optimalisatie voor een specifieke vendor.
Het is er nog steeds, bij dx12 moet je als gamedeveloper voor elke architectuur apart optimaliseren.

Je ziet het al bij mantle, bf4 draait op gcn 1.2 kaarten beter onder dx11 omdat die optimalisaties niet gedaan zijn.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

Gewoon afwachten op Nvidia drivers voor Async Compute meer kun je niet doen.

Wereld wel een hoop speculatie wat wel en niet gebruikt word dat kun je niet weten zonder er zelf bij te zijn.
Er zijn ook 2 nvidia titels die volledig dx 12 zijn Finale fantasy en die andere

[ Voor 56% gewijzigd door Verwijderd op 11-09-2015 10:56 ]


Acties:
  • +1 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Help!!!! schreef op vrijdag 11 september 2015 @ 10:05:
Als ik dit dan weer lees:


[...]

.. dn houd ik mijn hart alweer vast. AMD verdient het imo gewoon om ook de vruchten te plukken van goede design choices. Fck nvidia.
Juist, en daarom zal ik bij gelijkwaardige prijs/performance, NIMMER voor nVidia kaart kiezen maar juist voor AMD.

Naar mijn mening dient zo'n bedrijf moet juist niet gestimuleerd worden om dergelijke praktijken voort te zetten. Voor mij heeft nVidia de laatste 10 jaar gewoon te vaak de vooruitgang tegen gehouden (DX9 debacle, DX10 done wrong debacle, DX10.1 debacle, onnodig veel Tesselation in sommige spellen, geen AA mogelijk in andere spellen, en nu weer de uitstel van de DX12 patch).

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

Verwijderd

weg

[ Voor 95% gewijzigd door Bolletje op 11-09-2015 12:33 ]


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Wel interessant om in elke review terug te zien dat Nvidia zoveel beter qua CPU overhead presteert. Tot 1440p kunnen kaarten goed meekomen, en pas bij 4K en hoge settings liggen ze achter (maar dan zit je toch al onder de 30 fps).

Wat mij betreft wel iets om rekening mee te houden bij budget builds met zwakke CPU's. Kans dat een Nvidia GPU dan beter presteert dan een AMD in CPU limited situaties (aangezien budget gamers meestal op 1080p zitten)

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
weg

[ Voor 103% gewijzigd door Bolletje op 11-09-2015 12:38 ]

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • +2 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Wel grappig dit. Al die mensen die gelijk al vanuit gaan wat er gaat gebeuren en hoe ze het allemaal gaan doen.
Alsof ze zelf GPU chipmakers zijn hahaha! O o o o, mensen mensen. Wacht nou maar gewoon af!
En laten we het bashen tussen AMD is god en Nvidia is de duivel hier achterwegen laten, voordat het topic naar de knoppen gaat.

Laten we gewoon maar eerst eens zien wat Nvidia gaat doen en hoe dat gaat werken met games. Want nogmaals, van de hoogste toren gaan schreeuwen heeft geen enkele zin en slaat totaal nergens op als de feiten nog niet op tafel staan.

Er is niks uit, er zijn geen nieuwe drivers nog, consument heeft ook niet kunnen testen zelf. Nog helemaal niks.
Speculaties gebasseerd op fictie is wat we hier aan het maken zijn.

Ik ben zowel geen AMD fan als Nvidia fan. Ik ben een consument, die zijn games graag op zijn best speelt. En of Nvidia dat nu beter doet of dat AMD het nu beter doet, maakt mij echt geen fluit uit.

Ja ik heb 750 euro uitgegeven aan een videokaart, ja Nvidia doet het met 2 stappen in software aansturing. Zegt dat verder iets? Neen, helemaal niks. Aangezien de game ontwikkelaars hierin ook een zegje hebben en dat vergeten de meeste blijkbaar.

Hoe zou je het vinden dat er volgend jaar een spel uitkomt wat misschien wel het spel van het jaar gaat worden en daarbij DX12 ondersteunend en opeens benchmarks komen waarbij Nvidia meer FPS haalt dan AMD.
Dan gaan jullie de ontwikkelaar allemaal de schuld geven hierop? Hoe je het ook zegt, komt er dus op neer dat AMD "moet" de winnaar worden met DX12 en mag niet anders zijn. _O-

Hilarisch sommige tweakers echt! 8)7

[ Voor 36% gewijzigd door Xtr3me4me op 11-09-2015 11:14 ]

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 21:25

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

En dit komt juist doordat Nvidia de boel aan het vertragen is, en al loopt het uiteindelijk ' goed ' op de groene kaarten dan komt dit niet doordat ze de juiste hardware onboard hebben, maar door de mascarade van deze designflaw.

Dat is als in een Ferrari rijden waar alleen maar een carburateur van een fiat 500 inpast, om nog maar eens kromme vergelijking te maken

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


Acties:
  • +1 Henk 'm!

Verwijderd

weg

[ Voor 128% gewijzigd door Bolletje op 11-09-2015 12:33 ]


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
ik ben zelf ook niet zo pro amd als meer dat ik anti nvidia ben, Ze hebben de laatste jaren net als intel te veel dingen gedaan die ik niet door de beugel vind kunnen en ik weiger hun daarvoor te belonen. Wie weet hoe competitef amd b.v. zou zijn qua cpu performance als intel niet alle vuiltje trukjes die ze konden bedenken uit de kast haalden om te voorkomen dat amd bij de gewone OEM PC zou zitten.

Acties:
  • +1 Henk 'm!

  • Von Henkel
  • Registratie: Juli 2005
  • Laatst online: 20:56
Zolang Nvidia de beste videokaarten maakt en Intel de beste processors zal amd het echt niet gaan maken..

Acties:
  • +1 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 21:25

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Daar wringt de schoen dus, tis duidelijk dat ze niet de beste VGA's hebben, qua hardware, getuige de DX12 fails, en nog kan men dat niet toegeven. Had het ook wel in het AMD topic kunnen posten, maar daar weten ze dit al.. ;)

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


Acties:
  • 0 Henk 'm!

Verwijderd

Fails die misschien opgelost worden via de drivers.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Von Henkel schreef op vrijdag 11 september 2015 @ 11:51:
Zolang Nvidia de beste videokaarten maakt en Intel de beste processors zal amd het echt niet gaan maken..
Gaat alvast sparen voor een GTX 1050 Ti van 500 euro. :|

Nvidia is qua software vaak beter dan AMD, AMD maakt over het algemeen betere/meer geavanceerde hardware. Nu heb ik het over gpu's en niet over cpu's waar AMD duidelijk wat steektjes laat vallen.

@Spliffire
Ze zullen wat worden "opgevangen" door de driver maar dat zal het niet oplossen. Zie de post van Werelds, en voor je terugkomt op dat het allemaal speculatie is raad ik je aan om alle posts van Werelds eens door te lezen. Dan kan je zien dat zijn "speculatie" in 99% van de gevallen de waarheid betreft.

Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 21:25

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Verwijderd schreef op vrijdag 11 september 2015 @ 12:23:
Fails die misschien opgelost worden via de drivers.
een softwarematige oplossing, die blijkbaar al niet zo makkelijk is, vs een hardware matige afhandeling, dat blijft een geneuzel binnen de marge, dat zet geen zoden aan de dijk.

En het gaat er niet om, om je dit onder je neus te wrijven, tis meer dat er hier een aantal zitten die dat proberen uit te leggen, maar dat blijft niet echt plakken hier.

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


Acties:
  • 0 Henk 'm!

Verwijderd

Het is en blijft speculatie gezien de driver met verbeteringen er nog niet is. Je kunt dan er over door propaganderen tot je een ons weegt want dat werkt niet bij iedereen.

Vreemd dat de gtx 980 in THW review in eens wel beter uit in dx 12 performance. Staat Acs uit?
http://www.tomshardware.c...adeon-r9-nano,4285-8.html

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Als je veel kennis van het onderwerp hebt door o.a. werk en interesses en je ook logisch kan nadenken is het echt geen speculatie. Speculatie is precies het omgekeerde, geen kennis van het onderwerp en gewoon wat dingen roepen.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • Bolletje
  • Registratie: Juni 2008
  • Laatst online: 20:39

Bolletje

Moderator Harde Waren
Modbreak:Ik zie nu veel reacties voorbij komen die wellicht sarcastisch bedoeld zijn, maar als vervelend worden ervaren. Gaarne daar mee op tet houden zodat een leuke discussie overblijft.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:27
SAiN ONeZ schreef op vrijdag 11 september 2015 @ 12:19:
Daar wringt de schoen dus, tis duidelijk dat ze niet de beste VGA's hebben, qua hardware, getuige de DX12 fails, en nog kan men dat niet toegeven. Had het ook wel in het AMD topic kunnen posten, maar daar weten ze dit al.. ;)

een softwarematige oplossing, die blijkbaar al niet zo makkelijk is, vs een hardware matige afhandeling, dat blijft een geneuzel binnen de marge, dat zet geen zoden aan de dijk.

En het gaat er niet om, om je dit onder je neus te wrijven, tis meer dat er hier een aantal zitten die dat proberen uit te leggen, maar dat blijft niet echt plakken hier.
Amd heeft een vooruitstrevender architectuur, maar tot nu toe levert dat weinig op. Een 390x heeft een 10% grotere chip dan een 980, 2x zo brede memorybus en trekt 50% meer vermogen. Als de 980 dan niet meer sneller is is het opeens een dx12 fail van nvidia?

Puur op specs zou je zeggen dat een 390x 30% sneller zou moeten zijn, maar ook in ashes is hij dat niet, en de fury X en 980Ti presteren vergelijkbaar.

Wat wel een echte meerwaarde is van de amd architectuur is die timewarp voor VR, bij amd kan die echt op het laatste moment uitgevoerd worden, bij nvidia moet dat eerder, omdat je anders het risico loopt dat je hem mist. Bij "gewoon dx12" zie ik weinig problemen, behalve dat nvidia hopelijk hun prijzen moet verlagen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

haarbal schreef op vrijdag 11 september 2015 @ 13:19:
[...]

Amd heeft een vooruitstrevender architectuur, maar tot nu toe levert dat weinig op. Een 390x heeft een 10% grotere chip dan een 980, 2x zo brede memorybus en trekt 50% meer vermogen. Als de 980 dan niet meer sneller is is het opeens een dx12 fail van nvidia?

Puur op specs zou je zeggen dat een 390x 30% sneller zou moeten zijn, maar ook in ashes is hij dat niet, en de fury X en 980Ti presteren vergelijkbaar.

Wat wel een echte meerwaarde is van de amd architectuur is die timewarp voor VR, bij amd kan die echt op het laatste moment uitgevoerd worden, bij nvidia moet dat eerder, omdat je anders het risico loopt dat je hem mist. Bij "gewoon dx12" zie ik weinig problemen, behalve dat nvidia hopelijk hun prijzen moet verlagen.
Precies dit.

AMD maakt volgens mij vaak de keuze om op "de verkeerde dingen" in te zetten.

Nvidia geeft de producten nog GDDR5, en een kleine bus.
AMD trekt alles uit de kast om geheugenbandbreedte te maximaliseren.

Effect:
Not much, want zoals je al kon verwachten, zijn de meeste titels helemaal niet bandwidth limited.
En bij de settings waarbij AMD eindelijk voordeel haalt uit die setup (4K Maxed), is het op geen van de kaarten van beide teams meer speelbaar....

Kwestie van de juiste dingen prioriteren.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • +1 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Als Nvidia nu ook voldeed aan de vraag van de ontwikkelaars (Async Compute), dan zou DX12 aan een hoger tempo voorzien worden. Want immers de consoles maken er al gebruik van, dus het is makkelijk meer afzetmarkt voor ontwikkelaars. Het is dat de grootste dedicated gaming GPU leverancier nu ineens in gang moet schieten om de boel softwarematig te doen werken (boezemt weinig vertrouwen in, maar ja).

Als de situatie omgekeerd was, dus Nvidia had Async Compute op orde en AMD liep achter de feiten aan, dan stond het AMD topic vol berichten met "Argh $%@# AMD waar blijft die DX12 support ?!" en "altijd hetzelfde verhaal met AMD", terwijl die DX12 patch voor ARK Evolved er al zou zijn.

[ Voor 4% gewijzigd door Phuncz op 11-09-2015 14:38 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 11:55
Wacht even jongens http://www.vandale.nl/gra...s/speculeren#.VfLTGM_ovSo :+ .
Phuncz schreef op vrijdag 11 september 2015 @ 14:38:

Als de situatie omgekeerd was, dus Nvidia had Async Compute op orde en AMD liep achter de feiten aan, dan stond het AMD topic vol berichten met "Argh $%@# AMD waar blijft die DX12 support ?!" en "altijd hetzelfde verhaal met AMD", terwijl die DX12 patch voor ARK Evolved er al zou zijn.
Rustig maar :P . AMD/Ati is niet altijd de underdog geweest. Nvidia heeft ook heel wat kritiek te verduren gekregen de afgelopen jaren (stroomverbruik, problemen met defecten, enz). Met wat meer afstand zie je dat het vaker schommelt tot één partij echt heeft gewonnen. Je hier op tweakers bijvoorbeeld de AMD cpu's steeds minder worden aangeraden. Dat was vorig jaar heel anders (terwijl er eigenlijk niets is verandert aan de positie van AMD). Dus dat de gemoederen nu hoog oplopen betekent dat Nvidia en AMD nog altijd nek aan nek concurreren en dat is goed voor iedereen, toch?

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Thermometer
  • Registratie: Juli 2005
  • Laatst online: 11-09 12:44

Thermometer

Whoop Whoop!

OMD schreef op donderdag 10 september 2015 @ 23:09:
[...]


Geen last van. Lees het wel vaker maar heb het zelf nog niet kunnen reproduceren. Alle 3 de gtx 970's gingen naar z'n laagste punt en de 980ti gaat ook netjes naar 135mhz op 144hz.
Hmm, interessant, heb je toevallig ook meer dan 1 monitor aangesloten? Las op Reddit dat iemand het alleen kon reproduceren met twee beeldschermen en dat het niet optrad met 144hz op 1 scherm.

Acties:
  • +1 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:27
Jeroenneman schreef op vrijdag 11 september 2015 @ 14:21:
[...]


Precies dit.

AMD maakt volgens mij vaak de keuze om op "de verkeerde dingen" in te zetten.

Nvidia geeft de producten nog GDDR5, en een kleine bus.
AMD trekt alles uit de kast om geheugenbandbreedte te maximaliseren.

Effect:
Not much, want zoals je al kon verwachten, zijn de meeste titels helemaal niet bandwidth limited.
En bij de settings waarbij AMD eindelijk voordeel haalt uit die setup (4K Maxed), is het op geen van de kaarten van beide teams meer speelbaar....

Kwestie van de juiste dingen prioriteren.
Ik denk dat HBM voor amd de juiste keuze was, qua kosten en beschikbaarheid is het nu matig, maar het maakt de fury X wel gigantisch veel efficienter dan de andere gcn kaarten. Met gddr5 hadden ze dat niet bereikt.

Geheugenbandbreedte is zeker wel belangrijk, nvidia heeft niet voor niets hun cache vergroot en compressie verbeterd, puur om alles uit die bus te persen. HBM is efficienter, maar nvidia compenseert dit doordat de rest van de kaart ook efficienter is. Nog amper DP compute, en cpu sceduling, maar voor graphics en sp compute lijkt het vooralsnog prima te werken.

Maar ik denk niet dat het voor amd reëel was geweest om in een hele nieuwe architectuur te investeren. Als de shrink straks komt heeft gcn voor desktopkaarten waarschijnlijk toch geen problemen met powerefficiency meer. Alleen jammer voor amd dat die shrink zo lang duurt.

Ik zou ook niet zeggen dat amd "te vaak" op verkeerde dingen inzet, nvidia doet het ook pas beter sinds de gtx 680, en dat was ook maar voor de helft, want de 290x gaf wel meer performance per oppervlak dan de 780Ti. Of met de gtx280 tegen de 4870. 8)7
Afbeeldingslocatie: http://images.anandtech.com/reviews/video/ATI/4800/rv770vsgtxvspenryn.png
Pakte ook wel eens goed uit, met de 8800gtx, 8800GT cashcow die ze een paar keer verkleind en gerebrand hebben.

Mechwarrior Online: Flapdrol


Acties:
  • +1 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Jeroenneman schreef op vrijdag 11 september 2015 @ 14:21:
[...]


Precies dit.

AMD maakt volgens mij vaak de keuze om op "de verkeerde dingen" in te zetten.
AMD investeert in de toekomst, door het ontwikkelen van nieuwe technieken. HBM is hier slechts een enkel voorbeeld van. Die 'verkeerde dingen' zijn namelijk nodig om vooruit te kunnen blijven gaan, ook voor nVidia, die maar wat blij is dat AMD HBM heeft ontwikkeld, opdat ze het ook kunnen gaan toepassen in hun volgende generatie GPU's.

Bovendien lijkt het in de benchmarks niet echt verkeerd uit te pakken, wanneer je Fury met Titan/980Ti vergelijkt, met als bonus een erg bijzondere kaart als de Nano, wat niet echt mogenlijk was geweest met gDDR5.

Enfin, ik ga er van uit dat 'de verkeerde dingen' als HBM met de lancering van Pascal als het nieuwe wonder naar voren wordt geschoven. Laten we verder als gamers hopen dat DX12 ook bij nVidia in afzienbare tijd correct gaat werken, zodat de developers er volop op in gaan zetten.

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Ik ben er vrijwel zeker van dat de huidige kaarten pre-DX12 kaarten zijn. Sowieso van beide kanten ondersteunen ze maar een paar dingen die DX12 kan.

De echte volledige DX12 functies zullen pas niet in aankomende maar misschien in de daarop volgende generatie kaarten komen.

Als je eens nagaat dat er 4 Titan x kaarten nodig was voor de demo Witch Cry. Laat staan een volledig gemaakt spel met de volle potentie van DX12 nodig heeft om 60fps of meer te draaien.

Aankomende tijd zal DX11 volop nog nodig zijn. En DX12 zal langzaam inrollen.
Ja we denken van, ja maar er komen toch al DX12 games uit. Ja klopt, maar ook deze benutten nog niet de volle potentie van DX12 omdat de huidige kaarten niet eens er gebruik van maken, dus nutteloos.

Ik ben van mening dat we de zaak gewoon moeten laten rusten en pas over 2 generaties verder kunnen aankijken wie het beste doet in de wereld van volle potentie in DX12.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +1 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
haarbal schreef op vrijdag 11 september 2015 @ 13:19:
[...]

Amd heeft een vooruitstrevender architectuur, maar tot nu toe levert dat weinig op. Een 390x heeft een 10% grotere chip dan een 980, 2x zo brede memorybus en trekt 50% meer vermogen. Als de 980 dan niet meer sneller is is het opeens een dx12 fail van nvidia?

Puur op specs zou je zeggen dat een 390x 30% sneller zou moeten zijn, maar ook in ashes is hij dat niet, en de fury X en 980Ti presteren vergelijkbaar.

Wat wel een echte meerwaarde is van de amd architectuur is die timewarp voor VR, bij amd kan die echt op het laatste moment uitgevoerd worden, bij nvidia moet dat eerder, omdat je anders het risico loopt dat je hem mist. Bij "gewoon dx12" zie ik weinig problemen, behalve dat nvidia hopelijk hun prijzen moet verlagen.
Verschil is dat nVidia er echt een game GPU van heeft gemaakt en bij AMD is de GPU niet gestript en daarmee in verhouding veel beter in professionele niet game toepassingen. Natuurlijk is dan voor de meesten van ons niet van belang, maar gamers zijn niet de enigen die high-end GPU's gebruiken. Dus voor nVidia en AMD is het wel degelijk van belang.
Jeroenneman schreef op vrijdag 11 september 2015 @ 14:21:
[...]

AMD maakt volgens mij vaak de keuze om op "de verkeerde dingen" in te zetten.
Nee helemaal niet, wat hebben ze dan volgens jouw verkeerd gedaan aan de GPU's?
Nvidia geeft de producten nog GDDR5, en een kleine bus.
AMD trekt alles uit de kast om geheugenbandbreedte te maximaliseren.

Effect:
Not much, want zoals je al kon verwachten, zijn de meeste titels helemaal niet bandwidth limited.
Ja wel, (beperkte) review van het overklokken van Fury X gelezen op TechPowerUp, nog steeds gaf overklokken van het geheugen veel winst.

Dus nog steeds een geheugenbandbreedte "te kort". Een architectuur verander je niet zo één, twee, drie, daar gaat jaren overheen. Dus dan is meer geheugenbandbreedte gewoon het enige juiste wat AMD kan doen en dat hebben ze ook gedaan.
En bij de settings waarbij AMD eindelijk voordeel haalt uit die setup (4K Maxed), is het op geen van de kaarten van beide teams meer speelbaar....
Je kan ook gewoon 4K op medium doen... Is gewoon bekend dat AMD meer driver overhead heeft bij DX11, daar zal zo snel ook niks aan veranderen. Alleen per game kunnen zullen ze nog wel winst halen, maar alle DX11 games in één keer kun je vergeten.
sdk1985 schreef op vrijdag 11 september 2015 @ 15:16:
Je hier op tweakers bijvoorbeeld de AMD cpu's steeds minder worden aangeraden. Dat was vorig jaar heel anders (terwijl er eigenlijk niets is verandert aan de positie van AMD).
Toch wel, Intel heeft ondertussen Broadwell en Skylake uitgebracht, dus de positie van AMD is verslechterd op CPU gebied.
haarbal schreef op vrijdag 11 september 2015 @ 16:05:
[...]

Ik denk dat HBM voor amd de juiste keuze was, qua kosten en beschikbaarheid is het nu matig, maar het maakt de fury X wel gigantisch veel efficienter dan de andere gcn kaarten. Met gddr5 hadden ze dat niet bereikt.
Absoluut, er was geen andere serieuze optie. Een GCN GPU met 4096 streamprocessors koppelen aan een 512 bit geheugenbus met het snelst mogelijke GDDR5 geheugen zou zorgen voor een minder geheugenbandbreedte en een veel hoger verbruik. Denk niet dat iemand daarop zat te wachten.
Xtr3me4me schreef op vrijdag 11 september 2015 @ 18:42:
Ik ben er vrijwel zeker van dat de huidige kaarten pre-DX12 kaarten zijn.
Vrijwel zeker? Dit is gewoon bekend. :p
Als je eens nagaat dat er 4 Titan x kaarten nodig was voor de demo Witch Cry. Laat staan een volledig gemaakt spel met de volle potentie van DX12 nodig heeft om 60fps of meer te draaien.
Dat ligt gewoon ook aan de textures. Zegt vrij weinig over hoe zwaar DX12 is.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 11:55
In de reacties waar ik op doelde werden geen broadwell (heeft er iemand überhaupt één in het wild gezien?) en ook geen skylakes aangeraden :9 .

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +1 Henk 'm!

Verwijderd

-The_Mask- schreef op vrijdag 11 september 2015 @ 19:39:
[...]

Verschil is dat nVidia er echt een game GPU van heeft gemaakt en bij AMD is de GPU niet gestript en daarmee in verhouding veel beter in professionele niet game toepassingen. Natuurlijk is dan voor de meesten van ons niet van belang, maar gamers zijn niet de enigen die high-end videokaarten gebruiken. Dus voor nVidia en AMD is het wel degelijk van belang.
Verschil is alleen dat Nvidia zich op dit gebied gewoon compleet toelegt op de écht professionele klant en die koopt gewoon Quadro's omdat ze ook support willen. Je gaat daarvoor niet een consumentenkaart kopen, zeker niet van een bedrijf dat al jaren achterloopt qua driver support.

Met betrekking tot investeren in toekomstige techniek kan ik kort zijn: daardoor lopen ze al jaren achter. Het is elke keer weer een tegenvaller als AMD met een nieuwe kaart komt.

Acties:
  • 0 Henk 'm!

  • OMD
  • Registratie: September 2003
  • Laatst online: 22:00

OMD

Thermometer schreef op vrijdag 11 september 2015 @ 15:50:
[...]

Hmm, interessant, heb je toevallig ook meer dan 1 monitor aangesloten? Las op Reddit dat iemand het alleen kon reproduceren met twee beeldschermen en dat het niet optrad met 144hz op 1 scherm.
Ik heb inderdaad maar 1 scherm aangesloten. Ik heb helaas geen 2e display om mee te testen.

R7 5800X3D // Dark Rock rock 4 // MSI B450 Tomahawk Max // 32Gb Corsair Vengeance // BeQuiet Pure Base 500FX // MSI RTX3080 Suprim X


Acties:
  • +1 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

dahakon schreef op vrijdag 11 september 2015 @ 18:11:
[...]


AMD investeert in de toekomst, door het ontwikkelen van nieuwe technieken. HBM is hier slechts een enkel voorbeeld van. Die 'verkeerde dingen' zijn namelijk nodig om vooruit te kunnen blijven gaan, ook voor nVidia, die maar wat blij is dat AMD HBM heeft ontwikkeld, opdat ze het ook kunnen gaan toepassen in hun volgende generatie GPU's.

Bovendien lijkt het in de benchmarks niet echt verkeerd uit te pakken, wanneer je Fury met Titan/980Ti vergelijkt, met als bonus een erg bijzondere kaart als de Nano, wat niet echt mogenlijk was geweest met gDDR5.

Enfin, ik ga er van uit dat 'de verkeerde dingen' als HBM met de lancering van Pascal als het nieuwe wonder naar voren wordt geschoven. Laten we verder als gamers hopen dat DX12 ook bij nVidia in afzienbare tijd correct gaat werken, zodat de developers er volop op in gaan zetten.
Vollediger: ze investeren op een te vroeg moment in de juiste techniek. HBM klinkt mooi, maar toch nog niet ver genoeg ontwikkeld. Nvidia wacht rustig af en gebruikt het pas volgend jaar.

Net zoals DX10.1. Leuk dat AMD het kon, maar hoeveel meer hebben ze erdoor verkocht?

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 22:47
Jeroenneman schreef op vrijdag 11 september 2015 @ 21:21:
[...]


Vollediger: ze investeren op een te vroeg moment in de juiste techniek. HBM klinkt mooi, maar toch nog niet ver genoeg ontwikkeld. Nvidia wacht rustig af en gebruikt het pas volgend jaar.

Net zoals DX10.1. Leuk dat AMD het kon, maar hoeveel meer hebben ze erdoor verkocht?
Hynix en AMD hebben HBM toch samen ontwikkelt... Wie weet was er op dit moment en dan ook volgend jaar nog wel geen HBM geweest zonder AMD.
Nvidia moet volgens mij ook nog maar afwachten of er genoeg HBM 2.0 is. Ik dacht dat AMD voorrang had.

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 21:26
Hynix is niet de enige producent van HBM. Samsung gaat het ook produceren.

Acties:
  • +2 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Jeroenneman schreef op vrijdag 11 september 2015 @ 21:21:
Vollediger: ze investeren op een te vroeg moment in de juiste techniek. HBM klinkt mooi, maar toch nog niet ver genoeg ontwikkeld. Nvidia wacht rustig af en gebruikt het pas volgend jaar.
Als AMD niet jaren geleden was begonnen met het ontwikkelen van HBM, dan zou nVidia nooit volgend jaar HBM kunnen gaan gebruiken voor hun GPU's. Wat is 'te vroeg', wanneer je zelf 1 van de belangrijkste ontwikkelaars bent? Je wilt het toch op gegeven moment gaan gebruiken. Was AMD ook te vroeg met gDDR5 op de HD4870?

Verder is HBM niet het 'unique selling point' van Fury (X). Heel misschien een beetje voor de Nano, omdat deze dankzij HBM zo klein kan zijn, maar HBM is niets meer dan een weg naar een bepaald doel, zijnde prestaties.

Verwijderd

Kan het gewoon zijn dat er geen erge bottlenek in geheugen bandbreedte zit want ik zie eigenlijk altijd maar kleine verschillen tussen het kanaal van 6 meter breed vs het kanaal van 12 meter breed om het maar zo te zeggen. Ook laten memory benchmarks zien dat een bepaalde hoeveelheid geheugen voldoende doorstroom krijgt op een kleine bus. Er word altijd geroepen dat een 256 bit bus geen 4gb met voldoende doorstoom kan aanpreken maar niets daar van is waar gezien de benchmarks die testen hoeveel er doorgevoerd kan worden.

Volgens mij is HMB alleen leuk voor als je 12gb vol moet pompen?

[ Voor 6% gewijzigd door Verwijderd op 12-09-2015 10:51 ]


  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:27
Je kan het makkelijk zelf testen, run een gpu benchmark met je gpu memory op verschillende snelheden.

Bottleneck is misschien het verkeerde woord. Zie het als een stel weerstanden in serie, als je 1 van de weerstanden lager maakt wordt de totale weerstand lager, en loopt er meer stroom, maar het is natuurlijk het effectiefst om de hoogste weerstand aan te pakken.

Mechwarrior Online: Flapdrol


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Dat scenario test alleen het (1) verschil in geheugensnelheid (niet bandbreedte) voor (2) dat type GPU op (3) die specifieke test.

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Verwijderd schreef op vrijdag 11 september 2015 @ 19:54:
[...]

Verschil is alleen dat Nvidia zich op dit gebied gewoon compleet toelegt op de écht professionele klant en die koopt gewoon Quadro's omdat ze ook support willen. Je gaat daarvoor niet een consumentenkaart kopen.
Ik had het ook niet over GeForce of Radeon kaarten, de Quadro en FirePro kaarten hebben namelijk dezelfde GPU.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +1 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 20:27
Phuncz schreef op zaterdag 12 september 2015 @ 12:19:
Dat scenario test alleen het (1) verschil in geheugensnelheid (niet bandbreedte) voor (2) dat type GPU op (3) die specifieke test.
bandbreedte is busbreedte * kloksnelheid, dus je test wel met een verschil in bandbreedte.

Mechwarrior Online: Flapdrol


Verwijderd

Daarom vind ik klein juist zo lekker, goed afgestemd op de hoeveelheid geheugen want aan overkill heb je niets en kost alleen maar meer.

Acties:
  • +3 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Geen één GPU heeft op dit moment een te veel aan geheugenbandbreedte. En een bredere geheugenbus hoeft ook niet te zorgen voor meer kosten. Snellere geheugenchips zijn namelijk duurder (verbruiken ook meer) en minder bandbreedte zorgt er voor dat er meer kosten aan de GPU moeten worden gemaakt om de minder bandbreedte op te vangen. Zoals de extra L2 cache bij Maxwell en verder verbeterde compressie.

Is dus moeilijk te zeggen wat goedkoper is, wij krijgen de prijzen namelijk nooit te zien.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

-The_Mask- schreef op zaterdag 12 september 2015 @ 14:05:
Geen één GPU heeft op dit moment een te veel aan geheugenbandbreedte. En een bredere geheugenbus hoeft ook niet te zorgen voor meer kosten. Snellere geheugenchips zijn namelijk duurder (verbruiken ook meer) en minder bandbreedte zorgt er voor dat er meer kosten aan de GPU moeten worden gemaakt om de minder bandbreedte op te vangen. Zoals de extra L2 cache bij Maxwell en verder verbeterde compressie.

Is dus moeilijk te zeggen wat goedkoper is, wij krijgen de prijzen namelijk nooit te zien.
Meer bandbreedte geeft ook lagere latency, dus dat is waarschijnlijk ook de reden dat je een performance toename ziet bij het overclocken van het geheugen op een Fury (x). Als je alles in een keer kan verstouwen dan hoef je niet nog een keer je geheugen aan te spreken.

GCN heeft ook L2 cache. De Fury X heeft net zoals Maxwell (1 en 2) 2mb L2 cache, de oudere GCN kaarten hebben 1mb L2 cache. Kepler daarentegen heeft maar 256kb L2 cache.

http://www.anandtech.com/...radeon-r9-fury-x-review/4
http://www.anandtech.com/...-gtx-750-review-maxwell/3
http://www.anandtech.com/...-geforce-gtx-980-review/2

offtopic:
Was het niet eerder een selling point dat de diehard Nvidia fanboys riepen dat Maxwell L2 cache had en dat ze geen geheugen bandbreedte nodig hadden? :+, Waar ik op doel is dat GCN het blijkbaar ook had en het dus niet zo uniek is.

Verwijderd

Nvidia laat juist zien hoe het ook met minder kan zonder dat extreme. Ik vind dat juist positief om een gpu zo efficient mogelijk te maken. Dat men daar om gaat klagen is een beetje raar.

Stop eens met met het woord fanboys iedereen die dat roept moet eens bij zichzelf gaan kijken en het is ook nog eens vrij irritant voor diegenen die die dingen niet roepen al is het sarcastisch bedoeld ik vind het trollen en apengedrag :(

Acties:
  • +1 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Verwijderd schreef op zaterdag 12 september 2015 @ 17:14:
Nvidia laat juist zien hoe het ook met minder kan zonder dat extreme. Ik vind dat juist positief om een gpu zo efficient mogelijk te maken. Dat men daar om gaat klagen is een beetje raar.
Je snapt toch dat Maxwell HBM2 zal hebben met de "dubbel zo extreme" bandbreedte ? Het is maar dat je je kan voorbereiden om dan random zaken uit je duim te zuigen waarom Nvidia zo goed is.

Efficiënt kan je langs meerdere kanten bekijken, zoals lage latency door een bredere geheugenbus met een lager verbruik is in mijn ogen efficiënter dan hoger geclocked geheugen dat door een smallere geheugenbus moet.

Beide GPU bakkers hebben hun eigen efficiënte aspecten hoor. Het ligt er maar aan van welke kant je het bekijkt.
De ironie ! _O-

Verwijderd

Ik stop al met lezen door dat je mij verwijd dingen uit mijn duim te zuigen man wat voor gesprek kan ik daar nu mee voeren terwijl ik helemaal niets uit mijn duim zit te zuigen waardeloos wangedrag 8)7

Acties:
  • +2 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Verwijderd schreef op zaterdag 12 september 2015 @ 17:14:
Nvidia laat juist zien hoe het ook met minder kan zonder dat extreme. Ik vind dat juist positief om een gpu zo efficient mogelijk te maken. Dat men daar om gaat klagen is een beetje raar.

Stop eens met met het woord fanboys iedereen die dat roept moet eens bij zichzelf gaan kijken en het is ook nog eens vrij irritant voor diegenen die die dingen niet roepen al is het sarcastisch bedoeld ik vind het trollen en apengedrag :(
Draai het eens om. nVidia gebruikt geheugen dat op 7000MHz draait om zijn kaart van voldoende bandbreedte te voorzien, terwijl AMD geheugen gebruikt dat slechts op 1000MHz draait. AMD probeert het geheugen juist zo efficient mogenlijk te maken en niet in het extreme te gaan. Beetje raar dat men daar dan over gaat klagen...

Misschien zie je de ironie in deze niet, maar het is precies wat AMD heeft gedaan met Fury en wat nVidia maar al te graag gaat doen met Pascal, de extreme geheugen snelheid wat terugdringen.

Verwijderd

HMB is nu ook een heel ander verhaal en is inderdaad de nieuwe standaard maar dat was niet wat ik bedoelde. Ik meende oprecht dat er veel kosten zaten aan een bredere bus met langzame chips gddr5 en dat het ook minder efficient was. Maar nu begrijp is dat HMB dit oplost door een hele brede geheugen bus.
Ik zit nog een beetje in het GDDR 5 tijdperk te denken en oordelen.

Mannen/misschien vrouwen ik zal de links zorgvuldig doornemen en minder snel oordelen over iets waar ik blijkbaar toch minder goed over geïnformeerd ben dan ik dacht.

Ik stel de moeite er voor de uitleg ook zeer op prijs.

[ Voor 23% gewijzigd door Verwijderd op 12-09-2015 18:15 ]


Acties:
  • +2 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Je kunt niet 1 op 1 stellen dat een bredere bus van bedrijf A gekoppeld aan langzamer geheugen minder efficient is dan een smallere bus van bedrijf B gekoppeld aan sneller geheugen. Dan moet je eerst weten hoeveel efficienter de smallere bus is en hoeveel minder efficient het snellere geheugen. Het enige wat je met een redelijke zekerheid kunt zeggen is dat bedrijf B met zijn smallere bus een beetje die-space bespaard, maar meer ook niet. De keuze voor een brede of een smalle bus hangt van veel zaken af en zowel nVidia als AMD heeft smallere bussen gebruikt en bredere voor hun top producten, afhankelijk van de situatie. nVidia is zeker niet altijd via de 'smalle bus' route gegaan.

Acties:
  • +2 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op zaterdag 12 september 2015 @ 17:14:
Nvidia laat juist zien hoe het ook met minder kan zonder dat extreme. Ik vind dat juist positief om een gpu zo efficient mogelijk te maken. Dat men daar om gaat klagen is een beetje raar.
Waar zeg ik dat dat niet mooi is? Ze boeten hierdoor wel op andere punten in, delta color compression werkt niet in alle gevallen. Je ziet dat de 290x (terwijl deze tegenover de GTX780Ti moet staan) in cf voorbij de GTX980 gaat op 4k, wellicht was dit met meer geheugenbandbreedt niet het geval. Op 4k zie je nauwelijks het verschil tussen 2 of 3 kaarten terwijl je het juist op die resolutie nodig hebt.
Ze missen hardware matige scheduling van Async Compute. Hebben over het algemeen op GPGPU ingeboet (floating point double precision etc).
Wat ze hiervoor terugkrijgen is een GPU met een hele goede performance/watt ratio, die goed presteerd op de lagere resoluties en redelijk goed op hoge (4k en meer) en soms in DX11 beter is doordat ze minder cpu limited zijn.
AMD heeft doormiddel van HBM een zuinige GPU kunnen maken en heeft minder hoeven inboeten op hun andere sterke punten. Als Nvidia met Pascal over gaat op HBM2 dan zal je ook zien dat hun kaarten weer een stuk zuiniger worden ten opzichte van kaarten met GDDR5.

Beide fabrikanten hebben andere ontwerp beslissingen genomen en hebben gpu's die vergelijkbaar presteren. AMD heeft duidelijk gemikt op Mantle (en daardoor (toevallig?) ook op DX12 en Vulkan) en 4k. Nvida heeft kaarten die goed zijn in DX11, de huidige generatie games en gemikt op de wat lagere resoluties.

http://www.hardocp.com/ar...ard_review/1#.VfRLbkAmBRI
https://www.techpowerup.c...eForce_GTX_980_SLI/1.html
http://www.guru3d.com/art...gtx_980_sli_review,1.html

Acties:
  • 0 Henk 'm!

Verwijderd

-The_Mask- schreef op zaterdag 12 september 2015 @ 13:38:
[...]

Ik had het ook niet over GeForce of Radeon kaarten, de Quadro en FirePro kaarten hebben namelijk dezelfde GPU.
Dan snap ik je hele stelling niet meer. Je geeft juist aan dat AMD hun game cpu's niet stripped en ze professionele mogelijkheden geeft (dual precision etc.) Waarop ik juist zeg dat je hiermee zo'n enorme kleine markt aanboort dat het gewoon niet relevant is.

Acties:
  • +5 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
God sodeju, heb ik even een paar dagen geen tijd en exploderen de draadjes meteen :(

Zal even snel reageren op een aantal mensen die op mij reageerden:


@haarbal: er is geen Mantle driver voor GCN 1.2 (althans, was er niet, zelfs ten tijde van de Fury X release, weet niet of dat inmiddels veranderd is), heeft niets met DICE's implementatie te maken :)
Optimalisatie per vendor in DX12 draait om tweaks. Zorgen dat je op AMD niet 64xT toe past bijvoorbeeld, puur omdat AMD minder brute geometry kracht in huis heeft. In DX11 zijn "optimalisaties" per architectuur meer hacks dan iets anders; zo moet je voor Alpha to Coverage bij elke vendor een ander render target (en FOURCC) gebruiken voor optimale resultaten. Render target op Nvidia loopt ook via de geometry units, omdat D3D het anders verkeert interpreteert en je geen alpha channel naar de GPU krijgt gestuurd (8)7). In DX12 heb je dat gezeik niet, omdat je D3D niet om de tuin hoeft te leiden.


@ Spliffire: sommige dingen die ik zeg zijn pure speculatie, tuurlijk. Maar ik praat regelmatig met developers en ik weet gewoon waar men naar uit kijkt. Ik heb het al eerder genoemd, maar als je alleen al op Beyond3D rond hangt zie je al genoeg mensen uit de industrie die echt wel weten waar ze het over hebben. Sommigen hier hebben het lef die gasten "amateurtjes" te noemen _O-
Jullie willen niet weten waar sommige van die gasten werken.

Enfin, ik heb nog geen enkele developer gesproken die niet uit kijkt naar AC of er zelfs al mee bezig is. Één van de gasten waar ik mee heb gesproken werkt aan een open world game (sorry, mag niet zeggen welke :P); simpelweg de textures asynchroon laden bespaarde hem 3-4ms per frame op een 290X bij +- 18ms per frame - dat is gigantisch en hij is nog niet eens begonnen met TR toe te passen aangezien hij daar nieuwe assets voor moet hebben. En geen van hen (de gasten waar ik af en toe mee spreek) ziet vooralsnog iets in CR; niet eens omdat het iets meer tijd kost (de tijd die het kost is het waard), maar vooral omdat er geen ondersteuning is. Nvidia's Tier 1 ondersteuning vinden ze niet boeiend, je zit dan op een halve pixel; dat kun je net zo goed gewoon via de shaders doen. ROVs zien de meesten wel iets in, maar in eerste instantie vooral vanwege OIT (Order Independent Transparency); iets dat AMD ook al enkele jaren in hardware kan doen.


@ Xtr3me4me: ze ondersteunen maar een paar dingen die DX12 kan? 8)7

GCN ondersteunt alles dat niet in 12_1 zit; GCN 1.0 zit op Tiled Resources Tier 1, wat wel een kleine beperking is, maar voor de rest heb je met een 7970 uit 2012 gewoon een hele solide DX12 kaart in handen. Ik denk dat je daarmee het grootste deel van AMD gebruikers echt wel te pakken hebt.

Maxwell 2.0 heeft een beperktere heap dan GCN en heeft een probleem met Async Compute, maar voor de rest zit alles er in. Tussen deze twee architecturen heb je toch al zo'n 15-20% van de markt te pakken die 90% van de features in D3D12 ondersteunen.

Pre-Maxwell 2.0 is het een ander verhaal ja. Fermi, Kepler en zelfs Maxwell 1.0 (750 Ti) ondersteunen vrijwel niets. De Tiled Resources "ondersteuning" betreft een tier 1 emulatie via de shaders. En voor de rest mist zo'n beetje alles.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik vind Fable legends anders goede wisten boeken op nvidia hardware tussen dx 11 en dx 12 van 25 fps naar 60 fps. Dit was tijdens een demo van Nvidia over dx 12 in unreal engine 4

Edit

Opgezocht maar kan het niet meer terug vinden is al een redelijk oude demo ook meende ik.
Kan natuurlijk ook fake zijn zo dat het lijkt die winsten om dx12 goed te praten op nvidia hardware?

[ Voor 57% gewijzigd door Verwijderd op 13-09-2015 18:01 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Ik dacht eigenlijk dat Fable Legends dx12 only zou worden?

Acties:
  • 0 Henk 'm!

Verwijderd

Volgens mij was dit hem maar weet het nu ok niet meer zeker.
YouTube: Fable Legends: DirectX 12 vs DirectX 11

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

Ze emuleren DX11 zeggen ze, hoe accuraat dat is weet ik niet. Het spel is waarschijnlijk zoals spNk zegt DX12 only. In de video meldt hij dat hij 10fps erbij krijgt met het optimale UAV patroon, in dat geval een verbetering van 20% in fps. Niet zo dramatisch als van 25 naar 60 gelukkig.

[ Voor 0% gewijzigd door Sp3ci3s8472 op 13-09-2015 21:24 . Reden: verbeterd ]


Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Verwijderd schreef op zondag 13 september 2015 @ 17:51:
Ik vind Fable legends anders goede wisten boeken op nvidia hardware tussen dx 11 en dx 12 van 25 fps naar 60 fps. Dit was tijdens een demo van Nvidia over dx 12 in unreal engine 4

Edit

Opgezocht maar kan het niet meer terug vinden is al een redelijk oude demo ook meende ik.
Kan natuurlijk ook fake zijn zo dat het lijkt die winsten om dx12 goed te praten op nvidia hardware?
Dat komt hier uit: https://channel9.msdn.com...-Graphics-and-Performance

Vanaf 48:15 ongeveer.

However:
- Geen demo van Nvidia, maar van MS tijdens GDC 2015; Max McMullen is het hoofd van de D3D afdeling ;)
- Niet 25 -> 60, maar ±50 naar ±60 (+20%); die 25 aan het begin is omdat hij aan het laden is (legt hij ook uit)
- Geen Nvidia hardware, maar AMD (te zien in de debugger; AmdDxGsaFreeCompiledShader ;))
- Gaat om een situatie waarin je in D3D11 moet wachten op UAVs en dat simuleren ze door in de code op de momenten waar D3D11 die "wait" zou hebben ook een instructie te geven om op die UAVs te wachten. Dat komt vrijwel geheel overeen, dus ja, die emulatie die is wel goed.
- En nee, Fable Legends is gewoon UE4, dus draait ook op D3D11; zie ook de video, ze zetten D3D12 optimalisaties aan/uit

Edit: zelfde video laat overigens een ander praktijk voorbeeld zien; D3D12 draait net zo snel op 1080p als D3D11 op 900p; 44% meer pixels ;)

[ Voor 17% gewijzigd door Werelds op 13-09-2015 21:05 ]


Acties:
  • 0 Henk 'm!

Verwijderd

De vraag blijft krijgt Nvidia dan ook zulke fps winsten met Maxwell 2 in Fable? Kort antwoord is genoeg van de kenners hier JA of NEE :)

[ Voor 26% gewijzigd door Verwijderd op 14-09-2015 13:06 ]


Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Ik wacht wel af tot Nvidia met nieuwste drivers aan komt zetten. Het is allemaal afwachten :)

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • +3 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
Verwijderd schreef op maandag 14 september 2015 @ 13:06:
De vraag blijft krijgt Nvidia dan ook zulke fps winsten met Maxwell 2 in Fable? Kort antwoord is genoeg van de kenners hier JA of NEE :)
In principe: JA.

Het hangt echter van de workload af. Of het voor dit specifieke voorbeeld geldt, geen flauw benul, dan zouden ze ons moeten laten zien wat ze precies doen. Als de workload echter uit mixed asynchrone taken bestaat, zal er bij Nvidia weinig tot geen winst te behalen zijn omdat ze dan alsnog een barrier in moeten voeren.

Onthoudt wel dat dit een heel specifiek voorbeeld is en niet opgevat dient te worden als "DX12 geeft +20% FPS !!1!1" (op zowel AMD als Nvidia).

[ Voor 10% gewijzigd door Werelds op 14-09-2015 21:36 ]


Acties:
  • +6 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:14

SG

SG surft naar info hardewaren

Wow, het verbaast mij toch hoe sommigen denken dat godelijke nV alles even oplost. NV is vaker flink op zijn bek gegaan en het was ook niet altijd quality hardware. Wat de toekomst brengt geen idee. Maar een onrealistische aanname van ze lossen het even op.
Ik hoop van niet. NV heeft de reserves om even tweede te draaien. AMD kan dat eigenlijk even niet hebben. Al zal nV het even alles op alles zetten gezien hun manie om de kroon te hebben. Maar ja ze kunnen niet toveren.

Dat AMD het zo slecht doet met DX11 hoefd geen driver isue te zijn. Het is diezelfde hardware beperking waar nVidia tegen aanloopt met DX12.
GCN 1.1 en 1.2 is zeer parralele architectuur die zwaarder ACE ondersteund.
Dat past heel goed bij een zwaar multitreaded efficente API.
Als nV hardware dat niet kan dan past dat veel beter bij de sequentiele API.DX11.
AMD loopt gewoon in CPU bound setting in DX11 zo slecht omdat hun architectuur parralel is en dus ashync architectuur zwaar parrallel niet optimaal gebruikt kan worden door maximaal twee treads effectieve API.
Nvidia architectuur past kwa api koppeling gewoon veel beter bij DX11.
Waar nVidia ook nog heel veel multithreaded doet in de driver zoals shader code recompile en game detectie en profiling en daarmee kwa drawcalls soms dubbele van AMD GCN kan halen.
DX11 is ook multitreaden maar de overhead is zo hoog dat het wachten van de werk treads op de maintread zo hoog is dat multitreaded aanpak effect nihil is.

En het is maar de vraag of Pascal een ACE zwaare implementatie wordt, aangezien nV ook verrast is door de API evolutie waar ze maximaal jaar van op de hoogte zijn. Dus genoeg tijd voor drivers. Mogelijk geen tijd voor een architectuur gericht op DX12 en vulkan.
Wetende dat Vulkan chronos group dev team AMD bedankt voor Mantle donatie.
En DX12 daar ook zwaar op gebaseerd is dat men uiteindelijk bij latere revisies ook de documentatie heeft aangepast. Dus AMD heeft wat voorsprong. En GCN1.1 lijkt eerder op te wijzen dat dit toch een lange termijn planning was.
Dus heeft pascal architectuur mogelijk deze to the metal API gebeuren compleet gemist. Of had nV nog even de tijd om iets aan te passen?
Als het daadwerkelijk een hardware architectuur probleem is kan komende jaar een AMD feestje worden. En bij nV moeten ze dan even wachten op de zware ACE refresh. Mischien is dat Pascal al. Maar ook redelijke kans van niet.
AMD moet voor hun next gen niet zo zuinig zijn met ROPs en testalatie engine ( s ).
Maar ja een kleinere DIE heeft ook minder kwa logic in de mix.
Het worden spannende tijden.
Nv heeft voordeel dat het even duurt eer DX12 geweld op gang komt en er voorlopig ook DX11 path in moet zitten. Dus de meeste titels zullen niet zo snel wild gaan met drawcalls of complexiteit.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

Verwijderd

Big pascal laat ik aan me voorbij gaan want ga toch voor sli gtx 980 ti wc voor de toekomst. Heb namelijk geen zin om weer te verkopen en meer betalen voor een enkele kaart die waarschijnlijk slomer is.

[ Voor 4% gewijzigd door Verwijderd op 15-09-2015 11:06 ]


Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 21:25

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

er zijn ook kaarten van een ander merk, maar daar waag je je niet aan?
Daarin weet je zeker dat je de komende tijd goed zit toch?

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


Acties:
  • 0 Henk 'm!

Verwijderd

SAiN ONeZ schreef op dinsdag 15 september 2015 @ 12:37:
er zijn ook kaarten van een ander merk, maar daar waag je je niet aan?
Daarin weet je zeker dat je de komende tijd goed zit toch?
Daar waag ik me pas weer aan als ik geen videokaart had dan was het wel een fury x geweest en later een 2e Maar goed ik had bijna een jaar eerder de ti al. Zit sowieso wel goed met 2 van die ti's in sli zonder dx 12

[ Voor 12% gewijzigd door Verwijderd op 15-09-2015 12:41 ]


Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 21:25

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Een jaar de TI? deze is nog geen 2 mnd beschikbaar.. Drop em while their hot!
Verwijderd schreef op dinsdag 15 september 2015 @ 12:40:
[...]


Daar waag ik me pas weer aan als ik geen videokaart had dan was het wel een fury x geweest en later een 2e Maar goed ik had bijna een jaar eerder de ti al. Zit sowieso wel goed met 2 van die ti's in sli zonder dx 12
DX11 is passé, je wilt toch van de nieuwste techniek gebruik maken?

[ Voor 72% gewijzigd door SAiN ONeZ op 15-09-2015 12:44 ]

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


Acties:
  • 0 Henk 'm!

Verwijderd

Nou ja voor mijn gevoel een jaar haha >:) omdat dat ding ook echt alles aan kan.

[ Voor 33% gewijzigd door Verwijderd op 15-09-2015 12:45 ]


Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 21:25

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Was jij niet over van 980 SLI naar 980Ti?

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


Acties:
  • 0 Henk 'm!

Verwijderd

Klopt. Heb geld te veel dan doet verstand er niet meer toe. ;)

[ Voor 45% gewijzigd door Verwijderd op 15-09-2015 12:52 ]


Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 21:25

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Ik verstand, en dat is onbetaalbaar ;)

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


Acties:
  • 0 Henk 'm!

Verwijderd

Maar meent niet weg dat je met de ti SLI de komende 2 jaar wel goed zit.

Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 21:25

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Ook daar valt over te discusieren, je kunt toch niet ontkennen dat ze het goed op orde hebben daar bij nV?

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ˙ʞuɐlq ʇɟǝl ʎllɐuoᴉʇuǝʇuᴉ sɐʍ ǝɔɐds sᴉɥ┴ ®


Acties:
  • 0 Henk 'm!

Verwijderd

Als ik kijk naar de huidige prestaties heeft nvidia het net zo goed op orde als AMD de een is niet beter dan de ander wat ik altijd al zeg.

Acties:
  • +1 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
SG schreef op dinsdag 15 september 2015 @ 07:38:
Dus genoeg tijd voor drivers. Mogelijk geen tijd voor een architectuur gericht op DX12 en vulkan.
Wetende dat Vulkan chronos group dev team AMD bedankt voor Mantle donatie.
En DX12 daar ook zwaar op gebaseerd is dat men uiteindelijk bij latere revisies ook de documentatie heeft aangepast. Dus AMD heeft wat voorsprong. En GCN1.1 lijkt eerder op te wijzen dat dit toch een lange termijn planning was.
Hoort niet echt in dit topic thuis, maar hierbij komt ook nog dat AMD in de huidige generatie consoles zit met een GCN architectuur. Dat i.s.m. met Mantle (de figuurlijke vader van DX12 en Vulkan) maakt dat ze een sterke basis hebben zich te onderscheiden van nVidia in positieve zin.
Verwijderd schreef op dinsdag 15 september 2015 @ 13:00:
Maar meent niet weg dat je met de ti SLI de komende 2 jaar wel goed zit.
Als nVidia er niet voor kiest om je kaart bij de komst van Pascal te ondermijnen :+

[ Voor 14% gewijzigd door madmaxnl op 15-09-2015 13:12 ]


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Hoe gaat Nvidia zijn volgende generatie (Pascal) noemen denken we ?

Aangezien ze in het verleden van de Geforce 9000-series naar de G/GT/GTX 200-series zijn gegaan, verwacht ik voor Pascal een nieuwe modelreeks. Ik zie het niet gebeuren dat ze de volgende de GTX 1000-series gaan noemen, GTX 1080 lijkt ook maar meh.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
ik gok op nvidia turbo 2000 ultra

Acties:
  • 0 Henk 'm!

Verwijderd

Wiki zegt Nvidia 1000 series ze hebben blijkbaar een glazenbol.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:42

XanderDrake

Build the future!

Verwijderd schreef op dinsdag 15 september 2015 @ 15:28:
Wiki zegt Nvidia 1000 series ze hebben blijkbaar een glazenbol.
Ze hebben er vaker naast gezeten: de GTX 880 stond er eerst ook op :)

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • +1 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik zie ze wel met een compleet nieuwe reeksnaam komen, aangezien Pascal voorzien zal worden van HBM2 en (mogelijk) volledig DX12 support. We mogen ook niet vergeten dat de low-end mogelijk geskipped wordt (dankzij Intel's IGP).

Misschien iets in de zin van "Nvidia GTX 10-series" bestaande uit:
Nvidia GTX 11 --> OEM oplossing ~750Ti
Nvidia GTX 12 --> volgt GTX 950
-
Nvidia GTX 14 --> volgt GTX 960
-
Nvidia GTX 16 --> volgt GTX 970
-
Nvidia GTX 18 --> volgt GTX 980
Nvidia GTX 18 Plus --> placeholder voor Ti-versie GTX 18
Nvidia GTX 19 --> placeholder voor dual-GPU

Dan kunnen ze nog eens 9 generaties verder :)

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 04-09 00:08

Sp3ci3s8472

@ 12 graden...

De Nvidia HBM2 GTX 190 Ti. Hoewel de naam van tomcatha ook wel wat heeft, alleen zou ik toch voor een extra turbo gaan.

Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Het zal niet een 100 serie worden, GeForce 100 serie is al geweest en niet zo oud.
Wikipedia: GeForce 100 series

Dus ga uit van de 1000 serie of een gehele nieuwe naamgeving.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Please correct me if I am wrong,

Maar volgens mij is de 100 serie nimmer voor de consumenten markt uitgebracht.

Ik kan me namelijk nog heel goed de strijd tussen de hd4800 serie en de 9800gtx (+) / gtx260/gtx280 heugen. ;)

Maar je zult wel gelijk hebben...het lijkt me inderdaad sterk dat nvidia wederom de 100 serie uitbrengt.

[ Voor 19% gewijzigd door Indy91 op 16-09-2015 07:21 ]

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Sowieso alleen al omdat er voor de tweede serie helemaal geen logica meer in zit, aangezien bijvoorbeeld een GTX 260 al bestond. Leg dat maar eens uit aan de consumenten dat die tweedehands GTX 260 niet dezelfde is als die nieuwe GTX 260.

En aangezien ze de 4-cijferige combinatie ook al gebruikt hebben, lijkt het me logisch dat ze ofwel naar twee cijfers gaan ofwel een compleet nieuwe naamvoering, dus zonder GTX en/of Geforce.

Acties:
  • +1 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Indy91 schreef op woensdag 16 september 2015 @ 07:19:
Please correct me if I am wrong,

Maar volgens mij is de 100 serie nimmer voor de consumenten markt uitgebracht.
Wel voor consumenten, maar niet voor de retailmarkt, was een rebrand van de vorige generatie.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic

Pagina: 1 ... 8 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.