Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
AMD wint op twee prijspunten terwijl nVidia maar op één prijspunt wint. De andere twee prijspunten resulteren in een gelijkspel.

Op het moment dat we Crossfire vs SLI erbij betrekken kun je wel stellen dat AMD op elk prijspunt wint.

Altijd mooi als er nog eens naar de huidige stand van zaken wordt gekeken door alles nog één opnieuw te testen met de nieuwste drivers e.d.

Enfin, aan de verkopen van AMD is het i.i.g. allemaal niet terug te zien -,-

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

madmaxnl schreef op maandag 02 november 2015 @ 18:56:
AMD wint op twee prijspunten terwijl nVidia maar op één prijspunt wint. De andere twee prijspunten resulteren in een gelijkspel.

Op het moment dat we Crossfire vs SLI erbij betrekken kun je wel stellen dat AMD op elk prijspunt wint.

Altijd mooi als er nog eens naar de huidige stand van zaken wordt gekeken door alles nog één opnieuw te testen met de nieuwste drivers e.d.

Enfin, aan de verkopen van AMD is het i.i.g. allemaal niet terug te zien -,-
Heeft te maken met het feit dat nvidia altijd aan de top heeft gezeten. Zoveel met drivers als kaarten en de stabiliteit en performance.

Dit verander je niet over 1 dag ijs en daarnaast, zegt het over 1 kaart en een net uitgekomen dx12 en wat benchmarks nog helemaal niks van wat de toekomst in petto heeft. Nvidia heeft gewoon de grootste marktaandeel en dat zal voorlopig zo blijven ook.

Daarnaast zal nvidia ook hard terug kunnen slaan op basis van nieuwe GPU architectuur. Ze hebben immers het geld ervoor, misschien niet met aankomende Pascal maar misschien wel met de daarop volgende GPU.

Kijk, ik ben geen fanboy. Ik ben gewoon een consument core gamer en maakt mij echt niks uit welke van de 2 in mijn pc zit. Zolang mijn games met alle pracht en praal prima draait.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • outlandos
  • Registratie: November 2001
  • Laatst online: 00:32
Ik heb in mijn oude PC (bijna 5 jaar oud) de GPU vervangen. 2x 460 in SLI eruit gehaald en een GTX 970 van MSI (Gaming edition) erin gezet.

Toch een flinkje boost, in 3DMark ga ik van 5000 naar 10.000. En dan heb ik de kaart niet eens overgeklokt. Erg tevreden mee, als de rest het houdt dan kan ik hier nog zeker 3 jaar mee vooruit.

Acties:
  • +1 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Xtr3me4me schreef op maandag 02 november 2015 @ 19:40:
[...]


Heeft te maken met het feit dat nvidia altijd aan de top heeft gezeten. Zoveel met drivers als kaarten en de stabiliteit en performance.
Nee marketing, je product hoeft helemaal niet beter te zijn als de concurrentie, als je marketing dat maar is. Je ziet het keer op keer en overal, het is niet het beste product dat het beste verkoopt, maar de fabrikant met de bekendste naam/meeste marketing. Je moet natuurlijk ooit wel een goed product hebben gehad, om bekend te worden en geld te hebben voor marketing, maar daarna kun je een veel minder product verkopen met meer winst zolang je marketing maar goed is.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:40
madmaxnl schreef op maandag 02 november 2015 @ 18:56:
Enfin, aan de verkopen van AMD is het i.i.g. allemaal niet terug te zien -,-
Ik vind het vooral vreemd dat juist nu de verhouding nvidia/amd zo scheef is. Qua features doet amd niet meer onder voor nvidia, het enige voordeel dat nog over is is betere prestaties met een langzame cpu, maar met dx12 zal ook dat verdwijnen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 21-08 15:52
-The_Mask- schreef op maandag 02 november 2015 @ 20:31:
[...]

Nee marketing, je product hoeft helemaal niet beter te zijn als de concurrentie, als je marketing dat maar is. Je ziet het keer op keer en overal, het is niet het beste product dat het beste verkoopt, maar de fabrikant met de bekendste naam/meeste marketing. Je moet natuurlijk ooit wel een goed product hebben gehad, om bekend te worden en geld te hebben voor marketing, maar daarna kun je een veel minder product verkopen met meer winst zolang je marketing maar goed is.
Ik vind het wel prima hoor maar waar de GTX 970 tegen de R9 290 werd gezet was hij ruim 10% sneller, nu kwam de R9 390 uit met hogere kloks al zet je de GTX 970 op 1500MHz (zonder voltage verhoging) dan is die ook weer sneller.
Zou het niet raar zijn als AMD met een 2015 kaart kwam die ook langzamer(soms 2% sneller) was dan zijn vorige kaart? Een beetje gekkigheid allemaal.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
wanneer nvidia duidelijk inferieure producten levert gaan ze altijd maar gestaag achteruit qua verkopen maar voor AMD is het meteen een ramp als het gebeurd....
Drivers voor beiden zijn ook al jaren ruim voldoende.

Acties:
  • 0 Henk 'm!

  • PauseBreak
  • Registratie: November 2006
  • Laatst online: 12-09 09:53

PauseBreak

derp!

haarbal schreef op maandag 02 november 2015 @ 22:02:
[...]

Ik vind het vooral vreemd dat juist nu de verhouding nvidia/amd zo scheef is. Qua features doet amd niet meer onder voor nvidia, het enige voordeel dat nog over is is betere prestaties met een langzame cpu, maar met dx12 zal ook dat verdwijnen.
Vergeet de drivers niet. Zelfs de huidige drivers van AMD, en zeker dat CCC, zijn niet zo stabiel als die van Nvidia, en de installatieprocedure van AMD drivers verloopt ook vaker niet dan wel vlekkeloos.
Maar goed, om eerlijk te zijn vind ik GFE best een nutteloze resourcehog en de W10 drivers van NV zijn ook niet van een briljant niveau. Maar hier is het verschil wel dat problemen sneller worden opgelost dan AMD doet. Dat is ook een kwestie van geld natuurlijk.

Eigenlijk hoop ik nog het meest dat die hybride modus doorbreekt. Dan prik ik gewoon een AMD kaart erbij.

En ook een, voor mij althans wel, belangrijke factor: De huidige kaarten van AMD zijn tig jaar oude refresh/rebrands waar ze nog steeds veel geld voor vragen. Dat wil ik niet.

[ Voor 8% gewijzigd door PauseBreak op 02-11-2015 22:50 ]

Nee, merp!


Acties:
  • 0 Henk 'm!

Verwijderd

haarbal schreef op maandag 02 november 2015 @ 22:02:
[...]

Ik vind het vooral vreemd dat juist nu de verhouding nvidia/amd zo scheef is. Qua features doet amd niet meer onder voor nvidia, het enige voordeel dat nog over is is betere prestaties met een langzame cpu, maar met dx12 zal ook dat verdwijnen.
Is nog helemaal niet duidelijk, Nvidia ligt nu ook op het zelfde niveau in AOTS en sneller in Fable Legends. Ik heb verder ook nooit gezien dat Nvidia langzamer is met een minder snellere cpu, je hebt namelijk driver overhead, dan maakt het niet uit of dat dan met een langzamere cpu is of juist met een snellere cpu? Hier zat ik wel fout mee niet helemaal wakker

[ Voor 3% gewijzigd door Verwijderd op 03-11-2015 09:25 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Volgens mij snap je niet helemaal wat hij bedoeld. AMD kaarten zijn over het algemeen in DX11 langzamer op lagere resoluties dan de Nvidia tegenhangers, dit doordat er aardig wat CPU overhead in de drivers zit. Dit word dus weggenomen met DX12 en zie je ze op +/- gelijke hoogte komen.

Acties:
  • 0 Henk 'm!

Verwijderd

Betere prestaties met een langzamere cpu, ik vermoed dan dat AMD sneller is of ik begrijp het indd verkeerd. Onder dx 12 sowieso betere prestaties dus sowieso sneller of ik begrijp dat ook verkeerd wat natuurlijk niet mijn schuld is gezien hoe het er word neergezet kan het van alles betekenen.

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Verwijderd schreef op dinsdag 03 november 2015 @ 09:17:
Betere prestaties met een langzamere cpu, ik vermoed dan dat AMD sneller is of ik begrijp het indd verkeerd. Onder dx 12 sowieso betere prestaties dus sowieso sneller of ik begrijp dat ook verkeerd wat natuurlijk niet mijn schuld is gezien hoe het er word neergezet kan het van alles betekenen.
Hoe kom je erbij dat overhead niet uit maakt tussen een snelle of langzame CPU? Juist een snelle CPU zal die overhead compenseren. Een i3 echter, zal bij AMD sneller de bottleneck zijn, dan bij Nvidia.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • +2 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Xtr3me4me schreef op maandag 02 november 2015 @ 19:40:
[...]


Heeft te maken met het feit dat nvidia altijd aan de top heeft gezeten. Zoveel met drivers als kaarten en de stabiliteit en performance.

...

Kijk, ik ben geen fanboy. Ik ben gewoon een consument core gamer en maakt mij echt niks uit welke van de 2 in mijn pc zit.
Dat is wel een hele boude uitspraak. Je antwoord doet haast vermoeden dat je het videokaart nieuws nog niet zo heel lang volgt. Of je bent toch niet zo objectief als je pretendeert te zijn?

Hardware:
De laatste 15 jaar hebben nVidia en AMD/ATi wel eens voor langere/kortere tijd de performance crown gehad. Zoals bijvoorbeeld de 9700Pro, 9800Pro, X850 XTPE, X1950 XTX en recenter de HD7970 en R9 290X. nVidia heeft dus zeer zeker niet altijd aan de top gezeten. Is zou eerder zeggen 50/50 over de laatste 15 jaar.

Software:
Ik gebruik zo'n 12 jaar videokaart drives van AMD en heb nimmer last gehad van performance dan wel stabiliteits issues. Dit kun je niet echt zeggen van nVidia (beta)drivers...die konden in het verleden wel eens je kaartje saboteren.

Het is meer zoals The_Mask zegt: nVidia heeft gewoonweg zijn marketing strategie beter op orde.
Dit heeft dus NIETS te maken met een performance crown die nVidia wel eens heeft. ;)

[ Voor 5% gewijzigd door Indy91 op 03-11-2015 11:20 ]

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

Verwijderd

Komt omdat vroeger ook alles goedkoper was hé, die rot euro heeft alles duurder gemaakt. Ik denk trouwens ook wel dat bepaalde nieuwe technieken voor pcb's en dergelijke mee telt, machines die gpu's maken duurder worden omdat het kleiner moet meer techniek, vermoedens verder geen feiten. Vroeger was bijna alles beter haha. Kocht je een fiets gaat die 40 jaar mee koop je nu een fiets is die na 10 jaar af :+

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

PauseBreak schreef op maandag 02 november 2015 @ 22:49:
[...]


Vergeet de drivers niet. Zelfs de huidige drivers van AMD, en zeker dat CCC, zijn niet zo stabiel als die van Nvidia, en de installatieprocedure van AMD drivers verloopt ook vaker niet dan wel vlekkeloos.
Maar goed, om eerlijk te zijn vind ik GFE best een nutteloze resourcehog en de W10 drivers van NV zijn ook niet van een briljant niveau. Maar hier is het verschil wel dat problemen sneller worden opgelost dan AMD doet. Dat is ook een kwestie van geld natuurlijk.

Eigenlijk hoop ik nog het meest dat die hybride modus doorbreekt. Dan prik ik gewoon een AMD kaart erbij.

En ook een, voor mij althans wel, belangrijke factor: De huidige kaarten van AMD zijn tig jaar oude refresh/rebrands waar ze nog steeds veel geld voor vragen. Dat wil ik niet.
Dat driver fabeltje blijft maar hangen :(. Drivers van Nvidia zijn het laatste jaar minder stabiel dan die van AMD, dat is in ieder geval wat ik terugzie in het aantal topics dat ik "behandel" in V&B. Dat het CCC log is kan ik me prima in vinden, ik gebruik zelf ook RadeonPro om de settings te regelen. Laten we hopen dat het nieuwe CCC beter is.

Nvidia was voorheen de rebrand meester, jammer dat AMD nu ook die kant op lijkt te gaan. Ik denk overigens dat het in dit geval meer te maken heeft met het feit dat beide fabrikanten op 28nm vastzitten. De Fury en Maxxwell lijken meer een noodgreep om toch maar wat uit te brengen, Nvidia is hier eerder op ingesprongen. Overigens is alleen de HD7850/HD7870 2x gerebrand en de 3xx lowend heeft geen update van de architectuur gekregen. De rest van de kaartens is allemaal maar 1x gerebrand (niet anders dan Nvidia normalitair doet :P).

Heb ergens het gevoel dat de discussie wat offtopic gaat ;).

We hebben op 28nm nu 2/3 generaties gpu's gehad, het zou mij niet verbazen dat als de ontwikkeling van de processverkleining nog verder vertraagd dat we zo meteen minimaal 3 generaties vastzitten op 14/16nm :/.

Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Verwijderd schreef op dinsdag 03 november 2015 @ 11:58:
Komt omdat vroeger ook alles goedkoper was hé, die rot euro heeft alles duurder gemaakt. Ik denk trouwens ook wel dat bepaalde nieuwe technieken voor pcb's en dergelijke mee telt, machines die gpu's maken duurder worden omdat het kleiner moet meer techniek, vermoedens verder geen feiten. Vroeger was bijna alles beter haha. Kocht je een fiets gaat die 40 jaar mee koop je nu een fiets is die na 10 jaar af :+
Waar heb je het over??? :|

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

Verwijderd

Pffffff serieus?

[ Voor 39% gewijzigd door Verwijderd op 03-11-2015 13:39 ]


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Je opmerking raakt werkelijk kant noch wal.

Maar nogmaals, waar probeer je nu te zeggen? :?

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 11-09 15:01

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

Sp3ci3s8472 schreef op dinsdag 03 november 2015 @ 13:09:
[...]


Dat driver fabeltje blijft maar hangen :(. [...]
Je hebt op zich gelijk maar je kan niet ontkennen dat de CPU overhead van NVidia een stuk lager lijkt te liggen in DX11 dan bij AMD. Dit alles is te wijten aan de drivers, dat heeft DX12 en Mantle inmiddels wel bewezen.

AMD heeft technisch gezien krachtiger hardware (in Tflops gezien dan) maar kunnen daar minder efficient gebruik van maken. Dat had ook aan de rasterizer en ROPs kunnen liggen, maar dankzij DX12 en Mantle is het duidelijk dat het door de software komt. Niet raar dat dat fabeltje stand houdt dan..?

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • 0 Henk 'm!

Verwijderd

Eerder waren videokaarten een stuk goedkoper, iemand zij dat ook ergens en daar ging ik op in, maar nu lijkt het weg te zijn waar ik op reageerde of ik zit nu weer in een psychose maar hoop het niet. Enige High end kaart die nog met de euro betaalbaar was de ATI met de de 5000 serieus erna is het alleen maar in een rap tempo duurder geworden.

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Indy91 schreef op dinsdag 03 november 2015 @ 11:09:
[...]

Dat is wel een hele boude uitspraak. Je antwoord doet haast vermoeden dat je het videokaart nieuws nog niet zo heel lang volgt. Of je bent toch niet zo objectief als je pretendeert te zijn?

Hardware:
De laatste 15 jaar hebben nVidia en AMD/ATi wel eens voor langere/kortere tijd de performance crown gehad. Zoals bijvoorbeeld de 9700Pro, 9800Pro, X850 XTPE, X1950 XTX en recenter de HD7970 en R9 290X. nVidia heeft dus zeer zeker niet altijd aan de top gezeten. Is zou eerder zeggen 50/50 over de laatste 15 jaar.

Software:
Ik gebruik zo'n 12 jaar videokaart drives van AMD en heb nimmer last gehad van performance dan wel stabiliteits issues. Dit kun je niet echt zeggen van nVidia (beta)drivers...die konden in het verleden wel eens je kaartje saboteren.

Het is meer zoals The_Mask zegt: nVidia heeft gewoonweg zijn marketing strategie beter op orde.
Dit heeft dus NIETS te maken met een performance crown die nVidia wel eens heeft. ;)
Ik volg het niet zolang, daarnaast who cares. Echt waar maakt men zich druk om. AMD-nVidia-nVidia-AMD. Betaal je als consument nou voor performance of voor het naampje?

Ik gebruik al 14 jaar videokaarten, waarvan de eerste 4 jaar Radeon (Amd had deze marktaandeel nog niet in handen toen der tijd)
Ik heb nooit problemen gehad, met geen enkele driver. Zowel niet van nvidia als van amd (toen Radeon).

Misschien was je pc zelf wel bagger en daardoor de aansturing van je kaart(drivers) verpeste. Gooi niet alles op basis van drivers aangezien er zat topics zijn waarbij de oorzaak van de videokaart door iets heel anders roet in het eten gooide.

Ja ik weet dat nVidia zijn marketing sterk verbeterde, misschien meer omdat ze wisten dat daar het grote geld zat. Gewoon slimme zet en ja tot op heden werken de kaarten prima en naar behoren.
Ze doen wat ze moeten doen of niet soms? Ja je betaalt er veel voor, maar ja, dat is met alles wel zo.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • Indy91
  • Registratie: Oktober 2005
  • Laatst online: 31-01 14:21
Ja en nee.

De eerste High End GPU's waren inderdaad nog redelijk betaalbaar. Echter vanaf de GeForce 2 Ultra (deze kostte destijds rond $500,00 in 1999) zijn de High End kaartjes (van nVidia/AMD/S3/3dfx/Matrox) relatief steeds duurder geworden. Zeker indien je rekening houdt met prijsinflatie.

Volgens mij is de enige uitschieter naar beneden de AMD HD4850 (€ 150,00 bij introductie in 2008) en de HD4870 geweest. Daarna zijn de prijzen van de High End kaarten van AMD wederom fors gestegen naar het gebruikelijke prijsniveau.

[ Voor 8% gewijzigd door Indy91 op 03-11-2015 14:38 ]

AMD CPU FX-8350@4,4GHz | Scythe Fuma | Scythe Kaze Master II | Asus M5A97 Rev.2 | Sapphire RX 480 Nitro OC+ | 16GB Geil Black Dragon DDR1600 | 480 Sandisk Ultra II SSD | Corsair GamingSeries 800Watt | Creative Tactic 3D Alpha | Corsair Gaming M65


Acties:
  • 0 Henk 'm!

  • catfish
  • Registratie: December 2000
  • Laatst online: 11-08 17:20
Indy91 schreef op dinsdag 03 november 2015 @ 14:33:
De eerste High End GPU's waren inderdaad nog redelijk betaalbaar. Echter vanaf de GeForce 2 Ultra (deze kostte destijds rond $500,00 in 1999) zijn de High End kaartjes (van nVidia/AMD/S3/3dfx/Matrox) relatief steeds duurder geworden. Zeker indien je rekening houdt met prijsinflatie.
Niet echt onlogisch.
Vroeger zat er relatief weinig ramgeheugen op een grafische kaart, tegenwoordig zit er 4GB of meer op. En om het compleet te maken is het nog supersnel GDDR5 geheugen.
Rond 2000 had een gpu (bv GF2 GTS) 20 miljoen transistors, een cpu (bv P4) had er 42 miljoen.
Op dit moment zit een gpu (bv Fiji) op +8 miljard transistors, een cpu (bv Skylake) rond de 1,35 miljard.
Het moge duidelijk zijn dat de prijs van een moderne gpu (chip + geheugen + kaart) duurder is geworden dan een moderne cpu.
Prijsinflatie heeft daar niets mee te maken.
Je kan dit overigens ook afleiden uit het verbruik: een GF2 GTS kon op het moederbord geprikt worden en klaar, moderne gpu's hebben een eigen stroomvoorziening nodig.

Acties:
  • 0 Henk 'm!

  • outlandos
  • Registratie: November 2001
  • Laatst online: 00:32
Outlandos schreef op maandag 02 november 2015 @ 20:18:
Ik heb in mijn oude PC (bijna 5 jaar oud) de GPU vervangen. 2x 460 in SLI eruit gehaald en een GTX 970 van MSI (Gaming edition) erin gezet.

Toch een flinkje boost, in 3DMark ga ik van 5000 naar 10.000. En dan heb ik de kaart niet eens overgeklokt. Erg tevreden mee, als de rest het houdt dan kan ik hier nog zeker 3 jaar mee vooruit.
Toch nog even zeggen dat ik erg blij ben met deze kaart. Tot nu toe alles op high of ultra en altijd een steady 60 fps. Nvidia _/-\o_

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

Outlandos schreef op dinsdag 03 november 2015 @ 16:08:
[...]


Toch nog even zeggen dat ik erg blij ben met deze kaart. Tot nu toe alles op high of ultra en altijd een steady 60 fps. Nvidia _/-\o_
Dank je voor dit interessante nieuws! }:O
Edit: dit past beter in het ervaringen topic.

[ Voor 7% gewijzigd door Sp3ci3s8472 op 03-11-2015 16:40 ]


Acties:
  • 0 Henk 'm!

  • outlandos
  • Registratie: November 2001
  • Laatst online: 00:32
Sp3ci3s8472 schreef op dinsdag 03 november 2015 @ 16:40:
[...]


Dank je voor dit interessante nieuws! }:O
Edit: dit past beter in het ervaringen topic.
Excuses, was mij niet bewust dat er een apart ervaringen topic is :+

Acties:
  • 0 Henk 'm!

  • PauseBreak
  • Registratie: November 2006
  • Laatst online: 12-09 09:53

PauseBreak

derp!

Sp3ci3s8472 schreef op dinsdag 03 november 2015 @ 13:09:
[...]


Dat driver fabeltje blijft maar hangen :(. Drivers van Nvidia zijn het laatste jaar minder stabiel dan die van AMD, dat is in ieder geval wat ik terugzie in het aantal topics dat ik "behandel" in V&B. Dat het CCC log is kan ik me prima in vinden, ik gebruik zelf ook RadeonPro om de settings te regelen. Laten we hopen dat het nieuwe CCC beter is.
Nee, dat is gewoon persoonlijke ervaring. Bij AMD is het gewoon problematischer om driver updates toe te passen dan bij Nvidia als je gewoon de aanbevolen werkwijze aanhoudt, en bij AMD duurt het veel langer voordat er een bugfix of echt substantiële verbetering komt.
Dat gezegd hebbende vind ik dat drivers van beide fabrikanten de laatste tijd ondermaats zijn. Er zijn gewoon vreemde zaken die je voorheen niet tegenkwam. Dat zal deels ook te maken hebben met W10, maar dat kan niet alles verklaren.
We hebben op 28nm nu 2/3 generaties gpu's gehad, het zou mij niet verbazen dat als de ontwikkeling van de processverkleining nog verder vertraagd dat we zo meteen minimaal 3 generaties vastzitten op 14/16nm :/.
Dat zou goed kunnen, maar dat zou niet remmend hoeven te werken. Volgens mij is er genoeg te winnen op het gebied van efficiëntie in de ontwerpen en de verschillende lagen software die worden gebruikt.

Nee, merp!


Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 12-09 21:16
Sp3ci3s8472 schreef op dinsdag 03 november 2015 @ 13:09:
[...]


Dat driver fabeltje blijft maar hangen :(. Drivers van Nvidia zijn het laatste jaar minder stabiel dan die van AMD, dat is in ieder geval wat ik terugzie in het aantal topics dat ik "behandel" in V&B. Dat het CCC log is kan ik me prima in vinden, ik gebruik zelf ook RadeonPro om de settings te regelen. Laten we hopen dat het nieuwe CCC beter is.
Als het leeuwendeel van de gebruikers een nVidia kaart heeft lijkt me me logisch dat je meer topics over dat merk zult vinden :P. Vervolgens claimen dat die van AMD stabieler zijn is ook een uitspraak rijp voor de fabeltjeskrant :+

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

sjekneck schreef op dinsdag 03 november 2015 @ 20:29:
[...]

Als het leeuwendeel van de gebruikers een nVidia kaart heeft lijkt me me logisch dat je meer topics over dat merk zult vinden :P. Vervolgens claimen dat die van AMD stabieler zijn is ook een uitspraak rijp voor de fabeltjeskrant :+
Je hebt een punt, alleen ik vergelijk het niet daarmee. Ik kijk naar wat voor topics ik de laatste paar jaren heb beantwoord. Daar zie ik het laatste jaar een stijging in driver problemen bij Nvidia. Dit is natuurlijk niet de meest accurate manier om dit te meten maar het geeft wel een indicatie. Waar je er 2 jaar geleden van kon uitgaan dat een nieuwere Nvidia driver beter was is dit niet meer het geval, dat nu mensen hun driver problemen oplossen met een downgrade spreekt boekdelen (iets overdreven :9).
Je kan dit natuurlijk gaan verdedigen maar dat maakt de situatie niet anders.

Ik heb het misschien wat verkeerd verwoord in mijn vorige post, je moet de drivers van AMD en Nvidia los van elkaar zien.

Wat ik met stabielere AMD drivers probeer te duidelijk te maken is dat ze op het moment gewoon stabiel zijn en ik heb het laatste jaar weinig topics voorbij zien komen die daadwerkelijk de schuld van de driver waren. Wat wel veel voorkwam is dat men de "nieuwe" Omega drivers over de oude installeerde, dat terwijl er op de site wordt aangegeven dat dit voor problemen kan zorgen. Dat is een punt wat je de driver niet kan aanrekenen maar wel de communicatie van AMD naar klanten toe; een korte waarschuwing voor het instaleren van de driver zou al een boel kunnen oplossen.

offtopic:
Lees ik dat nou goed, zit je de fabeltjeskrant belachelijk te maken!!! :o :+

Acties:
  • 0 Henk 'm!

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 12-09 21:16
@Sp3ci3s8472
Nou ik kan me werkelijk geen instabiele/slechte driver heugen op een GTX 970 sinds september afgelopen jaar. De gtx570 ervoor idem dito de afgelopen 4 tot 5 jaar. Ik heb nooit, maar dan ook echt nooit een probleem gehad met een display driver van nVidia. Wellicht heb ik gewoon mazzel of klopt de rest van me setup gewoon in tegenstelling tot sommige anderen. Meldingen over drivers die niet meer werken of crashes dateren hier nog uit het windows xp tijdperk.

Hoe denk jij over de hardware kwaliteit als ik vragen mag? Je lijkt het bij te houden en dat doe ik ook en mij valt het op dat de uitval van videokaarten uit het rode kamp was al hoog, maar sinds de 79xx serie explosief is te noemen. Het was het al redelijk gangbaar dat Radeon kaarten minder lang meegaan dan Geforce producten namelijk.

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
best een lange tijd waren veel mensen constant aan het switchen tussen nvidia drivers om net die ene te vinden die de beste performance gaf. Bij amd heb ik dat dus nooit gehad.

Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

@tomcatha
Dat klopt wel ergens ja.

@sjekneck
Die is bij Nvidia sinds de 6xx goed en je ziet in ieder geval geen boven gemiddelt aantal kaarten die uitvalt, bij de 4xx en 5xx waren er iets vaker defecten met name de GTX570 (vrms). Ik denk dat ik een bepaalde serie kaarten hier niet hoef te noemen aangezien er een speciaal topic voor is aangemaakt O-), gelukkig hebben ze daar van geleerd.
Bij AMD zie je vooral dat de kaarten die gerebrand zijn met een hogere clock HD7950 boost, HD7970 GHZ edition, 280x etc vaker uitvallen. Dit zie je maar in mindere mate bij Nvidia kaarten.
Ik dacht dat vooral de HD4xxx uitval problemen had? dit heb ik minder bij de HD5xxx en HD6xxx serie gezien.

Maar je kan dit misschien beter even teruglezen in het AMD Radeon topic aangezien hier een aantal posts over gaan. Vooral Sapphire kaarten lijken minder goed te zijn en de GTX780 van Gigabyte lijkt ook niet echt stabiel in verhouding met andere merken. Het is dus ook weer merk afhankelijk.

Ik quote mezelf maar even voor het gemak ;).
Sp3ci3s8472 schreef op zaterdag 31 oktober 2015 @ 19:04:
[...]


Er wel een duidelijk patroon bij zowel AMD als Nvidia te zien, kaarten die opnieuw als rebrand zijn uitgebracht met hogere snelheden komen vaker terug; ook kaarten met een OC. Dit is denk ik ook de enige conclussie die je hieruit kan trekken (op de Sapphires na en dat ene model Gigabyte GTX780) omdat niet alle kaarten in de lijst staan.

Voor de geintereseerden.
Bron 2014: http://www.hardware.fr/articles/927-5/cartes-graphiques.html
Bron 2015: http://www.hardware.fr/articles/934-5/cartes-graphiques.html
Wat ik er wel extra bij wil vermelden is dat dit maar de resultaten van een site zijn en niet persé representatief (Sapphire maakt over het algemeen prima kaarten zover ik weet).

Acties:
  • +2 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 04:32
sjekneck schreef op dinsdag 03 november 2015 @ 23:00:
@Sp3ci3s8472
Nou ik kan me werkelijk geen instabiele/slechte driver heugen op een GTX 970 sinds september afgelopen jaar. De gtx570 ervoor idem dito de afgelopen 4 tot 5 jaar. Ik heb nooit, maar dan ook echt nooit een probleem gehad met een display driver van nVidia. Wellicht heb ik gewoon mazzel of klopt de rest van me setup gewoon in tegenstelling tot sommige anderen. Meldingen over drivers die niet meer werken of crashes dateren hier nog uit het windows xp tijdperk.

Hoe denk jij over de hardware kwaliteit als ik vragen mag? Je lijkt het bij te houden en dat doe ik ook en mij valt het op dat de uitval van videokaarten uit het rode kamp was al hoog, maar sinds de 79xx serie explosief is te noemen. Het was het al redelijk gangbaar dat Radeon kaarten minder lang meegaan dan Geforce producten namelijk.
De hardware uitval ligt bij Radeon al jaren hoger (het viel mij op vanaf 2009 met de 4870 serie). Dit kun je o.a. afleiden uit de steam harware survey waar bepaalde series ineens volledig verdwijnen. Maar ik zou het eigenlijk niet meenemen in een aankoop beslissing omdat er eigenlijk altijd wel een serie tussen zit die het ineens slecht doet, vooral bij de wat snellere kaarten. Het is zeker niet zo dat je bij Nvidia ineens geen risico loopt...

De laatste cijfers van hardware.fr zijn alsvolgt:
2015 1
- 3,11% Radeon R9 270
- 3,29% Radeon R9 270X
- 4,62% Radeon R9 280
- 5,61% Radeon R9 280X
- 7,59% Radeon R9 290
- 7,09% Radeon R9 290X

- 1,19% GeForce GTX 660
- 1,79% GeForce GTX 760
- 2,91% GeForce GTX 770
- 3,00% GeForce GTX 780
- 6,27% GeForce GTX 780 Ti
- 0,12% GeForce GTX TITAN/BLACK
- 5,78% GeForce GTX 970
- 0,00% GeForce GTX 980

2014 2
- 2,53% Radeon HD 7850
- 1,66% Radeon HD 7870
- 10,28% Radeon HD 7950
- 7,63% Radeon HD 7970

- 2,81% Radeon R9 270
- 5,79% Radeon R9 270X
- 8,81% Radeon R9 280X
- 6,63% Radeon R9 290
- 5,58% Radeon R9 290X

- 1,57% GeForce GTX 660
- 2,57% GeForce GTX 760
- 3,16% GeForce GTX 770
- 4,75% GeForce GTX 780
- 2,91% GeForce GTX 780 Ti
- 1,33% GeForce GTX TITAN/BLACK

2014 1
- 2,56% Radeon HD 7850
- 3,19% Radeon HD 7870
- 5,83% Radeon HD 7870 XT
- 7,03% Radeon HD 7950
- 5,59% Radeon HD 7970

- 1,76% GeForce GTX 660
- 2,93% GeForce GTX 660 Ti
- 3,73% GeForce GTX 670
- 2,83% GeForce GTX 680
- 2,82% GeForce GTX 760
- 3,48% GeForce GTX 770
- 3,79% GeForce GTX 780
- 0,98% GeForce GTX TITAN

[ Voor 4% gewijzigd door sdk1985 op 04-11-2015 02:36 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Verwijderd

Het feit is dat mensen die mazzel hebben veel groter is en die gaan natuurlijk geen topics openen om dat even te vertellen het zal vast gaan om het over grote gedeelte vermoed ik. Ik heb zelf ook al jaren geen problemen omdat ik zelf game, maar ik lees wel heel vaak problemen over browsers en meerdere schermen en daar blijft het vaak bij als het gaat om problemen.

Nvidia moet trouwens een opschieten met die Shield console want dan kan ik mijn ps4 weg doen en zelfs geld overhouden en meer games gaan spelen.

[ Voor 16% gewijzigd door Verwijderd op 04-11-2015 10:10 ]


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 12-09 21:26
Het lijkt erop dat de GeForce driver 358.66 met ondersteuning voor Vulkan, Pascal en Volta (?) eraan komt.
http://forums.laptopvideo...pascal-and-volta-support/

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
ik heb ook wel eens gehoord van iemand uit tsjechië dat ze vaker nvidia kregen terug gestuurd. Overigens is iedereen die nvidia gebruikt wel bekend met het concept van RMA? Leken hebben vaker een nvidia kaart lijkt mij.

Acties:
  • 0 Henk 'm!

Verwijderd

Ik hoor ook wel eens wat maar of het waar is vaak moeilijk te achterhalen en de feiten zijn vaak anders

Edit

Volgens mij is het nu ook begonnen dat je game ready drivers alleen nog maar kunt downloaden via GFE want ik kreeg zojuist de melding dat er weer een nieuwe WHQL game ready driver uit is en op de website zelfs staat (nog) niets.

[ Voor 53% gewijzigd door Verwijderd op 04-11-2015 16:07 ]


Acties:
  • 0 Henk 'm!

  • Beavbusi
  • Registratie: April 2013
  • Laatst online: 11-09 18:44
Weet iemand wanneer de opvolger v an de 970 gtx komt?

Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 12-09 21:26
Dat wordt de Pascal generatie, Q2 2016.

Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Verwijderd schreef op woensdag 04 november 2015 @ 13:19:

Volgens mij is het nu ook begonnen dat je game ready drivers alleen nog maar kunt downloaden via GFE want ik kreeg zojuist de melding dat er weer een nieuwe WHQL game ready driver uit is en op de website zelfs staat (nog) niets.
Hij staat gewoon op de site. Je was te vroeg waarschijnlijk.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 04:32
tomcatha schreef op woensdag 04 november 2015 @ 13:07:
ik heb ook wel eens gehoord van iemand uit tsjechië dat ze vaker nvidia kregen terug gestuurd. Overigens is iedereen die nvidia gebruikt wel bekend met het concept van RMA? Leken hebben vaker een nvidia kaart lijkt mij.
Als je marktaandeel 70% is dan is dat niet vreemd. Het aantal teruggestuurde kaarten tov het verkochte aantal is relevant.
Sp3ci3s8472 schreef op dinsdag 03 november 2015 @ 13:09:
[...]


Dat driver fabeltje blijft maar hangen :(. Drivers van Nvidia zijn het laatste jaar minder stabiel dan die van AMD, dat is in ieder geval wat ik terugzie in het aantal topics dat ik "behandel" in V&B. Dat het CCC log is kan ik me prima in vinden, ik gebruik zelf ook RadeonPro om de settings te regelen. Laten we hopen dat het nieuwe CCC beter is.

Nvidia was voorheen de rebrand meester, jammer dat AMD nu ook die kant op lijkt te gaan. Ik denk overigens dat het in dit geval meer te maken heeft met het feit dat beide fabrikanten op 28nm vastzitten. De Fury en Maxxwell lijken meer een noodgreep om toch maar wat uit te brengen, Nvidia is hier eerder op ingesprongen. Overigens is alleen de HD7850/HD7870 2x gerebrand en de 3xx lowend heeft geen update van de architectuur gekregen. De rest van de kaartens is allemaal maar 1x gerebrand (niet anders dan Nvidia normalitair doet :P).

Heb ergens het gevoel dat de discussie wat offtopic gaat ;).

We hebben op 28nm nu 2/3 generaties gpu's gehad, het zou mij niet verbazen dat als de ontwikkeling van de processverkleining nog verder vertraagd dat we zo meteen minimaal 3 generaties vastzitten op 14/16nm :/.
Mbt het driver fabeltje. Ik ben zelf slachtoffer geworden van de brakke drivers van AMD bij de lancering van de E-350 Fusion APU. Prachtige chip maar het heeft onderhand een jaar geduurd voor alles normaal werkte. Verder zijn er in het verleden veel games geweest waar Nvidia bij/rond launch snel met een driver update kwam terwijl Radeon pas weken later kwam.

Een slechte reputatie heb je in een dag, een goede reputatie kost tijd.

Mbt rebrands, dat is alleen maar goed. Het is volkomen ontransparant om een oude serie in productie te houden naast een nieuwe lijn. Niemand weet dan meer waar de kaart binnen het specturm valt. Het is alleen maar goed dat zowel Nvidia als AMD nu alles netjes rebranden elk jaar. Dat AMD technisch niet innoveert is natuurlijk wel problematisch (maar een logisch gevolg van het beperkte R&D budget). Dat staat wat mij betreft los van het fenomeen rebrands. Als ze volgend jaar de Fury nano rebranden naar een mid-range kaart dan kraait daar geen haan naar toch (volledig hypothetisch natuurlijk)?

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 22:47
sdk1985 schreef op woensdag 04 november 2015 @ 18:21:
Dat AMD technisch niet innoveert is natuurlijk wel problematisch (maar een logisch gevolg van het beperkte R&D budget).
Hmm, ik weet dat dit het Nvidia draadje is. Maar volgens mij is de Fury lijn toch wel technische innovatie...

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 04:32
Zeara schreef op woensdag 04 november 2015 @ 18:54:
[...]


Hmm, ik weet dat dit het Nvidia draadje is. Maar volgens mij is de Fury lijn toch wel technische innovatie...
Niet innoveert is wellicht te kort door de bocht, dat doen ze natuurlijk nog steeds. Ik doel op het gebruiken van 3 jaar oude tech in de nieuwste line-up. Een GTX 750 achtige kaart zou AMD geen kwaad doen. GCN 1.0 in 2015 was opmerkelijk. De techniek ligt "op de plank".

[ Voor 17% gewijzigd door sdk1985 op 04-11-2015 18:59 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
sdk1985 schreef op woensdag 04 november 2015 @ 18:21:
Een slechte reputatie heb je in een dag, een goede reputatie kost tijd.
Vertrouwen komt te voet en gaat te paard? Vast wel, maar om een of andere reden lijkt die vlieger voor nVidia en de consumenten niet op te gaan. Raar, maar waar voor AMD dan weer wel. Iets met reclame, marketing en omkoop praktijken. (Je bij een gamedeveloper binnen kopen en dan zorgen dat de concurrentie er niet meer in kan. En om het alles nog wat bizarder te maken duwen ze er ook nog moeite in de performance en features voor de concurrent te ondermijnen.)

Helaas pindakaas voor de PC gamers. Gewoon om misselijk van te worden :r

Ze helpen er niemand mee, integendeel, AMD gebruikers worden gediscrimineerd en nVidia gebruikers, met een niet huidige generatie videokaart, worden ook nog eens genaaid doordat nVidia de gamedevelopers dusdanig weet te stimuleren. Dat ze optimaliseren met als doel dat de nieuwste generatie videokaarten van nVidia relatief beter te laten presteren dan de concurrentie en hun eigen oudere generatie videokaarten. Dit alles met als hoofddoel de videokaarten die nVidia op dat moment gaat verkopen of al verkoopt zo goed mogelijk uit de verf te laten komen met als belachelijk resultaat dat mensen inderdaad eerder voor een nVidia kaart kiezen dan voor de concurrent AMD. Heel erg wenselijk allemaal.

Acties:
  • 0 Henk 'm!

Verwijderd

Wat een onderbuik gevoelens zonder enige feiten, maar goed ik kan dat wel blijven zeggen maar die propaganda gaat er bij mij niet in. Zeker niet datgene dat ze fermi en kepler expres kreupel maken want dat waren niet meer dan driver problemen en waren later weer gefixed. Ik ga ook niet met bronnen komen wat dat doen anderen ook niet zoals hier boven.

Edit

Omdat het om onderbuik gevoelens en rare theorietjes gaat zijn er mensen gaan vergelijken omdat die rare propaganda theorieën die kop in te drukken.

Feelings are cool and all but here's a quick and completely non-scientific lookup of Kepler's performance changes from Anandtech and Computerbase.de reviews since GTX780 launch:

Anandtech, GTX780, Crysis 3, 2560x1440 High/FXAA:
May 23, 2013 - 53,1 fps
Nov 7, 2013 - 52,2 fps
Sep 18, 2014 - 51,2 fps

Anandtech, GTX780Ti, Crysis 3, 2560x1440 High/FXAA:
Nov 7, 2013 - 62,4 fps
Sep 18, 2014 - 62,4 fps
Mar 17, 2015 - 61,7 fps

For lulz - Anandtech, GTX580, Crysis 3, 2560x1440 High/FXAA:
May 23, 2013 - 29,8 fps
Mar 17, 2015 - 30,0 fps

Computerbase.de, GTX780, Crysis 3, 2560x1600 4xAA/16xAF:
May 23, 2013 - 19,2 fps
Mar 7, 2014 - 19,3 fps
Sep 19, 2014 - 19,0 fps
Mar 17, 2015 - 19,0 fps

Computerbase.de, GTX780, Far Cry 3, 2560x1600 4xAA/16xAF:
May 23, 2013 - 34,0 fps
Mar 7, 2014 - 34,4 fps
Sep 19, 2014 - 34,3 fps
Mar 17, 2015 - 34,3 fps

Computerbase.de, GTX780, Hitman: Absolution, 2560x1600 4xAA/16xAF:
May 23, 2013 - 38,6 fps
Mar 7, 2014 - 41,8 fps
Sep 19, 2014 - 41,2 fps
Mar 17, 2015 - 41,2 fps

Computerbase.de, GTX780, Anno 2070, 2560x1600 4xAA/16xAF:
May 23, 2013 - 38,2 fps
Mar 7, 2014 - 39,0 fps
Sep 19, 2014 - 39,4 fps
Mar 17, 2015 - 39,4 fps

Computerbase.de, GTX780, Tomb Raider, 2560x1600 4xAA/16xAF:
May 23, 2013 - 38,1 fps
Mar 7, 2014 - 38,5 fps
Sep 19, 2014 - 38,2 fps
Mar 17, 2015 - 38,2 fps

Computerbase.de, GTX780Ti, Bioshock: Infinite, 2560x1600 4xAA/16xAF:
Dec 17, 2013 - 55,5 fps
Mar 7, 2014 - 55,5 fps
Sep 19, 2014 - 65,5 fps
Mar 17, 2015 - 65,5 fps

Now don't get me wrong, I think that there may be some truth to NVIDIA not optimizing their drivers for Kepler for newer games because their main effort is on Maxwell obviously. But the data even for newer games (Watch Dogs, Thief, etc.) doesn't show any performance degradation of Kepler based cards over time.

The question is - do several newer games (PCars, GTA5, TW3) perform worse than expected on Kepler GPUs because of lack of driver optimizations or because of Kepler's architecture being less suited for new workloads, with more compute, higher bandwidth requirements and heavier DX11+ usage? As I've said already, it'll be interesting to see how much of a change the new driver with promised Kepler fixes will bring.


[small]Mad Max niet om het een of ander maar werk je toevallig voor AMD? Net zoals een Nvidia focus group dat doet, als ik al je posts terug lees lijkt het daar wel heel sterk op in mijn ogen.[/small]

[ Voor 85% gewijzigd door Verwijderd op 05-11-2015 11:09 ]


Acties:
  • 0 Henk 'm!

  • spNk
  • Registratie: Mei 2007
  • Laatst online: 05-09 08:50
Ehm gaat het dan ook niet juist om nieuwe games? :?

Acties:
  • 0 Henk 'm!

Verwijderd

spNk schreef op donderdag 05 november 2015 @ 12:15:
Ehm gaat het dan ook niet juist om nieuwe games? :?
Nee want dat is altijd al zo geweest dat games zwaarder worden en dat bepaalde hardware binnen een bepaalde periode niet meer toereikend is voor bepaalde nieuwe games dan is het wel geheugen dan is het wel een unit dit of een unit dat of net zoals nu dat Nvidia geen ACE's heeft en dat AMD wat tessellation units missen. Het komt ook duidelijk bij 3dguru weg zijn verhaal en is vooral gebaseerd op gebakken lucht als het gaat om tegenhouden van performance via drivers wat hier duidelijk bedoeld word, het kreupel maken van de voorgangers. ;)

[ Voor 5% gewijzigd door Verwijderd op 05-11-2015 12:54 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:40
Nvidia is wel laks met kepler driver tweaks de laatste tijd. Bij the witcher 3 waren er genoeg klachten om het relatief snel op te lossen, maar dat zal bij minder populaire spellen ook minder snel gebeuren.

De studio's die echt focussen op graphics als dice en crytek weten ondertussen wel hoe ze op kepler goeie performance moeten krijgen, maar de studio die anno 2205 maakt blijkbaar niet.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op donderdag 05 november 2015 @ 12:53:
[...]


Nee want dat is altijd al zo geweest dat games zwaarder worden en dat bepaalde hardware binnen een bepaalde periode niet meer toereikend is voor bepaalde nieuwe games dan is het wel geheugen dan is het wel een unit dit of een unit dat of net zoals nu dat Nvidia geen ACE's heeft en dat AMD wat tessellation units missen. Het komt ook duidelijk bij 3dguru weg zijn verhaal en is vooral gebaseerd op gebakken lucht als het gaat om tegenhouden van performance via drivers wat hier duidelijk bedoeld word, het kreupel maken van de voorgangers. ;)
Nvidia heeft toch iets vergelijkbaar met een ACE alleen kan deze niet shading en compute concurent doen. Die van AMD zijn gewoon een heel stuk geavanceerder, Nvidia handelt het softwarematig af.

AMD loopt met tesselation achter, maar er is ook wat voor te zeggen. Op het moment is 64x tesselation gewoon nutteloos, als er meer vertices op het scherm zijn dan pixels dan zit je onnodig resources te gebruiken. Als je de Witcher 3 als voorbeeld neem dan ligt de grens ergens tussen de 8x en 16x (meer richting de 16).

Overigens mis ik een bron bij je vorige post. Niet dat ik twijfel over de resultaten, maar het is leuk om de bron te hebben en de comments erbij te kunnen lezen.
Wat haarbal inderdaad zegt heeft het langer voor Kepler kaarten geduurt voordat ze goede performance in bijv. Witcher 3 hadden dan de Maxwell kaarten.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Verwijderd schreef op donderdag 05 november 2015 @ 10:27:
Wat een onderbuik gevoelens zonder enige feiten, maar goed ik kan dat wel blijven zeggen maar die propaganda gaat er bij mij niet in. Zeker niet datgene dat ze fermi en kepler expres kreupel maken want dat waren niet meer dan driver problemen en waren later weer gefixed. Ik ga ook niet met bronnen komen wat dat doen anderen ook niet zoals hier boven.
Er is zelfs een vermelding op Wikipedia over: Wikipedia: GameWorks (API)
https://forums.geforce.co...e-in-favor-of-maxwell-/2/

Dit is je ook al verschillende keren duidelijk gemaakt door verschillende mensen en het is een feit dat de Geforce 600-series en eerder een pak minder goed presteren op Nvidia GameWorks titels dan verwacht. Omdat de overmatige tessellation nutteloos is en de Maxwell reeks specifiek héél goed met overmatig niveau van tessellation overweg kan, lijkt de enige andere logische reden te zijn om kunstmatig nieuwe kaarten beter te laten lijken dan ze eigenlijk zijn, doordat oudere Nvidia kaarten en AMD kaarten ineens veel minder goed presteren.

Dezelfde beeldkwaliteit kan bereikt worden met een veel lagere performance hit en ook voor oudere kaarten, maar Nvidia steekt daar een stokje voor dankzij de proprietary GameWorks wat basically je GPU sneller doet afschrijven dan zou moeten.
Waarom begin je ineens in het Engels, heeft Nvidia je dat gevraagd om te zien of je je werk wel doet ? :+

Het is toch vrij duidelijk dat Computerbase niet opnieuw test met die identieke resultaten ? Zelfs een benchmark na elkaar draaien op dezelfde opstelling met dezelfde drivers kan nog een kleine variatie in frames geven, wat vaak <5% is.

Acties:
  • 0 Henk 'm!

Verwijderd

Het is natuurlijk niet gek wanneer je een grote vinger in de pap hebt (nvidia) dat deze dan vervolgens developers "overtuigd" om features te gebruiken die minder goed bij de concurent draait. Ik vind het meer schandelijk dat developers hiermee in zee gaan.

Acties:
  • 0 Henk 'm!

  • Xtr3me4me
  • Registratie: Juli 2009
  • Laatst online: 27-08-2024

Xtr3me4me

Saiyajin Godlike Tweaker

Verwijderd schreef op donderdag 05 november 2015 @ 18:23:
Het is natuurlijk niet gek wanneer je een grote vinger in de pap hebt (nvidia) dat deze dan vervolgens developers "overtuigd" om features te gebruiken die minder goed bij de concurent draait. Ik vind het meer schandelijk dat developers hiermee in zee gaan.
Alles draait om geld en als jij een grotere buidel hebt dan is de logica voor een developer niks anders dan logisch om de grotere buidel te pakken.

Immers met deze winsten kunnen developers ook zelf groeien tot mooiere creaties.

-- My Gaming Rig Power -- -- <SG> Diabolic --


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 04:32
Xtr3me4me schreef op donderdag 05 november 2015 @ 19:37:
[...]


Alles draait om geld en als jij een grotere buidel hebt dan is de logica voor een developer niks anders dan logisch om de grotere buidel te pakken.

Immers met deze winsten kunnen developers ook zelf groeien tot mooiere creaties.
Hoeveel geld gaat er volgens jou dan naar developer sponsoring bij Nvidia en bij AMD?
Verwijderd schreef op donderdag 05 november 2015 @ 18:23:
Het is natuurlijk niet gek wanneer je een grote vinger in de pap hebt (nvidia) dat deze dan vervolgens developers "overtuigd" om features te gebruiken die minder goed bij de concurent draait. Ik vind het meer schandelijk dat developers hiermee in zee gaan.
Ik zou dit artikel nog eens lezen dan snap je wellicht wat beter waarom het in het voordeel van de dev is om partner te zijn: http://www.forbes.com/sit...imization-and-watch-dogs/ . Ze komen dus o.a. letterlijk langs om HBAO+ en TXAA te implementeren.

[ Voor 44% gewijzigd door sdk1985 op 05-11-2015 21:00 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Anonymoussaurus
  • Registratie: April 2014
  • Niet online

Anonymoussaurus

Medewerker van Oxygen Updater

Medewerker van Oxygen Updater: discord.gg/5TXdhKJ


Acties:
  • 0 Henk 'm!

Verwijderd

Phuncz schreef op donderdag 05 november 2015 @ 17:27:


Waarom begin je ineens in het Engels, heeft Nvidia je dat gevraagd om te zien of je je werk wel doet ? :+

Het is toch vrij duidelijk dat Computerbase niet opnieuw test met die identieke resultaten ? Zelfs een benchmark na elkaar draaien op dezelfde opstelling met dezelfde drivers kan nog een kleine variatie in frames geven, wat vaak <5% is.
Het ging meer om de verzonnen speculatie dat Nvidia zijn eigen kaarten kreupel maken via de drivers voor een nieuwere serie, wat dus niet zo is blijkt uit de tests van Computer Base door de maanden heen. Ik heb het zelf niet gemaakt komt uit het Nvidia topic van 3dguru en dit ga verder niet om Gameworks.
Verwijderd schreef op donderdag 05 november 2015 @ 18:23:
Het is natuurlijk niet gek wanneer je een grote vinger in de pap hebt (nvidia) dat deze dan vervolgens developers "overtuigd" om features te gebruiken die minder goed bij de concurent draait. Ik vind het meer schandelijk dat developers hiermee in zee gaan.
Maar als we het dan toch over gameworks hebben die bepaalde zware features voor AMD en Nvidia roet in het eten gooit, waarom passen gameontwikkelaars niet gelijk die features aan zodat het ook beter op AMD en Nvidia kan draaien, is dat luiheid waar veel game ontwikkelaars bekend om staan of de zak met geld van Nvidia waar geen feiten van zijn te vinden. En waarom past CDproject red wel de boel aan zodat het beter draait op AMD zoals hairworks tessellation AA van 16x naar 8x keer want nu ook aan te passen is naar 2x tessellation AA.

[ Voor 55% gewijzigd door Verwijderd op 06-11-2015 11:20 ]


Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Was te verwachten. Marktaandeel is flink groter dan AMD, en mensen moeten toch ergens de nieuwe GPU kopen. Ik zou er ook niet versteld van staan als steeds meer mensen switchen van console naar PC.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

Verwijderd

sdk1985 schreef op donderdag 05 november 2015 @ 20:56:
[...]

Hoeveel geld gaat er volgens jou dan naar developer sponsoring bij Nvidia en bij AMD?

[...]

Ik zou dit artikel nog eens lezen dan snap je wellicht wat beter waarom het in het voordeel van de dev is om partner te zijn: http://www.forbes.com/sit...imization-and-watch-dogs/ . Ze komen dus o.a. letterlijk langs om HBAO+ en TXAA te implementeren.
dat snap ik wel, maar als je als developer weet dat door zoiets een deel van je klanten (de mensen met een AMD kaart) benadeeld worden waarom zou je dat dan doen ? Je wilt toch juist dat alle (potentiele) klanten je product optimaal kunnen ervaren ?

Acties:
  • 0 Henk 'm!

Verwijderd

Trouwens HBAO+ en TXAA werk helemaal niet slechter op AMD.
Het enige wat slecht werkt is die tessellation en na mijn idee is dat echt het enige uit gameworks wat slecht op AMD draait. De rest is altijd maar dom zeuren over Gameworks

Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
niemand neemt TXAA toch serieus echter?

Acties:
  • 0 Henk 'm!

Verwijderd

In sommige games zoals GTA5 op zich wel maar zoals in Crysis 3 heeft het helemaal geen toegevoegde waarde en ik vermoed dat het komt door meerdere effecten die met TXAA samenwerken, effecten die weer niet in Crysis 3 zijn meegenomen en wel weer in GTA 5.

[ Voor 5% gewijzigd door Verwijderd op 06-11-2015 14:41 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op vrijdag 06 november 2015 @ 13:40:
Trouwens HBAO+ en TXAA werk helemaal niet slechter op AMD.
Het enige wat slecht werkt is die tessellation en na mijn idee is dat echt het enige uit gameworks wat slecht op AMD draait. De rest is altijd maar dom zeuren over Gameworks
Afbeeldingslocatie: http://cdn.overclock.net/c/cf/cf6b236e_add_more_tesselation.jpeg
Stom plaatje gevonden wat dit mooi verwoord :+. Ik denk dat zelfs ik nog beter in paint iets kan tekenen :D.

@tomcatha en Spliffire
Het is wellicht persoonlijke voorkeur maar ik vind TXAA er niet uitzien, je kan beter SMAA pakken waar je minder performance kwijtraakt en wat er beter uitziet.

Acties:
  • 0 Henk 'm!

Verwijderd

Sp3ci3s8472 schreef op vrijdag 06 november 2015 @ 15:02:
[...]


[afbeelding]
Stom plaatje gevonden wat dit mooi verwoord :+. Ik denk dat zelfs ik nog beter in paint iets kan tekenen :D.

@tomcatha en Spliffire
Het is wellicht persoonlijke voorkeur maar ik vind TXAA er niet uitzien, je kan beter SMAA pakken waar je minder performance kwijtraakt en wat er beter uitziet.
Ligt vooral aan de game en combinatie instellingen . zoals in Crysis 3 is het erg lelijk en in GTA 5 voegt het heel wat toe. Wat SMAA dan betreft gaat het niet helemaal op omdat het aan de game ligt.
Wat ik apart vind is dat TXAA in gta5 ook amper extra performance komt en visueel wat toevoegt en in Crysis 3 heel erg veel performance en helemaal niet visueel toe voegt. Ik vermoed dat de techniek verbeterd is maar kan er naast zitten.

[ Voor 24% gewijzigd door Verwijderd op 06-11-2015 15:13 ]


Acties:
  • +1 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-09 07:14

SG

SG surft naar info hardewaren

sdk1985 schreef op woensdag 04 november 2015 @ 18:56:
[...]

Niet innoveert is wellicht te kort door de bocht, dat doen ze natuurlijk nog steeds. Ik doel op het gebruiken van 3 jaar oude tech in de nieuwste line-up. Een GTX 750 achtige kaart zou AMD geen kwaad doen. GCN 1.0 in 2015 was opmerkelijk. De techniek ligt "op de plank".
Die 3 jaar oude tech is nog steed zeer relevant. De fermi en kepler is stuk minder dan GCN 1.0
En GCN 1.1 lijkt mij eerder een achitectuur met mantle in gedachte als API match.
Maxwell 2.0 heeft pas wat features die boven GCN 1.2 uitsteekt maar mist ook nog steeds aardig wat.
Het lijkt eerder wat AMD doet te vroeg innoveren. Lang voordat de software er is lang voor dat de API er is. DX11 is nog steeds relevant de reden dat deze architectuur minder doet en nvidia huidige gen daar betere match voor is.

Te vroeg is ook niet goed het brengt een handicap mee. Meer features hebben ook beperkte meer waarde. Tenzij je het zwaar kan pushen in de markt. En dat is wat nvidia juist agressief doet.

Voor gamer die niet al te vaak wilt upgraden blijft een GCN 1.1 gpu ook met dx12 nog lang relevant. Wel met low settings.
Terwijl nvidia fermi en keple erg mank zijn en maxwell 1 al wat minder.
Dan is maar de vraag of pascal ACE op DX12 parraleliseerbare many core manier in hardware ondersteund. En anders is het gewoon de rauwe power door bigchip en dieshrink dat ze relevant maakt in DX12.

Terwijl AMD met kleinere chips meer rendement uit parraleliseerbare architectuur kan halen, met deze betere match met next gen zwaar parraleliseerbare API.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

Verwijderd

Dit komt uit Nvidia eigen mond, niet domineren maar helemaal hebben? Ach ja AMD heeft de console mark dus waarom ook niet he eerlijk is eerlijk ;w Het is verder wel speculatie want anderen maken het er van zonder het te weten of het ook echt zo is, grappig is het wel hoe goed speculaties werken bij mensen.

Nvidia doesn't want to just dominate the graphics card market, it wants to own it
http://www.pcworld.com/ar...t-it-wants-to-own-it.html

Als ze dan toch gaan speculeren vermoed ik dat het in 2016 anders gaat worden omdat er ook geruchten waren dat AMD aan de meeste games mee ontwikkeld vanwege DirectX 12.

[ Voor 13% gewijzigd door Verwijderd op 08-11-2015 10:47 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:40
SG schreef op zondag 08 november 2015 @ 10:13:
[...]
Terwijl AMD met kleinere chips meer rendement uit parraleliseerbare architectuur kan halen, met deze betere match met next gen zwaar parraleliseerbare API.
kleinere chips?

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 12-09 21:26
Ik kijk even snel op Wikipedia naar "die size:"
  • 390 & 390x (Grenada/Hawaii) > 980 & 970 (GM204)
  • 380 (Antiqua/Tonga) > 960 (GM206)
  • 370 (Trinidad/Curaçao/Pitcairn) < 950 (GM206)
  • Fury & Fury X (Fiji) < 980 Ti & Titan X (GM200) (Ik weet niet of Wikipedia het HBM heeft meegerekend.)
Dus die statement is een hit-and-miss op dit moment.

[ Voor 14% gewijzigd door LongBowNL op 08-11-2015 11:22 . Reden: Codenamen toegevoegd ]


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-09 07:14

SG

SG surft naar info hardewaren

Ja nVidia en hun traditionele godzilla chips zij kunnen met geld smijten naar TMSC om joekels van chips te bakken voor kroon garantie. Met hun kroon prestige obsessie.
AMD heeft die luxe niet dus gaat niet voor de kroon omdat het commercieel niet rendabel is en niet de reserves hebben voor marketing prestige kroon. Dus gewoon groot maar niet al te groot.
Ja dat is tegenwoordig de performance klasse. Sub high-end.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

Verwijderd

AMD is anders de zelfde weg ingeslagen met monster chips om de zelfde redenen waarschijnlijk. Al geeft het maar een beetje extra performance, ik zie daar niet zo het probleem in.

[ Voor 11% gewijzigd door Verwijderd op 08-11-2015 13:12 ]


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:40
Vroeger was het waar, maar momenteel heeft nvidia relatief kleinere chips vergeleken met amd.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • tomcatha
  • Registratie: Oktober 2006
  • Laatst online: 21-05-2022
amd heeft nu meer standard gpgpu ingebakken dan nvidia wat zorgt voor grotere chips echter als je dit vergelijkt met de verschil in performance toen amd nog minder gpgpu deed en dus kleinere chips had dan zou je kunnen stellen dat amd nu efficientier is dan nvidia indertijd.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op zondag 08 november 2015 @ 10:20:
Dit komt uit Nvidia eigen mond, niet domineren maar helemaal hebben? Ach ja AMD heeft de console mark dus waarom ook niet he eerlijk is eerlijk ;w Het is verder wel speculatie want anderen maken het er van zonder het te weten of het ook echt zo is, grappig is het wel hoe goed speculaties werken bij mensen.

Nvidia doesn't want to just dominate the graphics card market, it wants to own it
http://www.pcworld.com/ar...t-it-wants-to-own-it.html

Als ze dan toch gaan speculeren vermoed ik dat het in 2016 anders gaat worden omdat er ook geruchten waren dat AMD aan de meeste games mee ontwikkeld vanwege DirectX 12.
Begint een beetje totalitair te klinken in mijn ogen.
AMD heeft aan de console markt niet genoeg, dat geeft eigenlijk alleen maar omzet. Op een of andere manier snappen de constumenten niet dat een 80/20% verhouding niet gezond is. Mjah zodra de eerste midrange kaarten 500 euro kosten zullen ze wel anders piepen. Indien de prijzen niet gigantish omhoog gaan dan krijg je een situatie waar je ziet dat ze nauwelijks meer inoveren. Zie Intel met wel 10% winst per nieuwe generatie.

Zie het somber in voor de pc gaming markt.

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:40
Sp3ci3s8472 schreef op maandag 09 november 2015 @ 00:42:
Op een of andere manier snappen de constumenten niet dat een 80/20% verhouding niet gezond is.
Iedereen snapt dat prima, maar ik denk niet dat dat voor mensen doorslaggevend zal zijn.

Op een of andere manier heeft nvidia de 970 weten te hypen, en het daarna nog eens overgedaan met de 980Ti, terwijl amd er lang over deed om de fury x uit te brengen.

[ Voor 6% gewijzigd door haarbal op 09-11-2015 16:00 ]

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

haarbal schreef op maandag 09 november 2015 @ 15:59:
Iedereen snapt dat prima, maar ik denk niet dat dat voor mensen doorslaggevend zal zijn.
Als iedereen het snapt, dan weten ze ook dat de gevolgen niet positief zijn. Stel het eerder zo: de gemiddelde consument is ignorant en is ook niet bekwaam om een eigen oordeel te vormen op basis van feiten maar gaat in de meeste gevallen de kudde achterna. Geen probleem, Nvidia heeft tegenwoordig top producten voor een goede prijs. AMD ook. Maar als Nvidia de markt "bezit" zoals ze blijkbaar aspereren, dan mag je de woordjes "top" en "goede" weghalen voor de toekomst.

Kijk naar de mobile games markt, om zo'n mooi resultaat van de kuddegeest te laten zien. De app stores wordt overspoeld met freemium games omdat de gemiddelde persoon niet snapt dat dat geen duurzame oplossing is. Dus in plaats van goede games voor 1, 2 of 5€ heb je nu 99% aan gratis games die ontwikkeld zijn om je IAPs af te dwingen die geen gameplay opleveren, maar je kortstondig de mogelijkheid geven om een game te spelen die draait rond het wederom kopen van IAPs.

Ik gun Nvidia een groter deel van de markt dan AMD als ze goede producten hebben, maar wat de consument nu in de handen werkt is zijn eigen ondergang.

Acties:
  • 0 Henk 'm!

  • ColinZ
  • Registratie: Februari 2010
  • Laatst online: 03-03 13:30
haarbal schreef op maandag 09 november 2015 @ 15:59:
[...]

Iedereen snapt dat prima, maar ik denk niet dat dat voor mensen doorslaggevend zal zijn.

Op een of andere manier heeft nvidia de 970 weten te hypen, en het daarna nog eens overgedaan met de 980Ti, terwijl amd er lang over deed om de fury x uit te brengen.
Nvidia heeft, in tegenstelling tot AMD, de kunst van marketing onder de knie.

Kijk maar eens voor de gein hoe vaak het Nvidia logo voorbij komt bij grote eSport toernooien in Dota 2 en CSGO. eSport is een gigantisch snel groeiende scene waar zowel Intel als Nvidia flinke dollars tegenaan gooien. AMD daarentegen is vrijwel onzichtbaar.

Nee AMD komt met dingen zoals "The Fixer" of hun AMD Red Team fanboy clubje...

[ Voor 11% gewijzigd door ColinZ op 09-11-2015 17:52 ]


Acties:
  • 0 Henk 'm!

Verwijderd

Phuncz schreef op maandag 09 november 2015 @ 17:23:
[...]

Als iedereen het snapt, dan weten ze ook dat de gevolgen niet positief zijn. Stel het eerder zo: de gemiddelde consument is ignorant en is ook niet bekwaam om een eigen oordeel te vormen op basis van feiten maar gaat in de meeste gevallen de kudde achterna. Geen probleem, Nvidia heeft tegenwoordig top producten voor een goede prijs. AMD ook. Maar als Nvidia de markt "bezit" zoals ze blijkbaar aspereren, dan mag je de woordjes "top" en "goede" weghalen voor de toekomst.
Dus als je het wel snapt zou je geen Nvidia kaart moeten kopen bedoel je, maar wat als de kaart sneller is en je wil dat graag hebben omdat je die power nodig bent, ga je dan vanwege dit toch niet een langzamere kaart kopen?

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Lees het opnieuw maar dan zonder te denken dat ik Nvidia haat of AMD fanboy ben, dan zal het wel duidelijker zijn.

[ Voor 15% gewijzigd door Phuncz op 09-11-2015 18:18 ]


Acties:
  • 0 Henk 'm!

  • SG
  • Registratie: Januari 2001
  • Laatst online: 12-09 07:14

SG

SG surft naar info hardewaren

Verwijderd schreef op zondag 08 november 2015 @ 13:10:
AMD is anders de zelfde weg ingeslagen met monster chips om de zelfde redenen waarschijnlijk. Al geeft het maar een beetje extra performance, ik zie daar niet zo het probleem in.
Nou nee, de fury serie GPU zijn ook joekels. Ietje kleiner. Maar ze zijn late nakomertjes. Mogelijk rendabeler geworden door zeer volwassen oude procede waar ze nu zo lang op zitten. En nvidia met wat extra refreshes er ook veel meer heeft uitgehaald. Dan die ouwe tijd waar men al op de volgende dieshrink bezig zou zijn.
Alleen HBM geeft extra complexiteit aan productie bin en yield.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Die conclusie kun je voor nVidia misschien maken, maar voor AMD lijken de resultaten op 28nm toch niet helemaal om over naar huis te schrijven.

Zie bijvoorbeeld de R9 380X die, blijkbaar, 15 november op papier gelanceerd wordt en hopelijk niet lang daarna ook goed beschikbaar is. Enfin, hieruit zou je kunnen stellen dat de yields op het zeer volwassen en oude productie procedé toch ietwat tegen vallen. Immers zou ik geen enkele andere reden kunnen bedenken waarom AMD nu pas met een volledig ingeschakelde Tonga chip op de proppen komt. (met uitzondering van de iMacs die al wat langer met deze chip uitgerust kunnen worden).

Daarnaast zijn AMD chips van de huidige generatie t.o.v. nVidia's huidige generatie relatief veel slechter te OC'en. Dit heeft natuurlijk ook met het ontwerp te maken, maar ik denk dat het productie procedé, en de mate waarin AMD dit beheerst, hierbij zeker geen onschuldige is.

Dat ze nu al sinds de HD7xxxx serie op 28nm zitten betekend niet dat het productie procedé zo een succes is. AMD heeft in mijn ogen 65nm SOI destijds ook niet goed onder de knie gekregen. Soms vallen niet alle puzzelstukjes mooi samen.

Daarnaast zijn de RMA percentages van AMD videokaarten, zeker in relatieve zin, hoger dan bij nVidia. Ook dit zou ten gevolge kunnen zijn van de niet zo geweldige yields en dus dat sommige initieel goed functionerende chips terugkomen.

Hoe dan ook, door het uitblijven van geavanceerdere productie procedés staat het in videokaartenland al tijden zo goed als stil. nVidia heeft nog een mooie klapper gemaakt met Maxwell, zeker m.b.t. efficiëntie/verbruik.

Acties:
  • 0 Henk 'm!

  • Blaat
  • Registratie: September 2007
  • Laatst online: 11-09 15:01

Blaat

Moderator Harde Waren / BBG'er

Hardware Fanaat

madmaxnl schreef op dinsdag 10 november 2015 @ 07:20:
[...]

Daarnaast zijn AMD chips van de huidige generatie t.o.v. nVidia's huidige generatie relatief veel slechter te OC'en. Dit heeft natuurlijk ook met het ontwerp te maken, maar ik denk dat het productie procedé, en de mate waarin AMD dit beheerst, hierbij zeker geen onschuldige is.
[...]
Slechts deels correct. De Fury laat zich prima overclocken, maar je hebt er wel LN2 en een kernreactor voor nodig.

Het punt wat je probeert te maken klopt natuurlijk wel. Als ze het productieproces beter onder de knie hadden gehad had de OC-baarheid op lucht natuurlijk veel beter geweest.

Mijn naam is rood, mijn text is blauw. Jouw post wordt ge-edit, als je niet stopt met dat gemauw.


Acties:
  • +1 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:40
madmaxnl schreef op dinsdag 10 november 2015 @ 07:20:
Daarnaast zijn de RMA percentages van AMD videokaarten, zeker in relatieve zin, hoger dan bij nVidia. Ook dit zou ten gevolge kunnen zijn van de niet zo geweldige yields en dus dat sommige initieel goed functionerende chips terugkomen.
Kan ook door mining komen.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Racing_Reporter
  • Registratie: Januari 2012
  • Laatst online: 07-09 19:15

Racing_Reporter

Contentmaker

haarbal schreef op dinsdag 10 november 2015 @ 12:04:
[...]

Kan ook door mining komen.
Goed punt. Vooral langdurige belasting bij hoge temperaturen of grote temperatuurschommelingen kunnen zorgen voor defecten.

Als je dit leest, heb je teveel tijd.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

Die monsterchips van AMD komen dacht ook vooral doordat ze veel minder inleveren op FP64 performance en andere GPGPU computing dingen (Async Compute enzovoort).
Dit zal waarschijnlijk ook meespelen met overclockbaarheid.

Om het weer wat ontopic te brengen:

NVIDIA Announces Tesla M40 & M4 Server Cards - Data Center Machine Learning

Slowly but steadily NVIDIA has been rotating in Maxwell GPUs into the company’s lineup of Tesla server cards. Though Maxwell is not well-suited towards the kind of high precision HPC work that the Tesla lineup was originally crafted for, Maxwell is plenty suitable for just about every other server use NVIDIA can think of. And as a result the company has been launching what’s best described as new breeds of Maxwell cards in the last few months.
Overigens zie je toevallig in dit artikel ook een mooi tabelletje met FP64 performance, die in dit geval 1/32 van de FP32 performance is.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:42

XanderDrake

Build the future!

Toch wel typisch. Het hele DX12 verhaal wordt echt op het scherpst van de snede bediscussieerd, als ik de frontpage mag geloven heeft nvidia toch zeker de mensenrechten geschonden met zijn vreselijke implementatie van DX12. Alles op basis van één benchmark van één spel dat nog in de alpha fase zit.

Nu, er komt eindelijk weer eens een leuk PC spel uit, Fallout 4. Wat blijkt, volledig DX11, volledig home field advantage voor nvidia, bijv. gtx 960 die het wint van een R9 380 4Gb met maar de helft van het aantal shaders, vRAM, bandbreedte en veel lager TDP. Ook de Gtx 970 wint van de R9 Fury, een kaart die 200€+ meer kost en nog steeds niet goed beschikbaar is. En dat terwijl de Gtx 970 maar 3.5gb heeft !!1!!!ein1ein!

Bron: guru3d en pcgameshardware.de

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • +2 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Je snapt hopelijk wel dat jij nu precies hetzelfde doet? Een conclusie verbinden aan één game in plaats van een gemiddelde.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

  • marcop82
  • Registratie: Maart 2013
  • Niet online
Fallout 4 is toch een GameWorks spel ? Is er al een GameWorks spel geweest dat correct presteert op AMD tov. niet-Nvidia gesponsorde of geoptimaliseerde spellen?

[ Voor 3% gewijzigd door marcop82 op 13-11-2015 09:39 ]


Acties:
  • +1 Henk 'm!

Verwijderd

marcop82 schreef op vrijdag 13 november 2015 @ 09:39:
Fallout 4 is toch een GameWorks spel ? Is er al een GameWorks spel geweest dat correct presteert op AMD tov. niet-Nvidia gesponsorde of geoptimaliseerde spellen?
Ja en ja, maar dan alleen je niets exclusieve instellingen gebruikt met te veel Tessellation, AMD mist daar hardware voor net zoals Nvidia hardware mist voor DX12 features zoals Ace's die AMD wel weer heeft.
Ik hoop dat hier door niet weer de eeuwig durende discussie uit voort komt die al 1000 jaar hier op tweakers over het zelfde gaat en waar niemand het ooit eens over word omdat er weinig feiten en veel onderbuik gevoelens over bepaalde zaken waar weer nep feiten door gemaakt worden.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:42

XanderDrake

Build the future!

Het is vooral mijn punt dat DX12 implementaties erg leuk zijn, maar als het uiteindelijk op games uitkomt die veel mensen spelen, zitten we zeker nog een lange tijd op DX11. Niet genoeg mensen nemen dat mee in overwegingen. Ik zie het zo gebeuren dat zodra de grote games uitkomen op DX12 we ook meteen een scala aan nvidia pascal en AMD Greenland gpus hebben om uit te kiezen.

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

  • -The_Mask-
  • Registratie: November 2007
  • Niet online
Er zijn genoeg mensen, de meesten zelf, welke wel wat jaren met een videokaart willen werken en in die tijd komen er genoeg DX12 games. In de toekomst worden games ook weer zwaarder, dus een kaart welke waarschijnlijk meer prestaties levert in de toekomst is dan niet zo'n vreemde keuze. Dan heb je nu wel wat mindere prestaties, maar altijd nog meer dan genoeg om een game op high te spelen. Oftewel je hebt een langer verwachte economische levensduur, prima reden toch?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


Acties:
  • 0 Henk 'm!

Verwijderd

Allemaal speculatie voor in de toekomst wat ook totaal anders eruit kan gaan zien. Koffiedik kijken heet dat want het kan zo maar heel anders gaan uitpakken. Ik geloof best wel een future proof maar dan tot max 3 jaar.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:42

XanderDrake

Build the future!

-The_Mask- schreef op vrijdag 13 november 2015 @ 10:22:
Er zijn genoeg mensen, de meesten zelf, welke wel wat jaren met een videokaart willen werken en in die tijd komen er genoeg DX12 games. In de toekomst worden games ook weer zwaarder, dus een kaart welke waarschijnlijk meer prestaties levert in de toekomst is dan niet zo'n vreemde keuze. Dan heb je nu wel wat mindere prestaties, maar altijd nog meer dan genoeg om een game op high te spelen. Oftewel je hebt een langer verwachte economische levensduur, prima reden toch?
Is het een goede trade off om een nieuwe videokaart met Dx12 te kopen die nu niet als beste presteert terwijl je niet echt zeker weet hoe goed en compleet Dx12 zal worden geïmplementeerd bij je favoriete games over pakweg een jaar?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 09-09 21:58
XanderDrake schreef op vrijdag 13 november 2015 @ 09:25:
Toch wel typisch. Het hele DX12 verhaal wordt echt op het scherpst van de snede bediscussieerd, als ik de frontpage mag geloven heeft nvidia toch zeker de mensenrechten geschonden met zijn vreselijke implementatie van DX12. Alles op basis van één benchmark van één spel dat nog in de alpha fase zit.

Nu, er komt eindelijk weer eens een leuk PC spel uit, Fallout 4. Wat blijkt, volledig DX11, volledig home field advantage voor nvidia, bijv. gtx 960 die het wint van een R9 380 4Gb met maar de helft van het aantal shaders, vRAM, bandbreedte en veel lager TDP. Ook de Gtx 970 wint van de R9 Fury, een kaart die 200€+ meer kost en nog steeds niet goed beschikbaar is. En dat terwijl de Gtx 970 maar 3.5gb heeft !!1!!!ein1ein!

Bron: guru3d en pcgameshardware.de
FO4 is een gigantisch stuk stront. Het spel zit technisch dusdanig slecht in elkaar dat je helemaal niets kunt zeggen over performance. Leuk dat Nvidia het beter doet. Enige wat dat zegt is dat die ene programmeur die Bethesda heeft ingezet een Nvidia GPU heeft.

Los daarvan staat GameWorks altijd aan tenzij je op "low" speelt, je moet de config files in duiken om specifiek die opties uit te zetten (red flag #1). Een aantal van die opties hebben een "Nv" prefix; een "Amd" prefix zul je niet vinden (red flag #2). Als je dat eenmaal doet krijg je bij beide fabrikanten aardig wat FPS er bij (zie ook PCGH). En wonder boven wonder, het gat tussen AMD en Nvidia wordt ook flink kleiner (red flag #3); bij PCGH ligt de 390X in plaats van 30% ineens nog maar 20% achter op de 980. Het spel is ook CPU-bottlenecked op alle resoluties, met alle CPU's (red flag #4). Daar heeft AMD natuurlijk last van, gezien hun brakke DX11 overhead. Het wordt echter nog leuker, want de hele engine is nog steeds aan framerate gekoppeld (je zou toch denken dat ze inmiddels wel door hadden dat we in de 21e eeuw zitten), dus alles wordt sneller naar mate je FPS hoger is. Red fl...wacht, een vlag is niet genoeg, rood alarm is meer op z'n plaats.

Als ik het dan vergelijk met The Witcher 3 of GTA 5 (om maar even bij de open world games te blijven) draait het niet alleen ruk, het ziet er ook nog eens belabberd uit. Die graphics zouden op een 980 zonder problemen ruim boven de 100 FPS moet komen.

AMD heeft ook duidelijk geen kans gehad om ook maar iets te optimaliseren voor het spel, aangezien V-Sync niet eens via de driver te forceren valt. Niet dat ik daar van op kijk, Bethesda staat nu niet bepaald bekend om hun geweldige QA.

Mijn punt is echter dat dit geen reet met DX11 of DX12 heeft te maken maar dat Bethesda nog steeds bestaat uit een stel incapabele apen. En helaas zijn ze met Nvidia in zee gegaan, waardoor het hele verhaal nog veel irritanter wordt.

Acties:
  • 0 Henk 'm!

  • XanderDrake
  • Registratie: November 2004
  • Laatst online: 22:42

XanderDrake

Build the future!

Bethesda staat niet bekend om hun soepel lopende, goed geprogrammeerde games nee. Maar daarvoor ga je het niet spelen!

Daarbij, waarschijnlijk is het een halve port, terwijl de console gpus allemaal AMD zijn. Is dit omdat omdat DX er tussen zit?

Hephaestus: Xeon 2680 v2 - 64GB ECC Quad - WD Blue 3D 1TB
Virtualis: Ryzen 3700X - 16GB DDR4 - Gigabyte 1080 Ti OC - Sandisk 2TB - Valve Index
Agon:Valve Steam Deck 64GB
Non scholae sed vitae discimus Seneca


Acties:
  • 0 Henk 'm!

Verwijderd

Nauw nauw nauw wat een taal, het mag er dan als piep uitzien het is best een goede game waarbij de performance aardig gelijk ligt, duidelijk geen echte gamerd :). Tja het is nog wel duidelijk de oude engine ook met een dx 11 update maar ja we hebben niet allemaal het budget van Unreal en Crytech die gesponsord word door de staat voor oorlog tuig.

Ik heb zelf ongeveer 60 fps de hele tijd met af en toe een haperingetje zoals met meer games het geval is. Bij The Witcher 3 moet je gewoon vooraf gerendeerde frames gebruiken wil je geen stutters krijgen om de 3-4 seconden.

[ Voor 29% gewijzigd door Verwijderd op 13-11-2015 14:06 ]


Acties:
  • 0 Henk 'm!

  • Zeara
  • Registratie: Juni 2009
  • Laatst online: 22:47
Verwijderd schreef op vrijdag 13 november 2015 @ 14:01:
Tja het is nog wel duidelijk de oude engine ook met een dx 11 update maar ja we hebben niet allemaal het budget van Unreal en Crytech die gesponsord word door de staat voor oorlog tuig.
Want Bethesda/Zenimax heeft zelf totaal geen geld om een oude engine te optimaliseren....

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 08:40
Ze hebben op zich wel aan die engine zitten sleutelen, want hij gebruikt nu in ieder geval veel cores en dx11.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

Verwijderd

Misschien eens tijd nemen om de hele engine overnieuw te schrijven en dan hopen dat de programmeurs goed genoeg zijn om engines als Unreal of Cry engine te kunnen namaken. De game zelf is in ieder geval weer een game waar ik volop in word meegezogen iets wat graphics niet kunnen waarmaken want daar draait het totaal niet om, en de authentieke look past juist bij dit deel van Fallout.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 23:36

Sp3ci3s8472

@ 12 graden...

Verwijderd schreef op vrijdag 13 november 2015 @ 14:28:
Misschien eens tijd nemen om de hele engine overnieuw te schrijven en dan hopen dat de programmeurs goed genoeg zijn om engines als Unreal of Cry engine te kunnen namaken. De game zelf is in ieder geval weer een game waar ik volop in word meegezogen iets wat graphics niet kunnen waarmaken want daar draait het totaal niet om, en de authentieke look past juist bij dit deel van Fallout.
Dat zou een hele goede zijn die engine is gewoon zo(oooo) zwaar veroudert. Ook qua physics kan het niet mee komen als je het mij vraagt. Het terrein is volgens mij nog steeds gegenereerd met een heighmap (een texture) en als je aan het lopen en springen bent dan hebt je altijd het gevoel alsof je aan de grond bent vastgeplakt en eroverheen schuift.

Bij Skyrim zag je het al, het spel was gigantisch cpu limited. Pas als je ENB presets gaat gebruiken dan pas gaat de gpu wat uitvoeren.

Een spel zoals Fallout 4 speel niet je persé voor de graphics, maar het ziet er echt lelijk uit voor de performance die je er in moet stoppen. Het is qua graphics niet te vergelijken met andere spellen die de laatste 5 jaar zijn uitgekomen. Zelfs Crysis wat tig jaar geleden is gemaakt ziet er veel beter uit.
Het lijkt wel alsof ze het spel hebben uitgebracht met de gedachte "Oh de modders fixen de slechte graphics wel".

Ik kan ergens wel begrijpen dat een nieuwe engine eng is omdat je de meeste code opnieuw moet schrijven, maar in het geval van Bethesda is dit gewoon echt nodig.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 04:32
Werelds schreef op vrijdag 13 november 2015 @ 13:35:
. Enige wat dat zegt is dat die ene programmeur die Bethesda heeft ingezet een Nvidia GPU heeft.
Nvidia heeft tijdens de gameworks discussie aangegeven dat ze daadwerkelijk een aantal engineers langs sturen om te helpen met het implementeren van grafische effecten. Dat lijkt mij de meest logische verklaring ;).
It’s apparently not uncommon for Nvidia engineers to go on-site for a week or two while the game is being developed (in this case Ubisoft’s Montreal studios) to help them integrate features like HBAO+ and TXAA. “We’ll usually do that early,” says Cebenoyan. “For Watch Dogs we did that last year.”

Nvidia’s level of support also encompasses conference calls, working on game builds as they progress, and providing advice to their engineers to ensure the game runs as well as possible on PC.

“We try to make sure every game runs really well on PC and our hardware,” Cebenoyan added. “So we’ll provide advice to game developers regardless of if there’s any GameWorks stuff going on.;
Als we even de gekleurde bril afzetten dan is het positief dat Nvidia de moeite neemt. AMD moet gewoon hetzelfde doen. AMD moet nu weer achteraf aan de bak. De game is uit, de benchmarks zijn gedraaid en de mening is gevormd. Tijdig samenwerken scheelt een hoop PR gezeur achteraf...

[ Voor 87% gewijzigd door sdk1985 op 13-11-2015 15:47 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Verwijderd

sdk1985 schreef op vrijdag 13 november 2015 @ 15:39:
[...]

Nvidia heeft tijdens de gameworks discussie aangegeven dat ze daadwerkelijk een aantal engineers langs sturen om te helpen met het implementeren van grafische effecten. Dat lijkt mij de meest logische verklaring ;).


[...]

Als we even de gekleurde bril afzetten dan is het positief dat Nvidia de moeite neemt. AMD moet gewoon hetzelfde doen. AMD moet nu weer achteraf aan de bak. De game is uit, de benchmarks zijn gedraaid en de mening is gevormd. Tijdig samenwerken scheelt een hoop PR gezeur achteraf...
zie je het al voor je ? een AMD engineer en een Nvidia engineer samen in dezelfde ruimte aand dezelfde engine/game werken ? never gonna happen. Zodra een een game een gameworks titel wordt (gesponsord) dan houd dit in dat de concurentie niet meer in de buurt mag komen.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 04:32
Verwijderd schreef op vrijdag 13 november 2015 @ 16:24:
[...]


zie je het al voor je ? een AMD engineer en een Nvidia engineer samen in dezelfde ruimte aand dezelfde engine/game werken ? never gonna happen. Zodra een een game een gameworks titel wordt (gesponsord) dan houd dit in dat de concurentie niet meer in de buurt mag komen.
Dat is echt onzin... Het is niet alsof die engineers 1.5 jaar on-site zijn, dat zou veel te duur worden. Het tweede deel is ook gewoon uit je duim gezogen. Meest recent heeft de dev van Ashes of Singularity nog aangeven zeer nauw te hebben samengewerkt met Nvidia. Op die site staat letterlijk AMD onderin ;).
Certainly I could see how one might see that we are working closer with one hardware vendor then the other, but the numbers don't really bare that out. Since we've started, I think we've had about 3 site visits from NVidia, 3 from AMD, and 2 from Intel ( and 0 from Microsoft, but they never come visit anyone ;(). Nvidia was actually a far more active collaborator over the summer then AMD was, If you judged from email traffic and code-checkins, you'd draw the conclusion we were working closer with Nvidia rather than AMD

As you've pointed out, there does exist a marketing agreement between Stardock (our publisher) for Ashes with AMD. But this is typical of almost every major PC game I've ever worked on (Civ 5 had a marketing agreement with NVidia, for example). Without getting into the specifics, I believe the primary goal of AMD is to promote D3D12 titles as they have also lined up a few other D3D12 games.
AMD ligt gewoon al jaren te slapen op gebied van ondersteuning. Het kan en moet pro-actiever. Dus meer games, meer site visits, meer code-checkins, enz.

[ Voor 53% gewijzigd door sdk1985 op 13-11-2015 16:59 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.

Pagina: 1 ... 11 ... 136 Laatste

Let op:
Dit topic is bedoeld om de nieuwste ontwikkelingen op het gebied van nVidia GPU's te bespreken. Dit topic is dus uitdrukkelijk niet bedoeld voor persoonlijk aankoopadvies of troubleshooting!

Voor discussies over de nieuwste serie, klik aub door naar [NVIDIA GeForce RTX 40XX] Levertijden & Prijzen zodat dit topic over nieuws blijft gaan.

Zware videokaarten trekken een zware last op de voeding van een PC. Dit is niet de plek voor discussies over voedingen, dat kan in Voeding advies en informatie topic - Deel 34 - en lees daar sowieso de topicstart voordat je post, grote kans dat je vraag al behandeld is.