CJ's AMD Radeon Info & Nieuwsdiscussietopic - Deel 132 Vorige deel Overzicht Volgende deel Laatste deel

Dit topic is onderdeel van een reeks. Ga naar het meest recente topic in deze reeks.

Pagina: 1 ... 9 10 Laatste
Acties:
  • 48.213 views

Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 09:22

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®


Acties:
  • 0 Henk 'm!

  • MarvinJames
  • Registratie: November 2001
  • Laatst online: 23-04 00:29

MarvinJames

Theatermaker

Nou die rivaliteit tussen Nvidia en AMD (of ATI destijds geloof ik) is natuurlijk niets nieuws, dat begrijp ik wel.

Het voelt nu echter aan alsof allebei partijen een andere richting op willen gaan. Ik ben dan ook benieuwd of we in de toekomst steeds meer verschillen in prestaties tussen de twee gaan zien in games, afhankelijk voor welk van de twee de game is geoptimaliseerd.
Recent voorbeeld hiervan is The Witcher 3 die met een Nvidia gpu gewoon een stuk beter presteert.

Als die effecten bij toekomstige games nog verder toe gaan nemen dan lijkt me dat een zeer ongelukkige ontwikkeling. Dat zal er voor zorgen dat Nvidia danwel AMD zal omvallen of dat er echt een splitsing ontstaat. Waarschijnlijk zal het dat eerste zijn en dan vermoed ik dat AMD het onderspit zal delven omdat ze nu al flink achterlopen.

Acties:
  • 0 Henk 'm!

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Tsux schreef op woensdag 09 december 2015 @ 11:16:
Nou die rivaliteit tussen Nvidia en AMD (of ATI destijds geloof ik) is natuurlijk niets nieuws, dat begrijp ik wel.

Het voelt nu echter aan alsof allebei partijen een andere richting op willen gaan. Ik ben dan ook benieuwd of we in de toekomst steeds meer verschillen in prestaties tussen de twee gaan zien in games, afhankelijk voor welk van de twee de game is geoptimaliseerd.
Recent voorbeeld hiervan is The Witcher 3 die met een Nvidia gpu gewoon een stuk beter presteert.

Als die effecten bij toekomstige games nog verder toe gaan nemen dan lijkt me dat een zeer ongelukkige ontwikkeling. Dat zal er voor zorgen dat Nvidia danwel AMD zal omvallen of dat er echt een splitsing ontstaat. Waarschijnlijk zal het dat eerste zijn en dan vermoed ik dat AMD het onderspit zal delven omdat ze nu al flink achterlopen.
Dan zet je Hairworks uit en heb je alsnog een prima game.

Die hele "wig" wordt ver overtrokken. Op een PC heb je toch juist de keuze, twee klikjes in de settings en je kunt door.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:33
Tsux schreef op woensdag 09 december 2015 @ 09:45:
Merci, heb e.e.a. doorgelezen. Wel vervelend dat die wig tussen AMD en Nvidia groter lijkt te worden... Ik hoop toch niet dat we later AMD of Nvidia exclusive games gaan krijgen... Dat zou echt heel slecht zijn voor PC gaming.
Intel heeft nog altijd het grootste marktaandeel (ook bij de videokaarten) dus dat zal wel mee vallen :). Het is ook niet zo dat de games onspeelbaar zijn op andere kaarten. In het geval van The Witcher heb je 3 keuzes:
  1. Je koopt een Nvidia kaart
  2. Je verlaagt details (hairworks etc)
  3. Je accepteert een lagere frame rate
Zoals ik wel vaker heb aangeven kan AMD punt 3 compenseren door de kaarten die zij op een bepaalt prijspunt aanbieden gewoon wat sneller te maken. Of ze dat kunnen in de huidige situatie (laag R&D budget en lage marges) is echter twijfelachtig. Nvidia heeft in ieder geval nog flink wat ruimte om de prijzen te verlagen.

[ Voor 3% gewijzigd door sdk1985 op 09-12-2015 15:27 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Of als klant die aan zijn toekomst denkt:
  1. Geen games met GameWorks of dubieuze optimalisaties te kopen
  2. Systeem-verkreupelende "features" uitschakelen
  3. Een grafische kaart te kopen naar zijn prijs/prestatie ipv. "auto-buy merk X of Y"
Waarom mijn afkeer voor GameWorks ? Zullen we eens naar de drie recentste, grootste drollen (die men als game verkocht) kijken:
- Watch Dogs --> GameWorks
- Assassin's Creed Unity --> GameWorks
- Batman: Arkham Knight --> GameWorks

Alle drie deze games hadden GameWorks technieken die op alles behalve Maxwell 2 slecht liepen, om de extreem slechte staat van alle drie de games bij launch nog maar te zwijgen. Gelukkig is het niet altijd zo extreem, bv. GTA V heeft ook een paar GameWorks features die uit kunnen. Daar draait het spel "slechts" minder goed op AMD door de GameWorks clausule die inkijk van concurrenten verbiedt, belangrijk voor optimalisatie.

Acties:
  • 0 Henk 'm!

  • MarvinJames
  • Registratie: November 2001
  • Laatst online: 23-04 00:29

MarvinJames

Theatermaker

Phuncz schreef op woensdag 09 december 2015 @ 18:37:
Of als klant die aan zijn toekomst denkt:

[...]
Bijna alleen daarom zou ik al AMD kopen. ;)

Mijn oog is al lang gevallen op de R9 380. Simpelweg omdat deze mijns inziens de beste prijs-kwaliteitverhouding levert. Overigens wil ik nog even afwachten met de aanschaf of de R9 380X de prijs van de "normale" 380 iets naar beneden gaat drukken.

En inderdaad... Wat een drama games noem je daar op... |:(

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17:36
Maar the witcher 3 heeft ook gameworks, en dat is de game van het jaar.

Ik vind het vooral jammer dat de verhouding van marktaandeel nu zo enorm scheef is in nvidia's voordeel, terwijl amd toch een iets betere price/perfomance biedt. Ze trekken wat meer stroom, maar de meeste mensen hebben toch een overkill psu.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

GOTY zegt maar weinig in welke mate ermee rondstrooit. Vaak worden deze ook aan multi-platform games uitgedeeld. The Witcher 3 heeft ook genoeg issues met performance-vernielende GameWorks features, wederom kan AMD er dan enkel oppervlakkig optimaliseren.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
De vraag is ook, Game of the Year van welke organisatie? Er zijn elk jaar tal van 'Goty's' doordat verschillende organisaties hun eigen keuze's maken.

Wikipedia: List of Game of the Year awards

[ Voor 28% gewijzigd door dahakon op 09-12-2015 22:19 ]


Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 22-04 21:18
Phuncz schreef op woensdag 09 december 2015 @ 18:37:
Of als klant die aan zijn toekomst denkt:
  1. Geen games met GameWorks of dubieuze optimalisaties te kopen
  2. Systeem-verkreupelende "features" uitschakelen
  3. Een grafische kaart te kopen naar zijn prijs/prestatie ipv. "auto-buy merk X of Y"
Waarom mijn afkeer voor GameWorks ? Zullen we eens naar de drie recentste, grootste drollen (die men als game verkocht) kijken:
- Watch Dogs --> GameWorks
- Assassin's Creed Unity --> GameWorks
- Batman: Arkham Knight --> GameWorks

Alle drie deze games hadden GameWorks technieken die op alles behalve Maxwell 2 slecht liepen, om de extreem slechte staat van alle drie de games bij launch nog maar te zwijgen. Gelukkig is het niet altijd zo extreem, bv. GTA V heeft ook een paar GameWorks features die uit kunnen. Daar draait het spel "slechts" minder goed op AMD door de GameWorks clausule die inkijk van concurrenten verbiedt, belangrijk voor optimalisatie.
Je kan het beter de devs kwalijk nemen zij willen GameWorks gebruiken voor water vuur haar destruction etc etc zonder er zelf iets voor te hoeven doen zo uit de 'black' box.
Watchdogs draait net zo goed op de R9 290X als op de GTX780TI meeste gameworks spul kon je ook uit zetten (ik heb zelf nog nooit zo'n k-spel gespeeld)
Assassins creed met gelijke settings draait de R9 390 1.6fps sneller dan de GTX 970.

''Nvidia's GameWorks and QA teams are helping fix Batman: Arkham Knight''

Tom Petersen, a "distinguished engineer" at Nvidia, told MMORPG.com that its GameWorks and QA teams are "fixing a ton of things, that are not necessarily related to us."
"They made a few mistakes in getting the game out, it wasn't fully performance-optimized for PC. So now we're deploying our QA resources and our engineers to make that game as good as it can possibly be," Petersen said. "

Nvidia heeft resources om ontwikkelaars werk uit handen te nemen en ontwikkelaars maken daar gebruik van het is zo simpel en je hebt ook zo iets als return of investment, het kan dat de optimalisatie die zij moeten uitvoeren voor de 20% AMD kaart gebruikers zich niet terug verdiend, en zelfs kan het zo zijn dat PC ontwikkelaars het liefst AMD helemaal links zouden willen laten liggen.

Ik vind het ook lijken of AMD zelf een beetje schijt aan zijn users heeft gekregen waar de HD7970 en de R9 290X rond de €450-500 waren bij launch en snel naar de €400-ish gingen en de HD7950 en
R9 290 rond de €350. Nu is de high end €560 en €690. 8)

Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17:36
Nature schreef op woensdag 09 december 2015 @ 22:50:
[...]
Ik vind het ook lijken of AMD zelf een beetje schijt aan zijn users heeft gekregen waar de HD7970 en de R9 290X rond de €450-500 waren bij launch en snel naar de €400-ish gingen en de HD7950 en
R9 290 rond de €350. Nu is de high end €560 en €690. 8)
Is de dollarkoers.

Maar goed, met deze prijzen wacht ik ook liever de schrink naar 16nm af.

Mechwarrior Online: Flapdrol


Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 22-04 21:18
haarbal schreef op woensdag 09 december 2015 @ 22:52:
[...]

Is de dollarkoers.

Maar goed, met deze prijzen wacht ik ook liever de schrink naar 16nm af.
Daar ligt het niet aan, de adviesprijs bij launch v/d R9 290X was $550 en R9 290 $400 en de adviesprijs v/d Fury (non X) is €550 en de Fury X €650.
De GTX 980 TI heeft dezelfde adviesprijs als de GTX 780 TI had namelijk $650. AMD heeft gewoon flink de prijs verhoogd, met de pricewatch heb je eigenlijk nooit meer dan €500 hoeven te betalen voor de R9 290x en binnen een jaar zat hij rond de €400

Anoniem: 59888

Nature schreef op woensdag 09 december 2015 @ 22:50:
[...]


het kan dat de optimalisatie die zij moeten uitvoeren voor de 20% AMD kaart gebruikers zich niet terug verdiend, en zelfs kan het zo zijn dat PC ontwikkelaars het liefst AMD helemaal links zouden willen laten liggen.
Het kan ook zo zijn dat morgen alle varkens ineens kunnen vliegen...
Wat je hier neerpent is volledig uit de lucht gegrepen speculatie. Het is nog steeds zo dat niemand GPU accelerated PhysX wil gebruiken omdat het niet op AMD kaarten draait. Geen enkele uitgever gaat zomaar een derde van de markt negeren, om het maar helemaal niet te hebben over de negatieve publiciteit die dat op zou leveren.

Nvidia speelt met gameworks hetzelfde spelletje als ze altijd gedaan hebben. Met een flinke zak geld uitgevers overhalen derde-rangs technologie in te bouwen die niet op AMD kaarten draait om zo te proberen AMD uit de markt te drukken. En dat terwijl er vrijwel altijd alternatieven zijn die ook op AMD kaarten werken en op Nvidia kaarten betere resultaten geven. Zijn die er niet dan is zelfs een flinke zak geld niet genoeg. Ik noemde GPU-accelerated PhysX al, geen hond die dat gebruikt.
Nature schreef op woensdag 09 december 2015 @ 22:50:
[...]

Ik vind het ook lijken of AMD zelf een beetje schijt aan zijn users heeft gekregen waar de HD7970 en de R9 290X rond de €450-500 waren bij launch en snel naar de €400-ish gingen en de HD7950 en
R9 290 rond de €350. Nu is de high end €560 en €690. 8)
De prijzen stijgen bij beide fabrikanten al jaren, dat heeft niets met 'schijt aan zijn users hebben' te maken. In 2008 kocht ik een HD4870 (toen high-end) voor 230 euro, daar koop je nu amper nog een mainstream kaart voor. Jammer voor de consument, maar die prijzen zijn gewoon niet haalbaar meer.

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-04 19:12

Sp3ci3s8472

@ 12 graden...

Om nog terug te komen op het nieuws van een pagina terug.

Op het moment al dubbel zo veel Freesync monitors als Gsync monitors, met zo meteen de toevoeging van Freesync via HDMI (1.4a en 2.0) zal dat alleen maar meer worden. Filmpje met wat meer uitleg, let op is natuurlijk reclame voor AMD :+.


Ander leuk nieuws is dat zo meteen HDR een feit wordt voor beeldschermen. Wat het filmpje op het AMD youtube kanaal niet goed weet uit te leggen helaas 8)7. Dit is dus niet precies hetzelfde als de HDR wat we nu in spellen hebben. Zover ik het begrijp is dit dus de mogelijkheid om HDR weer te geven op het beeldscherm in plaats van het na te bootsen in een spel.

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:33
Phuncz schreef op woensdag 09 december 2015 @ 18:37:
Of als klant die aan zijn toekomst denkt:
  1. Geen games met GameWorks of dubieuze optimalisaties te kopen
  2. Systeem-verkreupelende "features" uitschakelen
  3. Een grafische kaart te kopen naar zijn prijs/prestatie ipv. "auto-buy merk X of Y"
Waarom mijn afkeer voor GameWorks ? Zullen we eens naar de drie recentste, grootste drollen (die men als game verkocht) kijken:
- Watch Dogs --> GameWorks
- Assassin's Creed Unity --> GameWorks
- Batman: Arkham Knight --> GameWorks

Alle drie deze games hadden GameWorks technieken die op alles behalve Maxwell 2 slecht liepen, om de extreem slechte staat van alle drie de games bij launch nog maar te zwijgen. Gelukkig is het niet altijd zo extreem, bv. GTA V heeft ook een paar GameWorks features die uit kunnen. Daar draait het spel "slechts" minder goed op AMD door de GameWorks clausule die inkijk van concurrenten verbiedt, belangrijk voor optimalisatie.
Tja dan keer je de hobby om. Normaal staat je gpu in dienst van je hobby (gamen) en dan gaat het toch echt om de gameplay. Dus stel ik ben enorm fan van The Witcher (is niet zo) en ik speel die game elke dag (is ook niet zo) dan zal ik dat toch echt mee nemen in mijn aankoop beslissing (dat is wel zo). Daarom een merk en een game juist niet kopen is een omgekeerde realiteit.

Overigens was Watch Dogs bij mij prima te pruimen, alleen niet op de aller hoogste details. Is verder niet erg want dat ging bijvoorbeeld bij GTA IV destijds (zonder gameworks) precies hetzelfde. Sommige games zijn gewoon wat vooruitstrevender. Dat kan ik alleen maar toejuichen. De zeurpieten die er niet tegen kunnen dat de game bij hun niet 60 fps op ultra draait kunnen beter genegeerd worden, anders zaten we nu nog op 640x480 Unreal Tournament 1999 te spelen. Dat de andere twee games buggy zijn lijkt mij niets met gameworks te maken hebben.

Gameworks is een tool voor developpers om makkelijk bepaalde effecten in je game te krijgen, zonder dat je het wiel hoeft uit te vinden. Het is een soort api. Als klap op de vuurpijl komen er ook nog Nvidia devs bij je langs om te helpen met de implementatie. Dus het is an sich niet vreemd dat het aanslaat (bij de developpers).

Als de effecten niet uit kunnen dan moet je met een schuin ook naar de devs kijken die de implementatie hebben afgeraffeld en niet zozeer naar gameworks zelf.

[ Voor 5% gewijzigd door sdk1985 op 10-12-2015 00:44 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Nature
  • Registratie: Maart 2012
  • Laatst online: 22-04 21:18
Anoniem: 59888 schreef op donderdag 10 december 2015 @ 00:01:

Nvidia speelt met gameworks hetzelfde spelletje als ze altijd gedaan hebben. Met een flinke zak geld uitgevers overhalen derde-rangs technologie in te bouwen die niet op AMD kaarten draait om zo te proberen AMD uit de markt te drukken. En dat terwijl er vrijwel altijd alternatieven zijn die ook op AMD kaarten werken en op Nvidia kaarten betere resultaten geven. Zijn die er niet dan is zelfs een flinke zak geld niet genoeg. Ik noemde GPU-accelerated PhysX al, geen hond die dat gebruikt.
Met een flinke zak geld dat heb ik wel vaker gehoord alleen heeft nog nooit iemand een mail fax bon brief of wat dan ook gezien wat dat impliceert, ook is er in al die tijd nooit iemand uit de school geklapt terwijl dat onvermijdelijk zou zijn.

List of games with hardware-accelerated PhysX support
De prijzen stijgen bij beide fabrikanten al jaren, dat heeft niets met 'schijt aan zijn users hebben' te maken. In 2008 kocht ik een HD4870 (toen high-end) voor 230 euro, daar koop je nu amper nog een mainstream kaart voor. Jammer voor de consument, maar die prijzen zijn gewoon niet haalbaar meer.
De GTX 280 was weer die $650 8800GTX was $650 en de 8800 ultra zelfs $830, en zo kan je wel verder terug. AMD is altijd goedkoop geweest dat was juist hun selling point, mijn HD4870 1GB kocht ik voor €40.*

Het was AMD's zet na de R9 290(x) uit 2013 om in 2015 met iets nieuws te komen maar wat ze hebben is duur en niemand heeft het, eigenlijk lijkt het ook wel een halo product gewoon iets om je spierballen te laten zien te weinig marge te hoge productie en materiaalkosten, en voor de massa rebrands.

*marktplaats

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:33
Anoniem: 59888 schreef op donderdag 10 december 2015 @ 00:01:


De prijzen stijgen bij beide fabrikanten al jaren, dat heeft niets met 'schijt aan zijn users hebben' te maken. In 2008 kocht ik een HD4870 (toen high-end) voor 230 euro, daar koop je nu amper nog een mainstream kaart voor. Jammer voor de consument, maar die prijzen zijn gewoon niet haalbaar meer.
De GTX 960 had een MSRP van $199 dollar. De GTX 660 zat op $229, de GTX 460 op $200 ($230 voor 1 GB) en de GTX 260 $279. De 4870 zat op $299.

In realiteit zijn de fabrikanten dus flink goedkoper geworden. Zeker als je ook nog eens de inflatie meerekent. Die $299 dollar voor je 4870 zou nu $342.98 zijn. Wat vandaag neer komt op 311 euro. Dat is even andere koek dan de 230 euro die jij aanhaalt of niet?

Het is dus de euro dollar koers die is ingestort waardoor jij je vergist. In 2007 zaten we nog op 1,40 nu rond 1,10. Die 30% doet pijn.

[ Voor 5% gewijzigd door sdk1985 op 10-12-2015 00:54 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • +2 Henk 'm!

Anoniem: 59888

sdk1985 schreef op donderdag 10 december 2015 @ 00:41:
[...]

Tja dan keer je de hobby om. Normaal staat je gpu in dienst van je hobby (gamen) en dan gaat het toch echt om de gameplay. Dus stel ik ben enorm fan van The Witcher (is niet zo) en ik speel die game elke dag (is ook niet zo) dan zal ik dat toch echt mee nemen in mijn aankoop beslissing (dat is wel zo). Daarom een merk en een game juist niet kopen is een omgekeerde realiteit.
Dat is een kwestie van een keuze die je maakt. Het is maar net wat je belangrijk vind, een foute keuze is er niet.
sdk1985 schreef op donderdag 10 december 2015 @ 00:41:
Overigens was Watch Dogs bij mij prima te pruimen, alleen niet op de aller hoogste details. Is verder niet erg want dat ging bijvoorbeeld bij GTA IV destijds (zonder gameworks) precies hetzelfde. Sommige games zijn gewoon wat vooruitstrevender.
Watch Dogs was een desastreus verlopen project waarbij de ene na de andere deadline gemist werd. Uiteindelijk hebben ze op een zeker moment het spel maar op de markt gegooid, maar af was het nog niet. Veel optimalisaties ontbraken en er zaten nog heel veel bugs in.

GTA IV was een heel slecht geoptimaliseerde port van de Xbox 360 versie die drie CPU cores nodig had om lekker te lopen, in een tijd waarin dual core CPUs nog gemeengoed waren. Die port is zo slecht dat als het spel je GPU niet herkent hij de instellingen op z'n allerlaagst zet: 640x480 met alles op low. Dat zou geen ramp zijn, maar het settings menu wordt ook gelocked. Je moet een launch option meegeven om het spel zo ver te krijgen je de grafische opties in te laten stellen. 7(8)7 En de klap op de vuurpijl is dat de lijst met GPU's die het spel kent nooit is geüpdate, dus alle GPU's van na 2008 kent 'ie niet. :X

Kortom, twee voorbeelden van slecht werk. Dat heeft niets met vooruitstrevendheid te maken.
sdk1985 schreef op donderdag 10 december 2015 @ 00:41:
Dat de andere twee games buggy zijn lijkt mij niets met gameworks te maken hebben.
Eens, dat is gewoon een kwestie van te strakke deadlines/te veel haast waardoor een spel op de markt komt voordat alle bugs er uit zijn. Al is Arkham Knight wel een speciaal geval, na een half jaar hebben ze die nog steeds niet weten te fixen en hebben ze het min of meer opgegeven en kunnen mensen hun geld terug krijgen. :X
sdk1985 schreef op donderdag 10 december 2015 @ 00:41:
Gameworks is een tool voor developpers om makkelijk bepaalde effecten in je game te krijgen, zonder dat je het wiel hoeft uit te vinden. Het is een soort api. Als klap op de vuurpijl komen er ook nog Nvidia devs bij je langs om te helpen met de implementatie. Dus het is an sich niet vreemd dat het aanslaat (bij de developpers).
Gameworks is middelware, dat gebruik je via een api. Daarbij hoef je inderdaad het wiel niet opnieuw uit te vinden, maar dat is bij andere middleware net zo. Dat is namelijk het hele idee van middleware. ;)

Dat Nvidia devs komen helpen is leuk, maar dat zou niet nodig moeten zijn. Daar komt bij dat de ontwikkelaar van de game hun code niet mag aanpassen of zelfs in mag zien. Je weet als ontwikkelaar dus niet wat Nvidia allemaal in je game stopt. Er zijn genoeg gevallen bekend waarbij bleek dat dat wel wat meer was dan alleen optimalisaties. :X


Nature schreef op donderdag 10 december 2015 @ 00:44:
[...]


Met een flinke zak geld dat heb ik wel vaker gehoord alleen heeft nog nooit iemand een mail fax bon brief of wat dan ook gezien wat dat impliceert, ook is er in al die tijd nooit iemand uit de school geklapt terwijl dat onvermijdelijk zou zijn.
Dat is wel heel makkelijk geredeneerd. 'Als ik het niet zie is het er niet'. Er zijn al jaren een heleboel betrouwbare aanwijzingen. Bovendien moet je wel heel goedgelovig zijn om te denken dat als Nvidia zijnde wel even in de code van een game mag gaan rommelen zonder een flinke zak geld op tafel te leggen. Zo leuk zijn die effecten nou ook weer niet, bovendien heb je ze niet nodig om je game goed te laten verkopen. De tijd dat games met goede graphics altijd goed verkochten is voorbij, daar hebben de laatste twee jaar van de vorige console generatie definitief mee afgerekend.
Sinds 2005 tussen de vier en zes games per jaar met twee uitschieters naar 8 en 11. Op het totaal aantal AAA games dat per jaar uit komt is dat drie keer niks.
Nature schreef op donderdag 10 december 2015 @ 00:44:
Het was AMD's zet na de R9 290(x) uit 2013 om in 2015 met iets nieuws te komen maar wat ze hebben is duur en niemand heeft het, eigenlijk lijkt het ook wel een halo product gewoon iets om je spierballen te laten zien te weinig marge te hoge productie en materiaalkosten, en voor de massa rebrands.
Dat is een bekend verhaal. Men had verwacht nu al op een kleiner procedé te kunnen produceren maar dat procedé is mislukt en dus niet beschikbaar. AMD kan die chips wel ontwerpen maar ze kunnen domweg niet gefabriceerd worden. Volgend jaar zou de volgende node moeten komen en naar verwachting wordt er dan wel een grote sprong gemaakt, zowel door AMD als door Nvidia.


sdk1985 schreef op donderdag 10 december 2015 @ 00:51:
[...]

De GTX 960 had een MSRP van $199 dollar. De GTX 660 zat op $229, de GTX 460 op $200 ($230 voor 1 GB) en de GTX 260 $279. De 4870 zat op $299.

In realiteit zijn de fabrikanten dus flink goedkoper geworden. Zeker als je ook nog eens de inflatie meerekent. Die $299 dollar voor je 4870 zou nu $342.98 zijn. Wat vandaag neer komt op 311 euro. Dat is even andere koek dan de 230 euro die jij aanhaalt of niet?

Het is dus de euro dollar koers die is ingestort waardoor jij je vergist. In 2007 zaten we nog op 1,40 nu rond 1,10. Die 30% doet pijn.
De HD4870 was de op een na snelste kaart van zijn generatie. Alleen de HD 4870 X2 was (uiteraard) sneller, dat was een dual-GPU kaart. Als je de 4870 met een kaart van nu gaat vergelijken moet je het in de buurt van de Fury (non-X) of GTX 980 (non-TI) zoeken. Die kosten allebei 500+ euro. Je hebt helemaal gelijk dat inflatie en de dollarkoers een rol spelen, maar ook als je dat meerekent kun je nu voor dat bedrag geen high-end kaart meer kopen. Je betaalt nu dus flink meer voor een high-end kaart dan toen.

Overigens was 2008 wel zo'n beetje de bodem qua GPU-prijzen. Het ging me er meer om dat de prijzen sindsdien iedere generatie gestegen zijn, bij beide fabrikanten. Er is dus geen sprake van 'schijt hebben aan je users' door AMD, zoals beweerd werd.

offtopic:
Welke idioot gaat er nou midden in de nacht de tijd nemen voor zo'n lange post als deze. Ik zou zelf amper de moeite nemen het allemaal te lezen. 8)7

[ Voor 3% gewijzigd door Anoniem: 59888 op 10-12-2015 02:32 ]


  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Nature schreef op woensdag 09 december 2015 @ 23:34:
Daar ligt het niet aan, de adviesprijs bij launch v/d R9 290X was $550 en R9 290 $400 en de adviesprijs v/d Fury (non X) is €550 en de Fury X €650.
Kijk dan eerst eens rustig naar de objectieve feiten.

1. Fiji is bijna 2 keer zo groot als Hawaii. De chip alleen al kost dus meer om te maken.
2. Fury kaarten gebruiken een geheel nieuw geheugensysteem, welke nu nog duurder is.
3. Fury kaarten gebruiken een geheel nieuw packaging, welke nu nog moeilijker en duurder is.

Uiteindelijk zullen punt 2 en 3 in de toekomst, wanneer deze massaler toegepast gaan worden, goedkoper worden dan het nu gangbare gDDR5 met complexer PCB, maar momenteel is dat dus nog niet het geval.

Dus is het dan gek dat AMD meer geld vraagt voor een product dat op een aantal belangrijke onderdelen gewoonweg (veel) meer kost om te maken? Blijkbaar is het prima dat nVidia veel meer geld vraagt voor zijn producten met grotere die, maar als AMD dat doet is het opeens krankzinnig?

  • Astennu
  • Registratie: September 2001
  • Laatst online: 09:02
haarbal schreef op woensdag 09 december 2015 @ 21:20:
Maar the witcher 3 heeft ook gameworks, en dat is de game van het jaar.

Ik vind het vooral jammer dat de verhouding van marktaandeel nu zo enorm scheef is in nvidia's voordeel, terwijl amd toch een iets betere price/perfomance biedt. Ze trekken wat meer stroom, maar de meeste mensen hebben toch een overkill psu.
Mee eens ik vind het raar dat het zo omgeslagen is. Eerst was het eerder 55% vs 45% dat is in mijn ogen ook geen gezondere verhouding.
We willen geen 2e intel hebben. Dan kan je de vooruitgang in de GFX markt ook gedag zeggen. Qua CPU's komt er al jaren niets interessants meer uit. Een 4 jaar oude 2600K doet het nog mee dan prima een 4 Generaties nieuwere cpu is slechts 25% sneller. Dat is wel erg weinig. Ook het verbruik is niet veel lager geworden. Bij laptops scheelt het wel iets maar bij desktop's niet.

Hopelijk kan AMD met de volgende generatie kaarten weer wat marktaandeel terug winnen. Maar nVidia zal het ze zeker niet makkelijk maken.

LET OP!!! dyslectisch Dus spelling kan verkeerd zijn!!! -- RIP CJ, The ATi Topic wont be the same without you.....


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Nature schreef op woensdag 09 december 2015 @ 22:50:
[...]
Je kan het beter de devs kwalijk nemen zij willen GameWorks gebruiken voor water vuur haar destruction etc etc zonder er zelf iets voor te hoeven doen zo uit de 'black' box.
Watchdogs draait net zo goed op de R9 290X als op de GTX780TI meeste gameworks spul kon je ook uit zetten (ik heb zelf nog nooit zo'n k-spel gespeeld)
Assassins creed met gelijke settings draait de R9 390 1.6fps sneller dan de GTX 970.

''Nvidia's GameWorks and QA teams are helping fix Batman: Arkham Knight''
Blijkbaar lees je mijn reply als AMD vs Nvidia flame, probeer het nog eens zonder en letterlijk te lezen wat ik zei. Mijn punt was hoe slecht die drie games lopen (bij launch, niet 6 maanden later). Ik zeg ook juist: "koop die games niet" (dus ten laste van de ontwikkelaar) als eerste.

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 24-04 22:18
Je moet sowieso niet pre-orderen. De AMD supported game Battlefront is misschien op grafisch gebied goed, maar content wise schijnt het echt te kort te schieten.

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

dahakon schreef op donderdag 10 december 2015 @ 06:00:
[...]


Kijk dan eerst eens rustig naar de objectieve feiten.

1. Fiji is bijna 2 keer zo groot als Hawaii. De chip alleen al kost dus meer om te maken.
2. Fury kaarten gebruiken een geheel nieuw geheugensysteem, welke nu nog duurder is.
3. Fury kaarten gebruiken een geheel nieuw packaging, welke nu nog moeilijker en duurder is.

Uiteindelijk zullen punt 2 en 3 in de toekomst, wanneer deze massaler toegepast gaan worden, goedkoper worden dan het nu gangbare gDDR5 met complexer PCB, maar momenteel is dat dus nog niet het geval.

Dus is het dan gek dat AMD meer geld vraagt voor een product dat op een aantal belangrijke onderdelen gewoonweg (veel) meer kost om te maken? Blijkbaar is het prima dat nVidia veel meer geld vraagt voor zijn producten met grotere die, maar als AMD dat doet is het opeens krankzinnig?
Niet gek, maar wel "niet zo slim" als de concurrent het met minder kan, en toch dezelfde prestaties levert.
Dan is het heel nobel om als voortrekker te komen met HBM, en een kaart zoals de Nano, maar het levert gewoon niks op.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

Nature schreef op donderdag 10 december 2015 @ 00:44:
[...]
Met een flinke zak geld dat heb ik wel vaker gehoord alleen heeft nog nooit iemand een mail fax bon brief of wat dan ook gezien wat dat impliceert, ook is er in al die tijd nooit iemand uit de school geklapt terwijl dat onvermijdelijk zou zijn.

List of games with hardware-accelerated PhysX support
Als NVidia een gameontwikkelaar voor laten we zeggen een prijs van 100 middleware geeft + engineers om effecten in je game te krijgen die hem anders laten we zeggen 200 of 300 hadden gekost aan eigen personeel en development time dan zijn er geen bonnetjes.....

Voel je hem?

Het is imho een praktijk die verziekend werkt op de pc game markt.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Jeroenneman schreef op donderdag 10 december 2015 @ 11:35:
[...]


Niet gek, maar wel "niet zo slim" als de concurrent het met minder kan, en toch dezelfde prestaties levert.
Dan is het heel nobel om als voortrekker te komen met HBM, en een kaart zoals de Nano, maar het levert gewoon niks op.
Dat is veel te kort door de bocht. Het klopt dat AMD nu wat meer kosten heeft door de ontwikkeling en implementatie van HBM, net als ze dat voorheen hadden met bijvoorbeeld gDDR5. Die kosten wegen wel iets mee, maar de hoofdoorzaak van de prijs van Fury is en blijft de chip. Daarbij is Fury een tegenhanger van 980Ti en niet van de gewone 980. De 980 levert dan ook absoluut niet dezelfde prestaties en de 980Ti is duurder.

Belangrijker voor AMD is echter dat ze de nieuwe technieken nu onder controle heeft en kan toepassen op toekomstige producten en waarschijnlijk ook de BoM sneller naar beneden kunnen krijgen.

  • sjekneck
  • Registratie: Juni 2003
  • Laatst online: 13:39
Help!!!! schreef op donderdag 10 december 2015 @ 11:42:
[...]

Als NVidia een gameontwikkelaar voor laten we zeggen een prijs van 100 middleware geeft + engineers om effecten in je game te krijgen die hem anders laten we zeggen 200 of 300 hadden gekost aan eigen personeel en development time dan zijn er geen bonnetjes.....

Voel je hem?

Het is imho een praktijk die verziekend werkt op de pc game markt.
En dat is nou juist het leuke, nVidia geeft een developer voor 0 de middleware tools geeft inc support. Dat het geld bespaard is iets heel anders dan geld geven voor gebruik. Zo is de situatie nu. Of het wenselijk is hangt geheel af van de belangen voor nvidia en dat doen ze niet voor AMD mogen duidelijk zijn. Daarbij het is alleen gunstig voor nVidia users en dat is klote voor de markt.

Buiten de beschuldigende speculatie vinger van AMD naar nVidia is er tot nu toe geen bewijs voor omkoping of zakken geld. Gezien de hoeveelheid titels met Gameworks onder meerdere uitgevers zou er echt al bewijs geweest als er sprake zou zijn van omkoping.

@Phuncz
Op de vorige pagina staan wat stukken tekst van mensen die daar toch sterk op lijken ;) . De AMD/Intel antitrust rechtszaak is echt van een heel andere orde. Dit was keihard je concurrent een verkoopverbod opleggen via je klanten. Gameworks daarmee vergelijken slaat helemaal nergens op.

[ Voor 12% gewijzigd door sjekneck op 10-12-2015 14:59 ]


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Niemand heeft het over omkoping, eerder oneerlijke concurrentie. Intel-AMD anti-trust anyone ?

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:33
Anoniem: 59888 schreef op donderdag 10 december 2015 @ 02:26:


[...]

Watch Dogs was een desastreus verlopen project waarbij de ene na de andere deadline gemist werd. Uiteindelijk hebben ze op een zeker moment het spel maar op de markt gegooid, maar af was het nog niet. Veel optimalisaties ontbraken en er zaten nog heel veel bugs in.

GTA IV was een heel slecht geoptimaliseerde port van de Xbox 360 versie die drie CPU cores nodig had om lekker te lopen, in een tijd waarin dual core CPUs nog gemeengoed waren. Die port is zo slecht dat als het spel je GPU niet herkent hij de instellingen op z'n allerlaagst zet: 640x480 met alles op low. Dat zou geen ramp zijn, maar het settings menu wordt ook gelocked. Je moet een launch option meegeven om het spel zo ver te krijgen je de grafische opties in te laten stellen. 7(8)7 En de klap op de vuurpijl is dat de lijst met GPU's die het spel kent nooit is geüpdate, dus alle GPU's van na 2008 kent 'ie niet. :X

Kortom, twee voorbeelden van slecht werk. Dat heeft niets met vooruitstrevendheid te maken.
Huh, wat. Nee joh. Ik had toen een E6750 op 3.4-3.8 GHz en een GTX 260 met een 1680x1050 monitor. De eerste truuk was de view distance te verlagen naar een setting gelijk aan die van de consoles (iets in de 20 als ik me niet vergis). Daarna nog wat spelen met de shadows. De detail setting slider kon meteen naar de 100. Textures konden ook op high (896MB geheugen). Ik geloof dat ik een fps op 40 haalde in de benchmark op de hoge resolutie. Op 1280x1024 (5:4) lag dat nog wat hoger. Dat ging richting de 60+ fps. De game was prima speelbaar (zelfs de pre-retail), alleen de standaard draw distance stond gewoon te hoog voor de cpu's uit die tijd. Hoger dan op de consoles. Je had zelfs users die hem op 100 zetten... Jaren later heb je er profijt van dat de engine het überhaupt kan, immers nu heb je de hardware die dat aan kan. Het zijn de users die klagen die het eigenlijk voor de rest verpesten, immers die moeten tegen zichzelf worden beschermd door de mogelijkheden in te dammen. Om maar te voorkomen dat ze niet gaan zeuren...

Anno 2015 maakt die game onderdeel uit van mijn steam library en zet hij automatisch gewoon de boel op high met 2560x1080. Dus van het gpu lijst verhaal merk ik eigenlijk niets.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

sjekneck schreef op donderdag 10 december 2015 @ 12:44:
[...]

En dat is nou juist het leuke, nVidia geeft een developer voor 0 de middleware tools geeft inc support. Dat het geld bespaard is iets heel anders dan geld geven voor gebruik. Zo is de situatie nu. Of het wenselijk is hangt geheel af van de belangen voor nvidia en dat doen ze niet voor AMD mogen duidelijk zijn. Daarbij het is alleen gunstig voor nVidia users en dat is klote voor de markt.

Buiten de beschuldigende speculatie vinger van AMD naar nVidia is er tot nu toe geen bewijs voor omkoping of zakken geld. Gezien de hoeveelheid titels met Gameworks onder meerdere uitgevers zou er echt al bewijs geweest als er sprake zou zijn van omkoping.
Ik meende in interview met nvidia gelezen te hebben dat de developers er wel voor moesten betalen.

Verder vind ik je invalshoek nogal semantisch. Wat maakt het onder de streep uit dan?

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


  • Nature
  • Registratie: Maart 2012
  • Laatst online: 22-04 21:18
Anoniem: 59888 schreef op donderdag 10 december 2015 @ 02:26:

Dat is wel heel makkelijk geredeneerd. 'Als ik het niet zie is het er niet'. Er zijn al jaren een heleboel betrouwbare aanwijzingen. Bovendien moet je wel heel goedgelovig zijn om te denken dat als Nvidia zijnde wel even in de code van een game mag gaan rommelen zonder een flinke zak geld op tafel te leggen. Zo leuk zijn die effecten nou ook weer niet, bovendien heb je ze niet nodig om je game goed te laten verkopen.
Waar zijn dan de zogenaamde betrouwbare bronnen? Je kan als ontwikkelaar Nvidia 24/7 bellen en er staan binnen no time een groep mensen klaar om te helpen, dat wel en dat scheelt heel wat geld maar letterlijk een zak geld geven, zoals jij zegt nee.
Veel AMD gebruikers denken ook vaak dat mensen die argumenten hebben voor Intel/Nvidia meteen werknemers zijn. Je kan het je haast niet voorstellen, het lijkt zo uit de 'The godfather' te komen.
De tijd dat games met goede graphics altijd goed verkochten is voorbij, daar hebben de laatste twee jaar van de vorige console generatie definitief mee afgerekend.
Oh.. en hier gebruik ik juist een PC voor de goede graphics , dan toch maar denken aan zo'n
Peasantbox/station
Dat is een bekend verhaal. Men had verwacht nu al op een kleiner procedé te kunnen produceren maar dat procedé is mislukt en dus niet beschikbaar. AMD kan die chips wel ontwerpen maar ze kunnen domweg niet gefabriceerd worden. Volgend jaar zou de volgende node moeten komen en naar verwachting wordt er dan wel een grote sprong gemaakt, zowel door AMD als door Nvidia.
Dat is niet wat ik zeg, wat ik bedoel met dat de Fury(X) halo products zijn het heeft leuke specs HBM waterkoeling een grote bus maar haast niemand koopt het gewoon te duur, vooral als je kijkt dat Nvidia sneller is op alle resoluties 4k wel met non-reference maar wie koopt reference
De HD4870 was de op een na snelste kaart van zijn generatie. Alleen de HD 4870 X2 was (uiteraard) sneller, dat was een dual-GPU kaart. Als je de 4870 met een kaart van nu gaat vergelijken moet je het in de buurt van de Fury (non-X) of GTX 980 (non-TI) zoeken. Die kosten allebei 500+ euro. Je hebt helemaal gelijk dat inflatie en de dollarkoers een rol spelen, maar ook als je dat meerekent kun je nu voor dat bedrag geen high-end kaart meer kopen. Je betaalt nu dus flink meer voor een high-end kaart dan toen.
feit is dat Nvidia al zeker 10 jaar dezelfde prijs hanteert topmodel $600+
dahakon schreef op donderdag 10 december 2015 @ 06:00:
[...]


Kijk dan eerst eens rustig naar de objectieve feiten.

1. Fiji is bijna 2 keer zo groot als Hawaii. De chip alleen al kost dus meer om te maken.
2. Fury kaarten gebruiken een geheel nieuw geheugensysteem, welke nu nog duurder is.
3. Fury kaarten gebruiken een geheel nieuw packaging, welke nu nog moeilijker en duurder is.

Uiteindelijk zullen punt 2 en 3 in de toekomst, wanneer deze massaler toegepast gaan worden, goedkoper worden dan het nu gangbare gDDR5 met complexer PCB, maar momenteel is dat dus nog niet het geval.

Dus is het dan gek dat AMD meer geld vraagt voor een product dat op een aantal belangrijke onderdelen gewoonweg (veel) meer kost om te maken? Blijkbaar is het prima dat nVidia veel meer geld vraagt voor zijn producten met grotere die, maar als AMD dat doet is het opeens krankzinnig?
Ik denk dat je hetzelfde kan zeggen HD7970 t.o.v R9 290X. GTX 780 TI t.o.v GTX 980 TI Hij kost meer om te maken maar ik heb wel gehoord dat 4GB HBM ook niet perce veel doet voor de prestaties, waterkoeler evenmin. Partners mogen er alleen hun sticker op plakken zal ook weinig doen voor prijs concurrentie.
Help!!!! schreef op donderdag 10 december 2015 @ 11:42:
[...]

Als NVidia een gameontwikkelaar voor laten we zeggen een prijs van 100 middleware geeft + engineers om effecten in je game te krijgen die hem anders laten we zeggen 200 of 300 hadden gekost aan eigen personeel en development time dan zijn er geen bonnetjes.....

Voel je hem?

Het is imho een praktijk die verziekend werkt op de pc game markt.
Nvidia wilt videokaarten verkopen dus zullen zij devs graag een handje helpen om hun naam aan het spel te verbinden en te zorgen dat het zo goed mogelijk loopt op hun kaarten. Meer dan 80% van de kaarten die over de toonbank gaan is een Nvidia, zo'n 70% van de gamers die veel gamen heeft Nvidia, gezien de verkoop zal dat steeds meer worden (als er geen wonder gebeurd), dus is het logisch dat devs met Nvidia werken en niet de minderheid AMD.
Het werkt imo niet verziekend het is zoals het is, het heeft voor en nadelen, meer nadelen wanneer je AMD gebruikt, ik heb bij Just Cause 3 prachtige effecten gezien met WaveWorks werkt net zo goed of je nou een AMD/Nvidia kaart hebt gaat via de cpu.

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Nature schreef op donderdag 10 december 2015 @ 21:14:
Nvidia wilt videokaarten verkopen dus zullen zij devs graag een handje helpen om hun naam aan het spel te verbinden en te zorgen dat het zo goed mogelijk loopt op hun kaarten. Meer dan 80% van de kaarten die over de toonbank gaan is een Nvidia, zo'n 70% van de gamers die veel gamen heeft Nvidia, gezien de verkoop zal dat steeds meer worden (als er geen wonder gebeurd), dus is het logisch dat devs met Nvidia werken en niet de minderheid AMD.
Het werkt imo niet verziekend het is zoals het is, het heeft voor en nadelen, meer nadelen wanneer je AMD gebruikt, ik heb bij Just Cause 3 prachtige effecten gezien met WaveWorks werkt net zo goed of je nou een AMD/Nvidia kaart hebt gaat via de cpu.
Je mag het noemen zoals je wilt, het hele overdreven zware tesselation verhaal wat geen moer uithaalt buiten alles dat geen Maxwell 2 is te verkreupelen, noem ik niet "meer Nvidia kaarten verkopen". Zeker niet als het dan de ontwikkelaars verbiedt de game te laten optimaliseren gebasseerd op de broncode door de concurrentie (oei, toevallig AMD en Intel). Dat is een anti-trust hoor. Het heeft helaas bij Intel/AMD destijds ook vele jaren geduurd voordat er iets aan gedaan werd maar het kwaad was allang geschied.

Elke fabrikant streeft naar een monopolie of er toch zo kort mogelijk bij te zijn. Maar de consument is er niets mee als er oneerlijke concurrentie is, integendeel. Hoop maar op meer GameWorks, hoop maar op een AMD dat verdwijnt, dan kan je dag zeggen tegen gaming als een GPU ineens meer kost dan de rest van de PC en die van een jaar geleden niet werkt op de game van morgen.

Acties:
  • 0 Henk 'm!

  • Moi_in_actie
  • Registratie: Maart 2007
  • Laatst online: 20:10
Nature schreef op donderdag 10 december 2015 @ 21:14:
[...]
feit is dat Nvidia al zeker 10 jaar dezelfde prijs hanteert topmodel $600+
And that's when I stopped reading :F . Als je probeert met cijfers te komen, gebruik dan echte cijfers en verzin niet zomaar wat. De prijzen van de NVidia topmodellen (Titan kaarten en dual GPU's daargelaten) is enorm toegenomen in de laatste paar jaar. De prijzen bij de launch (met AMD's counterparts erbij):

GTX480: $499 - HD5970: $599
GTX580: $499 - HD6970: $370
GTX680: $499 - HD7970: $450
GTX780: $650 - R9 290X: $550
GTX780Ti: $700
GTX980TI: $650 - R9 Fury X: $650

De prijzen van NVidia's top kaarten zijn van ongeveer 500 dollar naar 650 tot 700 dollar gegaan in de laatste 5 jaar. De AMD kaarten waren, op de HD5970 na, altijd goedkoper tot de Fury X kwam. Hierbij moet wel gezegd worden dat de GTX480 geen schijn van kans had tegen de HD5970; de GTX480 was eerder een concurrent van de HD5870 (kaart van ~$380 bij de launch). De prijs van de HD6970 is ook wat vertekenend, aangezien dit dan weer geen geweldige kaart was van AMD (gelijk aan of net boven de GTX570, net wat achter de GTX580).

NVidia is de laatste jaren meestal wat eerder met het uitbrengen van een nieuwe reeks kaarten en die plaatsen ze dan ook erg hoog in de prijs. Als je een GTX780 uitbrengt die toch flink wat sneller is dan een HD7970, ja dan kun je er de hoofdprijs voor vragen. Toen kwam de R9 290X uit die gehakt maakte van de GTX780 en toen kwam NVidia ineens heel snel met de GTX780Ti uit (minder dan 2 weken later), wederom tegen de (nu nog hogere) hoofdprijs.
Bij de laatste rond was het weer hetzelfde; de GTX980 komt uit (is toch weer ietsjes sneller dan de GTX780Ti en R9 290X) met een prijs van $550 en blijft lang tijd de beste performer, zij het voor een veel slechtere prijs/performance ratio dan de R9 290X. En hey, de Fury en Fury X zitten eraan te komen en (heel toevallig) komt NVidia ineens met een veel snellere kaart, de GTX980Ti (basically een Titan X "light") voor een prijs ver onder die van de Titan X. Dit aangezien de GTX980 geen schijn van kans zou staan tegen de Fury en Fury X.

Dit hele spelletje van elkaar overtreffen, spelen met de prijzen enzovoorts is natuurlijk plain old business. NVidia staat er financieel heel wat beter voor en ze kunnen zich permitteren om redelijk arrogant te zijn met hun strategie. Men zegt wel vaker dan NVidia een voorsprong heeft bij de laatste paar generaties kaarten, en qua tijdstip waarop ze uitkomen is dat zeker ook zo, maar de manier van hoe zij reageren op de concurrentie (AMD) en vooral de prijzen die ze daarbij hanteren vind ik vrij arrogant en onzeker (3.5GB fiasco bij de GTX970, Gameworks).
Als AMD wat vlotter haar R9 290(X) en R9 Fury (X) reeksen had kunnen uitbrengen (gelijktijdig met de GTX780 en GTX980), dan waren er denk ik geen GTX780Ti of GTX980Ti kaarten geweest. Dan had de GTX780Ti de naam GTX780 gekregen, de GTX780 was een GTX770 geworden en de GTX770 had waarschijnlijk niet bestaan of had GTX760Ti geheten.
Hetzelfde principe bij de GTX980Ti welke dan GTX980 geheten had en de GTX980 was een GTX970 geworden, de GTX970 een GTX960Ti. Wel te verstaan dat de prijzen van de beste NVidia kaarten dan gelijk (of zelfs lager) zouden zijn geworden dan de GTX780 en GTX980 zoals ze nu bij launch waren en dus waren de beste kaarten van NVidia in dat geval niet/nauwelijks duurder dan de topkaarten van daarvoor (GTX480, GTX580 en GTX680).

Binnenkort komt er mogelijk/waarschijnlijk ook alsnog een GTX960Ti uit (heel opmerkelijk dat er dan zowel een GTX x60Ti en GTX x80Ti in dezelfde serie zijn), omdat NVidia op dit moment geen antwoord heeft op de R9 380X (hier was AMD een keer eerder) en deze kaart toch in een zeer aantrekkelijk segment van ligt. Veel meer mensen kopen een GPU van 200 tot 300 euro, dan de hoeveelheid mensen die een GPU van 500++ euro kopen.

Als puntje bij paaltje komt kan je eigenlijk altijd wel inschatten hoeveel een kaart gaat kosten als je de performance weet en vice versa. Als NVidia b.v. alsnog met een GTX960Ti uitkomt, dan kan je er vergif op innemen dat deze gelijk of net iets beter zal zijn dan de R9 380X, en de prijs zal gelijk of misschien 10 of 20 euro hoger liggen. NVidia gaat echt niet een GTX960Ti uitbrengen voor 200 euro, of de GTX970 naar naar +- 275 euro gooien. Bij de volgende reeks NVidia en AMD kaarten zullen de topmodellen wel weer iets van 20-25% sneller zijn dan de Fury X en GTX980Ti met gelijke prijzen en zullen de sub-top modellen (GTX 1070?) wel weer beginnen rond de 400-450 euro.

Ryzen 7 5800X ~~ 32GB GSkill TridentZ 3600Mhz ~~ ASRock B550 Steel Legend ~~ XFX Radeon RX5700XT


Acties:
  • 0 Henk 'm!

  • Nature
  • Registratie: Maart 2012
  • Laatst online: 22-04 21:18
Phuncz schreef op donderdag 10 december 2015 @ 22:32:
[...]

Je mag het noemen zoals je wilt, het hele overdreven zware tesselation verhaal wat geen moer uithaalt buiten alles dat geen Maxwell 2 is te verkreupelen, noem ik niet "meer Nvidia kaarten verkopen". Zeker niet als het dan de ontwikkelaars verbiedt de game te laten optimaliseren gebasseerd op de broncode door de concurrentie (oei, toevallig AMD en Intel). Dat is een anti-trust hoor. Het heeft helaas bij Intel/AMD destijds ook vele jaren geduurd voordat er iets aan gedaan werd maar het kwaad was allang geschied.

Elke fabrikant streeft naar een monopolie of er toch zo kort mogelijk bij te zijn. Maar de consument is er niets mee als er oneerlijke concurrentie is, integendeel. Hoop maar op meer GameWorks, hoop maar op een AMD dat verdwijnt, dan kan je dag zeggen tegen gaming als een GPU ineens meer kost dan de rest van de PC en die van een jaar geleden niet werkt op de game van morgen.
Nvidia maakt API's geen engine al zit het volgens mij wel bij Unreal inbegrepen mocht je het willen gebruiken dus de developer kiest er sowieso nog altijd voor, mantle is trouwens niet open source.
AMD bekritiseerd Nvidia openbaar maar ik heb ze nooit iets horen zeggen over/tegen devs terwijl zij juist degene zijn die het gebruiken.
AMD is zo incompetent ze doen zelf alles verkeerd ze komen met mooie technieken alleen verdienen ze er niets mee.
ik heb de release van Fury en r9 300 series gezien wat een show Huddy die een soort van objectieve journalist speelt al vragen stellende en lisa Su die in een keer begon te blerren op het podium wat me nog specifiek bijgebleven is dit de R7 370 meteen in het begin ''the R7 370 created for 1080p'' ja 3! jaar geleden en daarna de R9 380, ''enough to drive games at 1440p resolutions''. laat me niet lachen.

Ik vind dat je wel gelijk hebt hoor van die anti-trust dan wel tegen AMD het lijkt of ze er alles aan doen om Nvidia aan een monopolie te helpen het lijkt wel of ze aandelen hebben in Nvidia...
Ik hoop niet Percé op meer GameWorks al vind ik wel een hoop technieken mooi noch het verdwijnen van AMD, mij interesseert het eerlijk gezegd niet veel, ik heb meer bedrijven zien gaan waar er daarna niets veranderde en als er een Vacuüm ontstaat stapt er wel weer iemand in.
Waar ik wel benieuwd naar ben is hoeveel mensen op dit forum een Fury X hebben ik denk dat ze op 2 handen misschien 1 hand te tellen zijn.
Moi_in_actie schreef op vrijdag 11 december 2015 @ 00:19:
[...]
*knip* die hele lap is niet nodig :)
7800 GTX $600
8800 GTX $650
8800 ultra $830
9800 GTX $299
GTX 280 $649
GTX 480 $499
GTX 580 $499
GTX 680 $499
GTX 780 $650
GTX 780 TI $700
GTX 980 TI $650

Het topmodel heeft 4x onder de $600 gezeten 7x daarboven, wat ik zei dat Nvidia niet bepaald duurder wordt historisch gezien, al helemaal wanneer je inflatie mee berekent klopt. Je kan zeggen dat hij tijdelijk iets goedkoper is geweest.
Dus 10 jaar consequent $600+ nee, duurder geworden over 10 jaar ik denk goedkoper Titan uiteraard niet mee gerekend.

[ Voor 40% gewijzigd door br00ky op 13-12-2015 19:20 ]


Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 23-04 15:17
Moi_in_actie schreef op vrijdag 11 december 2015 @ 00:19:
[...]
*knip* dit is nou quoten zoals het bedoeld is
5970 is een dual gpu frits en de 5870 was goedkoper

[ Voor 91% gewijzigd door br00ky op 13-12-2015 19:19 ]

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-04 19:12

Sp3ci3s8472

@ 12 graden...

Nature schreef op vrijdag 11 december 2015 @ 15:30:
[...]


Nvidia maakt API's geen engine al zit het volgens mij wel bij Unreal inbegrepen mocht je het willen gebruiken dus de developer kiest er sowieso nog altijd voor, mantle is trouwens niet open source.
AMD bekritiseerd Nvidia openbaar maar ik heb ze nooit iets horen zeggen over/tegen devs terwijl zij juist degene zijn die het gebruiken.
AMD is zo incompetent ze doen zelf alles verkeerd ze komen met mooie technieken alleen verdienen ze er niets mee.
Waarom wordt Mantle nog steeds met GameWorks vergeleken? Het zijn twee apparte dingen, dat zou ondertussen duidelijk moeten zijn. Mantle is een appart codepath naast DX11 en zal dus nimmer de prestaties kunnen beinvloeden, GameWorks daarentegen voegt dingen toe aan het DX11 codepath en doordat de source niet inzichtbaar is voor AMD (of aanpasbaar) kan het wel dingen veranderen aan de prestaties.
Mantle is al een behoorlijke tijd opensource in de vorm van Vulkan.
Ik hoop niet Percé op meer GameWorks al vind ik wel een hoop technieken mooi noch het verdwijnen van AMD, mij interesseert het eerlijk gezegd niet veel, ik heb meer bedrijven zien gaan waar er daarna niets veranderde en als er een Vacuüm ontstaat stapt er wel weer iemand in.
Wat jij zegt dat er wel iemand anders in het vacuum stapt is onzin. De enige die een kans zou maken is Intel en die loopt nog steeds achter op videokaart niveau als je die vergelijkt met de AMD apu's en dan heb ik het niet over de rauwe prestaties van bijvoorbeeld de Iris Pro.

Ik zie AMD liever niet verdwijnen in de videokaart markt. Dat zou betekenen dat ik voor een GTX2040 400 euro moet gaan betalen.... want monopolie.

GameWorks is en blijft gewoon slecht voor de videogamemarkt, laat ik het zo stellen alles dat dingen toevoegt aan een spel waar maar een fabrikant de controle over heeft en waar de andere fabrikant gebruik van moet maken is slecht voor de markt.

Ik snap die discussie over de prijspunten van de videokaarten niet echt. De Fury (x) is gewoon het halo project van AMD in dat opzicht vergelijkbaar met de Titan, zo wordt hij ook gepresenteerd. Beide kosten meer dan nodig is.
De Titans worden voor het gemak steeds uit het lijstje gelaten terwijl die kaarten wel door enthausiasts worden gekocht en veel duurder zijn dan de "normale" ultra highend.
aminam schreef op vrijdag 11 december 2015 @ 15:46:
[...]


5970 is een dual gpu frits en de 5870 was goedkoper
Klopt, die was qua prijs dacht ik vergelijkbaar met de HD6970.

offtopic:
Zou je alsjeblieft selectiever willen quoten, de hele post voegt weinig toe en ik krijg er een scroll middel vinger van? :+

[ Voor 13% gewijzigd door Sp3ci3s8472 op 11-12-2015 15:55 ]


Acties:
  • 0 Henk 'm!

  • aminam
  • Registratie: December 2012
  • Laatst online: 23-04 15:17
ja sorry dat was een beetje lax. volgens anandtech was de launchprijs van de 5870; 379 dollar maar het gros van de mensen kocht destijds de 5850 omdat die veel beter presteerde voor het geld.

B550 | R7 5800x3d | RX6950XT | Formd T1 | AW3423DW


Acties:
  • 0 Henk 'm!

  • haarbal
  • Registratie: Januari 2010
  • Laatst online: 17:36
Sp3ci3s8472 schreef op vrijdag 11 december 2015 @ 15:49:
Waarom wordt Mantle nog steeds met GameWorks vergeleken?
Zo gek is dat toch niet? Het was een poging van amd om hun kaarten meerwaarde te geven door middel van proprietary features.

Maar nvidia is evil, dus is gameworks verschrikkelijk en mantle supertof.

Mechwarrior Online: Flapdrol


Acties:
  • +1 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-04 19:12

Sp3ci3s8472

@ 12 graden...

haarbal schreef op vrijdag 11 december 2015 @ 16:18:
[...]

Zo gek is dat toch niet? Het was een poging van amd om hun kaarten meerwaarde te geven door middel van proprietary features.

Maar nvidia is evil, dus is gameworks verschrikkelijk en mantle supertof.
Ergens snap ik het ook wel maar het doet beide net wat anders. Daarom ook mijn uitleg, als GameWorks zoals Mantle zou werken (een apparte API naast DX11/de rest) dan had ik het net zo tof gevonden als Mantle. Hoewel je dan weer voor iedere fabrikant een aparte API hebt, ik ben ook blij dat AMD Mantle aan de Khronos Group heeft gedoneerd zodat er niet tal van API's komen.

De grote reden dat ik Mantle zo tof vind is dat het een probleem aanpakt wat gewoon een hele tijd is verwaarloost terwijl er voordat Mantle er was geen indicaties waren dat OpenGL of DX dit zou aanpakken, Mantle heeft uiteindelijk voor die push gezorgt.
Verwaarloost gewoon omdat er sinds volgens mij DX9 al trukjes zijn ontwikkelt om dit probleem te omzeilen, zoals instancing, in DX11 tesselation. Allemaal om meer detail en variatie op het scherm te toveren zonder dat de draw calls gigantisch toenemen.
Er is een grote reden dat de performance van console ports zo belabbert is. In de meeste gevallen is dat het aantal draw calls, de PS3 kon makkelijk 3-5x zoveel draw calls maken als een highend pc destijds. Met de komst van DX12 en Vulkan kan iets veel makkelijker geport worden en hoeven developpers veel minder rekening te houden met de draw call limiet.

Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Mantle is Open Source. Het heet alleen Vulkan, heeft een paar kleine aanpassingen gehad en wordt beheerd door de Khronos groep.

Voor de rest, is geen enkele gamer erbij gebaat dat Gameworks gemeengoed wordt. Waarom niet? Omdat nVidia met Gameworks bewust niet alleen zijn concurrenten buiten spel probeert te zetten, maar ook zijn eigen hardware van de vorige generatie(s), zodat mensen 'gedwongen' worden om een upgrade te maken naar de nieuwste generatie (Keplers prestaties lijden nog meer onder Gameworks dan AMD's hardware). Gameworks wordt door nVidia derhalve voor niets anders gebruikt dan om mensen te forceren meer geld aan nVidia hardware uit te geven.

De vraag is dan ook, hoe zeer zal Maxwell lijden onder Gameworks, wanneer Pascal op de markt komt.

Enfin, dit is het Radeon draadje en het ging over hoeveel duurder Fury X wel niet is en dat deze nog steeds trager is dan fabrieks overclocked 980Ti's (die overigens weer heel veel duurder zijn, maar daar wordt dan weer hard over gezwegen).

Acties:
  • 0 Henk 'm!

  • br00ky
  • Registratie: Januari 2014
  • Laatst online: 20:49

br00ky

Moderator Harde Waren
Modbreak:Even de bezem erdoor gehaald. Nu weer terug naar nieuws :9.

Acties:
  • +2 Henk 'm!

  • LongBowNL
  • Registratie: Juni 2009
  • Laatst online: 24-04 22:18

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:33
Mbt de prijsdiscussie. Er is wat mij betreft eerder een extra categorie bijgekomen van extreme kaarten (die bijna niemand koopt). Waaronder dus in ieder geval de Titan/ Fury's van deze wereld en misschien ook wel de 980 Ti e.d.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 09:22

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Jep, met de introductie van de 8800Ultra begonnen, dat is meer de kroon van de meeste snelle vga chip te hebben. En die fikten net zo snel door als de gewone 8800gtx broertjes :') :Y

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-04 19:12

Sp3ci3s8472

@ 12 graden...

Erg interessante blog post, aanrader!

Voor de mensen die hem willen lezen en een 404 krijgen, hij staat nog in de google cache en een iets ouder snapshot in de wayback machine.
http://web.archive.org/we...hy-im-excited-for-vulkan/

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Nu alleen nog een R9 390X met 4GB en het hele assortiment is beschikbaar met 4GB. Van R7 370 tot en met de R9 Fury X :P

Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 11:16

Trygve

Redacteur
http://www.pcper.com/revi...ourced-Gaming-Development

"OpenWorks" van AMD. Als ze de beloftes waarmaken is de Linuxgebruiker straks een stuk beter af.

Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 09:22

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Aparte naam keuze, een pun naar het gedrocht Gameworks?

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®


Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Vrij duidelijk ja, de marketing afdeling van AMD komt ook af en toe uit hun buro natuurlijk en het haakt mooi aan op het extreem gesloten karakter van GameWorks. EDIT: het was Huddy zijn uitspatting maar blijkbaar om het zo te noemen O-)

Ik ben wel benieuwd of ze Linux op een goed niveau kunnen krijgen, er is daar veel werk aan de winkel met een potentiële grote markt gezien Steam en de zeer breed inzetbare aard van Linux, van handheld tot signage.

[ Voor 10% gewijzigd door Phuncz op 15-12-2015 18:07 ]


Acties:
  • 0 Henk 'm!

  • dahakon
  • Registratie: April 2002
  • Laatst online: 28-04-2024
Iets geheel anders:

http://wccftech.com/amds-...cs-effects-and-libraries/

In het kort, dingen die in Gamebarelyworks™ zitten, maar dan met open, vrij te gebruiken API's (denk aan TressFX etc.)

Edit: hmmm, ik zie dat een uur of 2 eerder al een gelijkende post is geplaatst met andere bron... *boos kijkt naar zijn refresh knop*...

[ Voor 20% gewijzigd door dahakon op 15-12-2015 17:57 ]


Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 11:16

Trygve

Redacteur
SAiN ONeZ schreef op dinsdag 15 december 2015 @ 17:01:
Aparte naam keuze, een pun naar het gedrocht Gameworks?
Nee openworks is niet de officiële naam, was een grapje van Richard Huddy :) het heet GPUOpen.

Acties:
  • 0 Henk 'm!

  • SAiN ONeZ
  • Registratie: April 2004
  • Laatst online: 09:22

SAiN ONeZ

Ⅎnll-Ԁɹooɟǝp Ⅎool

Grapjassen daar @ ATi Headquarters, ik vond het wel een catchy keuze...

N47h4N|The secret to creativity is knowing how to hide your sources| Dyslexic atheists don't believe in doG! | ɯoǝʇ uıǝʇ ƃǝʞʞǝɹ ʍoɹpǝu ®


Acties:
  • 0 Henk 'm!

  • Help!!!!
  • Registratie: Juli 1999
  • Niet online

Help!!!!

Mr Majestic

In ieder geval weer een mooi initiatief van AMD.

Zou wel heel erg helpen als de volgende generatie GPU's duidelijk beter uit de tests komen dan nvidia en AMD marketshare stuk omhoog gaat.

PC Specs
Asus ROG Strix B650E-E | AMD 7700X | G-Skill 32GB DDR5 6000C30 M-die | 4090 FE | LG 38GN950-B 3840*1600p 160Hz | Corsair RM1000x Shift | WD Black SN850X 1TB M.2


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:33
AMD is goed bezig met de inhaalslag. Beter laat dan nooit :). Ben benieuwd of we nu dezelfde reacties gaan zien als toen ik voorstelde dat AMD met een gameworks tegenhanger moest komen (o.a. afdoen als ongewenst omdat er dan een tweedeling in de markt zou komen van nvidia en amd exclusive games). Of dat het nu oorverdovend stil blijft (of nog erger, het nu ineens een geweldig initiatief is :P ).

[ Voor 14% gewijzigd door sdk1985 op 15-12-2015 18:57 ]

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Ik snap niet waarom iedereen enthousiast is. Jullie zien toch dat nVidia met Gameworks nVidia kopers niet afschrikt met hun kut zooi. Zelfs de uitgevers/ontwikkelaars boeit het blijkbaar niet als Gameworks een extreem buggy, en dus eigenlijk onverkoopbare, game oplevert.

Dus wat zou dit initiatief dan uithalen? Ik heb namelijk het idee dat men bij dit soort initiatieve er standaard vanuit gaat dat het inferieur is aan de betaalde/gesloten alternatief. Zie ook hiervoor de Free-Sync vs G-Sync debat.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Hetgeen ik hieruit haal is niet de "AMD versie van GameWorks" maar de betere Linux ondersteuning, wat momenteel een spijtige zaak is.

[ Voor 3% gewijzigd door Phuncz op 15-12-2015 19:31 ]


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-04 19:12

Sp3ci3s8472

@ 12 graden...

madmaxnl schreef op dinsdag 15 december 2015 @ 19:22:
Ik snap niet waarom iedereen enthousiast is. Jullie zien toch dat nVidia met Gameworks nVidia kopers niet afschrikt met hun kut zooi. Zelfs de uitgevers/ontwikkelaars boeit het blijkbaar niet als Gameworks een extreem buggy, en dus eigenlijk onverkoopbare, game oplevert.

Dus wat zou dit initiatief dan uithalen? Ik heb namelijk het idee dat men bij dit soort initiatieve er standaard vanuit gaat dat het inferieur is aan de betaalde/gesloten alternatief. Zie ook hiervoor de Free-Sync vs G-Sync debat.
Als game developers hier serieus mee bezig gaan en nieuwe dingen creeren en dat ook weer onder OpenGPUGPUOpen uitbrengen dan kan dit groot worden en uiteindelijk GameWorks uit de markt drukken.
Dingen zoals SMAA zouden prima hieronder kunnen vallen aangezien dat ook open is.

Nvidia heeft misschien een goede "userbase" voor GameWorks maar is net zoals AMD maar een bedrijf en dus gelimiteerd aan wat ze kunnen uitgeven aan research.
Ze zijn niet de enige in de markt die research doen naar nieuwe effecten. Mensen bij Crystal Dynamics/Fireaxis/Crytek/Oxide Games/DICE/Eidos Montreal lopen ook vaak voorop op nieuwe technieken en zouden dit prima willen delen (althans hoop ik :+).
Bij elkaar kunnen die veel meer R&D leveren dan Nvidia in zijn eentje kan.

Nu is mijn verhaal natuurlijk de meest rooskleurige versie die er kan zijn en waarschijnlijk loopt het allemaal niet zo storm, overigens weet ik niet of al die developers in zijn. Ik weet alleen dat ze positief tegen Mantle waren en bijvoorbeeld ook TressFX gebruikten.

Wat betreft Freesync/Gsync. Freesync heeft in zijn korte levensduur al meer beeldschermen op de markt dan Gsync en de schermen zijn ook goedkoper. Het zal dus eerder gemeengoed worden.

[ Voor 4% gewijzigd door Sp3ci3s8472 op 15-12-2015 20:03 ]


Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Klopt, maar bij Free-Sync zie je dat het niet altijd consistent presteert. Free-Sync of de ene monitor is niet de Free-Sync op de andere monitor. Terwijl dit voor G-Sync wel geldt. Free-Sync kwaliteit/prestatie is afhankelijk van de gekozen hardware (fabrikant) en firmware (fabrikant). Het is helaas nog altijd wachten op de eerste fatsoenlijke Free-Sync monitoren test alvorens dat dit bevestigd zou kunnen worden.

Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-04 19:12

Sp3ci3s8472

@ 12 graden...

Een ander voorbeeld zou TressFX zijn, dat ziet er een stuk beter (mijn mening) uit als Hairworks en presteerd ook beter. Dat zou ik niet meteen ondermaats noemen.

Acties:
  • 0 Henk 'm!

  • MarvinJames
  • Registratie: November 2001
  • Laatst online: 23-04 00:29

MarvinJames

Theatermaker

Gooit AMD niet zijn eigen ruiten in door dit open te maken? Dan kan Nvidia er toch ook gewoon mee aan de slag?

Acties:
  • +1 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Aan de andere kant als ze het sluiten, schiet niemand er mee op. Want AMD is niet kapitaalkrachtig genoeg om het over dezelfde boeg te gooien als Nvidia, namelijk tech voorzien met veel ondersteuning en optimalisatie door concurrentie verbieden. Dat eerste hebben ze waarschijnlijk niet het budget voor en het tweede zou betekenen dat de uitgever het grootste deel van hun klanten slechtere prestaties zou opleveren.

Nee hoor, laat AMD maar doen waar ze goed in zijn, de gaming industrie voor iedereen vooruit willen helpen ipv. enkel hun eigen klanten.

Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 11:16

Trygve

Redacteur
Tsux schreef op dinsdag 15 december 2015 @ 21:33:
Gooit AMD niet zijn eigen ruiten in door dit open te maken? Dan kan Nvidia er toch ook gewoon mee aan de slag?
Als ik het goed begrijp is dat ook de bedoeling (of iig een goede uitkomst). Als nVidia ook op GPUOpen zit kunnen ontwikkelaars dus aan de slag met een software stack die geschikte is (te maken) voor alle hardware. Dat is dus een fundamenteel andere aanpak dan GameWorks, dat juist erg gesloten is voor iedereen behalve nVidia en ontwikkelaars die een contract tekenen.

Zoals PCPer het schetst is het zelfs te hopen dat nVidia mee gaat doen:
A community-driven software stack that includes robust tools and effects that work in multiple APIs that is compatible on all hardware (consoles, AMD, NVIDIA) and that all game developers can utilize and improve upon is the holy grail of an open and shared ecosystem. But can it actually exist?

Much of that depends on the market leader in the GPU space, NVIDIA. GeForce cards currently make up ~80% of the market and it is very difficult for AMD to make its case to game developers that they should spend time on GPUOpen code and tools, while also putting work back into the open community, when NVIDIA isn’t supporting or optimizing its code base for it. Add to that fact that NVIDIA is more than willing to give developers access to GameWorks, a collection of tools, effects and SDKs that is still currently ahead of AMD’s option in functionality, even though much of it is that dreaded “black box”, and you have a steep climb for GPUOpen to ascend.

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
nVidia en mee doen, ja aan de derde wereldoorlog en het liefst voorzien ze dan beiden kanten van munitie want dat levert ze meer geld op. nVidia doet alleen iets als het geld oplevert of de concurrentie ondermijnd. Dit levert ze geen geld op maar kost het ook niet, maar het speelt de concurrentie in de kaart door ze een keer niet te ondermijnen.

Acties:
  • 0 Henk 'm!

  • MarvinJames
  • Registratie: November 2001
  • Laatst online: 23-04 00:29

MarvinJames

Theatermaker

r100 schreef op dinsdag 15 december 2015 @ 21:51:
[...]
Als ik het goed begrijp is dat ook de bedoeling (of iig een goede uitkomst). Als nVidia ook op GPUOpen zit kunnen ontwikkelaars dus aan de slag met een software stack die geschikte is (te maken) voor alle hardware. Dat is dus een fundamenteel andere aanpak dan GameWorks, dat juist erg gesloten is voor iedereen behalve nVidia en ontwikkelaars die een contract tekenen.
Wat ik eigenlijk bedoel is het volgende.

Wat ik begrijp van de huidige situatie is dat je Nvidia hebt met GameWorks. Een unieke set tools die gesloten is. AMD kan er dus niks mee.

Wanneer AMD GPUOpen, ook een unieke set tools, helemaal vrijgeeft, dan kan Nvidia aan de slag met zowel GameWorks als GPUOpen en zit AMD nog steeds met alleen GPUOpen.

Dan heeft AMD toch helemaal niks gewonnen en Nvidia juist alles? Die hebben dan allereerst het standaard van AMD + hun eigen unieke features.

Of zie ik dit nu even verkeerd?

Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 11:16

Trygve

Redacteur
Ik weet ook niet of ik het juist zie, maar volgens mij is het de bedoeling die tools en libraries zo goed mogelijk en breed toepasbaar te maken dat het de 'lowest common denominator' wordt. Dan wordt het logisch om daar mee te ontwikkelen, het draait immers goed op kaarten van zowel AMD als nVidia. GameWorks zou dan niet van toegevoegde waarde zijn; alle effecten, trucjes en geintjes zijn met GPUOpen in de ideale situatie ook te bereiken.

Acties:
  • 0 Henk 'm!

Anoniem: 59888

Exclusieve techniek is voor klanten nooit goed. Als je een Nvidia kaart hebt is Gameworks leuk, maar het maakt voor jou geen klap uit of mensen met een AMD kaart die features ook kunnen gebruiken of niet. Voor mensen met een AMD kaart is het bagger omdat ze alle Gameworks features niet kunnen activeren. Kortom: voor Nvidia klanten voegt de exclusiviteit niks toe, maar voor AMD klanten is het wel vervelend.

Bij een open technologie kan iedereen het gebruiken, ongeacht welke merk GPU je hebt. Daar heeft niemand een nadeel van, maar is iedereen bij gebaat. Voor GPU kopers is GUPOpen dus goed nieuws. Maar alleen als Nvidia er voor zorgt dat e.e.a. ook goed draait op hun GPU's, gezien dat hun eigen Gameworks programma zou ondermijnen is het maar de vraag of ze dat gaan doen. :X In theorie is dat niet persé noodzakelijk, maar in de praktijk draaien dat soort dingen nooit echt lekker zonder steun van de GPU fabrikant.

Voor een ontwikkelaar zou het ook gunstig kunnen zijn, als GPUOpen op GPU's van beide fabrikanten draait hoef je e.e.a. maar een keer te implementeren. Als je kunt kiezen tussen het exclusieve Gameworks en GPUOpen dan zou de keuze dus heel makkelijk zijn en kies je voor GPUOpen. Tenzij iemand je een zeer dringende reden geeft om voor Gameworks te kiezen natuurlijk. *kuch*

Ik baal er nog steeds van dat Nvidia GPU-accelerated PhysX Nvidia-exclusief gemaakt heeft. Met GPU-accelerated PhysX zou je hele gave gameplay kunnen maken met allerlei objecten en vloeistoffen en weet ik niet wat. Maar omdat het exclusief is zou zo'n spel alleen op Nvidia kaarten draaien en daar begint niemand aan. Gevolg is dat GPU-accelerated PhysX alleen voor visuele effecten wordt gebruikt, en zelfs dat gebruikt bijna niemand. :( Ik hoop stiekem toch dat we ooit nog CPU's met veel cores krijgen waarvan er dan een of twee specifiek als physics-cores ontworpen zouden kunnen worden. * Anoniem: 59888 droomt lekker verder :z

[ Voor 9% gewijzigd door Anoniem: 59888 op 16-12-2015 00:00 ]


Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:33
Tja het is niet heel vreemd dat zaken als PhysX en Gameworks niet open zijn...

Nvidia heeft immers AGEIA Technologies overgenomen, PhysX was toen een kaart van €120 euro. Zie de review: https://www.techpowerup.c...G/Ageia_PhysX_Card/7.html . Daarna was het voor elke Geforce gebruiker gratis. Zou stupide zijn om eerst miljoenen neer te leggen voor Ageia en het dan met anderen te delen... Het was een strategische zet om een USP (unique selling point) te creëren.

Hetzelfde geldt eigenlijk voor gameworks. Het is een programma dat vooral gericht is op het leven van ontwikkelaars makkelijker maken. Ze bieden kant en klare effects die relatief eenvoudig kunnen worden geïmplementeerd. Daar stopt het echter niet, Nvidia komt ook bij je langs om te helpen met de implementatie. Dus ook daar wordt geld uitgegeven om een USP te creëren. Dat vrij geven zou een stomme zet zijn.

AMD oppert nu een "community driven" model. Als er op dat moment iets niet lukt dan moet je maar net geluk hebben dat de "community" zin heeft je te helpen. Bedrijfsmatig gezien is dat geen prettig model. Voor veel andere groepen is het echter wel ideaal.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

Anoniem: 59888

sdk1985 schreef op woensdag 16 december 2015 @ 00:14:
Tja het is niet heel vreemd dat zaken als PhysX en Gameworks niet open zijn...
Klopt, maar dat wil niet zeggen dat ik er blij mee moet zijn. Als AGEIA door iemand anders was overgenomen had er veel meer met die technologie gedaan kunnen worden. Wat visuele effecten (vaak weinig indrukwekkend) is echt een verspilling van die technologie. De mogelijkheden zijn veel groter maar door de Nvidia-exclusiviteit begint niemand er aan. En laten we eerlijk zijn, een handje vol games per jaar met wat visuele effecten is nou niet bepaald een USP. Er zijn veel redenen waarom je voor Nvidia zou kunnen kiezen, maar GPU-accelerated PhysX is er daar niet een van. Wat dat betreft zou ik de overname van AGEIA door Nvidia geen succes willen noemen eerlijk gezegd.
sdk1985 schreef op woensdag 16 december 2015 @ 00:14:
Hetzelfde geldt eigenlijk voor gameworks. Het is een programma dat vooral gericht is op het leven van ontwikkelaars makkelijker maken.
Ah ja, het aloude verhaaltje over het nobele Nvidia dat zo aardig is om ontwikkelaars een handje te helpen, met als enige nadeel dat het niet op AMD werkt omdat Nvidia AMD natuurlijk niet gaat helpen. Leuk bedacht, maar AAA games worden gemaakt door honderd of zelfs een paar honderd ontwikkelaars op engines die op hun beurt ook weer door vele mensen gemaakt worden. Die effecten zouden ze zelf ook prima toe kunnen voegen en dat handje vol ontwikkelaars van Nvidia is een druppel op een gloeiende plaat.

Het is gewoon een ouderwetse geldkwestie, leg een zak met geld op tafel en ineens gaan er een hoop deuren voor je open, zo gaat dat in het bedrijfsleven. Dat er vervolgens bij sommige games rare dingen gebeuren als je een AMD kaart in je PC hebt zitten zou na al die jaren toch niemand meer moeten verbazen, maar oogkleppen verkopen ook vandaag de dag nog altijd goed. ;)

Ik snap persoonlijk nooit dat mensen zich zo identificeren met het merk van hun grafische kaart. Ik vind AMD een mooi bedrijf, maar als ze iets doen waar ik niet blij van wordt hoor je mij dat echt niet goed praten. Ik voorzag een mogelijkheid voor Linux om eindelijk Windows het vuur aan de schenen te leggen met Mantle, in plaats daarvan werd het DX12 op Windows 10. Ook goed dacht ik, tot ik Windows 10 zelf uitprobeerde. Dag privacy, hallo OS wat mij vertelt hoe ik mijn PC mag gebruiken i.p.v. omgekeerd. Dat was dus heel snel weer terug naar Windows 7, maar zonder Windows 10 ook geen DX12 natuurlijk. En bedankt AMD. :(

Nee ik verwacht niet dat de Khronos Group met Vulkan ineens wel in staat zal zijn met Microsoft te concurreren. Helaas.

Acties:
  • 0 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:33
Anoniem: 59888 schreef op woensdag 16 december 2015 @ 07:49:
[...]

Klopt, maar dat wil niet zeggen dat ik er blij mee moet zijn. Als AGEIA door iemand anders was overgenomen had er veel meer met die technologie gedaan kunnen worden. Wat visuele effecten (vaak weinig indrukwekkend) is echt een verspilling van die technologie. De mogelijkheden zijn veel groter maar door de Nvidia-exclusiviteit begint niemand er aan. En laten we eerlijk zijn, een handje vol games per jaar met wat visuele effecten is nou niet bepaald een USP. Er zijn veel redenen waarom je voor Nvidia zou kunnen kiezen, maar GPU-accelerated PhysX is er daar niet een van. Wat dat betreft zou ik de overname van AGEIA door Nvidia geen succes willen noemen eerlijk gezegd.
Tja ik denk dat je het punt van PhysX hebt gemist. Het ging meer om cpu offloaden (en daarmee betere physx mogelijk maken). Vergeet niet dat we in die tijd te maken hadden met een stilstand in cpu land. Zo erg dat hier op tweakers zelfs een artikel verscheen dat snellere gpu's geen zin meer hadden: reviews: 2010: Nvidia en AMD nek aan nek . Er zijn een aantal games geweest waarbij Physx een flinke fps boost opleverde. Ik kan me er één herinneren waarbij het van 40 naar 60 fps ging. Dat was een racegame (een soort fast and furious game).

Uiteindelijk is dat concept van cpu offloading anders toegepast in de vorm van CUDA, waar iedereen NVidia voor gek mee verklaarde. Het ging immers te kostte van de game performance. Het heeft ze echter de Pro markt gebracht met bijbehorende marges.
[...]

Ah ja, het aloude verhaaltje over het nobele Nvidia dat zo aardig is om ontwikkelaars een handje te helpen, met als enige nadeel dat het niet op AMD werkt omdat Nvidia AMD natuurlijk niet gaat helpen. Leuk bedacht, maar AAA games worden gemaakt door honderd of zelfs een paar honderd ontwikkelaars op engines die op hun beurt ook weer door vele mensen gemaakt worden. Die effecten zouden ze zelf ook prima toe kunnen voegen en dat handje vol ontwikkelaars van Nvidia is een druppel op een gloeiende plaat.

Het is gewoon een ouderwetse geldkwestie, leg een zak met geld op tafel en ineens gaan er een hoop deuren voor je open, zo gaat dat in het bedrijfsleven. Dat er vervolgens bij sommige games rare dingen gebeuren als je een AMD kaart in je PC hebt zitten zou na al die jaren toch niemand meer moeten verbazen, maar oogkleppen verkopen ook vandaag de dag nog altijd goed. ;)
Heeft niks met nobel te maken, het hele programma kost geld. Programmeurs zijn niet gratis, ze on-site sturen al helemaal niet. Het zak geld argument is hier op tweakers al zo oud als de weg naar Rome, toch is er tot op heden nog nooit enige bewijs geleverd. Gaat ook eigenlijk niet als SEC gecontroleerd bedrijf, dan ga je de gevangenis in als CEO (voor omkopen). Als er geldstromen zijn dan moeten die netjes gemeld worden. Ik heb nooit iets kunnen vinden in de verslagen. Dat in een discussie betrekken om een punt te maken is een dooddoener.
Ik snap persoonlijk nooit dat mensen zich zo identificeren met het merk van hun grafische kaart. Ik vind AMD een mooi bedrijf, maar als ze iets doen waar ik niet blij van wordt hoor je mij dat echt niet goed praten. Ik voorzag een mogelijkheid voor Linux om eindelijk Windows het vuur aan de schenen te leggen met Mantle, in plaats daarvan werd het DX12 op Windows 10. Ook goed dacht ik, tot ik Windows 10 zelf uitprobeerde. Dag privacy, hallo OS wat mij vertelt hoe ik mijn PC mag gebruiken i.p.v. omgekeerd. Dat was dus heel snel weer terug naar Windows 7, maar zonder Windows 10 ook geen DX12 natuurlijk. En bedankt AMD. :(

Nee ik verwacht niet dat de Khronos Group met Vulkan ineens wel in staat zal zijn met Microsoft te concurreren. Helaas.
Juist als bedrijfskundige kan ik AMD geen mooi bedrijf vinden. Te slechte cijfers, te slechte keuzes. Als je alles optelt dan is het een bedrijf dat over de laatste 20 jaar alleen maar verlies heeft gecreëerd. Als je de jaarverslagen leest en 3-4 jaar achter elkaar ziet dat AMD opmerkt dat ze bij de videokaarten meer hadden kunnen verkopen indien de productiecapaciteit hoger had gelegen dan kan ik niet anders dan denken *facepalm*. Iederen middelbare scholier met economie zal AMD kunnen uitleggen dat ze bij beperkt aanbod de prijs moeten verhogen om zo hun winst te maximaliseren. Het heeft tot Southern Islands geduurd voordat AMD op dat idee kwam. Voor de consument is het gewoon jammer dat Ati Radeon nu onder de underdogs vallen. Dat was voor de overname wel anders (de Radeon 9800 Pro serie werd de rolls royce van de videokaarten genoemd).

Technisch kan ik hun producten natuurlijk wel mooi vinden :). AMD is een beetje een omgekeerde Apple; bedrijfskundig heel mooi ($$$) maar hardware technisch vaak beperkt (1 gb ram waar ook 3 prima kon voor 900 euro...).

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


Acties:
  • 0 Henk 'm!

  • Sp3ci3s8472
  • Registratie: Maart 2007
  • Laatst online: 19-04 19:12

Sp3ci3s8472

@ 12 graden...

sdk1985 schreef op woensdag 16 december 2015 @ 14:25:
[...]
Tja ik denk dat je het punt van PhysX hebt gemist. Het ging meer om cpu offloaden (en daarmee betere physx physics mogelijk maken). Vergeet niet dat we in die tijd te maken hadden met een stilstand in cpu land. Zo erg dat hier op tweakers zelfs een artikel verscheen dat snellere gpu's geen zin meer hadden: reviews: 2010: Nvidia en AMD nek aan nek . Er zijn een aantal games geweest waarbij Physx een flinke fps boost opleverde. Ik kan me er één herinneren waarbij het van 40 naar 60 fps ging. Dat was een racegame (een soort fast and furious game).

Uiteindelijk is dat concept van cpu offloading anders toegepast in de vorm van CUDA, waar iedereen NVidia voor gek mee verklaarde. Het ging immers te kostte van de game performance. Het heeft ze echter de Pro markt gebracht met bijbehorende marges.
Dat er zoveel performance winst ten opzichte van de cpu was kwam vooral omdat Nvidia geen enkele moeite heeft gestopt in het begin om de cpu code te optimaliseren. Volgens mij had Werelds hier een aantal posts over.

Een heleboel physics effecten die de gpu physx toevoegd zijn over de top en slaan nergens op. Het ziet er misschien leuk voor mensen die niks van physics weten maar echt realistisch is het niet (doelt bijvoorbeeld op het vliegende papier in Batman), overigens kan dit ook aan de developers liggen :P.

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Laten we ook niet vergeten dat die PhysX kaarten voor geen meter verkochten en daar mogen we blij om zijn. Wat Nvidia er dan mee gedaan heeft (of juist niet mee gedaan heeft), vind ik minder leuk. Havok is dan ook veel populairder geworden als Physics API.

Acties:
  • +2 Henk 'm!

  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 24-04 16:32
sdk1985 schreef op woensdag 16 december 2015 @ 14:25:
Tja ik denk dat je het punt van PhysX hebt gemist. Het ging meer om cpu offloaden (en daarmee betere physx mogelijk maken). Vergeet niet dat we in die tijd te maken hadden met een stilstand in cpu land. Zo erg dat hier op tweakers zelfs een artikel verscheen dat snellere gpu's geen zin meer hadden: reviews: 2010: Nvidia en AMD nek aan nek . Er zijn een aantal games geweest waarbij Physx een flinke fps boost opleverde. Ik kan me er één herinneren waarbij het van 40 naar 60 fps ging. Dat was een racegame (een soort fast and furious game).

Uiteindelijk is dat concept van cpu offloading anders toegepast in de vorm van CUDA, waar iedereen NVidia voor gek mee verklaarde. Het ging immers te kostte van de game performance. Het heeft ze echter de Pro markt gebracht met bijbehorende marges.
Je zit hier volledig fout.

PhysX (in huidige vorm) versnelt ten eerste bij lange na niet alle physics (graag de scheiding tussen PhysX en physics houden ;)), heeft dat nooit gedaan en zal dat ook nooit doen. Niet alle natuurkundige berekeningen laten zich versnellen door ze op te splitsen en hoogst parallel te doen.

Die performance boost waar jij het over hebt (Bang Bang Racing wellicht?) is gegarandeerd iets geweest waar een idioot aantal particles op het scherm getoverd werd. Dat zijn allemaal simpele berekeningen, maar in gigantische aantallen - dus ja, daar zal een GPU snel doorheen knallen.

Niemand verklaarde Nvidia voor gek met CUDA en het kwam ook niet voort uit PhysX of AGEIA. Het is juist andersom gegaan; Nvidia had CUDA al (2006) en was (net als ATI) bezig met physics via GPGPU. In plaats van dat laatste af te maken hebben ze echter AGEIA over genomen (2008) en de bestaande engine een CUDA layer gegeven. Het is ook CUDA waar ze de "pro" (HPC) markt mee hebben veroverd. Geen hond gebruikt daar PhysX of GameWorks.

Het probleem is echter dat AGEIA's hardware beter geschikt was (en eigenlijk nog steeds is). Een GPU werkt gemiddeld met meer latency dan AGEIA's hardware, waardoor de delen die op de GPU kúnnen lopen vrij veel impact hebben. Daarnaast zijn er simpelweg dingen waar een CPU nog steeds veel beter geschikt is dan een GPU; AGEIA's hardware zat dan ook ergens tussen een GPU en CPU in.

Het gevolg is dat Nvidia's versie van PhysX nog steeds 70% van het werk aan de CPU over laat. Er is in verhouding maar heel weinig dat GPU versneld wordt. De meeste games waar PhysX in zit zijn dus ook helemaal niet GPU versneld; er zijn met pijn en moeite 60 games met hardware (GPU) versnelling, waarvan een derde ook nog eens van vóór de overname stamt. Zal ik er voor de gein eens een paar opnoemen? Mag jij zeggen of je ziet wat al deze games gemeen hebben. Shattered Horizon, Sacred 2, Metro, Mafia II, Batman games, Borderlands 2, AC4. Stuk voor stuk games die nou niet bepaald bekend staan vanwege hun geweldige optimalisatie. En stuk voor stuk games waar de PhysX implementatie vooral om belachelijke effecten draait. De exploderende stapels papier in Batman (je kleine teen is erg sterk blijkbaar). De duizenden particles en brokstukken als je met een 9mm op een pilaar van gewapend beton schiet in Mafia 2. De gigantische rookwalm van de pistolen in AC4.

En weet je wat het mooiste is? Alles wat je nu ziet had AGEIA al, met uitzondering van het haar. Cloth, volumetric fog, particles - ze hadden het allemaal al. Het heeft 6 jaar geduurd tot Nvidia de CPU-code eens een beetje begon te optimaliseren (door SSE instructies te gebruiken bijvoorbeeld..of multi-threading, beide versie 3.1+ - meeste games zitten op 2.8.x) en daar hebben we in games nog steeds niet veel van gezien. Nvidia heeft echt geen sodemieter met die technologie gedaan.

Maar wacht! Het wordt nog veel erger. We weten allemaal wel dat de physics in de meeste games er niet veel op vooruit zijn gegaan in de laatste 10 jaar. Sterker nog, HL2 deed toen al meer dan de meeste games nu doen. En de meeste games die daadwerkelijk iets van physics hebben, gebruiken Havok. Zelfs AC4 gebruikt Havok voor alle physics - inclusief het water (de ironie :')). PhysX wordt alleen gebruikt voor de over-the-top effecten. PhysX GPU/GameWorks is gewoon uitzonderlijk inefficiënt en de notie dat men er niet alleen vrijwillig mee werkt, maar zelfs actief naar zoekt is gewoon belachelijk. PhysX GPU in games komt niet vanuit de developers. Dat komt vanuit de publishers en daar zitten marketing deals achter. En ja, dan zal Nvidia wel wat van hun mensen sturen om te helpen met de implementatie, ze krijgen er immers voor betaald.

Dat wil niet zeggen dat PhysX in z'n geheel een stuk stront is. De core zoals die in UE verwerkt zit is qua features (rigid-body / collisions) gewoon in orde - dit draait ook 100% op de CPU. Qua efficiëntie nog steeds geen Havok of Bullet, maar we hebben tegenwoordig genoeg CPU kracht daar voor. Nvidia claimt "300+ games" met PhysX, maar 75% gebruiken alleen deze core en voeren dan ook geen Nvidia logo. De games met de mooiste / leukste physics draaien stuk voor stuk op Havok. Ik hoef maar naar Red Faction te kijken. Ik wacht nog steeds op een TWIMTBP game die ook maar enigzins in de buurt van die games komt.


Dus nee, de overname van AGEIA heeft geen enkel positief effect gehad. Wat een positief effect gehad zou hebben is als Nvidia voor de verandering eens met ATI/AMD had samen gewerkt om tegen AGEIA op te boksen. PhysX en GameWorks zijn en blijven een grote grap. Zeker vergeleken met Havok heeft PhysX helemaal geen impact gehad op de industrie, behalve dan de negatieve aspecten die uit de marketing deals voort zijn gekomen.

Ik hoop dan ook van harte dat Microsoft flink wat geld in Havok gaat steken (voor het geval iemand dit nog niet wist: Intel was sinds 2007 eigenaar van Havok, sinds Oktober dit jaar is dat Microsoft). En als ze dat doen, is dat vooral in samenwerking met AMD. Overigens doet Havok meer dan alleen physics, er zijn ook tal games die hun AI (jawel) en cloth via Havok doen bijvoorbeeld (o.a. AC4 dus).

Acties:
  • 0 Henk 'm!

  • madmaxnl
  • Registratie: November 2009
  • Laatst online: 09-08-2022
Is MS nu eigenaar van Havok? Dat heb ik gemist maar is zeker een interessante ontwikkeling wetende dat Microsoft ook de Xbox One in zijn assortiment heeft.

Acties:
  • +1 Henk 'm!

  • sdk1985
  • Registratie: Januari 2005
  • Laatst online: 19:33
Nee hoor:
https://www.techpowerup.c...G/Ageia_PhysX_Card/4.html

Afbeeldingslocatie: https://tpucdn.com/reviews/BFG/Ageia_PhysX_Card/images/graph2.gif

De grote vraag was toen, zie review, of we met de opkomst van Multi-core cpu's niet een 3e of 4e core konden gebruiken voor realitsischere games:
Real interactivity was always an aspect in games, which designers tried to reach, but never achieved. First attempts were made with scripted interactivity within the virtual realm. Red Fraction is such an example. It boasts the possibilty of destroying certain walls and other items in the game, but was limited to how far and what you could destroy. In recent years with multi core CPUs the question arises if a second, third or fourth core could not be used to calculate real life interactivity within games to make them more realistic. While some game designers have taken that route to enable better artificial intelligence or unload certain tasks from the GPU unto the CPU, Ageia is the first company to actually offer a physics processing unit, or PPU.

...


While the adoption of GPUs has gone smoothly, as it did bring real and foremost simply implemented benefits, this is not the case with PPUs. The benefits are apparent when playing old games like Quake 1 on two identical systems with and without a dedicated 3D graphic card like the 3Dfx Voodoo. You had better effects with OpenGL back in the day, without a loss of overall performance. All you got were benefits, but no real draw backs. This is not as easy with PPUs as the physics calculations are done to a certain extent by the CPU. Physics computations are not an area which simply did not exist before the release of the Ageia PhysX PPU. The new processor can simply do them better, faster and also take the load off of a CPU, but the extra effects tend to tax the graphic card, thus reducing the overall frame rate delivered.
Waarmee ik overigens niet wil beweren dat de Nvidia PhysX implementatie een geweldige succes is... Ik geef alleen aan dat het in die tijd door de vertraagde cpu ontwikkelingen anders lag en het niet vreemd is dat het niet gratis wordt gedeeld met AMD.

Verder lijkt het mij dat je de plank volledig mis slaat door te stellen dat Nvidia met AMD had moeten samenwerken om tegen Ageia op te boksen, want het was natuurlijk een bedrijf van niets... Was het overname bedrag niet iets van 30 miljoen? De vooruitzichten voor het product waren toen ook positief omdat veel OEMs aangaven het te gaan gebruiken (zelfde bron).

Mbt Cuda: Tja de negatieve meningen mbt cuda zijn wel terug te vinden op o.a. tweakers :). Daar hoeven we toch niet over te discussiëren? De ontvangst van o.a. de GTX 260 was niet heel positief. AMD had in de volksmond toen echt wel de win te pakken met de 4870. Waarbij dus CUDA de zwarte piet kreeg toegeschoven.

Spel was overigens geen big bang racing :P . Het was volledig in de stijl van fast and the furious. Je kon echter ook powerups oppakken. Maar goed, dat was echt een uitzondering. In de overige 999 games had je niets aan PhysX.

Hostdeko webhosting: Sneller dan de concurrentie, CO2 neutraal en klantgericht.


  • Werelds
  • Registratie: Juli 2007
  • Laatst online: 24-04 16:32
sdk1985 schreef op woensdag 16 december 2015 @ 20:37:
Nee hoor:
https://www.techpowerup.c...G/Ageia_PhysX_Card/4.html

[afbeelding]

De grote vraag was toen, zie review, of we met de opkomst van Multi-core cpu's niet een 3e of 4e core konden gebruiken voor realitsischere games:
Oh, dat gold wel voor AGEIA's oplossing, maar na de overname niet hoor :)

Zoals ik al zei, er kan nu nauwelijks nog iets van de CPU weg gehaald worden. Rigid body? CPU. Cloth? CPU. Fluid? CPU. AGEIA kon dit op hun PPU wel gewoon aan, omdat hun "cores" geen simpele SIMD's waren. Het waren geen volwaardige CPU cores zoals wij die kennen, maar ze waren wel stukken krachtiger dan een shader zelfs nu is. Het ging dan ook om tientallen en geen honderden of duizenden zoals een GPU, maar wel nog meer dan een CPU zelfs nu nog heeft. Het geheel deed dan ook zo'n 20 miljard instructies per seconde (ter vergelijking; G80 deed er "slechts" zo'n 80-85 miljard), met 250 GB/s aan interne bandbreedte (cache). En dat was ook nog op 130nm, stel je voor wat er nu mogelijk zou zijn...vreemd genoeg is het juist Intel die het dichtst in de buurt is gekomen van wat AGEIA had, met Larrabee en de huidige aftreksels daarvan.
Waarmee ik overigens niet wil beweren dat de Nvidia PhysX implementatie een geweldige succes is... Ik geef alleen aan dat het in die tijd door de vertraagde cpu ontwikkelingen anders lag en het niet vreemd is dat het niet gratis wordt gedeeld met AMD.
Dat ze het niet delen begrijp ik vanuit een bedrijfs standpunt wel, maar dat neemt niet weg dat het nauwelijks invloed op de industrie heeft gehad. Het beetje invloed dat er uit is voort gekomen is slechts negatief.
Verder lijkt het mij dat je de plank volledig mis slaat door te stellen dat Nvidia met AMD had moeten samenwerken om tegen Ageia op te boksen, want het was natuurlijk een bedrijf van niets... Was het overname bedrag niet iets van 30 miljoen? De vooruitzichten voor het product waren toen ook positief omdat veel OEMs aangaven het te gaan gebruiken (zelfde bron).
Het was zeker een bedrijf van niets, maar in de twee jaar dat ze echt bezig waren hebben ze wel meer aandacht gekregen en meer "wins" binnen weten te slepen dan Nvidia in de eerste 4 jaar na de overname. Zelfs nu staat de teller van Nvidia in 7 jaar maar nét op 2 keer zo veel als AGEIA in 2 jaar tijd had bewerkstelligd. De UE3 implementatie stamt bijvoorbeeld al uit de AGEIA tijd.

Als AGEIA niet was over genomen hadden ze zeker wel meer impact gehad. Nvidia en AMD hadden niet voor niets al aangekondigd met hun eigen versnellingen te komen. Havok FX deed toen ook al via unified shaders kleine beetjes werk. Ik zeg niet dat Nvidia's zet strategisch niet slim was, ik zeg dat het voor de industrie en de consumenten beter was geweest als ze de concurrentie waren aangegaan. Dan had alles er nu stukken anders uitgezien ;)
Mbt Cuda: Tja de negatieve meningen mbt cuda zijn wel terug te vinden op o.a. tweakers :). Daar hoeven we toch niet over te discussiëren? De ontvangst van o.a. de GTX 260 was niet heel positief. AMD had in de volksmond toen echt wel de win te pakken met de 4870. Waarbij dus CUDA de zwarte piet kreeg toegeschoven.
Hè? Negatief in welke zin dan? Dat moet ik toch volledig gemist hebben, want CUDA is niet iets dat ook maar enige invloed op wat dan ook had, behalve de dingen die daadwerkelijk van CUDA gebruik maakten. En juist daar waren grote voordelen te vinden, zoals bij video (en-/de-)coderen :P
Spel was overigens geen big bang racing :P . Het was volledig in de stijl van fast and the furious. Je kon echter ook powerups oppakken. Maar goed, dat was echt een uitzondering. In de overige 999 games had je niets aan PhysX.
Hmmm..dat klinkt als een Criterion game, dus Burnout of een rip-off daarvan. Bij mijn weten heeft geen van de Burnouts iets van PhysX er in, maar Blur (rip-off) wel als ik het me goed herinner? :P

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

sdk1985 schreef op woensdag 16 december 2015 @ 14:25:
[...]

Vergeet niet dat we in die tijd te maken hadden met een stilstand in cpu land. Zo erg dat hier op tweakers zelfs een artikel verscheen dat snellere gpu's geen zin meer hadden: reviews: 2010: Nvidia en AMD nek aan nek
Geweldig om de bijna perfecte balans in marktaandeel te zien.

Hopelijk gebeurt er in 2016 hetzelfde.

Nvidia overschat Pascal op de haalbaarheid, en brengt een tweede GTX480 uit.

AMD profiteert van de investeringen die nu gedaan zijn.

Jeroenneman kan een GTX1060 halen voor 150 euro...

One can dream...

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340

Ligt eraan wat je onder een GTX 1060 verstaat. GP104, GP106 of GP107 en dan volledig ingeschakeld of meerdere stream processors uitgeschakeld?

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

-The_Mask- schreef op donderdag 17 december 2015 @ 15:12:
Ligt eraan wat je onder een GTX 1060 verstaat. GP104, GP106 of GP107 en dan volledig ingeschakeld of meerdere stream processors uitgeschakeld?
Als we de GTX480 als voorbeeld nemen, dan hoop ik natuurlijk op een flop qua x80 en x70, waarna ze opeens wel een goede x60 eruit kunnen halen. Met welke chip ze dat dan gaan doen, zal me werkelijk worst wezen.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340

Huh oké, nou een GP107 voor 150 euro moet wel mogelijk zijn. Zal het doorgeven aan nVidia dat ze een GP107 wel als GTX 1060 kunnen uitbrengen dan. :+ Men koopt schijnbaar toch gewoon op naam en niet op specs en prestaties. Je ziet het trouwens veel vaker, men wil schijnbaar ook liever een Ti kaart omdat het beter klinkt. Paar weken terug iemand nog op het forum welke graag een GTX 960 Ti wou, maar nadat het duidelijk was dat als deze chip zou komen het eigenlijk een GTX 970 LE zou zijn qua specs en ook prestaties was het ineens niks meer. 8)7

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

-The_Mask- schreef op donderdag 17 december 2015 @ 15:48:
Huh oké, nou een GP107 voor 150 euro moet wel mogelijk zijn. Zal het doorgeven aan nVidia dat ze een GP107 wel als GTX 1060 kunnen uitbrengen dan. :+ Men koopt schijnbaar toch gewoon op naam en niet op specs en prestaties. Je ziet het trouwens veel vaker, men wil schijnbaar ook liever een Ti kaart omdat het beter klinkt. Paar weken terug iemand nog op het forum welke graag een GTX 960 Ti wou, maar nadat het duidelijk was dat als deze chip zou komen het eigenlijk een GTX 970 LE zou zijn qua specs en ook prestaties was het ineens niks meer. 8)7
Hehe, ik bedoelde natuurlijk dat de onderliggende chip weinig uitmaakt, zolang de prestaties er niet onder lijden. Of ze de goede chip dan GP106, 107 of 666 noemen, zal me weinig uitmaken.

Hetzelfde gebeurde bij de GTX460. De GTX480 had flinke problemen, maar de mid-range kaart gebruikte een andere chip, en was een prima kaartje.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340

Juist aan de codenaam kun je veel zien, veel meer als aan de normale naam. En omdat 14 en 16nm FinFET een nieuw proces is kan zo maar zijn dat de high-end GPU niet gelanceerd wordt in de volgende generatie, maar pas de generatie daarna.

Dat is namelijk iets wat nVidia de laatste tijd vaker heeft gedaan. Dat betekent dus ook dat alles opschuift en een eventuele GTX 1060 helemaal niet zo snel hoeft te zijn. Kijk en praat dan ook over codenamen voor videokaarten welke er nog niet zijn. Dan is het tenminste duidelijk waar het over gaat.

Als nVidia immers alles één plaats op schuift en een GP107 uitbrengt als GTX 1060 is dit de opvolger van de GM107 en die zit in de GTX 745, 750 en 750 Ti. Zo'n kaart voor 150 euro is nu niet echt heel bijzonder.

Bitfenix Whisper 450W review
[PSU] Voeding advies en info
AMD Nieuwsdiscussie
AMD Radeon Info en Nieuwsdiscussietopic


  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

-The_Mask- schreef op donderdag 17 december 2015 @ 16:14:
Juist aan de codenaam kun je veel zien, veel meer als aan de normale naam. En omdat 14 en 16nm FinFET een nieuw proces is kan zo maar zijn dat de high-end GPU niet gelanceerd wordt in de volgende generatie, maar pas de generatie daarna.

Dat is namelijk iets wat nVidia de laatste tijd vaker heeft gedaan. Dat betekent dus ook dat alles opschuift en een eventuele GTX 1060 helemaal niet zo snel hoeft te zijn. Kijk en praat dan ook over codenamen voor videokaarten welke er nog niet zijn. Dan is het tenminste duidelijk waar het over gaat.

Als nVidia immers alles één plaats op schuift en een GP107 uitbrengt als GTX 1060 is dit de opvolger van de GM107 en die zit in de GTX 745, 750 en 750 Ti. Zo'n kaart voor 150 euro is nu niet echt heel bijzonder.
Tja, voorspellingen zijn toch niet te doen.

Misschien schrappen ze de hele GTX voorvoegsels wel. Wie weet.

Waar het eigenlijk op neer komt: Nvidia mag best eens een misser maken, als dat ten goede komt van de concurrentie, met als eindresultaat goedkopere chips voor iedereen. Echt spannend is het namelijk niet meer nu.

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Jeroenneman schreef op donderdag 17 december 2015 @ 18:05:
Echt spannend is het namelijk niet meer binnen GameWorks titels.
FTFY.

De Fury X en de 980 Ti wisselen elkaar toch regelmatig af aan de top in titels waar er geen overduidelijk verschil in optimalisatie te zien is, evenals de vergelijkbare kaarten eronder. Het enige dat niet spannend is, is het gebrek aan echt nieuwe ontwerpen van kaarten van beide kanten, maar dat voorspelde men al in 2014 door de aanhoudende issues met de fabs. Op dit vlak vond ik de Fury X juist vrij interessant met zijn small form factor met standaard waterkoeling en het eerste gebruik van HBM.

  • Jeroenneman
  • Registratie: December 2009
  • Laatst online: 03-05-2024

Jeroenneman

Pre-order/Early Acces: Nee!

Phuncz schreef op donderdag 17 december 2015 @ 18:11:
[...]

FTFY.

De Fury X en de 980 Ti wisselen elkaar toch regelmatig af aan de top in titels waar er geen overduidelijk verschil in optimalisatie te zien is, evenals de vergelijkbare kaarten eronder. Het enige dat niet spannend is, is het gebrek aan echt nieuwe ontwerpen van kaarten van beide kanten, maar dat voorspelde men al in 2014 door de aanhoudende issues met de fabs. Op dit vlak vond ik de Fury X juist vrij interessant met zijn small form factor met standaard waterkoeling en het eerste gebruik van HBM.
Toch apart dat binnen een AMD titel als Battlefield 4 Nvidia juist sterke resultaten neerzet. Eigenlijk moet AMD de komende generatie de push naar 4K doorzetten. Juist op hoge resoluties zijn ze sterker dan Nvidia. En ze moeten met Crimson eindelijk bewijzen dat ze wel degelijk goede software kunnen schrijven (als was de launch daar echt weer een typisch voorbeeld van wat je juist niet wil als bedrijf)

| Old Faithful | i7 920 @ (3,3Ghz) / X58 UD4P / GTX960 (1,550Mhz) / CM 690 | NOVA | i5 6600K (4,4Ghz) / Z170 Pro Gaming / GTX 960 (1,500Mhz) / NZXT S340


  • RobinHood
  • Registratie: Augustus 2011
  • Niet online

RobinHood

Bezorgder dan een postbezorger

Wees juist blij dat een AMD titel als battlefield gewoon lekker draait. Ik baal er behoorlijk van dat pCars voor geen zak loopt op AMD, ik vertik het dan ook om die game te kopen, speel wel Grid en Dirt, games van een dev die wel eerlijk is.

People as things, that’s where it starts.


  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ja inderdaad, BF4 werd AMD-favored gezien door de AMD Mantle support maar het laat duidelijk zien dat dit niet diepe optimalisaties door Nvidia verbiedde.

  • SG
  • Registratie: Januari 2001
  • Laatst online: 07:07

SG

SG surft naar info hardewaren

De R520 kon al gpgpu stuf doen toen in PPU tijd.
Havok ging daar op in met ontwikkelen van Havok FX.
Physics op gpu ATI of nV of whatever. GPU merk onafhankelijk. Ja dat zag er nogal veel belovend uit. Je vorige Gkaart erbij.

Larabee was intel mee bezig. En iNtel zag gpgpu toch ook bedreiging voor hun CPU dus nam havok over om HavokFX te killen. AMD die ATI opgekocht had kon niet veel.
Maar nV nam Ageia PHysX SDK over. Als reactie tegen iNtel.
Het is namelijk iNtel naaide AMD en nV.
Nvidia liep toen zwaar voor tov AMD en zag meer intel met larabee als bedreigen.
Was Larabee mogelijk sucses geweest zou nV samen met AMD mogelijk een front tegen Intel kunnen zetten.

Maar helaas larabee flopte daarvan is XeonPhi overgebleven.
En toen AMD in betere periode kwam ging de war tussen die twee verder. En werd PhysX voor de nV gpu car gespannen.

Dus het is goed teken dat Havok onder MS valt. Gpgpu support wordt niet meer geblokkeerd door intel.
Het geeft mij wel te denken. Wie eigenaar van libary is kan de boel flink dwars bomen. Ook end of life gaan van API kan ook een reden zijn om toch zelf iets te implementeren.

X399 Taichi; ThreadRipper 1950X; 32GB; VEGA 56; BenQ 32" 1440P | Gigbyte; Phenom X4 965; 8GB; Samsung 120hz 3D 27" | W2012SER2; i5 quadcore | Mac mini 2014 | ATV 4g | ATV 4K


Acties:
  • 0 Henk 'm!

  • Trygve
  • Registratie: Oktober 2009
  • Laatst online: 11:16

Trygve

Redacteur

Acties:
  • 0 Henk 'm!

  • Phuncz
  • Registratie: December 2000
  • Niet online

Phuncz

ico_sphere by Matthew Divito

Ik draai deze al een tijdje, toen ie dat voor sommigen belangrijke label niet had, op mijn 290X en alles doet wat ik ervan verwacht. Leuk om met een goede, feature-volle driver de kerstperiode in te kunnen !

Acties:
  • 0 Henk 'm!

  • br00ky
  • Registratie: Januari 2014
  • Laatst online: 20:49

br00ky

Moderator Harde Waren
En dan is deze dicht.
Pagina: 1 ... 9 10 Laatste

Dit topic is gesloten.